Ética de la IA: Qué es y por qué importa

francisco perez yoma

La ética en la inteligencia artificial (IA) en los avances tecnológicos puede ayudar a fomentar un mundo con menos sesgos y más equidad. Aquí te explicamos qué es y por qué es importante.

A medida que la inteligencia artificial (IA) se vuelve cada vez más importante para la sociedad, los expertos en el campo han identificado la necesidad de establecer límites éticos en la creación e implementación de nuevas herramientas de IA. Aunque actualmente no existe un organismo regulador a gran escala que redacte y haga cumplir estas normas, muchas empresas tecnológicas han adoptado su propia versión de la ética de la IA o un código de conducta para la IA.

¿Qué es la ética de la IA? 

La ética de la IA son los principios morales que las empresas utilizan para guiar el desarrollo y uso responsable y equitativo de la IA. Esto implica adoptar un enfoque seguro, humano y respetuoso con el medio ambiente para la IA.

Un código de ética sólido para la IA puede incluir evitar sesgos, garantizar la privacidad de los usuarios y sus datos, y mitigar los riesgos ambientales. Los códigos de ética en las empresas y los marcos regulatorios dirigidos por gobiernos son dos de las principales formas en que se pueden implementar estos principios. Al abordar cuestiones éticas globales y nacionales en la IA y sentar las bases políticas para una IA ética en las empresas, ambos enfoques ayudan a regular la tecnología de la IA.

En un sentido más amplio, la discusión sobre la ética de la IA ha pasado de centrarse en la investigación académica y las organizaciones sin fines de lucro. Hoy en día, grandes empresas tecnológicas como IBM, Google y Meta han formado equipos para abordar los problemas éticos que surgen de la recopilación masiva de datos. Al mismo tiempo, entidades gubernamentales e intergubernamentales han comenzado a desarrollar regulaciones y políticas éticas basadas en la investigación académica.

Partes interesadas en la ética de la IA 

Desarrollar principios éticos para el uso y desarrollo responsable de la IA requiere la colaboración de los actores de la industria. Las partes interesadas deben examinar cómo las cuestiones sociales, económicas y políticas se intersectan con la IA y determinar cómo las máquinas y los humanos pueden coexistir armoniosamente.

Cada uno de estos actores juega un papel importante para garantizar menos sesgos y riesgos en las tecnologías de IA.

  • Académicos: Los investigadores y profesores son responsables de desarrollar estadísticas basadas en teorías, investigaciones e ideas que puedan respaldar a gobiernos, corporaciones y organizaciones sin fines de lucro.

  • Gobierno: Las agencias y comités dentro de un gobierno pueden ayudar a facilitar la ética de la IA en una nación. Un buen ejemplo de esto es el informe "Preparing for the Future of Artificial Intelligence", desarrollado por el Consejo Nacional de Ciencia y Tecnología (NSTC) en 2016, que describe la IA y su relación con la divulgación pública, la regulación, la gobernanza, la economía y la seguridad.

  • Entidades intergubernamentales: Entidades como las Naciones Unidas y el Banco Mundial son responsables de crear conciencia y redactar acuerdos sobre la ética de la IA a nivel global. Por ejemplo, los 193 estados miembros de la UNESCO adoptaron el primer acuerdo global sobre la ética de la IA en noviembre de 2021 para promover los derechos humanos y la dignidad.

  • Organizaciones sin fines de lucro: Organizaciones como Black in AI y Queer in AI ayudan a que grupos diversos obtengan representación dentro de la tecnología de la IA. El Instituto para el Futuro de la Vida creó 23 directrices que ahora son los Principios de Asilomar para la IA, que describen riesgos, desafíos y resultados específicos para las tecnologías de IA.

  • Empresas privadas: Ejecutivos de Google, Meta y otras empresas tecnológicas, así como de sectores como la banca, consultoría, atención médica y otras industrias que utilizan tecnología de IA, son responsables de crear equipos de ética y códigos de conducta. Esto a menudo establece un estándar que otras empresas siguen.

¿Por qué es importante la ética de la IA?

La ética de la IA es importante porque la tecnología de IA está destinada a aumentar o reemplazar la inteligencia humana, pero cuando la tecnología se diseña para replicar la vida humana, los mismos problemas que pueden nublar el juicio humano pueden filtrarse en la tecnología.

Los proyectos de IA construidos sobre datos sesgados o inexactos pueden tener consecuencias dañinas, particularmente para grupos e individuos subrepresentados o marginados. Además, si los algoritmos de IA y los modelos de aprendizaje automático se desarrollan con demasiada rapidez, puede resultar incontrolable para los ingenieros y gerentes de producto corregir los sesgos aprendidos. Es más fácil incorporar un código de ética durante el proceso de desarrollo para mitigar cualquier riesgo futuro.

Ejemplos de ética en la IA 

Puede ser más fácil ilustrar la ética de la inteligencia artificial con ejemplos de la vida real. En diciembre de 2022, la aplicación Lensa AI utilizó inteligencia artificial para generar fotos de perfil con apariencia de caricatura a partir de imágenes comunes de las personas. Desde un punto de vista ético, algunas personas criticaron la aplicación por no dar crédito o suficiente dinero a los artistas que crearon el arte digital original en el que se entrenó la IA.

Otro ejemplo es el modelo de IA ChatGPT, que permite a los usuarios interactuar con él haciendo preguntas. ChatGPT recorre Internet en busca de datos y responde con un poema, código Python o una propuesta. Un dilema ético es que las personas están usando ChatGPT para ganar concursos de programación o escribir ensayos. También plantea preguntas similares a las de Lensa, pero con texto en lugar de imágenes.

Estos son solo dos ejemplos populares de ética en la IA. A medida que la IA ha crecido en los últimos años, influyendo en casi todas las industrias y teniendo un gran impacto positivo en sectores como la atención médica, el tema de la ética de la IA se ha vuelto aún más relevante. ¿Cómo aseguramos una IA libre de sesgos? ¿Qué se puede hacer para mitigar los riesgos en el futuro? Hay muchas soluciones potenciales, pero las partes interesadas deben actuar de manera responsable y colaborativa para crear resultados positivos en todo el mundo.

Desafíos éticos de la IA 

Existen muchos desafíos de la vida real que pueden ayudar a ilustrar la ética de la IA. Aquí solo unos pocos:

  • IA y sesgo: Si la IA no recopila datos que representen con precisión a la población, sus decisiones pueden ser susceptibles a sesgos. En 2018, Amazon fue criticada por su herramienta de reclutamiento de IA que degradaba currículums que contenían la palabra “mujeres” (como “Sociedad Internacional de Negocios para Mujeres”). En esencia, la herramienta de IA discriminaba contra las mujeres y causó un riesgo legal para el gigante tecnológico.

  • IA y privacidad: Como se mencionó anteriormente con el ejemplo de Lensa AI, la IA depende de datos extraídos de búsquedas en Internet, fotos y comentarios en redes sociales, compras en línea, y más. Aunque esto ayuda a personalizar la experiencia del cliente, surgen preguntas sobre la aparente falta de verdadero consentimiento para que estas empresas accedan a nuestra información personal.

  • IA y el medio ambiente: Algunos modelos de IA son grandes y requieren cantidades significativas de energía para entrenarse con datos. Aunque se está investigando para idear métodos para una IA energéticamente eficiente, se podría hacer más para incorporar preocupaciones éticas ambientales en las políticas relacionadas con la IA.

Cómo crear una IA más ética 

Crear una IA más ética requiere un examen minucioso de las implicaciones éticas de las políticas, la educación y la tecnología. Los marcos regulatorios pueden garantizar que las tecnologías beneficien a la sociedad en lugar de perjudicarla. A nivel global, los gobiernos están comenzando a imponer políticas para una IA ética, incluidas cómo las empresas deben manejar los problemas legales si surge un sesgo u otro daño.

Cualquiera que se encuentre con la IA debe comprender los riesgos y el impacto negativo potencial de una IA que sea poco ética o falsa. La creación y difusión de recursos accesibles puede mitigar este tipo de riesgos.

Puede parecer contradictorio usar tecnología para detectar comportamientos poco éticos en otras formas de tecnología, pero las herramientas de IA pueden usarse para determinar si un video, audio o texto (por ejemplo, discurso de odio en Facebook) es falso o no. Estas herramientas pueden detectar fuentes de datos poco éticas y sesgos de manera más eficiente que los humanos.

Traducido y adaptado de coursera.org