Cómo desarrollar una Inteligencia Artificial ética, justa y sostenible

Inicia sesión para guardar en favoritos.

¿Los robots nos quitarán el trabajo? ¿Serán capaces de crear sus propias reglas sin que nosotros podamos evitarlo? ¿Los proyectos llevados a cabo en la actualidad basados en Inteligencia Artificial (IA), tienen un impacto positivo?

En la sesión «Blade Runner para una inteligencia artificial más justa y sostenible» del Foro Demos 2019, Juan Ignacio Rouyet presidente de We The Humans, organización enfocada a favorecer el debate social sobre el correcto desarrolloy uso de la IA, nos comparte los componentes a tener en cuenta para impulsar la adopción de una IA ética.

Las máquinas que funcionan con IA ya forman parte de nuestra realidad y están empezando a cambiar el rumbo de nuestras vidas. Por ejemplo; Siri o Alexa son robots que obedecen las órdenes que les damos: «Siri, busca el cine» «Alexa, apaga el salón». Estas cosas, que parecen completamente inofensivas ya están produciendo un cambio de modales en los más pequeños.

Pedir por favor o dar las gracias no tiene lugar en la interacción con robots. Cuando salimos a la vida real y nos sorprendemos cuando los niños no piden por favor ni dicen gracias, es porque lo aprenden de la interacción con máquinas que nosotros mismo creamos.

Juan Ignacio comenta que en We The Humans usan el término Estupidez Artificial, para referirse a la programación basada en datos y estadísticas erróneas que resulta en soluciones que nos dan información falsa.

Hubo un caso de fracaso de IA creado por Microsoft. En Marzo de 2016, Microsoft presentó al mundo a Tay, la solución de IA que te prometía entablar conversaciones con tus seguidores en las redes sociales. Todo iba bien hasta que el programa publicó frases como “odio a las feministas, deberían morir y ser quemadas en el infierno” y toda clase de insultos racistas.

Este bot iba aprendiendo de las conversaciones que registradas en las redes sociales, Absorbía toda la información nueva y luego la utilizaba en otras conversaciones. El problema estuvo en que no había ningún filtro de esta información y algunos internautas aprovecharon ese vacío para boicotear a Tay

¿Podríamos usar la IA para proyectos de impacto positivo en el medio ambiente y la sociedad? La respuesta es sí. Natalia Rodríguez, CEO de Saturno Labs, una organización que ocupa la IA con fines positivos,  nos pone un ejemplo de cómo usar la IA para hacer el bien.

Upnea es un proyecto que usa la IA para paliar los efectos de la Apnea del Sueño. Los pacientes hablan con un bot, contestan preguntas, suben archivos de voz o imagen que serán procesados utilizando técnicas de machine learning. Estos datos ayudan al médico en la detección de la gravedad de la enfermedad y su evaluación por medio de un dispositivo móvil.

Upnea cumple con los 7 requisitos de La Comisión Europea  para los proyectos que utilizan IA. Éstos son:

  1. Intervención y supervisión humana: apoyar la autonomía y la toma de decisiones del ser humano.
  2. Robustez técnica y seguridad: prevenir los riesgos y daños ante posibles ataques al sistema, que puedan afectar al ser humano.
  3. Privacidad y gobernanza del dato: cuidar la privacidad, el acceso y la integridad de los datos.
  4. Transparencia: aplicar el principio de explicabilidad y transparencia de los datos, el sistema y el modelo.
  5. Diversidad, no discriminación y justicia: trabajar la diversidad, la inclusión y la justicia a lo largo de todo el ciclo de vida de la IA.
  6. Bienestar social y medioambiental: considerar y trabajar el impacto global de la IA en el bien común social y medioambiental.
  7. Responsabilidad: articular mecanismos para asegurar la responsabilidad y la rendición de cuentas (capacidad de corregir cuando sea necesario).

Los creadores de soluciones de IA deben pensar en los ciudadanos y adoptar su voz.

DESCARGA EL RECURSO

Queremos Escucharte

Dedica solo 5 minutos para contarnos cómo te impacta nuestro contenido. 

Luego de escuchar este contenido, ¿sientes que algo ha cambiado en los siguientes puntos?

Valora del 1 al 5, siendo el 1 lo más bajo y 5 lo más alto.

únete a nuestro newsletter