La tecnología y el uso de la IA, ha generado grandes avances en el mundo actual; sin embargo, también ha creado una nueva discusión en torno a la ética. En este post abordaremos el reto de los sesgos en la IA.
La gran cantidad de aplicaciones y el gran poder de transformación que supone el aumento del uso de la IA, presenta nuevos desafíos éticos. En este contexto, el desarrollo de una regulación para la inteligencia artificial se ha convertido en prioritario para muchas regiones.
Aunque no es un tema sencillo, en la Unión Europea se empiezan a esbozar algunos acuerdos en temas de regulación en el campo. España ha generado un primer borrador de un marco legal sobre el cual se incentiva a las empresas a invertir y crear IAs, con algunas reglas de juego definidas.

Dentro de las bases de regulación, se señala que siempre debe haber un humano detrás de las IA más sensibles. Es necesario tener siempre en cuenta el nivel de riesgo, principalmente, el humano debe hacer evaluaciones de dilemas éticos y generar control de sesgos.
Hemos visto muchos ejemplos de experimentos realizados, con el mecanismo de aprendizaje de las IA. Normalmente, el sistema se alimenta de datos históricos dando lugar a que los sesgos sean un riesgo latente y son una evidencia de todo el trabajo que queda por hacer.
A continuación, veremos una serie de ejemplos específicos que evidencian algunos de los sesgos a los que se enfrenta la IA.
Sesgo Racial – PULSE (Photo Upsampling via Latent Space Exploration)
En primer lugar, hablamos sobre PULSE. Consiste en una herramienta basada en inteligencia artificial capaz de “des-pixelar” nuestras fotos. El sistema te permite subir una imagen pixelada de muy baja calidad y la convierte en una fotografía realista.
Hasta aquí todo bien. ¿Dónde está el problema? Aunque en principio, es muy útil, la aplicación demostró que a la hora de aumentar la resolución, la IA producía con mayor frecuencia caras de personas blancas que de personas de color (aunque la original de baja resolución fuera una persona de color). En algunas ocasiones, cuando PULSE recibía imágenes de personas negras, latinas y asiáticas las convierten en blancas.
PULSE no llegó a la fama por sus capacidades, sino porque se hizo viral por uno de los resultados que ofrecía basado en una imagen de Barack Obama, ex-presidente de los EEUU.

Este no es el único ejemplo, lo mismo ocurrió con Lucy Liu, que deja de tener rasgos asiáticos.

Sesgo de Género – Selección Personal Amazon
En segundo lugar, hablamos sobre lo que ocurrió en Amazon. Hace algunos años, Amazon intentaba automatizar y agilizar el proceso de contratación a través de una IA. El sistema estaba diseñado para general un sistema de calificación por estrellas a cada candidato que permitía priorizar perfiles.
El proyecto sonaba como una gran idea. Sin embargo, el algoritmo se entrenó con el histórico de contrataciones de 10 años y la industria de la tecnología tradicionalmente ha tenido personal masculino, con lo que el algoritmo aprendió a priorizar hombres sobre mujeres.
Finalmente, Amazon descartó el proyecto ya que el proceso de contratación aún debe tener criterios adicionales en los cuales no se ha podido reemplazar a un reclutador tradicional.
Google Translate
Google Translate es otro ejemplo de sesgo de género. El traductor más usado del mundo, funciona con aprendizaje automático a través de ejemplos, utiliza textos ya traducidos en internet, para poder obtener el contexto de las frases y no solo de palabras.
Sin duda, Google Translate nos facilita la vida a todos, pero cuando se traduce desde idiomas neutros que no usan pronombres femeninos o masculinos, el traductor, que usa los datos disponibles en la red, tiende a estereotipar las traducciones por género.
Por ejemplo: El húngaro utiliza el pronombre “ő” para referirse a él o ella, el traductor toma la decisión de pronombre basado en los términos de mayor uso en la red. Dado esto, selecciona que el verbo cocinar se conjuga con el pronombre “ella” y la profesión de ingeniería se asocia con el pronombre “él”.

Sesgo de Equidad – Algoritmo de predicción de crimen
Por último, tenemos un ejemplo relacionado con la seguridad. Hace poco se publicó un artículo en JSTOR.org que resaltaba algunos de los desafíos y riesgos del uso de la IA al ser aplicada para prevenir y predecir el crimen.
El algoritmo predice dónde se van a cometer más crímenes, basados en datos históricos. Con esta información, la policía despliega una mayor cantidad de recursos en unas zonas determinadas, que se centran normalmente en barrios marginales. Esto genera un sesgo, ya que al aumentar la presencia policial en dichas zonas se descubren más delitos. Como estos datos alimentan nuevamente el sistema, se tiende a perpetuar estereotipos.

En resumen, los anteriores son solo algunos ejemplos de sesgos que se han encontrado en la ejecución de pruebas de algoritmos; sin embargo, aún nos espera un largo camino en desarrollo y reglamentación.
Citando a Audrey Azoulay, Directora General de la Unesco “El mundo necesita reglas para que la inteligencia artificial beneficie a la humanidad. La Recomendación sobre la ética de la IA es una respuesta importante.”
Como desarrolladores de IA, no le tememos al avance tecnológico, ya que somos conscientes de que el uso de estas nuevas herramientas supone grandes retos, pero sobre todo, una gran responsabilidad, en la cual el ser humano será ficha clave en la generación de valor y en la supervisión de la puesta en marcha y uso responsable de las distintas áreas de aplicación que pueda tener la IA.
En próximas publicaciones revisaremos otros temas relevantes con respecto a la ética en el uso de IA. Si tenéis algún comentario, duda o queréis sugerir algún tema de interés relacionado; no dudéis en escribirnos a consulta@komorebi.ai, estaremos encantados de escucharos.
Referencias: