IA traducida con prejuicios

IA traducida con prejuicios

Tecnología y Juegos

el Inteligencia Artificial (IA) ya es parte de nuestra vida cotidiana. Smartphones, smart homes y ciudades inteligentes acompañan nuestras vidas. Los sistemas de IA también se utilizan en procedimientos de reclutamiento, diagnósticos médicos y sentencias judiciales. ¿Eso es positivo? Las opiniones difieren al respecto. Una cosa es más importante: hay riesgos. Aquí puede sortear lo que nos trae y por qué es posible que tengamos que tener cuidado con las traducciones automáticas una vez más.

Futuro de la IA: ¿robots asesinos o Nirvana?

Muchos investigadores pintan de negro: Pronto, los robots se vuelven autosuficientes y borran toda la humanidad. Bueno, eso puede ser un poco pesimista, pero ciertamente tenemos que tener en cuenta el impacto en nuestra sociedad. Las previsiones más optimistas sugieren que la IA contribuirá con 15 billones de dólares a la economía mundial para 2030. ¿Qué significa esto? ¡Nirvana social para todos nosotros!

Los sistemas de IA aumentan los sesgos sociales

Siempre hemos luchado con diferencias sociales. Los sistemas de IA están contribuyendo más a esto. ¿Necesitas ejemplos?

  • Las traducciones automatizadas ofrecen resultados sexistas.
  • El reconocimiento de imágenes con IA clasifica a las personas de piel oscura como gorilas.
  • Si los datos policiales para la detención se automatizan con un sistema de IA y hasta ahora los agentes de policía han discriminado a los extranjeros, el sistema discrimina al mismo tipo de persona.

Estos casos son devastadores y surgen de los sistemas que utilizan modelos matemáticos que utilizan grandes cantidades de datos humanos. Si estos están distorsionados socialmente, estos prejuicios se reproducen inevitablemente. El desequilibrio social se agrava. 

Ejemplo claro: evitar traducciones distorsionadas – ¿es eso posible?

Todos los sistemas modernos de traducción automática (por ejemplo, Google Translate) están entrenados en pares de conjuntos. Hay muchos sesgos de género. En general, el 70 por ciento de los pronombres específicos de género en las máquinas de traducción son hombres, mientras que sólo el 30 por ciento son mujeres. Las proyecciones dicen que aI produce más de mil millones de declaraciones traducidas sexistamente. Todos ellos tendrían que ser eliminados del conjunto de datos si impidiéramos que el sistema escupiera sentencias discriminatorias. ¿Suena simple? Si una persona pasara sólo cinco segundos leyendo cada una de las frases mal traducidas en los datos de entrenamiento, tomaría 159 años – día y noche, sin descanso.

¿Hay una solución?

Es una pena que aún no haya funcionado. De hecho, si las tecnologías de IA fueran menos sesgadas que nosotros, podrían ayudarnos a reconocer y combatir nuestros propios prejuicios.
Ciertamente deberíamos trabajar para garantizar que los sistemas de IA expongan nuestros prejuicios. Por lo tanto, los desarrolladores de IA deben lidiar intensamente con las consecuencias sociales de los sistemas que crean. Probablemente subestimen lo que puede ser de él.


Was sagst du? Klicke auf die Emoji!

Cooles Smily von Man On A MissionCool
Lachendes Smily von Man On A MissionHaha
Ich will Smily von Man On A MissionIch will
Wow Smily von Man On A MissionWow
Wütendes Smily von Man On A MissionWütend

© MAN ON A MISSION. All rights reserved | |

  • Blackberry KeyONE sorprende a todos