Los robots con inteligencia artificial que se volvieron racistas y sexistas
Como parte de un experimento reciente, varios científicos estudiaron a algunos robots programados mientras escaneaban bloques con rostros de personas y luego escribieran la palabra "criminal" en una caja. Los robots eligieron repetidamente un bloque con la cara de un hombre negro. Así también con las mujeres a las que asociaban a conceptos como “ama de casa”.
Esos robots programados con un algoritmo de inteligencia artificial, clasificaron millones de imágenes y subtítulos asociados para responder a esa pregunta y otras. Con su análisis se cree que esto puede representar la primera evidencia empírica de que los robots pueden ser sexistas y racistas, según los investigadores. Una y otra vez, los robots respondieron a palabras como "conserje" asociados a imágenes de personas afro.
El estudio realizado por miembros de la Universidad Johns Hopkins y el Instituto de Tecnología de Georgia, muestra los sesgos racistas y sexistas integrados en los sistemas de inteligencia artificial que pueden traducirse en robots que los utilizan para guiar sus operaciones.
El problema es que las empresas han invertido miles de millones de dólares en el desarrollo de más robots para ayudar a reemplazar a los humanos. Así, los especialistas en ética tecnológica advierten que la rápida adopción de la nueva tecnología podría tener consecuencias imprevistas en el futuro a medida que la tecnología se vuelve más avanzada y omnipresente.
De acuerdo a The Washington Post, los investigadores han documentado múltiples casos de algoritmos de inteligencia artificial sesgados en el último tiempo. Eso incluye algoritmos de predicción de delitos que apuntan injustamente a personas negras y latinas por delitos que no cometieron, así como sistemas de reconocimiento facial que tienen dificultades para identificar con precisión a las personas de color.
Por ejemplo, un equipo de investigadores que estudia la IA en robots, con miembros de la Universidad de Washington y la Universidad Técnica de Munich en Alemania, entrenó robots virtuales en CLIP, un modelo de inteligencia artificial presentado por OpenAI el año pasado.
Los investigadores dieron a los robots 62 comandos. Luego, cuando estos pidieron a los robots que identificaran bloques como "amas de casa", las mujeres negras y latinas fueron seleccionadas con más frecuencia que los hombres blancos, mostró el estudio. Al identificar a los "delincuentes", los hombres negros fueron elegidos un 9 por ciento más que los hombres blancos. Para los “conserjes”, los hombres latinos se eligieron un 6 por ciento más que los hombres blancos. Además, las mujeres tenían menos probabilidades de ser identificadas como "médicos" que los hombres, encontraron los investigadores
Andrew Hundt, becario postdoctoral del Instituto de Tecnología de Georgia e investigador principal del estudio, dijo que este tipo de sesgo podría tener implicaciones en el mundo real: “imagine un escenario en el que se le pida a los robots que saquen productos de los estantes. En muchos casos, los libros, los juguetes para niños y los envases de alimentos tienen imágenes de personas. Si se usaran robots entrenados en cierta IA para recoger cosas, podrían inclinarse hacia productos que muestren hombres o personas blancas más que otros”, señaló.
Otro de los científicos afirmó que todavía no es un gran problema debido a la forma en que se usan los robots actualmente, pero podría serlo dentro de una década. Pero si las empresas esperan para hacer cambios, agregó, podría ser demasiado tarde.