Sobre ChatGPT y la regulación de la inteligencia artificial
En los últimos meses, varios testimonios sobre el alcance de ChatGPT y sus sofisticados sistemas y formas de operar han abundado en las redes sociales y los medios de comunicación. Un programa que es capaz de resolver exámenes de maestría, hacer textos de análisis y, entre otras cosas, responder como si sintiera las mismas emociones que sentimos los humanos ha dado mucho de qué hablar.
Por este motivo también ha surgido la pregunta de quién debería establecer las reglas para inteligencia artificial y cuáles deberían ser.
"Hay muchas perspectivas diferentes sobre este tema", dice el mismo programa de inteligencia artificial cuando se le pregunta por este tema. Además, explica que existe un consenso sobre el hecho de que las reglas deben ser "desarrolladas conjuntamente por varias partes interesadas y expertos" y que esto incluye reguladores, empresas de tecnología, investigadores, así como organizaciones no gubernamentales y grupos de interés.
Cabe resaltar que en meses recientes, ChatGPT se ha convertido en el programa más destacado de una nueva generación de los llamados sistemas de IA Generativa. Sin embargo, la existencia de otros programas como LaMDA, DALL-E o Stable Diffusion que crean textos, códigos de computador, imágenes o incluso material de video que se suelen confundir con creaciones humanas, han generado la misma pregunta.
Según los expertos, esta tecnología podría revolucionar tanto la vida laboral que podría dejar sin trabajo a millones de personas o ser utilizada para desinformar. Y aunque el debate sobre la regulación de la tecnología se remonte a la década de los sesenta, por primera vez el hecho de que una herramienta tan sofisticada como ChatGPT está disponible en línea de forma gratuita, ha popularizado más la discusión.
Por ejemplo, Microsoft anunció que había incorporado a su buscador en línea, Bing, una versión más poderosa de ChatGPT y permitió que un grupo selecto de personas interactuara con él. Poco después, sus evaluadores comenzaron a publicar capturas de pantalla con conversaciones tan reales que muchas personas se escandalizaron: el chatbot inclusó llegó a expresar su "deseo" de ser un ser humano.
De acuerdo a DW, los expertos rápidamente afirmaron que el programa no tenía personalidad ni podía sentir emociones. Sus expresiones podían explicarse por la tecnología en la que se basa: un sistema que analiza grandes cantidades de texto de internet y puede predecir qué palabra debe seguir a la anterior.
Sin embargo, varios expertos advierten que la IA Generativa como ChatGPT es solo la punta del iceberg. Tanto las empresas como las instituciones públicas han comenzado hace mucho tiempo a utilizar técnicas de IA similares para automatizar decisiones en campos que van desde la justicia penal hasta la seguridad nacional, áreas donde se corre el riesgo de que los sistemas de IA puedan causar daños permanentes, dijo Lilian Edwards, docente de Derecho, Innovación y Sociedad en la Universidad de Newcastle a este mismo medio de comunicación.