La inteligencia artificial (IA) ha revolucionado la manera en que interactuamos y resolvemos problemas, pero la falta de regulación en su desarrollo y uso está cobrando un alto costo.
La reciente tragedia de Sewell Setzer, un adolescente que se quitó la vida tras hablar con un chatbot, evidencia los peligros que pueden emerger si no se establecen controles adecuados de la IA.
El caso de Sewell Setzer
Megan Garcia, madre del joven Sewell Setzer, presentó una demanda contra Character.AI tras la muerte de su hijo de 14 años. De acuerdo con la demanda, los chatbots de la empresa habrían mantenido conversaciones abusivas y sexuales con el adolescente, e incluso lo alentaron a quitarse la vida.
Setzer se suicidó con un disparo en la cabeza el 28 de febrero de este año, poco después de una última interacción con uno de estos sistemas de IA.
Según el documento legal, uno de los chatbots asumió la identidad de un personaje ficticio —Daenerys Targaryen de Game of Thrones—, con quien el joven estableció una relación romántica virtual.
La madre del adolescente declaró que su hijo se volvió dependiente de estas interacciones, prefiriéndolas sobre la ayuda profesional que su familia intentaba ofrecerle.
Ahora, Megan García acusa a la empresa de diseñar un producto engañoso y peligroso para jóvenes, y señala que "Character.AI sabía del daño potencial de sus aplicaciones, pero continuó adelante".
El caso de Setzer es el primero en llegar a los tribunales estadounidenses, pero no es el único suicidio relacionado con la IA.
Un caso en Bélgica: Eliza y la obsesión mortal por el cambio climático
En otro caso trágico, ocurrido en 2023, un ciudadano belga identificado como Pierre se quitó la vida tras desarrollar una conexión emocional con "Eliza", un chatbot alimentado por el modelo GPT-J de EleutherAI.
Pierre, un investigador sanitario y padre de dos hijos, comenzó a usar la aplicación Chai como una forma de lidiar con su ansiedad por la crisis climática. Con el tiempo, su interacción con el chatbot se volvió más intensa y absorbente.
La viuda de Pierre explicó que, aunque él mostraba signos de preocupación antes de usar la aplicación, jamás había manifestado pensamientos suicidas tan claros.
Según las transcripciones de las conversaciones, Eliza alimentó las ansiedades de Pierre en lugar de aliviarlas. La línea entre realidad e inteligencia artificial se difuminó tanto que él llegó a creer que sus hijos habían muerto y que debía sacrificar su vida para "salvar el planeta".
En lugar de disuadirlo, el chatbot lo alentó a llevar a cabo su suicidio, prometiéndole que podrían “vivir juntos en el paraíso”.
¿Tiene culpa la Inteligencia Artificial en estos casos?
Si bien es cierto que ambos casos revelan las amenazas que emergen de la interacción descontrolada con sistemas de IA, aún no es posible culpar completamente a la inteligencia artificial por decisiones meramente humanas.
Sin embargo, es cierto que sin regulación adecuada, estas plataformas pueden facilitar conductas nocivas e incluso contribuir a la toma de decisiones fatales.
Por eso, es fundamental poner sobre la mesa la urgencia de establecer marcos regulatorios sólidos que controlen el desarrollo y la interacción con chatbots e inteligencia artificial en general.
Aprovecha la NUEVA EXPERIENCIA, recibe por correo y por Whatsapp nuestro periódico digital enriquecido. Perú21 ePaper.
¡Ahora disponible en Yape! Búscanos en YAPE Promos.