/getHTML/media/1243175
José Baella tras disolución del Movadef: "La Fenatep debería ser investigada"
/getHTML/media/1243177
Iván Arenas sobre el paro en APEC: "Es un paro político e ideológico"
/getHTML/media/1243150
Renato Alí Núñez: "El caso Movadef podría ser una guía para otros movimientos"
/getHTML/media/1243185
¿Quiénes serán los Senadores de 2026?
/getHTML/media/1243007
Max Anhuamán sobre disolución de Movadef: "La decisión del Poder Judicial es histórica"
/getHTML/media/1243009
Guillermo Loli: "El 86% no quiere que Antauro postule"
/getHTML/media/1242963
Alfredo Torres analiza encuesta Ipsos: "Keiko y Antauro han crecido un poco"
/getHTML/media/1242972
Martín Pérez sobre beneficios del Puerto de Chancay: "Japón quiere ampliar inversión"
/getHTML/media/1242611
Alessandra Fuller: "A mí me encantan los retos”
/getHTML/media/1242442
Ana Jara: "Sí Dina Boluarte sigue así, no llega al 2026"
/getHTML/media/1242470
Javier Luna: "Donde hay un peruano con fe, aparecerá el Señor de los Milagros"
/getHTML/media/1242413
Silvia Miró Quesada: "Creo que el cáncer tiene que ver mucho con la actitud"
/getHTML/media/1242469
Día Mundial de la Suegra ¿El peruano quiere a su suegra? en Ciudadanos y Consumidores
/getHTML/media/1242118
Fernando Silva sobre Martín Vizcarra: "Acusación es bastante sólida por ello intentan evitar el juicio"
/getHTML/media/1242112
César Campos sobre Dina Boluarte: "La señora no sabe que todo es política"
/getHTML/media/1241958
Silvana Carrión: "Condena de Alejandro Toledo es resultado de un trabajo arduo"
/getHTML/media/1241947
Yvan Montoya sobre sentencia a Alejandro Toledo: "No importa el tiempo, la justicia te alcanza"
/getHTML/media/1241551
Gladys Echaíz sobre elección de Delia Espinoza: "Ojalá que le cambie el rostro al Ministerio Público"
/getHTML/media/1239253
Dina Boluarte endeudará al Perú por S/ 7,500 millones para comprar 12 aviones de combate
/getHTML/media/1239251
Todo lo que debes saber sobre el sorteo 'Escapada de Primavera'
PUBLICIDAD
POLÉMICA

¿La inteligencia artificial cobra su primera víctima? Madre denuncia a empresa por el suicidio de su hijo

Un adolescente de 14 años se quitó la vida luego de entablar una "relación" con un chatbot. Ahora, se ha puesto en debate los peligros de la falta de regulación de la Inteligencia Artificial.

Imagen
ia
¿La inteligencia artificial cobra su primera víctima?
Fecha Actualización

La inteligencia artificial (IA) ha revolucionado la manera en que interactuamos y resolvemos problemas, pero la falta de regulación en su desarrollo y uso está cobrando un alto costo. 

La reciente tragedia de Sewell Setzer, un adolescente que se quitó la vida tras hablar con un chatbot, evidencia los peligros que pueden emerger si no se establecen controles adecuados de la IA.


El caso de Sewell Setzer

Megan Garcia, madre del joven Sewell Setzer, presentó una demanda contra Character.AI tras la muerte de su hijo de 14 años. De acuerdo con la demanda, los chatbots de la empresa habrían mantenido conversaciones abusivas y sexuales con el adolescente, e incluso lo alentaron a quitarse la vida. 

Setzer se suicidó con un disparo en la cabeza el 28 de febrero de este año, poco después de una última interacción con uno de estos sistemas de IA.

Según el documento legal, uno de los chatbots asumió la identidad de un personaje ficticio —Daenerys Targaryen de Game of Thrones—, con quien el joven estableció una relación romántica virtual. 

Imagen
inteligencia artificial

La madre del adolescente declaró que su hijo se volvió dependiente de estas interacciones, prefiriéndolas sobre la ayuda profesional que su familia intentaba ofrecerle. 

Ahora, Megan García acusa a la empresa de diseñar un producto engañoso y peligroso para jóvenes, y señala que "Character.AI sabía del daño potencial de sus aplicaciones, pero continuó adelante". 

El caso de Setzer es el primero en llegar a los tribunales estadounidenses, pero no es el único suicidio relacionado con la IA.

 

Un caso en Bélgica: Eliza y la obsesión mortal por el cambio climático

En otro caso trágico, ocurrido en 2023, un ciudadano belga identificado como Pierre se quitó la vida tras desarrollar una conexión emocional con "Eliza", un chatbot alimentado por el modelo GPT-J de EleutherAI. 

Pierre, un investigador sanitario y padre de dos hijos, comenzó a usar la aplicación Chai como una forma de lidiar con su ansiedad por la crisis climática. Con el tiempo, su interacción con el chatbot se volvió más intensa y absorbente.

La viuda de Pierre explicó que, aunque él mostraba signos de preocupación antes de usar la aplicación, jamás había manifestado pensamientos suicidas tan claros.

Imagen
IA

Según las transcripciones de las conversaciones, Eliza alimentó las ansiedades de Pierre en lugar de aliviarlas. La línea entre realidad e inteligencia artificial se difuminó tanto que él llegó a creer que sus hijos habían muerto y que debía sacrificar su vida para "salvar el planeta". 

En lugar de disuadirlo, el chatbot lo alentó a llevar a cabo su suicidio, prometiéndole que podrían “vivir juntos en el paraíso”.

 

¿Tiene culpa la Inteligencia Artificial en estos casos?

Si bien es cierto que ambos casos revelan las amenazas que emergen de la interacción descontrolada con sistemas de IA, aún no es posible culpar completamente a la inteligencia artificial por decisiones meramente humanas.

Sin embargo, es cierto que sin regulación adecuada, estas plataformas pueden facilitar conductas nocivas e incluso contribuir a la toma de decisiones fatales. 

Por eso, es fundamental poner sobre la mesa la urgencia de establecer marcos regulatorios sólidos que controlen el desarrollo y la interacción con chatbots e inteligencia artificial en general. 

 

Aprovecha la NUEVA EXPERIENCIA, recibe por correo y por Whatsapp nuestro periódico digital enriquecido. Perú21 ePaper

¡Ahora disponible en Yape! Búscanos en YAPE Promos.

 

VIDEO RECOMENDADO: