/getHTML/media/1243175
José Baella tras disolución del Movadef: "La Fenatep debería ser investigada"
/getHTML/media/1243177
Iván Arenas sobre el paro en APEC: "Es un paro político e ideológico"
/getHTML/media/1243150
Renato Alí Núñez: "El caso Movadef podría ser una guía para otros movimientos"
/getHTML/media/1243185
¿Quiénes serán los Senadores de 2026?
/getHTML/media/1243007
Max Anhuamán sobre disolución de Movadef: "La decisión del Poder Judicial es histórica"
/getHTML/media/1243009
Guillermo Loli: "El 86% no quiere que Antauro postule"
/getHTML/media/1242963
Alfredo Torres analiza encuesta Ipsos: "Keiko y Antauro han crecido un poco"
/getHTML/media/1242972
Martín Pérez sobre beneficios del Puerto de Chancay: "Japón quiere ampliar inversión"
/getHTML/media/1242611
Alessandra Fuller: "A mí me encantan los retos”
/getHTML/media/1242442
Ana Jara: "Sí Dina Boluarte sigue así, no llega al 2026"
/getHTML/media/1242470
Javier Luna: "Donde hay un peruano con fe, aparecerá el Señor de los Milagros"
/getHTML/media/1242413
Silvia Miró Quesada: "Creo que el cáncer tiene que ver mucho con la actitud"
/getHTML/media/1242469
Día Mundial de la Suegra ¿El peruano quiere a su suegra? en Ciudadanos y Consumidores
/getHTML/media/1242118
Fernando Silva sobre Martín Vizcarra: "Acusación es bastante sólida por ello intentan evitar el juicio"
/getHTML/media/1242112
César Campos sobre Dina Boluarte: "La señora no sabe que todo es política"
/getHTML/media/1241958
Silvana Carrión: "Condena de Alejandro Toledo es resultado de un trabajo arduo"
/getHTML/media/1241947
Yvan Montoya sobre sentencia a Alejandro Toledo: "No importa el tiempo, la justicia te alcanza"
/getHTML/media/1241551
Gladys Echaíz sobre elección de Delia Espinoza: "Ojalá que le cambie el rostro al Ministerio Público"
/getHTML/media/1239253
Dina Boluarte endeudará al Perú por S/ 7,500 millones para comprar 12 aviones de combate
/getHTML/media/1239251
Todo lo que debes saber sobre el sorteo 'Escapada de Primavera'
PUBLICIDAD

Inteligencia Artificial: ¿Por qué un grupo de expertos consideran que es un gran riesgo para la humanidad?

Imagen
Fecha Actualización
Si el 2023 fue el año de la popularización de la Inteligencia Artificial, el 2024 fue el año de su consolidación. Sin duda fue la aparición de ChatGPT, la herramienta creada por Open AI, la “culpable” de su expansión o por lo menos que usuario hasta hace pocos ignorantes de tal tecnología comiencen a saber de ella e incluso, a usarla. A la fecha, son varias las herramientas de IA (que aprovechan algoritmos de aprendizaje automático y redes neuronales para imitar funciones cognitivas humanas) que ya forman parte del día a día. A ChatGPT se ha unido Google Bard, Dall-E. MIdjourney, entre otras.
Sin embargo, entre la euforia que existe por estos días, también han aparecido señales de alerta. Y no cualquiera. Hace unos días se conoció que un grupo de empleados actuales y anteriores de la ya famosa Open AI se sumaron a otros trabajadores de empresas de IA para advertir que esta tecnología planea graves riesgos para la humanidad.
Imagen

Son en total 13 personas las que firman esta carta dirigida a las empresas que están a la vanguardia del desarrollo de esta tecnología. En una mirada general, piden que el debate sobre este tema sea abierto, más incisivo y cuenten con una mayor supervisión. ¿Las razones? Explican que la IA puede exacerbar la desigualdad , aumentar la desinformación y permitir que los sistemas de IA se vuelvan autónomos y causen muertes significativas.
Tal como lo indica un informe de The Washington Post, estos reclamos ocurren mientras vemos la salida de trabajadores importantes de empresas como Open Ai, que tuvo que ver irse a su cofundador, Ilya Sutskever, y el investigador senior Jan Leike. El diario estadounidense cita a otro ex empleado de Open AI que señaló que dejó la compañía debido que no tomaban en cuenta los riesgos por la Inteligencia Artificial. “Perdí la esperanza de que actuaran de manera responsable, particularmente en lo que respecta a la inteligencia artificial general”, dijo el empleado.
Frente a la carta de advertencia sólo algunas compañías se animaron a dar comentarios. Liz Bourgeois, portavoz de OpenAI, dijo que la compañía está de acuerdo en que “un debate riguroso es crucial dada la importancia de esta tecnología”.

Imagen

ÉPOCAS DE DESINFORMACIÓN
Por otro lado, otro grupo de expertos hizo también un llamado de atención a la desinformación causada por el uso de la IA. En específico, precisa que esta tecnología permite generar millones de mensajes en pocas horas y discusiones falsas en foros, lo que multiplica a un coste menor el impacto de la desinformación y de las operaciones de injerencia extranjera.
En plenas elecciones en la Unión Europea (llevadas a cabo el último domingo), hubo “una masificación general” de contenidos procedentes del extranjero y la IA “es una nueva etapa en la cadena de automatización de esas publicaciones que permite masificar la producción”, explicó a la agencia AFP Valentin Chatelet, del laboratorio de análisis digital de Atlantic Council (DFRLab).
Por otro lado, según los datos del colectivo Antibot4Navalny, que rastrea las operaciones de influencia digital vinculadas a Rusia, miles de bots (cuentas automáticas) se utilizan diariamente para propaganda prorrusa en la red social X.
OpenAI indicó a finales de mayo que grupos de influencia rusos, chinos, iraníes y una “empresa comercial de Israel” utilizaron sus programas para intentar manipular la opinión pública en otros países. Los contenidos producidos abarcaban una “amplia gama de temas, entre ellos la invasión de Ucrania, el conflicto de Gaza (o) las elecciones indias” e incluían “principalmente texto y a veces imágenes, como dibujos” satíricos, según OpenAI.
El futuro de la IA, como vemos, continúa incierto. Quizás el camino más necesario sea el que plantean los exempleados de las grandes compañías tecnológicas: mayor debate y transparencia. El momento es ahora.


ESTE VIDEO TE PUEDE INTERESAR


TAGS RELACIONADOS