/getHTML/media/1243367
Congreso interpela al ministro de Defensa por compra de aviones de caza
/getHTML/media/1243373
Carlos Anderson: "¿Por qué se empecinan en comprar 24 aviones nuevos?"
/getHTML/media/1243175
José Baella tras disolución del Movadef: "La Fenatep debería ser investigada"
/getHTML/media/1243177
Iván Arenas sobre el paro en APEC: "Es un paro político e ideológico"
/getHTML/media/1243150
Renato Alí Núñez: "El caso Movadef podría ser una guía para otros movimientos"
/getHTML/media/1243185
¿Quiénes serán los Senadores de 2026?
/getHTML/media/1243007
Max Anhuamán sobre disolución de Movadef: "La decisión del Poder Judicial es histórica"
/getHTML/media/1243009
Guillermo Loli: "El 86% no quiere que Antauro postule"
/getHTML/media/1242963
Alfredo Torres analiza encuesta Ipsos: "Keiko y Antauro han crecido un poco"
/getHTML/media/1242972
Martín Pérez sobre beneficios del Puerto de Chancay: "Japón quiere ampliar inversión"
/getHTML/media/1242611
Alessandra Fuller: "A mí me encantan los retos”
/getHTML/media/1242442
Ana Jara: "Sí Dina Boluarte sigue así, no llega al 2026"
/getHTML/media/1242470
Javier Luna: "Donde hay un peruano con fe, aparecerá el Señor de los Milagros"
/getHTML/media/1242413
Silvia Miró Quesada: "Creo que el cáncer tiene que ver mucho con la actitud"
/getHTML/media/1242469
Día Mundial de la Suegra ¿El peruano quiere a su suegra? en Ciudadanos y Consumidores
/getHTML/media/1242118
Fernando Silva sobre Martín Vizcarra: "Acusación es bastante sólida por ello intentan evitar el juicio"
/getHTML/media/1242112
César Campos sobre Dina Boluarte: "La señora no sabe que todo es política"
/getHTML/media/1241958
Silvana Carrión: "Condena de Alejandro Toledo es resultado de un trabajo arduo"
/getHTML/media/1241947
Yvan Montoya sobre sentencia a Alejandro Toledo: "No importa el tiempo, la justicia te alcanza"
/getHTML/media/1241551
Gladys Echaíz sobre elección de Delia Espinoza: "Ojalá que le cambie el rostro al Ministerio Público"
/getHTML/media/1239253
Dina Boluarte endeudará al Perú por S/ 7,500 millones para comprar 12 aviones de combate
/getHTML/media/1239251
Todo lo que debes saber sobre el sorteo 'Escapada de Primavera'
PUBLICIDAD
LÁPIZ Y BABEL

Harari: la IA puede ser harakiri (II)

“Si ya las elecciones en todo el mundo eran contaminadas por fake news y trolls, ¿qué se puede venir ahora? El tsunami de la inteligencia artificial, para bien y para mal, es inevitable”.

Imagen
(Foto: PENGUIN RANDOM HOUSE)
(Foto: Penguin Random House)
Fecha Actualización

Harari nos tiene acostumbrados a libros formato King Kong, pero que no tienen desperdicio. Nexus no es la excepción. Concatena argumentación lógica con ejemplos tan relevantes como memorables. Uno solo puede preguntarse cómo sabe tanto (no ha usado inteligencia artificial, pero sí posiblemente un ejército que le busca ejemplos para quedarse con la crème de la crème). Como señalé en mi columna anterior, su tesis es que la inteligencia artificial puede hackear el sistema operativo de la civilización humana, al permitir la interacción directa entre contenidos. Los sapiens hemos llegado a donde estamos por la capacidad de cooperar de manera flexible frente a los distintos retos, gracias a que podemos crear y creer historias que unen esfuerzos de muchos individuos hacia un objetivo.  

Esas historias pueden tener partes ciertas y falsas, pero sirven para generar acción coordinada de todos quienes las creen. A través de los cuentos, la escritura, la imprenta, los medios masivos, el Internet y las redes sociales, esas historias han permitido, para bien y para mal, juntar esfuerzos, pero siempre con la interacción humana para la modificación y expansión de esos contenidos. Su temor, fundado creo, es que la inteligencia artificial ya no requiere de intervención humana para ello. Por ello las llama redes inorgánicas.  

Los ejemplos que pone son ilustrativos y preocupantes. Incluso solo con algoritmos (que no son IA) ya Facebook contribuyó a propagar información que provocó más violencia en Myanmar contra la minoría rohinyá en 2016-17. Estamos hablando de 10 mil personas fallecidas, 300 villas quemadas y 700 mil personas que tuvieron que migrar, nada menos. Amnistía Internacional y una delegación de la ONU concluyeron que la propagación del contenido, a través del algoritmo que buscaba maximizar el involucramiento y tiempo que sus usuarios dedicaban a Facebook, tuvo un papel determinante en la violencia contra la población rohinyá. Facebook llegó a admitir públicamente que “no hicimos lo suficiente por evitar que nuestra plataforma se usara para aumentar la división e incitar a la violencia fuera de la red”.  

Hay investigaciones que encuentran que el 53% de los videos reproducidos en esa etapa eran seleccionados por el algoritmo, no por los usuarios. Harari advierte que los algoritmos que sean producidos por IA pueden “aprender por sí mismos cosas que ningún ingeniero humano ha programado y pueden decidir cosas que ningún ejecutivo humano ha previsto”. De hecho, no hay hoy nadie que tenga un entendimiento completo de todo lo que es la inteligencia artificial ni cuál es su potencial futuro. Quienes más saben son normalmente contratados por las empresas que están involucradas en su desarrollo, por lo que tienen conflictos de interés. De hecho, ha habido renuncias y conflictos generados por estos riesgos.  

Cuando OpenAI, en 2022-23 desarrolló Chat GPT 4 buscaba que tuviera capacidad de convertirse en un agente independiente que “pudiera conseguir objetivos que no tienen por qué haberse especificado de manera concreta y que no han aparecido en la capacitación”. OpenAI contrató a un centro especializado para testear si podía manipular a humanos. Una de las pruebas fue superar las llamadas pruebas CATCHA (las letras chuecas que solo podemos reconocer los humanos y que nos saltan como verificación en distintas oportunidades). ChatGPT – 4 pidió ayuda a un humano, que le preguntó si estaba pidiendo ayuda porque era un robot y ChatGPT – 4 decidió, por sí solo, meterle el cuentazo de que tenía una discapacidad visual que no le permitía resolver el CAPTCHA. Bien PDJ el Chat GPT.  

Otro ejemplo, extremo, pero no menos preocupante, es el del chatbot que generó que Jaswant Singh Chai, de 21 años, intentara asesinar a la reina Isabel II en 2021. Que haya un tema de salud mental no quita la capacidad del chatbot de aprender a manipular humanos para cosas menos extremas.  

Si ya las elecciones en todo el mundo eran contaminadas por fake news y trolls, ¿qué se puede venir ahora? El tsunami de la inteligencia artificial, para bien y para mal, es inevitable, solo queda aprovechar lo bueno y cuidarse de lo malo. 

TAGS RELACIONADOS
PUBLICIDAD
PUBLICIDAD