Harari nos tiene acostumbrados a libros formato King Kong, pero que no tienen desperdicio. Nexus no es la excepción. Concatena argumentación lógica con ejemplos tan relevantes como memorables. Uno solo puede preguntarse cómo sabe tanto (no ha usado inteligencia artificial, pero sí posiblemente un ejército que le busca ejemplos para quedarse con la crème de la crème). Como señalé en mi columna anterior, su tesis es que la inteligencia artificial puede hackear el sistema operativo de la civilización humana, al permitir la interacción directa entre contenidos. Los sapiens hemos llegado a donde estamos por la capacidad de cooperar de manera flexible frente a los distintos retos, gracias a que podemos crear y creer historias que unen esfuerzos de muchos individuos hacia un objetivo.
Esas historias pueden tener partes ciertas y falsas, pero sirven para generar acción coordinada de todos quienes las creen. A través de los cuentos, la escritura, la imprenta, los medios masivos, el Internet y las redes sociales, esas historias han permitido, para bien y para mal, juntar esfuerzos, pero siempre con la interacción humana para la modificación y expansión de esos contenidos. Su temor, fundado creo, es que la inteligencia artificial ya no requiere de intervención humana para ello. Por ello las llama redes inorgánicas.
Los ejemplos que pone son ilustrativos y preocupantes. Incluso solo con algoritmos (que no son IA) ya Facebook contribuyó a propagar información que provocó más violencia en Myanmar contra la minoría rohinyá en 2016-17. Estamos hablando de 10 mil personas fallecidas, 300 villas quemadas y 700 mil personas que tuvieron que migrar, nada menos. Amnistía Internacional y una delegación de la ONU concluyeron que la propagación del contenido, a través del algoritmo que buscaba maximizar el involucramiento y tiempo que sus usuarios dedicaban a Facebook, tuvo un papel determinante en la violencia contra la población rohinyá. Facebook llegó a admitir públicamente que “no hicimos lo suficiente por evitar que nuestra plataforma se usara para aumentar la división e incitar a la violencia fuera de la red”.
Hay investigaciones que encuentran que el 53% de los videos reproducidos en esa etapa eran seleccionados por el algoritmo, no por los usuarios. Harari advierte que los algoritmos que sean producidos por IA pueden “aprender por sí mismos cosas que ningún ingeniero humano ha programado y pueden decidir cosas que ningún ejecutivo humano ha previsto”. De hecho, no hay hoy nadie que tenga un entendimiento completo de todo lo que es la inteligencia artificial ni cuál es su potencial futuro. Quienes más saben son normalmente contratados por las empresas que están involucradas en su desarrollo, por lo que tienen conflictos de interés. De hecho, ha habido renuncias y conflictos generados por estos riesgos.
Cuando OpenAI, en 2022-23 desarrolló Chat GPT 4 buscaba que tuviera capacidad de convertirse en un agente independiente que “pudiera conseguir objetivos que no tienen por qué haberse especificado de manera concreta y que no han aparecido en la capacitación”. OpenAI contrató a un centro especializado para testear si podía manipular a humanos. Una de las pruebas fue superar las llamadas pruebas CATCHA (las letras chuecas que solo podemos reconocer los humanos y que nos saltan como verificación en distintas oportunidades). ChatGPT – 4 pidió ayuda a un humano, que le preguntó si estaba pidiendo ayuda porque era un robot y ChatGPT – 4 decidió, por sí solo, meterle el cuentazo de que tenía una discapacidad visual que no le permitía resolver el CAPTCHA. Bien PDJ el Chat GPT.
Otro ejemplo, extremo, pero no menos preocupante, es el del chatbot que generó que Jaswant Singh Chai, de 21 años, intentara asesinar a la reina Isabel II en 2021. Que haya un tema de salud mental no quita la capacidad del chatbot de aprender a manipular humanos para cosas menos extremas.
Si ya las elecciones en todo el mundo eran contaminadas por fake news y trolls, ¿qué se puede venir ahora? El tsunami de la inteligencia artificial, para bien y para mal, es inevitable, solo queda aprovechar lo bueno y cuidarse de lo malo.