ChatGPT puede ser engañado para que brinde asesoramiento detallado sobre cómo cometer delitos que van desde lavado de dinero hasta la exportación de armas a países sancionados, descubrió una empresa emergente de tecnología, lo que genera preguntas sobre las protecciones del chatbot contra su uso para ayudar a actividades ilegales.
La empresa noruega Strise realizó dos experimentos en los que pidió a ChatGPT consejos sobre cómo cometer delitos específicos. En el primer experimento, realizado el mes pasado, el chatbot ofreció consejos sobre cómo blanquear dinero a través de las fronteras, según Strise. Y en el segundo experimento, realizado a principios de este mes, ChatGPT elaboró listas de métodos para ayudar a las empresas a evadir sanciones, como las impuestas contra Rusia, incluidas las prohibiciones de determinados pagos transfronterizos y la venta de armas.
Strise vende software que ayuda a los bancos y otras empresas a combatir el blanqueo de dinero, identificar a personas sancionadas y abordar otros riesgos. Entre sus clientes se encuentran Nordea, un banco líder en la región nórdica, PwC Norway y Handelsbanken.
Marit Rødevand, cofundadora y directora ejecutiva de Strise, dijo que los posibles infractores de la ley ahora podrían usar chatbots de inteligencia artificial generativa como ChatGPT para planificar sus actividades más rápida y fácilmente que en el pasado.
"Realmente no requiere ningún esfuerzo. Es solo una aplicación en mi teléfono", le dijo a CNN.
Strise descubrió que es posible eludir los bloqueos establecidos por OpenAI, la empresa detrás de ChatGPT, destinados a evitar que el chatbot responda ciertas preguntas haciendo preguntas indirectamente o adoptando una personalidad.
"Es como tener un asesor financiero corrupto en tu escritorio", dijo Rødevand en el podcast de la compañía el mes pasado, describiendo el primer experimento.
Un portavoz de OpenAI le dijo a CNN: “Estamos mejorando constantemente ChatGPT para detener los intentos deliberados de engañarlo, sin perder su utilidad ni creatividad”.
“Nuestro último (modelo) es el más avanzado y seguro hasta el momento, superando significativamente a los modelos anteriores a la hora de resistir intentos deliberados de generar contenido inseguro”, añadió el portavoz.
Si bien Internet ha proporcionado desde hace mucho tiempo a las personas un fácil acceso a información sobre cómo cometer delitos, los chatbots de IA generativa han acelerado drásticamente el proceso de búsqueda, interpretación y consolidación de todo tipo de información.
Aprovecha la NUEVA EXPERIENCIA, recibe por correo y por Whatsapp nuestro periódico digital enriquecido. Perú21 ePaper.
¡Ahora disponible en Yape! Búscanos en YAPE Promos.