El lado B de los chats que utilizan Inteligencia Artificial

Por Gabriel Rico Albarrán | febrero 24, 2023

El mundo mira y explora son asombro las capacidades de los chats que emplean Inteligencia Artificial y sus múltiples aplicaciones.

Sin embargo, esta tecnología trae consigo una serie de riesgos para la ciberseguridad, si se emplean para la creación de estafas o la construcción de programas malignos para ciberataques.

Por ahora, los dos chats más populares que usan Inteligencia Artificial son ChatGPT, de OpenAI; la misma tecnología es la que emplea Microsoft a través de su buscador, Bing y la competencia, Google Bard.

Recomendamos: Las 7 empresas con más patentes de inteligencia artificial

Los alcances negativos de los chats con IA

Satnam Narang, ingeniero senior de investigación en la firma de ciberseguridad Tenable, cuenta a la agencia de noticias EFE que los estafadores pueden ser unos de los grandes beneficiados por este tipo de tecnología.

Los chatbots permiten crear textos en cualquier idioma en cuestión de segundos y con una gramática perfecta.

chats inteligencia artificial 1
Foto: EFE/Sascha Steinbach

Según Narang, una de las maneras de identificar a estos estafadores es a través de las faltas gramaticales que cometen en los mensajes que envían a sus víctimas y que, si usan IA, podrán pasar más desapercibidos.

«ChatGPT puede ayudar (a los estafadores) a crear plantillas muy bien diseñadas para correos electrónicos o crear perfiles de citas cuando intentan estafar a los usuarios en aplicaciones de citas. Y cuando tengan una conversación (con la víctima) en tiempo real, los estafadores pueden pedirle a ChatGPT que les ayude a generar la respuesta que daría la persona por la que se intentan hacer pasar», anota Narang.

El experto señala que existen otros tipos de herramientas de inteligencia artificial como DALL·E 2 -también de OpenAI- en la que los estafadores pueden crear fotografías de personas que no existen.

Creación de ‘malware’

La agencia de noticias EFE señala que, otra de las cualidades de ChatGPT es que puede ayudar a piratas informáticos a crear programas malignos (o ‘malware’).

«Este malware no va a ser el más sofisticado ni el mejor diseñado, pero les da una comprensión básica de cómo pueden escribir software maliciosos basados en lenguajes específicos. Así que les da una ventaja en su proceso, ya que hasta ahora quien quisiera desarrollar software maliciosos tenía que aprender a programar, pero ahora el ChatGPT puede ayudarlos a acortar ese tiempo», detalla Narang.

Recomendamos: Las ciberamenazas contra los Ecosistemas OT están incrementando. ¿Estás realmente preparado?

chatsinteligencia artificial 2
Fuente: EFE/Jeroen Jumlet

DAN, una versión modificada de ChatGPT

Los chatbots ChatGPT y Bard están diseñados cuidadosamente para evitar pronunciarse sobre una amplia gama de temas delicados, como racismo o seguridad y respuestas ofensivas.

No obstante, Narang explica que ya existe una versión ‘jailbreak‘ (liberada o modificada) de ChatGPT que se llama DAN, siglas de “Do Anything Now” («Haz cualquier cosa ahora») en la que no existen este tipo de barreras.

«Esto es más preocupante, porque ahora (un usuario) podría pedirle al ChatGPT (sin límites) que lo ayude a escribir ransomware (programa que toma el control del sistema o dispositivo que infecta y pide un rescate para devolver el control a su dueño). Aunque aún no se sabe lo eficaz que podría llegar a ser ese ransomware«, explica Narang.

El experto ve difícil que se puedan implantar reglas a nivel nacional o institucional para poner límites a estas nuevas tecnologías o hacer que la gente no las use.

«Una vez que abres la caja de Pandora, no puedes volver a meter nada dentro. ChatGPT ya está aquí, y no va a desaparecer. Porque fuera de este uso malicioso hay muchos casos de usos genuinos que son valiosos para empresas, organizaciones e individuos», concluye Narang.

Gabriel Rico Albarrán

Recomendamos: Ranking internacional de ciberseguridad: RD, a la cabeza de América Latina

Suscríbete a la revista y regístrate a nuestros newsletters para recibir el mejor contenido en tu buzón de entrada.