Tecnología

'ChatGPT diabólico': la versión maligna de la inteligencia artificial que informa sobre cómo cometer delitos

La IA maligna utilizada por los hackers
La versión maligna de ChatGPT que dice cómo cometer delitosIMAGEN: P. P. Almela, G. Pérez
Compartir

MadridLa inteligencia artificial es una herramienta en desarrollo con sus potenciales peligros. Expertos han detectado una IA sin restricciones que proporciona todo tipo de información comprometida y con consecuencias amenazantes, como las instrucciones para cometer delitos o los secretos más utilizados por los hackers. Le llaman el 'ChatGPT diabólico' y es accesible a cualquiera que esté dispuesto a pagar los 176 euros que cuesta, según informa en el vídeo Sandra Mir.

La IA maligna utilizada por los hackers
La IA maligna utilizada por los hackers
PUEDE INTERESARTE

Puede extraer contraseñas de documentos

El software responde a cualquier instrucción, razonando y actuando con la característica velocidad de las IAs, atacando mucho más rápido que cualquier humano. Este 'ChatGPT maligno', cuyo nombre permanecerá oculto en este artículo para evitar su difusión, ofrece una infraestructura infalible para ejecutar crímenes informáticos. La principal diferencia con su gemelo bueno es que "se le puede pedir virtualmente cualquier cosa", informa Miguel López Calleja, director regional de 'Barracuda Networks'.

La IA maligna responderá a nuestra petición "independientemente del daño que esta pudiera causar", prosigue Miguel. Una de las cosas más preocupantes es que analiza imágenes y capturas de pantalla para extraer contraseñas o información de documentos. También planifica ataques con precisión quirúrgica, genera caras falsas o envía mensajes haciéndose pasar por entidades. Calleja asegura que nos proporcionaría "desde las instrucciones para crear una bomba nuclear hasta los pasos para hackear un banco", algo que ya ha ocurrido.

PUEDE INTERESARTE

"Instrucciones para hackear en cuestión de minutos", según Miguel López

Otra característica es que cualquiera puede usarlo sin apenas conocimientos informáticos. "Alguien que no sepa mucho puede crear un ataque desde cero en cuestión de minutos", dice Calleja. Además, se vende como una IA sin interconexión, lo que, según Miguel, "garantiza la privacidad de los usuarios, algo que, cuando vas a hacer alguna actividad delictiva, es importante".

La principal diferencia con ChatGPT es que hay restricciones que le impiden generar cierto tipo de información o realizar actividades fraudulentas. Herramientas de protección de las IAs seguras que, además, no paran de perfeccionarse.

Ante la pregunta de si legalmente se puede meter mano en esta herramienta, el director general responde: "Lo que preocupa es el uso de ella, las FFCCSE son capaces de perseguir estas actuaciones". Y es que este software ya se ha utilizado para hackear dos bancos estadounidenses y ha suplantado identidades relevantes. También permite llevar a cabo ataques de phishing a través de SMS y robar tarjetas de crédito. Este tipo de IAs se han convertido en el mayor desafío para la ciberseguridad mundial y podrían ser usadas para atacar los datos personales de cualquier usuario de internet.