Más de mil especialistas denunciaron a la compañía OpenAI, desarrolladora de ChatGPT, ante la Comisión de Comercio Federal de Estados Unidos (FTC, por su sigla en inglés), por considerar que su tecnología pone en riesgo la privacidad de las personas y la seguridad pública.
El Center for AI and Digital Policy (CAIDP) pidió a la FTC examinar a detalle la tecnología GPT-4 que utiliza el ChatGPT, pues no cumple con la garantía de “solidez empírica de los datos y de los modelos”, no con transparencia.
En su denuncia, los especialistas remarcaron que la tecnología usada por OpenAI no tiene las suficientes salvaguardas para evitar engaños y delitos, lo que representa “riesgos profundos para la sociedad y la humanidad”.
Los ciberriesgos
De acuerdo con Kaspersky, aunque se trata de una tecnología relativamente nueva, ChatGPT ya se está utilizando como cebo para propagar malware.
Según los expertos de la compañía de ciberseguridad, estafadores han creado grupos en redes sociales que, de forma convincente, imitan ya no cuentas oficiales de OpenAI, pero sí comunidades de entusiastas en las que publican mensajes muy persuasivos como que ChatGPT ha alcanzado el millón de usuarios más rápido que cualquier otro servicio. Al final del post hay un enlace para descargar supuestamente una versión de escritorio de ChatGPT.
Al dar clic, se instala un troyano nunca visto, a través del cual ciberdelincuentes obtienen credenciales de cuentas almacenadas en Chrome, Edge, Firefox, Brave, CôcCôc (popular en Vietnam) y otros navegadores.

Empresas requieren estrategias integrales de ciberseguridad por phishing cada vez más sofisticado

Pese a su inteligencia artificial, ChatGPT tiene riesgos

Resurge “Xenomorph”, troyano que puede suplantar la app de tu banco

Detectan presencia del troyano HiatusRAT en México; afecta enrutadores de pymes
No sólo eso, Esed, empresa de ciberseguridad, advirtió que, a través de ChatGPT, hackers pueden crear scripts enfocados a mercados de la dark web, plataforma que se utilizan para la compraventa de productos o bienes ilegales, como, por ejemplo, medicamentos, información confidencial, etc.
Panda Security alertó que la herramienta de OpenAI permite que los usuarios “mejoren” códigos de virus, pese a que el desarrollador añadió “límites” para los usuarios.
“Se establecieron protocolos de seguridad para identificar solicitudes inapropiadas, pero los ciberdelincuentes están intentando saltarse estos protocolos y, en algunos casos, se ya se ha conseguido, por lo que presumiblemente, sí se podría llegar a mejorar el código de un virus”, expuso Hervé Lambert, Global Consumer Operations Manager de Panda Security.
Igualmente, permite crear correos de phishing persuasivos, personalizados y masivos. De este modo, Kaspersky prevé que los ataques de éxito basados en este modelo de Inteligencia Artificial crecerán.
Te puede interesar: ¡Que no te sorprendan! La ciberseguridad de tu entorno digital está en tus manos
Igualmente, abre paso a la desinformación generalizada, pues se podría utilizar para generar noticias falsas o mensajes en las redes sociales diseñados para influir en la opinión pública o perturbar unas elecciones. Además, cualquier tema podría manipularse.
En ese sentido, otro riesgo que observa Panda Security es el ‘doxing’ para dañar a empresas y manipular el mercado.
“Por un lado, podría socavar la reputación e imagen digital de una empresa o personalidad pública o, por otro lado, podría utilizarse para afectar a los precios de las acciones y causar pérdidas financieras a los inversores”, acentuó Lambert.
A lo anterior de añade la posibilidad de suplantación de identidad, pues puede transformar la forma en que las personas interactúan con otros o comparten datos.
“Un ciberdelincuente podría utilizar el modelo para crear un perfil falso en las redes sociales o un chatbot que parezca ser una persona real, y luego utilizarlo para llevar a cabo estafas y robo de credenciales y datos bancarios”.
También podrían desarrollarse bots capaces de copiar la voz, imagen, movimientos gestuales y corporales, la forma de actuar y de hablar de una persona real.
er