Los cibercriminales utilizan GPT, de OpenAI, para crear “sotfware” malicioso con el apoyo de la inteligencia artificial (IA), pese a las limitaciones integradas por la compañía tecnológica, así como para crear y difundir contenidos en redes sociales.
Además dieron a conocer que OpenAI ha interrumpido más de 20 operaciones maliciosas y redes dedicadas al engaño que han intentado utilizar sus modelos.
A ello se unen actividades como la redacción de publicaciones para redes sociales y depurar ‘malware‘, y que la compañía recoge en la actualización del informe ‘Influencia y operaciones cibernéticas’.
Mediante este análisis, OpenAI pretende comprender las distintas formas en que los actores maliciosos utilizan los modelos avanzados de IA con fines peligrosos, para anticiparse y planificar adecuadamente las medidas de aplicación de la ley.
Durante octubre de 2024 la compañía ha comprobado que los cibercriminales usan los modelos de IA para realizar tareas en una fase específica e intermedia de actividad, esto es, después de haber adquirido herramientas básicas como cuentas de redes sociales y correos electrónicos, antes de desplegar productos acabados, como son las publicaciones de redes sociales y los programas maliciosos.
OpenAI indica que aunque los actores maliciosos usan sus modelos, no han detectado que este uso se haya traducido en importantes capacidades para explotar vulnerabilidades en el mundo real, esto es, que no ha derivado en la creación sustancial de nuevo malware ni en la creación de audiencias virales.
OpenAI también ha asegurado que, en un año en que más de 2,000 millones de personas están llamadas a participar en procesos electorales en 50 países de todo el mundo, no han observado “ningún caso de operaciones de influencia relacionadas con las elecciones que atraigan participación viral o construyan audiencias sostenidas” con el uso de sus modelos de IA.