La colaboración entre Microsoft y OpenAI ha revelado un preocupante fenómeno: la utilización de ChatGPT, un modelo de lenguaje de gran escala, por parte de ciberdelincuentes para mejorar sus ataques. Esta práctica plantea un riesgo significativo para la seguridad en línea, ya que el perfeccionamiento del cibercrimen podría comprometer la protección de los usuarios en cualquier momento.
La investigación conjunta ha revelado cómo diversas organizaciones criminales han comenzado a aprovechar ChatGPT y otros modelos de lenguaje similar. Estos sistemas, basados en inteligencia artificial, tienen la capacidad de generar textos coherentes y persuasivos a partir de una entrada inicial, como una palabra o una frase, gracias al aprendizaje profundo y al procesamiento del lenguaje natural.
Los ciberdelincuentes están utilizando estos modelos para optimizar sus ataques en diversos ámbitos, desde la ciberseguridad hasta la manipulación de información. Se ha identificado la participación de grupos de diferentes nacionalidades, incluyendo Rusia, Corea del Norte, Irán y China. Estos grupos están empleando la inteligencia artificial para entender protocolos de comunicación y mejorar la eficacia de sus acciones.
La recolección, interpretación y procesamiento de información también están siendo objeto de optimización con la ayuda de la inteligencia artificial. El objetivo principal es aumentar la eficiencia de los ataques y, en consecuencia, aumentar el número de víctimas.
Ante esta situación, Microsoft y OpenAI hacen un llamado a los usuarios, desarrolladores y responsables políticos para que estén alerta y tomen medidas para prevenir y mitigar los riesgos asociados al mal uso de la inteligencia artificial. Ambas empresas se comprometen a seguir trabajando en la mejora de la seguridad y la ética de sus modelos, así como en el aprovechamiento del potencial de la inteligencia artificial para proteger y fortalecer a las personas y organizaciones.
Como parte de este esfuerzo, están desarrollando proyectos como Security Copilot, un asistente de inteligencia artificial diseñado para apoyar a los profesionales de la ciberseguridad en la identificación y gestión de ataques cibernéticos.