Los cambios siempre han generado debate. Desde que el mundo es mundo, la evolución de las tecnologías y de la sociedad han ido en paralelo con la discusión sobre la conveniencia de estas modificaciones. Con la llegada de internet, el ruido generado en torno a la implementación de sus capacidades en la vida diaria de las personas se ha elevado de manera exponencial. El ChatGPT -una IA capaz de resolver dudas, mantener conversaciones, traducir o generar texto- es el último ejemplo de ello, ya que es una evidencia de cómo la inteligencia artificial puede cambiar muchos de nuestro hábitos; sin embargo, la herramienta también se valora como una oportunidad para simplificar operaciones, aunque también presenta amenazas.

ChatGPT, desarrollada por OpenIA, tiene la habilidad de generar escritos a partir de la IA que apenas se diferencian de los elaborados por una persona. Todo lo que los usuarios hablan con ChatGPT queda registrado para que la IA del bot lo utilice para mejorar. Tal y como ha destacado Vladislav Tushkanov, experto en seguridad de Kaspersky, durante el seminario 'ChatGPT, ¿Ángel o demonio? El impacto en la ciberseguridad' "como muchas tecnologías, puede ser utilizado para lo bueno o para lo malo".

El bot ha generado un fuerte debate sobre su posible uso en ámbitos como el educativo, después de que la IA se mostrara capaz de escribir textos y trabajos que pasan como elaborados por un alumno o de responder satisfactoriamente a preguntas de exámenes. En respuesta, OpenAI lanzó una herramienta que puede determinar -todavía con un cierto margen de imprecisión- si un texto ha sido escrito por un humano o generado por una herramienta de inteligencia artificial.

Kaspersky, la compañía internacional de ciberseguridad, ha analizado la forma en que la expansión de ChatGPT "puede cambiar las reglas establecidas en el mundo de la ciberseguridad". La empresa asegura que los ciberdelincuentes aplican esta tecnología a las estafas de correo electrónico o comunicaciones dirigidas a personas, organizaciones o empresas específicas.

Los pontentes Vladislav Tushkanov, científico jefe de datos de Kaspersky, Maher Yamout, investigador jefe de seguridad, y Victor Sergeev, jefe del equipo de respuesta a incidentes, han advertido sobre la barrera que suponía hasta ahora escribir mensajes personalizados para los ciberdelincuentes, "pero con ChatGPT ya no será así". "Se prevé que los ataques de éxito basados en este modelo de IA crecerán".

El seminario ha abordado temas sobre cómo ChatGPT influye en el panorama de las ciberamenazas y la ciberseguridad en las organizaciones, si provocará un verdadero cambio para la industria y sobre los beneficios potenciales del uso de ChatGPT en la detección de amenazas.

Amenazas de ChatGPT

El estudio de Kaspersky apunta a que ChatGPT es capaz de generar código informático malicioso. "Ya no hace falta tener conocimientos de programación para crear malware (un software que realiza acciones dañinas en un sistema informático de forma intencionada y sin el conocimiento del usuario), pero es algo que no será una amenaza si se dispone de sistemas de seguridad de confianza, ya que este tipo de soluciones detectan automáticamente los programas creados por bots y los neutralizan".

Aunque algunos expertos han manifestado su preocupación porque Chat GPT pueda crear malware específicamente hecho para cada persona, el código mostrará un comportamiento malicioso que en casi todas las ocasiones será detectado por las soluciones de seguridad. La automatización completa de código malware, que generaría un gran problema para las soluciones de ciberseguridad, no se ha conseguido por el momento.

El abanico de uso de ChatGPT es muy amplio. Puede ser un aliado para los atacantes, pero también para quienes quieren defenderse de este tipo de amenazas. "Puede desvelar rápidamente la función para la que ha sido creado un código informático, algo especialmente interesante en los SOC, centros en los que los expertos tienen mucha carga de trabajo", destacan en Kaspersky, que celebran la aparición de cualquier herramienta que acelere los procesos de análisis.

Tushkanov considera que ChatGPT "no tiene un impacto inmediato en la industria y no modifica las reglas de la ciberseguridad, pero las próximas generaciones de inteligencia artificial probablemente sí lo harán. En los próximos años, veremos cómo los modelos de inteligencia artificial entrenados tanto en lenguaje natural como en código de programación se adaptarán a casos específicos de ciberseguridad".

"Estos cambios pueden afectar a una amplia gama de actividades del sector, desde la búsqueda de amenazas hasta la respuesta a incidentes. Las empresas de ciberseguridad explorarán las posibilidades que brindarán estas nuevas herramientas, al mismo tiempo que serán conscientes de cómo esta nueva tecnología puede ayudar a los ciberdelincuentes", concluye el experto.

Aunque este es el más conocido, existen otros bot de IA que prometen ser herramientas muy potentes en nuestro día a día en un futuro quizás no muy lejano. Por ejemplo, recientemente Google presentó su propia IA, llamada Bart. El plan del gran gigante tecnológico es que esta IA se integre en sus buscadores y productos, utilizados masivamente en todo el mundo (Gmail, Google Maps, Google Drive...), para potenciar sus funcionalidades.