Meta ha ejecutado una de las operaciones más extensas de su historia relacionada con las redes de estafadores, llegando a cerrar casi siete millones de cuentas de WhatsApp. El movimiento buscaba poner freno a un tipo de fraude, en este caso las estafas sentimentales, las cuales han proliferado especialmente en el sudeste asiático. Se quería cortar de raíz un tipo de estafa que engloba manipulación emocional con engaños en el ámbito económico y de las finanzas, valiéndose del gran potencial y rapidez de difusión que ofrecen las plataformas de mensajería.

Meta y la lucha contra las estafas en WhatsApp

La compañía ha decidido bloquear a 6,8 millones de perfiles en la plataforma de Instagram, la mayoría de los cuales se habían creado con la única intención de engañar a usuarios vulnerables a través de vínculos emocionales falsos. Y estos perfiles se localizaban en Asia, principalmente en Camboya, Myanmar y Tailandia y usaban WhatsApp como entrada a un tipo de fraude denominado "estafa sentimental" o "pig butchering". Estos fraudes económicos se llevan cabo tras mantener una relación sentimental que posteriormente induce a la víctima a hacer inversiones ficticias.

Redes criminales y explotación laboral

Las investigaciones apuntan a organizaciones muy estructuradas que, además de perpetrar fraudes económicos, también reclutaban a personas con falsas ofertas de trabajo para obligarlas a ejercer en localizaciones clandestinas desde donde después se producían los contactos fraudulentos. La pandemia aumentó este tipo de fraudes en las que se han podido estafar millones de euros.

Cómo detectaron las cuentas fraudulentas en WhatsApp

La detección masiva de perfiles falsos ha sido posible gracias a sistemas de análisis predictivo que te permiten identificar patrones de comportamientos repetidos en las distintas interacciones. Por medio de estos algoritmos, pueden ponerse de manifiesto comportamientos sospechosos antes de que se produzcan los fraudes. Siempre que se comprueben las conexiones, el historial de actividades, el uso de enlaces externos, no será necesario consultar el contenido cifrado de los mensajes, salvaguardando en todo momento la privacidad del contenido, pero permite poder identificar patrones para actuar y evitar dichos fraudes.

Colaboración estratégica en la tecnología

WhatsApp ha hecho uso de modelos de inteligencia artificial para mejorar el control sobre las posibles cuentas maliciosas. En los casos recientes, la combinación con herramientas desarrolladas por OpenAI ha permitido eliminar los grupos criminales que enviaban mensajes de contacto inicial con ayuda de la IA para atraer a las víctimas a otros espacios donde se producían las estafas financieras.

Un modus operandi sofisticado

El modo habitual de proceder comienza con un mensaje en el móvil o bien en una aplicación de citas. Después de ganarse algo de confianza con la víctima, el estafador pasa la conversación a WhatsApp u otra aplicación de mensajería privada. Desde allí es donde comienza un proceso de construcción de amistad irreal mediante la presentación de oportunidades de inversión que prometen rentabilidades rápidas y elevadas. A partir de ese momento los pasos para obtener un beneficio consisten en operar a través de criptomonedas o bien de medios de pago poco regulados.

Falsas pruebas e ingeniería psicológica

Con el fin de hacer más creíble el proceso, los estafadores suelen presentar capturas de pantalla en las que se muestran los supuestos beneficios obtenidos por otras víctimas. La promesa de ingresos sin trabajo ejerce presión para hacer depósitos iniciales, y una vez hecho el primer pago, aumentan las exigencias bajo la excusa de acceder a "niveles superiores" de inversión, y así hasta la víctima se da cuenta del engaño o simplemente se arruina.

Con este operativo, Meta busca reducir drásticamente la capacidad operativa de redes delictivas a través de WhatsApp. El cierre masivo de cuentas es una llamada a atención. De hecho, se trata de un primer aviso claro de que la plataforma endurecerá sus medidas de control y seguirá integrando inteligencia artificial con el propósito de detectar amenazas antes de que se materialicen como fraudes consumados.