La frontera entre la asistencia digital y el fraude informático se vuelve cada vez más delgada. Un reciente experimento realizado por el redactor senior de WIRED, Will Knight, ha puesto en evidencia el potencial de la inteligencia artificial (IA) para ejecutar tácticas avanzadas de ingeniería social y manipulación, capaces de engañar incluso a expertos en tecnología.
El experimento: Así te engaña una IA
Knight fue el objetivo de una campaña de phishing simulada, diseñada y ejecutada íntegramente por el modelo de código abierto DeepSeek-V3. El sistema no solo redactó los mensajes iniciales, sino que adaptó sus respuestas en tiempo real para mantener el interés de la víctima sin levantar sospechas.
La estrategia de manipulación incluyó:
- Hiper-personalización: Los mensajes mencionaban intereses específicos de Knight, como robótica y aprendizaje automático.
- Falsa autoridad: El modelo inventó un proyecto de código abierto vinculado a investigadores de la agencia DARPA (EE. UU.).
- El «gancho» técnico: Se incluyó un enlace a un supuesto bot de Telegram que, en un escenario real, habría concedido acceso total al atacante a la computadora del periodista.
IA contra IA: El rol de Charlemagne Labs
La prueba se llevó a cabo utilizando una herramienta de Charlemagne Labs, la cual enfrenta a diferentes modelos en roles de «atacante» y «objetivo». Este entorno permitió evaluar la eficacia de varios sistemas líderes en el mercado:
- GPT-4o (OpenAI)
- Claude 3 Haiku (Anthropic)
- Nemotron (Nvidia)
- DeepSeek-V3 (DeepSeek)
- Qwen (Alibaba)
Aunque Knight señaló que algunos modelos cometieron errores o se negaron a participar por sus filtros de seguridad, el éxito de DeepSeek-V3 demuestra que la adulación (tendencia de la IA a complacer al usuario) es una debilidad crítica que los estafadores están aprovechando.
Un riesgo de estafas masivas
«Esta prueba evidencia la facilidad de utilizar la IA para autogenerar estafas a gran escala», advirtió Knight. Por su parte, Rachel Tobac, CEO de SocialProof, reforzó esta preocupación al señalar que los criminales ya están combinando la generación de textos con la clonación de voces y «deepfakes» de video para hacer los fraudes casi indetectables.
Con información de VTV