Impostor usa la IA para hacerse pasar por Marco Rubio en busca de información sensible.
LEE LA EDICIÓN DIGITAL CON SOLO UN CLIC
Un sofisticado esquema de engaño utilizando inteligencia artificial (IA) ha sacudido los círculos de seguridad nacional en Estados Unidos, luego de que un impostor lograra hacerse pasar por el secretario de Estado, Marco Rubio, para contactar a funcionarios extranjeros y estadounidenses en busca de información sensible. El incidente, revelado esta semana por el Departamento de Estado y el FBI, pone en evidencia los peligros crecientes de las tecnologías de IA generativa, capaces de imitar voces y estilos de escritura con una precisión alarmante. Mientras las autoridades trabajan para identificar al responsable, el caso ha desatado debates urgentes sobre la regulación de la IA y la ciberseguridad en un mundo cada vez más vulnerable a este tipo de ataques.
Un engaño de alta tecnología
El impostor utilizó herramientas de IA para generar mensajes de voz y texto que imitaban con precisión el tono, la entonación y el estilo de escritura característicos de Rubio. Según un comunicado oficial del portavoz del Departamento de Estado, Matthew Miller, el individuo contactó a tres cancilleres de países latinoamericanos, un gobernador estadounidense y un congresista entre el 28 de junio y el 3 de julio. Los mensajes, enviados a través de plataformas de mensajería cifrada y líneas telefónicas, solicitaban información sobre negociaciones comerciales, movimientos diplomáticos y datos de seguridad regional, incluyendo detalles sobre la cooperación en la lucha contra el narcotráfico.
Te Recomendamos
El FBI, que lidera la investigación, confirmó que el impostor empleó una combinación de tecnologías de “deepfake” de audio, generadas por modelos de IA como los desarrollados por ElevenLabs y Respeecher, y software de redacción automatizada similar a los modelos de lenguaje de xAI. Aunque no se ha revelado si se obtuvo información comprometida, las autoridades aseguraron que los funcionarios contactados detectaron anomalías en las comunicaciones, como inconsistencias en el conocimiento de protocolos diplomáticos, lo que llevó a la identificación del engaño. “Este es un recordatorio de que la IA puede ser una herramienta poderosa para actores maliciosos”, declaró el director adjunto del FBI, Paul Abbate, en una rueda de prensa.
Contexto de la amenaza
El caso Rubio no es un incidente aislado. En 2024, el Departamento de Seguridad Nacional (DHS) reportó un aumento del 300% en intentos de ciberataques utilizando IA generativa, incluyendo estafas de suplantación de identidad dirigidas a funcionarios gubernamentales. Un informe de la Agencia de Seguridad de Infraestructura y Ciberseguridad (CISA) de mayo señaló que el 60% de los ataques de “phishing” avanzados en EE.UU. ahora incorporan elementos de IA, como correos electrónicos personalizados o grabaciones de voz falsificadas. En abril, un estafador utilizó IA para hacerse pasar por el CEO de una empresa de tecnología, defraudando $1.2 millones, según Reuters.
El acceso a herramientas de IA generativa se ha democratizado, con plataformas de código abierto y servicios comerciales disponibles por menos de $20 al mes. Esto ha permitido que actores no estatales, desde delincuentes individuales hasta grupos organizados, ejecuten ataques sofisticados. Aunque el FBI no ha identificado al responsable del caso Rubio, fuentes del Departamento de Estado sugieren que podría tratarse de un actor extranjero, posiblemente vinculado a intereses en Asia o Europa del Este, dado el enfoque en información diplomática sensible.
Reacciones y medidas gubernamentales
El incidente ha generado una reacción inmediata en Washington. El senador Mark Warner, presidente del Comité de Inteligencia del Senado, calificó el caso como “una llamada de atención” y anunció planes para acelerar la legislación sobre regulación de IA, estancada desde 2023. La Casa Blanca, a través de la asesora de seguridad nacional, Kristi Noem, emitió un memorando ordenando a todas las agencias federales implementar capacitaciones obligatorias sobre detección de deepfakes antes del 30 de septiembre. El Departamento de Estado, por su parte, ha reforzado sus protocolos de verificación, incluyendo autenticación multifactor para comunicaciones oficiales.
A nivel internacional, los países contactados por el impostor –cuyas identidades no han sido reveladas– han expresado preocupación. El ministro de Relaciones Exteriores de un país sudamericano, citado por AP, señaló que el incidente “erosiona la confianza en las comunicaciones diplomáticas”. La Interpol, en colaboración con el FBI, ha iniciado un grupo de trabajo para rastrear el origen de los ataques, enfocándose en servidores en el extranjero que pudieron haber alojado las herramientas de IA utilizadas.
Implicaciones para la seguridad y la regulación
Expertos en ciberseguridad advierten que el caso Rubio es solo la punta del iceberg. Un informe de la Universidad de Georgetown estima que los ataques con IA generativa podrían costar a la economía global $10 billones para 2030 si no se implementan regulaciones efectivas. La facilidad para crear deepfakes de audio, que requiere solo 10-20 segundos de una voz grabada, ha convertido a funcionarios públicos en objetivos principales. “Cualquiera con un micrófono y acceso a internet puede convertirse en una amenaza”, afirmó Lisa Kaplan, experta en desinformación de Alethea Group, en una entrevista con CNN.
El debate sobre la regulación de la IA se intensifica. Mientras la Unión Europea avanza con su Ley de Inteligencia Artificial, aprobada en 2024, EE.UU. carece de un marco federal integral. Propuestas como el “AI Accountability Act”, impulsado por los senadores Cory Booker y Ron Wyden, buscan exigir auditorías a empresas que desarrollan modelos de IA, pero enfrentan resistencia de la industria tecnológica, que argumenta que las regulaciones podrían frenar la innovación. En contraste, el presidente Trump ha minimizado la necesidad de nuevas leyes, afirmando en un discurso que “la IA es una herramienta, y el problema son las personas que la usan mal”.
Desafíos y camino a seguir
El caso Rubio expone la fragilidad de los sistemas actuales frente a la IA mal utilizada. Aunque el DHS y el FBI han invertido $1.5 mil millones para mejorar la ciberseguridad, los expertos señalan que la capacitación y la tecnología de detección no avanzan al ritmo de las amenazas. Herramientas como las de SentinelOne, que identifican deepfakes en tiempo real, aún no están ampliamente implementadas en el sector público. Además, la falta de cooperación internacional para regular el acceso a modelos de IA de código abierto complica los esfuerzos para prevenir estos ataques.
Mientras las autoridades trabajan para identificar al impostor, el incidente subraya la necesidad de una acción coordinada. La Casa Blanca planea convocar una cumbre sobre ciberseguridad en octubre, con la participación de aliados como Japón, Canadá y la UE, para abordar el uso malicioso de la IA. En el ámbito doméstico, el FBI ha instado a los funcionarios a limitar la exposición pública de sus voces, una medida que podría chocar con las demandas de transparencia en la política.
El caso Rubio no solo ha puesto en alerta al gobierno, sino que ha recordado al mundo que la IA, aunque poderosa, puede convertirse en un arma de doble filo. A medida que la tecnología avanza, la carrera para proteger la seguridad nacional y la confianza pública se vuelve más urgente que nunca.