Sin reglas, la IA es un arma
Por Matías Nahón - Gerente General de Analityx -
La película "Mountainhead" (HBO, 2025) no es una distopía exagerada. Es un espejo apenas deformado de un presente donde la inteligencia artificial, en manos de actores sin escrúpulos ni regulación, ya produce daños reales: deepfakes que alteran procesos electorales, estafas millonarias, manipulación de información, erosión de la confianza social. La película incomoda de principio a fin porque muestra lo que muchos aún prefieren negar: la Inteligencia Artificial (IA) no es sólo una herramienta. Es un arma de poder.
La sátira dirigida por Jesse Armstrong sigue a cuatro magnates tecnológicos que usan la IA generativa para provocar caos global y obtener ganancias. Lo hacen sin frenos éticos ni límites institucionales. Deepfakes masivos, campañas de desinformación, colapsos financieros inducidos. El guión parece ficción, pero se basa en hechos verificables. En 2024, una falsa llamada por Zoom permitió una transferencia ilegal de 25 millones de dólares en Hong Kong.
En Estados Unidos, deepfakes de voces de candidatos presidenciales circularon días antes de las elecciones. En Reino Unido, una imagen falsa generada por IA provocó la caída de un banco. En Alemania, la BKA detectó una red de manipulación informativa con contenidos deepfake dirigidos a interferir en la opinión pública. Todo eso ocurrió antes de que se aprobara una legislación básica en la mayoría de los países.
Hoy, en junio de 2025, Estados Unidos —donde operan las principales plataformas de IA generativa— sigue sin una ley federal que regule el uso de estas tecnologías. Las big tech avanzan sin restricciones, capturando gobiernos, marcando agenda, y ensayando formas nuevas de dominio simbólico y económico. Y lo hacen con algoritmos opacos, sin supervisión, sin responsabilidad.
El poder de la IA no es técnico: es político. Lo que "Mountainhead" revela con crudeza es que los nuevos centros de decisión no están en los parlamentos ni en los tribunales, sino en salas de servidores donde un puñado de ejecutivos decide cómo procesar, filtrar o alterar la percepción global. No hay ficción ahí. Hay un riesgo estratégico: la desinformación automatizada, combinada con concentración tecnológica, es hoy la forma más eficaz de intervención en los asuntos internos de cualquier país.
Ya no se trata de especular con escenarios apocalípticos. Se trata de entender que el descontrol de la IA ya genera pérdidas, vulnerabilidades y fracturas sociales. El problema no es el futuro. El problema es la inacción presente.