Si incomoda, es IA: la nueva vieja confiable de InfodemiaMX
Hay errores que se corrigen con una disculpa y otros que exhiben todo un sistema de operación y manipulación mediática desde las esferas del poder...
Hay errores que se corrigen con una disculpa y otros que exhiben todo un sistema de operación y manipulación mediática desde las esferas del poder, como ocurrió con InfodemiaMX y el video de la mujer tomando el sol en Palacio Nacional.
En un primer momento, la respuesta fue la esperada dentro de cierta lógica oficialista: desmentir el contenido. Pero no con evidencia sólida, sino con insinuaciones, denostaciones y ataques contra todo el que osara contradecir al gobierno.
La sola “posibilidad” de que el video estuviera manipulado con inteligencia artificial bastó para crear un argumento, activar a medios afines y empujar una narrativa conveniente para “limpiar” un problema que, de entrada, no era para tanto. En otras palabras: no hacía falta demostrar que el video fuera falso, alcanzaba con sugerirlo.
El problema es que la realidad no acompañó al guion de InfodemiaMX.
Con el paso de los días, comenzaron a circular más videos, tomas desde distintos ángulos que reforzaban la autenticidad de la escena. Lo que en un inicio se intentó presentar como sospechoso empezó a consolidarse como evidente. Y entonces ocurrió lo inevitable: la versión oficial tuvo que ajustarse, no por convicción, sino por presión de la narrativa vendida por la agencia.
Fue la propia Claudia Sheinbaum quien terminó por reconocer que sí, que había existido tal situación. La rectificación llegó, pero lo verdaderamente relevante no fue el reconocimiento en sí, sino lo que dejó al descubierto: el recurso fácil de culpar a la inteligencia artificial ante un contenido incómodo.
Porque el fondo del asunto no es la mujer, ni su identidad, ni siquiera la pertinencia de su conducta dentro de un recinto histórico. El punto central está en la forma en que una instancia pública, creada supuestamente para verificar, optó por introducir ruido en lugar de claridad con el único fin de desinformar para salvar la imagen del gobierno. Y lo hizo utilizando un argumento que, por su propia naturaleza, resulta difícil de refutar en el corto plazo.
La inteligencia artificial, en este contexto, deja de ser una herramienta para convertirse en coartada narrativa. Funciona como una explicación plausible para muchos, aunque no tenga sustento. Y ahí radica su peligro: en la facilidad con la que puede desplazar la carga de la prueba hacia la audiencia, obligándola a dudar incluso de aquello que tiene frente a los ojos, porque no puede (y a veces, ni quiere) verificar si el verificador realmente hizo su trabajo.
En un entorno saturado de información, donde la velocidad importa más que la verificación, este tipo de estrategias encuentra terreno fértil. No se trata de convencer a todos, sino de generar suficiente confusión para que aquello que incomoda se diluya.
Lo preocupante es que, en ese proceso, el criterio propio se debilita. Poco a poco, se instala la idea de que todo puede ser falso, de que nada es completamente verificable y de que siempre habrá una explicación alternativa que justifique cualquier cosa.
El caso de la mujer tomando el sol en Palacio Nacional no destaca por la gravedad del hecho que muestra, sino por la estrategia que revela. Porque si la inteligencia artificial se consolida como el argumento predilecto para evadir errores o manipular narrativas, entonces el problema no será distinguir entre lo real y lo falso, sino entender cuándo se está utilizando la duda como herramienta de control de masas.
Y ese, más que un error de comunicación, es un síntoma de algo mucho más profundo: la manipulación del “pueblo bueno”.
