Ciudad de México.– Esparcir desinformación y discursos de odio en el mundo digital no está tipificado como delito en México. Como consecuencia, luego de los “peñabots”, han brotado agencias y troles (personas reales bajo el anonimato) que amplifican narrativas en las redes sociales como está ocurriendo con las etiqueta #NarcoPresidente. Si una plataforma digital elimina estas cuentas por violar sus normas internas, reaparecen con otros nombres o rostros.
“Pareciera que es un mundo muy complejo, pero al final es una forma de trabajo muy lucrativo. Ganan muchísimo dinero. Lamentablemente la mayoría de los que trabajan en eso son estudiantes de Comunicación o periodistas que van empezando. Son miles de personas las que están empleadas, en un día pueden ganar 7 mil, 19 mil pesos dependiendo el número de seguidores, el daño que hagan, la cantidad de tuits. Esto tiene que ser regulado por el uso de recursos públicos y por el alcance que tiene”, aseguró el analista de datos en redes sociales, Alberto Escorcia.
Esta lucrativa y desregulada industria se arropa en apodos y avatares hechos con Inteligencia Artificial con cuentas como “La Abuela García, “Greñalda” (anti4T) o “La Catrina Norteña” (pro4T), que se rentan incluso por hora para publicar tuits, memes ofensivos o videos. Por ahora, ya son plaga. Hay tanto del lado de la oposición PRI-PAN-PRD y Movimiento Ciudadano, como del lado de Morena y la denominada #RedAMLO.
En el Tlatelolco Lab, del Programa Universitario de Estudios sobre Democracia, Justicia y Sociedad (PUEDJS), se han analizado los procesos electorales en el espacio digital desde 2012 hasta la fecha. En todos han identificado cómo con el tiempo se han sofisticado las estrategias de desinformación en las plataformas socio digitales, pues cada vez más hay nuevas formas de esparcir las noticias falsas, explicó el doctor Julián Atilano, Investigador del PUEDJS-UNAM y coordinador académico del Tlatelolco Lab.
“Una de las características que hemos identificado, al menos recientemente en este periodo electoral de 2023-2024, es el uso de la Inteligencia Artificial, para generar desinformación, para generar estrategias negras de comunicación”, apuntó Atilano. “Este fenómeno de la desinformación, al menos durante el proceso electoral, o los procesos electorales, se da de forma compleja y de forma híbrida, es decir, no solamente se originan desde las plataformas socio digitales, sino que las estrategias de desinformación que están en las redes sociales están vinculadas con otro tipo de medios en esta idea que se conoce como el ecosistema mediático, es decir, se puede plantar la estrategia de desinformación en las plataformas socio digitales y después emerge ya sea en la radio, en la prensa, en la televisión o desde otros grupos o actores políticos”.
El ejemplo más claro visto durante estos días es la serie de reportajes que sugirieron un supuesto vínculo entre el narcotráfico y la campaña de López Obrador en uno de los procesos electorales anteriores. “Vimos cómo se fue construyendo en un primer momento a partir de los medios tradicionales, en este caso la prensa, y posteriormente cómo otros espacios, la radio y la televisión, lo retomaron, y cómo desde las plataformas socio digitales –particularmente Twitter, TikTok y YouTube– se empezó a impulsar este tipo de desinformación, es decir, hay una estrategia articulada entre las distintas plataformas”.
En el Tlatelolco Lab, del Programa Universitario de Estudios sobre Democracia, Justicia y Sociedad (PUEDJS), se han analizado los procesos electorales en el espacio digital desde 2012 hasta la fecha. En todos han identificado cómo con el tiempo se han sofisticado las estrategias de desinformación en las plataformas socio digitales, pues cada vez más hay nuevas formas de esparcir las noticias falsas, explicó el doctor Julián Atilano, Investigador del PUEDJS-UNAM y coordinador académico del Tlatelolco Lab.
“Una de las características que hemos identificado, al menos recientemente en este periodo electoral de 2023-2024, es el uso de la Inteligencia Artificial, para generar desinformación, para generar estrategias negras de comunicación”, apuntó Atilano. “Este fenómeno de la desinformación, al menos durante el proceso electoral, o los procesos electorales, se da de forma compleja y de forma híbrida, es decir, no solamente se originan desde las plataformas socio digitales, sino que las estrategias de desinformación que están en las redes sociales están vinculadas con otro tipo de medios en esta idea que se conoce como el ecosistema mediático, es decir, se puede plantar la estrategia de desinformación en las plataformas socio digitales y después emerge ya sea en la radio, en la prensa, en la televisión o desde otros grupos o actores políticos”.
El ejemplo más claro visto durante estos días es la serie de reportajes que sugirieron un supuesto vínculo entre el narcotráfico y la campaña de López Obrador en uno de los procesos electorales anteriores. “Vimos cómo se fue construyendo en un primer momento a partir de los medios tradicionales, en este caso la prensa, y posteriormente cómo otros espacios, la radio y la televisión, lo retomaron, y cómo desde las plataformas socio digitales –particularmente Twitter, TikTok y YouTube– se empezó a impulsar este tipo de desinformación, es decir, hay una estrategia articulada entre las distintas plataformas”.
REGULACIÓN DESDE LA IP
Las campañas pagadas en redes sociales no son ilegales al no estar tipificadas como delito, pero se tornan peligrosas al ser un precursor de violencia y ataque físico en el mundo real, como ha ocurrido contra trans, migrantes, periodistas y activistas. El INE no se ha pronunciado de manera clara ni cuenta con alguna unidad especializada en análisis de big data para dar seguimiento a esta agudización de campañas orquestadas.
“El INE debe tener una unidad de análisis de datos para detectar esta manipulación de desinformación. Pero no solamente el INE, también otro tipo de actores como medios de comunicación, organizaciones de la sociedad civil, es decir, en la propia incluso ciudadanía las y los internautas tienen que tener un conocimiento, una pedagogía, sobre cómo detectar la manipulación de información”, expuso Julián Atilano, coordinador académico del Tlatelolco Lab, quien también llamó al Congreso a crear una regulación sobre el mundo digital.
En la iniciativa privada, son las propias plataformas de Meta o X que han suspendido este tipo de cuentas por violar sus normas de convivencia, por lo que vuelven con otros nicks y cuentas alternas. En TikTok es el juego de la selva dadas las características autoritarias y opacas de China.
“Las plataformas X, Youtube, Facebook tienen reglas muy precisas de cuándo suspender una cuenta y es justamente cuando incitan al odio o se promueve un ataque en contra de alguien. Cuando sus tuits, mensajes o videos emplean palabras específicas que llaman a la acción o deshumanizar a alguien, se considera un ‘delito interno’, una ley privada dentro de la plataforma. Y las cuentas son ‘presas’ (suspendidas) permanentemente. Cuando a las agencias les borran cientos o miles de cuentas, terminan perdiendo dinero. Es muy común y por eso vuelven a nacer nuevas empresas”, afirmó Alberto Escorcia, coordinador de Lo Que Siga.
En Estados Unidos, donde las fake news de un expresidente republicano provocaron el asalto al Capitolio, dos investigadores de la Universidad de Clemson (Carolina) crearon para los votantes el test “detecta al troll”. Este documento plantea preguntas que los usuarios de plataformas digitales deben hacerse sobre una cuenta determinada:
¿Menciona información personal o solo se centra en la política extrema?, ¿se presenta como un grupo de afinidad, pero sin una mención clara de una persona u organización que lo dirija? Si la respuesta es sí, es posible que la cuenta sea falsa. Pero hay troles muy sofisticados que fingen ser activistas de alguna causa o fanáticos de algún movimiento en tendencia para atraer seguidores y luego se transforman hacia la narrativa para la que se les contrató.
¿Cómo detectar a un trol?, se le cuestionó al coordinador académico del Tlatelolco Lab. “Identificar cuáles son las cuentas que están propiciando las narrativas, ¿son cuentas de periodistas?, ¿son cuentas de influencers?, ¿son cuentas de aparentemente personas que no tienen muchos seguidores?, ¿cómo se está desarrollando?, ¿se está repitiendo el mismo mensaje?, ¿es un mensaje que lo que se busca claramente es golpear algún adversario político?, ¿no hay información?, ¿se sostiene a partir de rumores?, ¿no hay una nota que lo sostenga o una nota periodística?, ¿qué tipo de medios el que está difundiendo?”.
AGENCIAS Y CYBORGS
Ser un cyborg es un empleo derivado de la era digital, la era de las noticias falsas y la era del trabajo remoto. Ni siquiera es necesario acudir a una oficina. Cuando difunden un mensaje al unísono reciben la orden a ejecutar a través de chats de WhatsApp o Telegram. Orden que proviene de una agencia, a su vez contratada por algún político o partido, de acuerdo con Alberto Escorcia, analista de metadatos en redes sociales.
–¿Qué agencias y personas has detectado? –se le cuestiona a Escorcia.
–Las principales son Indatcom (Movimiento Ciudadano) en el Occidente, aunque ahora tiene varios nombres que es Heurística, cambian nombres para evadir; Sombrero Blanco en el Caribe; la agencia Flow (Grupo Salinas); Carlos Merlo, que es el mayor desinformador de México antes con Peña Nieto y ahora con varios partidos (suspendido); Ricardo Chong, que es un operador de varios políticos, sobre todo priistas; Servicios Don Moto (suspendido) que está en el norte del país; Wise Interactions, que es una de las nuevas, y antes trabajaba para el PRI y ahora está trabajando para el Gobierno federal; la agencia Cuadrangular (Morena); y la agencia Neurona, que está siendo investigada en España por un caso de desinformación. A partir de ahí, hay pequeños actores.
Durante la precampaña, cyborgs difundieron que era real un audio con la voz creada con inteligencia artificial del Jefe de Gobierno Martí Batres. El audio era respecto a los aspirantes a sucederlo, Clara Brugada y el exsecretario de Seguridad Omar García Harfuch, rechazado por el ala radical morenista.
“Aclaro que es totalmente falso. Nunca he hecho tales afirmaciones. Está producido con inteligencia artificial. No es real”, respondió Batres en un tuit el 31 de octubre de 2023 a las 20:30 horas.
Entre quienes esparcieron que era “real”, destacan el cyborg @Lizgottik con más de 114 mil “seguidores” y que se caracteriza por tuitear en contra del Gobierno federal. “Ella” –su avatar está hecha con IA– escribió ese mismo día a las 22 horas: “Oye Claudia no es por amarrar navajas, pero aquí está, prueba dice que el audio de Martí Batres tiene un 95.8 por ciento de probabilidades que sea real”. El tuit tuvo 33 mil vistas.
A su vez, una noche después, el cyborg @Dimitrova_Linda –que atacó a una periodista de SinEmbargo– tuiteó algo parecido con la misma imagen que @Lizgottik; un nado sincronizado muy común dentro de esta industria.
De hecho, las cuentas falsas utilizan con frecuencia imágenes de mujeres blancas convencionalmente atractivas y en sus 20 años, de acuerdo con el test para detectar trolls de la Universidad de Clemson.
–¿Qué indicios hay para, por lo menos, sospechar que se trata de cyborgs? –se preguntó.
–La coordinación, es decir, cuando al mismo tiempo o en un corto periodo de tiempo escriben la misma narrativa. Se llama comportamiento no auténtico, empiezan a escribir palabras como si lo hiciera cualquier persona normal, pero terminan haciendo muy parecidos sus mensajes. Cuando uno detecte que a la misma hora varios periodistas o varios columnistas están hablando de lo mismo, reforzados por esas cuentas extrañas (de cyborgs) –que no tienen cara de personas, sino que tienen nombres de personajes–, es cuando podemos detectar que se trata de una operación para amplificar una narrativa. Es cuando se repite una misma argumentación durante un periodo específico de tiempo, generalmente entre las 7 y 8 de la noche, porque después de ahí dejan de trabajar.
Algunos de los comunicadores amplificados con este tipo de cuentas son Mario Maldonado (CEO), Lourdes Mendoza (El Financiero) o Carlos Loret de Mola (Latinus). Un ejemplo reciente han sido las publicaciones sobre la supuesta red de corrupción de los hijos del Presidente López Obrador, las cuales han sido esparcidas por cyborgs pagados.
TE PUEDE INTERESAR: