RADIO EN VIVO
00:00 / 00:00

Por Wilfred Trujillo Trujillo*

 

La conversación pública se salió de las manos. No es solo que haya más ruido, es que ya no sabemos con quién estamos hablando. Aparecen cuentas que no conocemos, comentarios que se multiplican en segundos, números que crecen sin explicación; y uno queda con la duda de si está frente a gente real o frente a un truco de internet. A eso me refiero cuando hablo de granjas digitales, grupos que manejan muchas cuentas falsas desde un mismo lugar para empujar una idea, atacar a alguien o inflar apoyos. No es un mito, es un problema medido. En 2024 el tráfico automatizado superó al humano por primera vez en diez años, la mitad de lo que pasa por la red ya no lo hacemos personas, y los bots maliciosos representan más de un tercio del total. Lo dicen informes de ciberseguridad serios, que llevan años midiendo esta tendencia. 

 

Cuando esa maquinaria entra en política, el daño se multiplica. Hay estudios que muestran picos de cuentas falsas que alaban a un candidato, insultan a otro y empujan etiquetas de moda para que parezca que una posición es mayoritaria. Un análisis publicado por Reuters reportó que en X hubo periodos donde cerca de 15% de las cuentas que elogiaban a un aspirante eran falsas, y que del otro lado también había cuentas no auténticas, aunque en menor proporción; lo importante aquí es entender que la trampa no tiene color político, se alquila al mejor postor. 

 

Para tener mayor claridad, un bot es un programa que escribe o pulsa de manera automatizada como si fuera una persona. Una granja digital es el lugar, físico o virtual, desde el cual se manejan muchos de esos programas y perfiles. Algunos sirven para tareas útiles, por ejemplo avisos de emergencias; otros se usan para estafar, acosar, generar odio o hacer spam. Y hay un capítulo aparte que asusta, las “ediciones” con inteligencia artificial, lo que la prensa llama deepfakes, videos o audios que parecen reales pero fueron fabricados por una IA.

 

Las granjas también se meten en encuestas de redes. Cuando uno ve un sondeo abierto en internet, con un botón para votar, hay que saber que ese mecanismo es fácil de manipular porque no representa a toda la población, vota quien quiere y puede votar más de una vez si usa trucos. En muchas ocasiones se ha mostrado que estos sondeos o llamados de participación voluntaria pueden producir resultados engañosos; incluso hay trabajos académicos que detectan participación de bots en encuestas sobre elecciones. Por eso insistimos, una encuesta de redes no decide políticas públicas ni refleja el país entero, sirve apenas para tomar la temperatura de una comunidad muy específica. 

 

El daño no para en la política. También llega a la vida diaria. Con IA es más fácil elaborar estafas que apuntan a nuestros abuelos y a personas confiadas, correos y mensajes que usan nombres de fundaciones inexistentes o voces clonadas que piden dinero de urgencia. Una investigación reciente mostró lo sencillo que puede ser para un sistema generar correos de engaño muy convincentes; y quienes caen no lo hacen por falta de inteligencia, caen porque el engaño está bien producido. 

 

Hay otra cara que nos duele como sociedad, el ataque coordinado a periodistas y a mujeres periodistas. La Fundación para la Libertad de Prensa documentó patrones de acoso digital que no son discusiones duras sino campañas organizadas para silenciar. Cuando una etiqueta ofensiva se vuelve tendencia, detrás suele haber cuentas que se mueven al mismo tiempo. Ese ambiente espanta voces, promueve la autocensura y empobrece la conversación, que debería ser plural y respetuosa. 

 

El mundo ya empezó a moverse con reglas más claras. La Unión Europea aprobó una ley de inteligencia artificial que exige avisar cuando un contenido fue creado o manipulado por IA, incluidos los montajes de voz e imagen; la norma entra en plena aplicación en 2026, y desde ahora se promueve que las empresas la cumplan de manera anticipada. Es un principio sencillo, si un video o un audio es sintético, el usuario debe saberlo. 

 

En Colombia también hay avances. Este año se expidió la Ley 2502, que modificó el Código Penal para agravar la falsedad personal cuando se usa inteligencia artificial. Por primera vez se definen en una ley conceptos como deepfake, identidad e imagen en el entorno digital; y quien suplante con IA se expone a sanciones mayores. La tecnología no es excusa para el delito, el que engaña con máquinas sigue siendo responsable. 

 

Volvamos a lo cotidiano, que es donde se gana o se pierde la democracia. Cómo distinguir a una persona de un bot, cómo no caer en el juego de las granjas, cómo reconocer un video dudoso. Desconfíe del contenido que busca provocar rabia inmediata, si un mensaje llega sin fuente o con una imagen borrosa, deténgase y busque la publicación original; pregunte de dónde salió, quién lo dijo, cuándo lo dijo. Recuerde que los números de las redes no son lo mismo que los números del país; un millón de vistas no es un millón de votos, un millón de comentarios no es un millón de ciudadanos. Antes de compartir, piense en sus seres queridos. Si su mamá o su papá leyeran esto, les serviría o los asustaría sin necesidad. Quien tenga dudas técnicas puede pedir a un familiar que revise con calma, o a un joven cercano que ayude a verificar; todos aprendemos en cadena, y ese aprendizaje protege a la familia entera. No responda insulto con insulto; hay cuentas que solo buscan que usted se enoje para volver tendencia una pelea falsa. Es mejor no darles el gusto.

 

También debemos pedir más a las plataformas y a las campañas. Si los informes muestran que la mitad del tráfico ya es automatizado y que los bots dañinos crecen, las empresas deben etiquetar de forma visible lo que es sintético, aportar trazabilidad en anuncios políticos y cooperar de verdad con las autoridades y los verificadores. A mis colegas y a cualquier campaña, una petición clara, no caigamos en la tentación de las bodegas, esas fábricas de ruido arruinan la confianza, y sin confianza no hay acuerdo posible. 

 

Como servidor público yo no voy a normalizar estas prácticas. Aquí las cosas se dicen de frente, con respeto, con datos abiertos. Nuestro compromiso es informar, no inflar; escuchar, no gritar; debatir, no perseguir.

 

La tecnología es una herramienta, no un destino. La misma red que permite un montaje también permite que un adulto mayor se conecte con su familia, que un cafetero venda su producto, que un estudiante encuentre una beca. El reto es nuestro, no de las máquinas. Si aprendemos a detenernos un segundo antes de compartir, si apoyamos a quienes verifican, si premiamos la transparencia y castigamos el engaño, gana la política limpia, gana el periodismo, gana el barrio que conversa sin máscaras. Seamos parte de la solución con un gesto pequeño, respirar, preguntar, verificar; la verdad no necesita bodega, necesita tiempo, pruebas y personas que no se dejen comprar.

 

No es miedo, es sentido común, queremos saber qué es real y qué no. En esto coincidimos todos, jóvenes y mayores, porque la democracia se construye con confianza paso a paso.

 

*Diputado Asamblea del Huila