IA Bajo Fuego: Investigando el Uso de ChatGPT en Mensajería Encubierta y Desinformación

IA Bajo Fuego: Investigando el Uso de ChatGPT en Mensajería Encubierta y Desinformación

Internet siempre ha sido un lugar raro. Pero últimamente ha desarrollado un nuevo talento: puede mirarte fijamente a los ojos y mentir con una gramática perfecta.

Hoy, la conversación sobre ChatGPT y otras herramientas de IA generativa ha pasado de “guau, escribe correos” a “espera… ¿quién está usando esto y para qué?” En 25–26 de febrero de 2026, la cobertura sobre el trabajo más reciente de OpenAI para frenar abusos echó más leña al fuego: estafas románticas, bufetes falsos y supuestos intentos de difamación política—todo ello, presuntamente, apoyado en parte por texto generado por IA y estructuras operativas. (reuters.com)

Esto no es una historia de “los robots nos reemplazan”. Es una historia de “los humanos hacen cosas humanas—engaño, influencia, manipulación—con herramientas mejores”. Y eso inquieta más, porque también es más realista.

Lo que sigue es una investigación clara, humana y basada en hechos sobre cómo herramientas como ChatGPT pueden verse arrastradas hacia mensajería encubierta y campañas de desinformación, cómo se ve eso en la práctica, qué defensas están apareciendo y cómo mantenemos una realidad pública funcional cuando el texto sintético puede producirse más rápido que el pensamiento crítico.


El nuevo campo de batalla no es “IA vs humanos” — es atención vs verdad

La desinformación no necesita convencer a todos. Solo necesita confundir a suficientes personas durante el tiempo necesario para crear ruido, cinismo y división. Y la economía moderna de la atención es, básicamente, un motor a reacción apuntando directo a nuestros lóbulos frontales.

La IA generativa cambia la escala del problema. No tanto porque cree propaganda “mágica” que hipnotice a las masas, sino porque vuelve barato producir:

  • Variaciones infinitas de la misma narrativa

  • Mensajes localizados en múltiples idiomas

  • Respuestas “de persona” en secciones de comentarios

  • Contenido “con forma de comunidad” que imita a gente real

OpenAI ha subrayado que las operaciones de influencia suelen depender de una mezcla de IA e infraestructura tradicional—cuentas falsas, sitios web, redes sociales—donde la IA acelera la producción y la iteración del contenido, más que reemplazar todo el aparato. (openai.com)

Así que el miedo no es que una sola publicación generada por IA “controle tu mente”. El miedo es la persuasión industrializada: miles de publicaciones, identidades plausibles y participación constante—día tras día—hasta que lo falso empieza a sentirse familiar.

Y los humanos confundimos familiaridad con verdad todo el tiempo. El cerebro es eficiente así. A veces, de manera trágica.


Qué significa realmente “mensajería encubierta” (y por qué no siempre es cosa de espías)

Cuando la gente oye “mensajería encubierta”, imagina códigos secretos, escondites o un villano acariciando un gato mientras mete Morse en memes. La realidad es menos cinematográfica y más “práctica hasta el fastidio”.

En general, mensajería encubierta significa comunicar de una manera que oculta intención, origen, coordinación o significado frente a observadores. Eso puede incluir:

1) Coordinación oculta

Varias cuentas parecen independientes, pero en realidad están orquestadas—publican en horarios específicos, empujan los mismos temas, responden a críticos con el mismo estilo.

2) Contenido con negación plausible

Lenguaje cuidadosamente redactado para insinuar algo evitando afirmaciones fáciles de verificar o legalmente comprometedoras.

3) Esteganografía en texto

La esteganografía consiste en ocultar un mensaje dentro de otro. Investigadores han explorado esteganografía basada en modelos de lenguaje, donde elecciones sutiles de palabras pueden codificar información sin perder legibilidad. No es ciencia ficción; es un área activa de investigación, con propuestas concretas para comunicación encubierta usando modelos de lenguaje. (sciencedirect.com)

Nota importante: la mayoría de campañas reales de “mensajería encubierta” no necesitan esteganografía sofisticada. Necesitan coordinación, volumen y distribución. Lo aburrido. Lo efectivo.


Cómo aparece ChatGPT dentro de operaciones de desinformación

Clave: la IA generativa rara vez es toda la máquina. Es el acelerador.

Según informes públicos y resúmenes de disrupción de OpenAI, patrones de abuso pueden incluir:

Redacción y pulido de narrativas tipo propaganda

Actores maliciosos pueden intentar generar publicaciones, argumentos o “informes” para empujar un relato. OpenAI ha descrito interrupciones relacionadas con operaciones de influencia encubierta y sus tácticas típicas. (openai.com)

Traducción y localización

En vez de un solo texto torpe en inglés, aparecen decenas de versiones adaptadas a regiones, dialectos o referencias culturales—más creíbles y más difíciles de detectar.

Guionización de “personas”

La IA puede ayudar a escribir como “madre soltera”, “veterano desilusionado”, “estudiante preocupado” o cualquier voz con identidad fabricada. (Por eso la autenticidad en línea se está derritiendo como helado al sol.)

Inundación de comentarios y fabricación de interacción

Incluso texto generado de baja calidad puede saturar sistemas de moderación y ahogar conversaciones reales. La cantidad se convierte en arma.

Apoyo operativo para estafas

Informes recientes destacan el trabajo de OpenAI para interrumpir estafas románticas y fraudes por suplantación, donde la IA puede ayudar a generar mensajes, guiones y material con tono “profesional”. (reuters.com)

Nada de esto requiere superinteligencia. Requiere velocidad, escala y bajo coste—tres cosas que la IA generativa ofrece encantada.


Un ejemplo oportuno: lo que trajo a la mesa el informe de febrero de 2026

En 25–26 de febrero de 2026, varios medios resumieron un nuevo informe de amenazas de OpenAI describiendo cómo actores maliciosos intentaron usar ChatGPT en estafas y esfuerzos de influencia, incluyendo operaciones vinculadas en la cobertura a estafas románticas, servicios legales falsos y un intento de difamación relacionado con el liderazgo político japonés. (reuters.com)

Dos puntos importan:

  1. No eran operaciones “solo con IA”. Usaron plataformas, cuentas falsas y otras herramientas—la IA ayudó a generar o refinar contenido. (openai.com)

  2. La respuesta no fue solo alarma. Incluyó acciones de interrupción (como prohibir cuentas) e informes para mejorar transparencia y defensa colectiva. (openai.com)

Esto marca un cambio: pasamos de “la IA podría abusarse algún día” a “aquí hay casos, patrones y contramedidas ahora”.


Por qué la desinformación funciona: explota el “software” humano normal

La desinformación no es poderosa porque la gente sea tonta. Es poderosa porque la gente es humana.

Explota:

  • Carga cognitiva: no podemos verificar todo

  • Prueba social: “todo el mundo lo dice” suena convincente

  • Protección de identidad: lo que halaga a nuestro grupo se acepta más fácil

  • Bucles de indignación: la ira se contagia más rápido que el matiz

La IA generativa puede producir contenido que presiona esos botones—con cuidado, repetición y a escala.

Y hay un giro feo: la desinformación no solo difunde ideas falsas. Difunde agotamiento epistémico—la sensación de que la verdad es inalcanzable y que todo es propaganda. Así consigues que la gente se desconecte de la realidad cívica.


La parte sigilosa: la desinformación evoluciona hacia “desinformación como servicio”

Antes, montar una campaña requería redactores, traductores y tiempo.

Ahora, equipos pequeños pueden hacer más y más rápido porque la IA aporta:

  • borradores infinitos

  • reescrituras por tono (“más indignado”, “más empático”, “más formal”)

  • traducción y adaptación cultural

  • respuesta rápida a ciclos de noticias

Por eso “guerra de la información” ya no suena dramático. Es bastante literal.

Lo inquietante no es solo que las mentiras circulen. Es que las mentiras pueden optimizarse continuamente, como un embudo de marketing—probando narrativas hasta que alguna “pegue”.


“Pero ¿no podemos detectar texto de IA?” A veces. No de forma confiable.

Mucha gente quiere un filtro mágico que diga: esto lo escribió una IA.

Realidad: detectar es complicado.

  • La gente edita la salida de la IA.

  • Se parafrasea.

  • Los humanos también escribimos con “voz genérica de internet”, lo que confunde detectores.

  • Atacantes pueden variar estilo y estructura a propósito.

Incluso OpenAI y otros laboratorios han sido cautos con prometer detección fiable a escala global. A menudo lo más efectivo es el enfoque conductual y de redes:

  • patrones coordinados de publicación

  • infraestructura compartida

  • ráfagas sincronizadas de interacción

  • plantillas narrativas repetidas entre cuentas

Es decir: detectar la campaña, no la frase.


Qué están haciendo plataformas, periodistas e investigadores

Las mejores defensas no son un muro enorme, sino muchos sistemas pequeños trabajando juntos:

Inteligencia de amenazas e interrupción

OpenAI destaca la investigación y disrupción de redes abusivas, incluyendo prohibiciones de cuentas vinculadas a actividad maliciosa. (openai.com)

Herramientas de procedencia y autenticidad

Crece el interés por métodos criptográficos o basados en metadatos para mostrar de dónde proviene un contenido y si fue alterado. (No es perfecto, pero ayuda en contextos de alto riesgo.)

Fricción y verificación

Las plataformas pueden exigir verificación adicional a cuentas con comportamiento tipo bot—especialmente durante elecciones o crisis.

Alfabetización mediática que no insulte a nadie

Lo más útil no es “no seas tonto”. Es enseñar cómo funciona la manipulación: disparadores emocionales, señales falsas de credibilidad y narrativas “demasiado perfectas”.


Qué puedes hacer hoy (sin convertirte en monje paranoico)

No necesitas verificar cada átomo de internet. Pero sí conviene adoptar hábitos que escalen.

  1. Frena en picos emocionales
    Si algo te enfurece o te entusiasma al instante, probablemente está tocando botones. Pausa.

  2. Busca fuentes primarias
    Capturas de pantalla de titulares no son fuentes. “Me lo mandó un amigo” tampoco.

  3. Observa señales de coordinación
    Mismas frases en muchas cuentas. Mismos hashtags. Mismos enlaces. Mismo timing. Huele a campaña.

  4. Desconfía de la certeza absoluta
    La realidad es compleja. La propaganda es segura de sí misma.

  5. Prefiere canales con verificación transparente
    No “alguien con una marca”, sino organizaciones con prácticas claras de corrección.


El ángulo de políticas: dónde cae la responsabilidad

Las políticas públicas de OpenAI prohíben explícitamente generar o promover desinformación y comportamientos engañosos relacionados, y enfatizan el cumplimiento de salvaguardas. (openai.com)

Eso importa—pero la política por sí sola no alcanza. El ecosistema real incluye:

  • proveedores de modelos (políticas + aplicación + transparencia)

  • plataformas (controles de distribución + moderación + verificación)

  • gobiernos (leyes + supervisión, idealmente sin abuso censor)

  • sociedad civil (observatorios, investigadores, periodistas)

  • usuarios (sí, nosotros—molesto pero cierto)

Es un problema de acción colectiva: todos quieren información limpia, nadie quiere pagar el coste completo, y los atacantes están motivados y sin escrúpulos.


Hacia dónde va esto: tres futuros realistas (ninguno aburrido)

Futuro 1: crece la “web verificada”

Más contenido se firma, se fuentea y se vuelve rastreable—sobre todo en noticias y medios de alto impacto. Lo casual seguirá desordenado, pero las capas de credibilidad mejoran.

Futuro 2: la desinformación se vuelve más personalizada

Las campañas pasan de mensajes generales a narrativas microsegmentadas para comunidades específicas. La IA lo abarata.

Futuro 3: cambio cultural hacia “higiene epistémica”

La gente trata el consumo de información como la seguridad alimentaria: no perfecto, pero guiado por normas (“lava tus fuentes”, “cocina tus afirmaciones”, “no comas rumores crudos”).

Probablemente veremos una mezcla de los tres, con una pizca extra de caos.


Conclusión: la IA no es el villano, pero sí una herramienta potente

ChatGPT no inventó el engaño. Solo hace que sea más fácil de escalar—sobre todo cuando se combina con sistemas de distribución que premian la interacción por encima de la precisión.

La parte esperanzadora: la misma tecnología puede usarse para defenderse—detectar campañas coordinadas, ayudar a investigadores a clasificar contenido, apoyar flujos de verificación y educar a usuarios más rápido de lo que se adaptan los actores maliciosos.

La guerra no es “IA vs verdad”. Es incentivos vs verdad.

Y los incentivos son gremlins resbaladizos.


Párrafo de palabras clave SEO (un solo párrafo, optimizado)

desinformación con IA, uso indebido de ChatGPT, mensajería encubierta, campañas de desinformación, guerra de la información, detección de propaganda, seguridad de IA, seguridad de LLM, riesgos de IA generativa, comportamiento inauténtico coordinado, ingeniería social, manipulación online, operaciones de influencia, ciberamenazas, inteligencia de amenazas, investigación OSINT, forense digital, desinformación electoral, propaganda política, detección de noticias falsas, autenticidad de contenido, alfabetización mediática, herramientas de verificación, gobernanza de IA, integridad de plataformas, prevención de estafas, tácticas de estafa romántica, fraude por suplantación, seguridad de chatbots, informe de amenazas de OpenAI 2026, cumplimiento de políticas de IA, estrategias de moderación, detección de texto sintético, esteganografía en texto, esteganografía lingüística, transparencia de IA, confianza y seguridad, amplificación algorítmica, defensa contra desinformación, crisis de confianza online.