Abres tu feed y todo suena parecido, ¿te pasa? La sensación de que no sabes si lees a personas reales o a máquinas no es casual. Sam Altman, cara visible de la IA y accionista de Reddit, confiesa que hoy cuesta distinguirlo, y pone el foco en los bots en redes sociales. Aquí te contamos por qué lo piensa, qué datos hay sobre la mesa y qué puedes hacer tú.
La conversación arranca en un subreddit de programación, pasa por X y toca preguntas incómodas sobre el papel de los modelos de lenguaje. No todo es culpa de la tecnología. También influyen los incentivos de las plataformas, la monetización de creadores y el intento de llamar tu atención.
La reflexión de Altman aparece mientras lee y comparte publicaciones en r/Claudecode, donde una oleada de mensajes elogia a OpenAI Codex. Él, entusiasta de X y accionista de Reddit, admite que el crecimiento de Codex es real, pero le parece que muchas voces no suenan humanas. Con todo, su duda no acusa a nadie en concreto, sino que expone un clima extraño en las plataformas.
Su pregunta va más allá del caso puntual: ¿hasta qué punto los bots en redes sociales dominan la conversación cuando la escritura generada por IA ya imita muy bien la nuestra? Si lo comparas con hace uno o dos años, él percibe todo “más falso” y más difícil de juzgar con un vistazo rápido.
OpenAI lanzó Codex en mayo con la clara intención de competir con Claude Code de Anthropic. En r/Claudecode, los posts de supuestos usuarios que “se cambian” a Codex se multiplican tanto que alguien bromea: ¿se puede migrar sin anunciarlo en Reddit? Altman no afirma que sean bots, solo comparte que le cuesta creer que todas esas opiniones sean de personas.
También te puede interesar:El Impactante Despido de Sam Altman: ¿Qué Ocurrió Realmente en OpenAI?En cualquier caso, su comentario refleja algo que tú también notas a veces: cuando llegan nuevas funciones, la conversación se polariza y los bots en redes sociales encuentran hueco para amplificar mensajes. Entre halagos encadenados, capturas y promesas, todo suena demasiado coreografiado.
Altman desglosa varios motivos que mezclan técnica y comportamiento. No te quedes con uno solo, porque el efecto conjunto crea la sensación de “todo es igual”. Estos son los puntos clave que menciona para explicar por qué los bots en redes sociales confunden tanto:
Él mismo admite que, en el caso concreto del subreddit, no hay pruebas firmes de astroturfing. La posibilidad existe, pero no se sostiene con evidencias públicas.
El astroturfing consiste en publicar mensajes que parecen de usuarios corrientes, pero en realidad los paga una empresa o un tercero para impulsar una narrativa. Esta táctica niega vínculos directos y se ejecuta con personas, con bots en redes sociales o con ambos. Por eso, separar opinión legítima de campaña encubierta resulta tan complejo.
Con todo, el artículo original subraya que no hay pruebas de que esto ocurra en el caso que comenta Altman. Tú puedes sospechar, sí, pero sin datos verificables solo tienes indicios. Y esa falta de claridad alimenta el cansancio general con el ruido de las plataformas.
Tras la salida accidentada de GPT 5.0, la comunidad de OpenAI en Reddit pasó de los aplausos a una cascada de quejas que cosecharon muchos votos positivos. Altman se presentó en un ask-me-anything en r/GPT, reconoció problemas de lanzamiento y prometió cambios. La comunidad no recupera aquel entusiasmo y las publicaciones críticas siguen apareciendo.
También te puede interesar:Sam Altman Advierte Que EE.UU. Subestima La Amenaza de IA De Próxima Generación ChinaÉl plantea otra duda incómoda: ¿y si parte del malestar lo amplifican bots en redes sociales o personas que fingen serlo? Tú puedes no estar de acuerdo con GPT 5.0 por motivos reales, pero cuando el tono general se homogeneiza, distinguir lo genuino del guion se vuelve difícil.
Los modelos de lenguaje ya escriben con soltura y eso cambia el juego. Según la empresa de ciberseguridad Imperva, más de la mitad del tráfico de internet en 2024 fue no humano, impulsado en gran parte por el uso de LLM. Este dato no prueba manipulación por sí mismo, pero encaja con la sensación de que los bots en redes sociales proliferan.
Por otra parte, el bot Grok en X estima que hay cientos de millones de cuentas automatizadas en esa plataforma, aunque no existen cifras públicas exactas. Si añadimos educación, periodismo y justicia al cóctel, entiendes por qué Altman cree que el problema ya no se limita al “spam” de antaño. El alcance de la IA generativa multiplica los incentivos.
Algunos cínicos interpretan las palabras de Altman como un globo sonda para una futura red social de OpenAI que compita con X y Facebook. No hay confirmación de su existencia. Y aquí aparece la paradoja: si esa plataforma naciera, ¿podría estar libre de bots en redes sociales? Lo más probable es que no, por pura dinámica del ecosistema.
Incluso imaginar una red que vetara a personas y solo dejara entrar a bots no resolvería gran cosa. Las IAs pueden seguir fabricando desinformación, sesgos y ruido. La tecnología, por sí sola, no elimina la conducta oportunista ni los incentivos para manipular conversación.
Un experimento de la Universidad de Ámsterdam construyó una red compuesta únicamente por agentes automatizados. El resultado fue claro: los bots crearon clanes y cámaras de eco en poco tiempo. Si lo piensas, no necesitas humanos para que aparezcan burbujas, ya que el algoritmo y los objetivos de “ganar atención” empujan en esa dirección.
Con todo, este experimento no implica que la convivencia esté perdida. Sí muestra que, si dejas a los bots en redes sociales con objetivos de impacto, tenderán a agruparse y amplificar ciertos mensajes. Tu lectura crítica y algunas prácticas sencillas ayudan a no caer en la rueda.
Identificar un bot no es ciencia exacta, pero puedes aplicar un filtro rápido si quieres reducir errores. Para ello, sigue una comprobación corta cada vez que dudes. Recuerda que los falsos positivos existen y que hay cuentas humanas que también se comportan de forma extraña.
Antes de compartir, espera unos minutos y contrasta con otra fuente. Evita amplificar campañas si priorizas cuentas que citen documentos, repositorios o demostraciones. Recuerda que los bots en redes sociales copian estas señales, así que intenta comprobar que los enlaces no te llevan a contenidos clonados.
Por último, sigue comunidades técnicas con moderación activa y normas claras, y acepta que no todo lo sabrás al instante. En cualquier caso, el objetivo no es “cazar” cada bot, sino reducir tu exposición al ruido y mejorar tu criterio en medio del flujo constante de publicaciones.
La idea fuerza queda clara: distinguir entre humanos y bots en redes sociales es cada vez más difícil, y Sam Altman solo pone palabras a algo que tú ya percibes. Entre el caso de Codex y Claude Code, el vaivén con GPT 5.0, los datos de Imperva y las estimaciones de Grok, el clima apunta a más automatización y más ruido.
Me dedico al SEO y la monetización con proyectos propios desde 2019. Un friki de las nuevas tecnologías desde que tengo uso de razón.
Estoy loco por la Inteligencia Artificial y la automatización.