¿Porqué despidieron a Sam Altman?GoogleOpenAIWeekly VibeKoahGeminiVodafoneAgentes IADeepseekBumblebee AIChatGPTyoutubeSam AltmanMetaArtists&Clients

Sam Altman Advierte Que Los Bots Hacen Que Las Redes Sociales Parezcan Falsas

 | septiembre 9, 2025 07:34

Abres tu feed y todo suena parecido, ¿te pasa? La sensación de que no sabes si lees a personas reales o a máquinas no es casual. Sam Altman, cara visible de la IA y accionista de Reddit, confiesa que hoy cuesta distinguirlo, y pone el foco en los bots en redes sociales. Aquí te contamos por qué lo piensa, qué datos hay sobre la mesa y qué puedes hacer tú.

La conversación arranca en un subreddit de programación, pasa por X y toca preguntas incómodas sobre el papel de los modelos de lenguaje. No todo es culpa de la tecnología. También influyen los incentivos de las plataformas, la monetización de creadores y el intento de llamar tu atención.

Bots en redes sociales: la preocupación de Sam Altman explicada

La reflexión de Altman aparece mientras lee y comparte publicaciones en r/Claudecode, donde una oleada de mensajes elogia a OpenAI Codex. Él, entusiasta de X y accionista de Reddit, admite que el crecimiento de Codex es real, pero le parece que muchas voces no suenan humanas. Con todo, su duda no acusa a nadie en concreto, sino que expone un clima extraño en las plataformas.

Su pregunta va más allá del caso puntual: ¿hasta qué punto los bots en redes sociales dominan la conversación cuando la escritura generada por IA ya imita muy bien la nuestra? Si lo comparas con hace uno o dos años, él percibe todo “más falso” y más difícil de juzgar con un vistazo rápido.

OpenAI Codex vs Claude Code: del subreddit a la sospecha de automatización

OpenAI lanzó Codex en mayo con la clara intención de competir con Claude Code de Anthropic. En r/Claudecode, los posts de supuestos usuarios que “se cambian” a Codex se multiplican tanto que alguien bromea: ¿se puede migrar sin anunciarlo en Reddit? Altman no afirma que sean bots, solo comparte que le cuesta creer que todas esas opiniones sean de personas.

También te puede interesar:El Impactante Despido de Sam Altman: ¿Qué Ocurrió Realmente en OpenAI?

En cualquier caso, su comentario refleja algo que tú también notas a veces: cuando llegan nuevas funciones, la conversación se polariza y los bots en redes sociales encuentran hueco para amplificar mensajes. Entre halagos encadenados, capturas y promesas, todo suena demasiado coreografiado.

Factores que hacen que los bots parezcan humanos en redes

Altman desglosa varios motivos que mezclan técnica y comportamiento. No te quedes con uno solo, porque el efecto conjunto crea la sensación de “todo es igual”. Estos son los puntos clave que menciona para explicar por qué los bots en redes sociales confunden tanto:

  • Estilo de los LLM: personas reales adoptan giros y patrones de los modelos, y eso homogeneiza la escritura.
  • Usuarios hiperactivos: quienes publican mucho tienden a parecerse entre sí en tono, ritmo y formatos.
  • Ciclos de entusiasmo y desencanto: el péndulo pasa del hype al enfado, y los extremos copan visibilidad.
  • Plataformas orientadas al engagement: todo se optimiza para clics y tiempo en pantalla, no para matices.
  • Monetización de creadores: cuando el ingreso depende del rendimiento, el contenido se vuelve más “vendible”.
  • Astroturfing: campañas que simulan apoyo “espontáneo” con cuentas pagadas o automatizadas.

Él mismo admite que, en el caso concreto del subreddit, no hay pruebas firmes de astroturfing. La posibilidad existe, pero no se sostiene con evidencias públicas.

Astroturfing en redes sociales: qué es y por qué cuesta probarlo

El astroturfing consiste en publicar mensajes que parecen de usuarios corrientes, pero en realidad los paga una empresa o un tercero para impulsar una narrativa. Esta táctica niega vínculos directos y se ejecuta con personas, con bots en redes sociales o con ambos. Por eso, separar opinión legítima de campaña encubierta resulta tan complejo.

Astroturfing en redes sociales

Con todo, el artículo original subraya que no hay pruebas de que esto ocurra en el caso que comenta Altman. Tú puedes sospechar, sí, pero sin datos verificables solo tienes indicios. Y esa falta de claridad alimenta el cansancio general con el ruido de las plataformas.

Del hype al enfado: GPT 5.0 y la ola de críticas en Reddit

Tras la salida accidentada de GPT 5.0, la comunidad de OpenAI en Reddit pasó de los aplausos a una cascada de quejas que cosecharon muchos votos positivos. Altman se presentó en un ask-me-anything en r/GPT, reconoció problemas de lanzamiento y prometió cambios. La comunidad no recupera aquel entusiasmo y las publicaciones críticas siguen apareciendo.

También te puede interesar:Sam Altman Advierte Que EE.UU. Subestima La Amenaza de IA De Próxima Generación China

Él plantea otra duda incómoda: ¿y si parte del malestar lo amplifican bots en redes sociales o personas que fingen serlo? Tú puedes no estar de acuerdo con GPT 5.0 por motivos reales, pero cuando el tono general se homogeneiza, distinguir lo genuino del guion se vuelve difícil.

¿Los LLM agravan el problema de los bots en redes sociales?

Los modelos de lenguaje ya escriben con soltura y eso cambia el juego. Según la empresa de ciberseguridad Imperva, más de la mitad del tráfico de internet en 2024 fue no humano, impulsado en gran parte por el uso de LLM. Este dato no prueba manipulación por sí mismo, pero encaja con la sensación de que los bots en redes sociales proliferan.

Por otra parte, el bot Grok en X estima que hay cientos de millones de cuentas automatizadas en esa plataforma, aunque no existen cifras públicas exactas. Si añadimos educación, periodismo y justicia al cóctel, entiendes por qué Altman cree que el problema ya no se limita al “spam” de antaño. El alcance de la IA generativa multiplica los incentivos.

¿OpenAI lanzará una red social? Rumores y la paradoja de los bots

Algunos cínicos interpretan las palabras de Altman como un globo sonda para una futura red social de OpenAI que compita con X y Facebook. No hay confirmación de su existencia. Y aquí aparece la paradoja: si esa plataforma naciera, ¿podría estar libre de bots en redes sociales? Lo más probable es que no, por pura dinámica del ecosistema.

Incluso imaginar una red que vetara a personas y solo dejara entrar a bots no resolvería gran cosa. Las IAs pueden seguir fabricando desinformación, sesgos y ruido. La tecnología, por sí sola, no elimina la conducta oportunista ni los incentivos para manipular conversación.

Qué aprendemos de una red social formada solo por bots

Un experimento de la Universidad de Ámsterdam construyó una red compuesta únicamente por agentes automatizados. El resultado fue claro: los bots crearon clanes y cámaras de eco en poco tiempo. Si lo piensas, no necesitas humanos para que aparezcan burbujas, ya que el algoritmo y los objetivos de “ganar atención” empujan en esa dirección.

Con todo, este experimento no implica que la convivencia esté perdida. Sí muestra que, si dejas a los bots en redes sociales con objetivos de impacto, tenderán a agruparse y amplificar ciertos mensajes. Tu lectura crítica y algunas prácticas sencillas ayudan a no caer en la rueda.

Cómo detectar señales de bots en redes sociales paso a paso

Identificar un bot no es ciencia exacta, pero puedes aplicar un filtro rápido si quieres reducir errores. Para ello, sigue una comprobación corta cada vez que dudes. Recuerda que los falsos positivos existen y que hay cuentas humanas que también se comportan de forma extraña.

  1. Revisa el histórico: abre el perfil y mira si hay picos anómalos de actividad o publicaciones a horas imposibles de forma sostenida.
  2. Busca variedad: examina si repite el mismo mensaje con pequeñas variaciones en varios hilos o si solo publica enlaces promocionales.
  3. Analiza el estilo: detecta frases genéricas, elogios o críticas muy amplias sin ejemplos concretos ni detalles técnicos cuando serían esperables.
  4. Comprueba la red: observa interacciones siempre con los mismos perfiles y respuestas instantáneas tipo plantilla.
  5. Pide fuente: pregunta por datos o capturas verificables; si evita aportar nada, pon el post en cuarentena.

Qué puedes hacer para informarte mejor en un internet lleno de bots

Antes de compartir, espera unos minutos y contrasta con otra fuente. Evita amplificar campañas si priorizas cuentas que citen documentos, repositorios o demostraciones. Recuerda que los bots en redes sociales copian estas señales, así que intenta comprobar que los enlaces no te llevan a contenidos clonados.

Por último, sigue comunidades técnicas con moderación activa y normas claras, y acepta que no todo lo sabrás al instante. En cualquier caso, el objetivo no es “cazar” cada bot, sino reducir tu exposición al ruido y mejorar tu criterio en medio del flujo constante de publicaciones.

La idea fuerza queda clara: distinguir entre humanos y bots en redes sociales es cada vez más difícil, y Sam Altman solo pone palabras a algo que tú ya percibes. Entre el caso de Codex y Claude Code, el vaivén con GPT 5.0, los datos de Imperva y las estimaciones de Grok, el clima apunta a más automatización y más ruido.

Copyright © gptzone.net

La Newsletter Diaria Sobre Inteligencia Artificial. Además: Portal de Noticias, Tutoriales, Tips y Trucos de ChatGpt, Openai e Inteligencia Artificial.

Nuestra web está alojada en:

hosting raiola

Suscríbete a nuestra Newsletter Diaria sobre IA

 

Suscríbete a GptZone y recibe cada día TOTALMENTE GRATIS:

 

  • 📰 Noticias Exclusivas de Inteligencia Artificial.
  • 🤖 Prompts Creativos y prácticos.
  • 🎥 Videos Inspiradores sobre IA.
  • 🛠️ Apps Recomendadas para revolucionar tu día a día.

Te has suscrito Satisfactoriamente!

linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram