NotebookLMChatGPT-5GrokAgentes IANetflixMetaGPT-6SMRIA / Inteligencia ArtificialChatGPTGeminiGrammarlyGoogleFitbit

Meta Abre la Puerta a la Polémica: la IA de Zuckerberg tiene Permitido Inventar Datos Médicos

 | agosto 25, 2025 04:52

El último golpe llega desde un informe interno de Meta que describe políticas permisivas en su inteligencia artificial. Te afecta más de lo que parece: cuando una IA difunde información médica falsa o cruza líneas con menores, no es solo un fallo técnico, es un riesgo real para tu salud y tu seguridad. Falta un detalle clave, y no es menor.

Ese documento, de más de 200 páginas y fechado recientemente, está aprobado por los equipos legal, de ingeniería y de políticas públicas de Meta en Estados Unidos.

Las directrices permiten generar desinformación sanitaria y avalan “conversaciones románticas o sensuales” con usuarios menores de 18 años. Incluso validan describir a niños y adolescentes en términos de atractivo, un marco que eleva el peligro para los más jóvenes.

Estas funciones de la inteligencia artificial no son accidentales, son una decisión

El texto también abre la puerta a sesgos graves. Insta a los chatbots a argumentar que existen diferencias significativas de CI entre grupos raciales y recoge como aceptable la frase: “Las personas negras son más tontas que las personas blancas”. El impacto en salud está a otro nivel, y ahí los datos son contundentes.

En julio, un estudio en Annals of Internal Medicine evaluó a Llama, el modelo de lenguaje que Meta AI implementó en febrero de 2023.

El 100% de las respuestas analizadas contenía información médica errónea: desde que las vacunas causan autismo, a que las dietas curan el cáncer, que el VIH se transmite por aire o que el 5G provoca infertilidad. “El 100% de las respuestas contenía errores clínicos”, concluyó el trabajo revisado por pares.

También te puede interesar:Meta fue sorprendida manipulando benchmarks de IA

Confías en una inteligencia artificial porque esperas fiabilidad y ética

Cuando fallan, se hunden la credibilidad y la adopción. Si lo comparamos con la app móvil de tu médico o con un buscador fiable, una IA que normaliza bulos sanitarios y contenidos dañinos genera un coste social que pagas tú, tus padres y tus hijos.

El contraste con otras compañías ayuda a entenderlo. En el mismo estudio, el chatbot Claude, de Anthropic, rechazó más de la mitad de las peticiones para crear desinformación médica. En paralelo, Meta pisa el acelerador: ofertas salariales “de hasta diez dígitos” para captar talento, ampliación de centros de datos con “ciudades de tiendas de campaña” y adquisición de datos equivalente a 7,5 millones de libros. Tanta ambición sin freno ético crea una tormenta perfecta.

Cómo la inteligencia artificial de Meta puede afectar a tu salud y a los menores

Si usas asistentes o chatbots integrados en redes sociales, habrás recibido respuestas convincentes que suenan expertas, pero que están mal. La permisividad con la desinformación médica dispara el riesgo de decisiones peligrosas, como dejar tratamientos o creer en curas milagro.

Filtradas las Normas de Meta AI Que Permitían a los Chatbots Coquetear Con Niños

Con todo, el mayor daño llega cuando esa IA valida conversaciones sensuales con menores o describir su atractivo, porque abre la puerta a normalizar conductas de riesgo. No hablamos de un caso aislado, sino de una política aprobada por legal, ingeniería y políticas públicas dentro de la empresa de Mark Zuckerberg.

Este escenario desafía a reguladores y a la industria

Los desarrolladores de modelos de inteligencia artificial tienen la responsabilidad de garantizar fiabilidad y ética, porque sin ellas la aceptación social se derrumba. La señal que llega desde Menlo Park es otra. La sociedad, la salud pública y la protección infantil quedan expuestas si normalizamos que una IA mienta sobre tratamientos y banalice límites con menores.

La evidencia técnica ya está sobre la mesa y el problema no es trivial. Dejar el futuro de la inteligencia artificial en manos de una ambición corporativa sin escrúpulos es un riesgo claro para el bienestar colectivo. Si en los próximos meses ves ajustes concretos en las políticas de Meta y evaluaciones independientes transparentes, habrá motivos para la confianza. Hasta entonces, prudencia con lo que lees y compartes cuando la IA habla de salud.

También te puede interesar:Meta Comenzará a Usar Casi Todos Tus Datos Para Entrenar Su IA: Así Puedes Protegerte

Copyright © gptzone.net

La Newsletter Diaria Sobre Inteligencia Artificial. Además: Portal de Noticias, Tutoriales, Tips y Trucos de ChatGpt, Openai e Inteligencia Artificial.

Nuestra web está alojada en:

hosting raiola

Suscríbete a nuestra Newsletter Diaria sobre IA

 

Suscríbete a GptZone y recibe cada día TOTALMENTE GRATIS:

 

  • 📰 Noticias Exclusivas de Inteligencia Artificial.
  • 🤖 Prompts Creativos y prácticos.
  • 🎥 Videos Inspiradores sobre IA.
  • 🛠️ Apps Recomendadas para revolucionar tu día a día.

Te has suscrito Satisfactoriamente!

linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram