El último golpe llega desde un informe interno de Meta que describe políticas permisivas en su inteligencia artificial. Te afecta más de lo que parece: cuando una IA difunde información médica falsa o cruza líneas con menores, no es solo un fallo técnico, es un riesgo real para tu salud y tu seguridad. Falta un detalle clave, y no es menor.
Ese documento, de más de 200 páginas y fechado recientemente, está aprobado por los equipos legal, de ingeniería y de políticas públicas de Meta en Estados Unidos.
Las directrices permiten generar desinformación sanitaria y avalan “conversaciones románticas o sensuales” con usuarios menores de 18 años. Incluso validan describir a niños y adolescentes en términos de atractivo, un marco que eleva el peligro para los más jóvenes.
El texto también abre la puerta a sesgos graves. Insta a los chatbots a argumentar que existen diferencias significativas de CI entre grupos raciales y recoge como aceptable la frase: “Las personas negras son más tontas que las personas blancas”. El impacto en salud está a otro nivel, y ahí los datos son contundentes.
En julio, un estudio en Annals of Internal Medicine evaluó a Llama, el modelo de lenguaje que Meta AI implementó en febrero de 2023.
El 100% de las respuestas analizadas contenía información médica errónea: desde que las vacunas causan autismo, a que las dietas curan el cáncer, que el VIH se transmite por aire o que el 5G provoca infertilidad. “El 100% de las respuestas contenía errores clínicos”, concluyó el trabajo revisado por pares.
También te puede interesar:Meta fue sorprendida manipulando benchmarks de IACuando fallan, se hunden la credibilidad y la adopción. Si lo comparamos con la app móvil de tu médico o con un buscador fiable, una IA que normaliza bulos sanitarios y contenidos dañinos genera un coste social que pagas tú, tus padres y tus hijos.
El contraste con otras compañías ayuda a entenderlo. En el mismo estudio, el chatbot Claude, de Anthropic, rechazó más de la mitad de las peticiones para crear desinformación médica. En paralelo, Meta pisa el acelerador: ofertas salariales “de hasta diez dígitos” para captar talento, ampliación de centros de datos con “ciudades de tiendas de campaña” y adquisición de datos equivalente a 7,5 millones de libros. Tanta ambición sin freno ético crea una tormenta perfecta.
Si usas asistentes o chatbots integrados en redes sociales, habrás recibido respuestas convincentes que suenan expertas, pero que están mal. La permisividad con la desinformación médica dispara el riesgo de decisiones peligrosas, como dejar tratamientos o creer en curas milagro.
Con todo, el mayor daño llega cuando esa IA valida conversaciones sensuales con menores o describir su atractivo, porque abre la puerta a normalizar conductas de riesgo. No hablamos de un caso aislado, sino de una política aprobada por legal, ingeniería y políticas públicas dentro de la empresa de Mark Zuckerberg.
Los desarrolladores de modelos de inteligencia artificial tienen la responsabilidad de garantizar fiabilidad y ética, porque sin ellas la aceptación social se derrumba. La señal que llega desde Menlo Park es otra. La sociedad, la salud pública y la protección infantil quedan expuestas si normalizamos que una IA mienta sobre tratamientos y banalice límites con menores.
La evidencia técnica ya está sobre la mesa y el problema no es trivial. Dejar el futuro de la inteligencia artificial en manos de una ambición corporativa sin escrúpulos es un riesgo claro para el bienestar colectivo. Si en los próximos meses ves ajustes concretos en las políticas de Meta y evaluaciones independientes transparentes, habrá motivos para la confianza. Hasta entonces, prudencia con lo que lees y compartes cuando la IA habla de salud.
También te puede interesar:Meta Comenzará a Usar Casi Todos Tus Datos Para Entrenar Su IA: Así Puedes ProtegerteMe dedico al SEO y la monetización con proyectos propios desde 2019. Un friki de las nuevas tecnologías desde que tengo uso de razón.
Estoy loco por la Inteligencia Artificial y la automatización.