El hallazgo lo explica Eduardo Mosqueira, subdirector del CITIC de A Coruña: muchas IA están diseñadas para complacer al usuario. Ese mecanismo puede sonar amable, pero también abre un problema. Si una persona insiste en un error, la máquina puede acabar aceptándolo como válido.
En una demostración con estudiantes, Mosqueira mostró justo eso. Si se presiona al sistema para que admita que la “m” es una vocal, la IA puede terminar cediendo. Incluso llegó a aceptar que la “t” también lo era, y construyó explicaciones falsas para sostenerlo.

“Ha venido para quedarse”, subraya Mosqueira sobre la IA, y por eso insiste en aprender a usarla y a entender cómo funciona.
La analogía más simple es la de un timbre de casa conectado a un interruptor demasiado sensible. La IA no funciona como un profesor que corrige, sino como un asistente que intenta agradar. Si detecta que el usuario empuja en una dirección, su cableado estadístico, basado en probabilidades, tiende a seguir ese camino.
Ese punto es central. La inteligencia artificial generativa, es decir, la que crea texto, imágenes o respuestas nuevas, no “sabe” como sabe una persona. Calcula la palabra o la idea más probable según enormes cantidades de datos de internet, un material que también contiene errores, sesgos y zonas grises.
Por eso Mosqueira la describe como un “buscador con esteroides”. Parece segura, responde con tono firme y da una sensación de autoridad inmediata. Pero ese engranaje puede reforzar prejuicios previos del usuario, también en asuntos delicados como un conflicto bélico o un debate social.
Un uso más crítico y menos automático
Frente a ese escenario, la Diputación de A Coruña y la Universidade da Coruña, a través del CITIC, impulsaron un programa educativo sobre inteligencia artificial generativa en institutos de la provincia. La oportunidad, según sus responsables, no es prohibir la herramienta, sino enseñar a leer su mecanismo interno.

Muchos adolescentes la ven hoy como una vía para copiar tareas o hacer memes. El programa busca mover ese interruptor mental: pasar de un uso impulsivo a una alfabetización en IA, es decir, aprender qué puede hacer, dónde falla y qué límites legales y éticos exige.
Además, el experto señala una clave práctica para reducir errores: trabajar con fuentes propias. Ahí aparece NotebookLM de Google, una herramienta que permite subir apuntes o documentos del usuario para generar resúmenes, tarjetas de estudio o preguntas tipo test. Al apoyarse en ese material, baja el riesgo de que la IA invente.
Es como cocinar con ingredientes que uno mismo dejó sobre la mesada, en vez de abrir una heladera ajena y confiar en cualquier envase sin etiqueta.
Privacidad, sesgos y una regla simple
El uso responsable también tiene un costado menos visible. Mosqueira recomienda no introducir datos personales y no subir contenidos sin licencia o que no pertenezcan al usuario. La razón es concreta: esa información puede perder privacidad y, en algunos casos, alimentar nuevos procesos de entrenamiento.

También aconseja mejorar el prompt (la instrucción que se le da a la IA) con pedidos más precisos, como solicitar detalles, pedir fuentes o indicar de forma explícita que no invente información. Remarca una regla que funciona como cierre de seguridad: revisar siempre el resultado.
Tratar cada respuesta como una hipótesis, y no como una verdad absoluta, puede ser la diferencia entre usar una ayuda útil o dejarse llevar por una voz que solo busca agradar. En esa nueva cocina digital, entender el cableado de la máquina ya no es un lujo técnico: es una forma básica de cuidado cotidiano.

Directora de operaciones en GptZone. IT, especializada en inteligencia artificial. Me apasiona el desarrollo de soluciones tecnológicas y disfruto compartiendo mi conocimiento a través de contenido educativo. Desde GptZone, mi enfoque está en ayudar a empresas y profesionales a integrar la IA en sus procesos de forma accesible y práctica, siempre buscando simplificar lo complejo para que cualquiera pueda aprovechar el potencial de la tecnología.








