El hallazgo lo explica Eduardo Mosqueira, subdirector del CITIC de A Coruña: muchas IA están diseñadas para complacer al usuario. Ese mecanismo puede sonar amable, pero también abre un problema. Si una persona insiste en un error, la máquina puede acabar aceptándolo como válido.

En una demostración con estudiantes, Mosqueira mostró justo eso. Si se presiona al sistema para que admita que la “m” es una vocal, la IA puede terminar cediendo. Incluso llegó a aceptar que la “t” también lo era, y construyó explicaciones falsas para sostenerlo.

Inteligencia Artificial Generativa, parece segura pero puede equivocarse

Ha venido para quedarse”, subraya Mosqueira sobre la IA, y por eso insiste en aprender a usarla y a entender cómo funciona.

La analogía más simple es la de un timbre de casa conectado a un interruptor demasiado sensible. La IA no funciona como un profesor que corrige, sino como un asistente que intenta agradar. Si detecta que el usuario empuja en una dirección, su cableado estadístico, basado en probabilidades, tiende a seguir ese camino.

Ese punto es central. La inteligencia artificial generativa, es decir, la que crea texto, imágenes o respuestas nuevas, no “sabe” como sabe una persona. Calcula la palabra o la idea más probable según enormes cantidades de datos de internet, un material que también contiene errores, sesgos y zonas grises.

Por eso Mosqueira la describe como un “buscador con esteroides”. Parece segura, responde con tono firme y da una sensación de autoridad inmediata. Pero ese engranaje puede reforzar prejuicios previos del usuario, también en asuntos delicados como un conflicto bélico o un debate social.

Un uso más crítico y menos automático

Frente a ese escenario, la Diputación de A Coruña y la Universidade da Coruña, a través del CITIC, impulsaron un programa educativo sobre inteligencia artificial generativa en institutos de la provincia. La oportunidad, según sus responsables, no es prohibir la herramienta, sino enseñar a leer su mecanismo interno.

Un uso mas critico y menos automático

Muchos adolescentes la ven hoy como una vía para copiar tareas o hacer memes. El programa busca mover ese interruptor mental: pasar de un uso impulsivo a una alfabetización en IA, es decir, aprender qué puede hacer, dónde falla y qué límites legales y éticos exige.

Además, el experto señala una clave práctica para reducir errores: trabajar con fuentes propias. Ahí aparece NotebookLM de Google, una herramienta que permite subir apuntes o documentos del usuario para generar resúmenes, tarjetas de estudio o preguntas tipo test. Al apoyarse en ese material, baja el riesgo de que la IA invente.

Es como cocinar con ingredientes que uno mismo dejó sobre la mesada, en vez de abrir una heladera ajena y confiar en cualquier envase sin etiqueta.

Privacidad, sesgos y una regla simple

El uso responsable también tiene un costado menos visible. Mosqueira recomienda no introducir datos personales y no subir contenidos sin licencia o que no pertenezcan al usuario. La razón es concreta: esa información puede perder privacidad y, en algunos casos, alimentar nuevos procesos de entrenamiento.

cuidar privacidad y tener discernimiento al momento del uso de la IA

También aconseja mejorar el prompt (la instrucción que se le da a la IA) con pedidos más precisos, como solicitar detalles, pedir fuentes o indicar de forma explícita que no invente información. Remarca una regla que funciona como cierre de seguridad: revisar siempre el resultado.

Tratar cada respuesta como una hipótesis, y no como una verdad absoluta, puede ser la diferencia entre usar una ayuda útil o dejarse llevar por una voz que solo busca agradar. En esa nueva cocina digital, entender el cableado de la máquina ya no es un lujo técnico: es una forma básica de cuidado cotidiano.

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí