Agentes IAIA / Inteligencia ArtificialIA generativaGoogleGPT-5ChatGPTMetaPau García-MilàQwenpromptscopilotPixel 10chips cerebralesDexmeta ai

Experto Uruguayo, Eduardo Mangarelli, Analiza Riesgos de IA y Revela Cómo Evitar que Invente Información

 | agosto 21, 2025 23:34

En un taller reciente en la Universidad ORT, el decano Eduardo Mangarelli puso el foco en algo que te afecta a diario: cómo usar la inteligencia artificial sin caer en errores que parecen convincentes. Importa porque, si trabajas con textos, datos o imágenes, una mala respuesta puede colarse sin que te des cuenta. Falta un detalle clave para evitarlo y aparece justo después.

El encuentro reunió a periodistas en Montevideo y giró en torno a la IA generativa hoy, no en un futuro lejano. Mangarelli pidió un enfoque equilibrado: ni euforia ni miedo. Te explicó que solo vas a entender el fenómeno si sabes cómo funciona, cuáles son sus límites y por qué a veces “se inventa cosas”.

Estos sistemas no “piensan”

Operan con un proceso probabilístico que predice la siguiente palabra más probable y añade un punto de aleatoriedad. Por eso, las alucinaciones de la IA no salen de un razonamiento humano, sino de esa mecánica estadística. Cuando el contexto es pobre o ambiguo, la máquina rellena huecos. Puedes jugar con ese comportamiento a tu favor.

La primera regla es obvia y costosa de cumplir: lo generado no es verdad por defecto. Requiere verificación humana, sobre todo si afecta a decisiones. Los resultados de la IA no son verdades y deben revisarse. Con todo, usar bien estas herramientas ya está cambiando cómo accedes al conocimiento, qué esperas de una respuesta y qué habilidades necesitas en el trabajo y en casa.

¿Cómo cortar el problema de raíz? Mangarelli fue claro: acota el campo de conocimiento y dale fuentes concretas. Cuando la IA trabaja con un dominio limitado y referencias fiables, las alucinaciones de la IA caen de forma notable. Falta un detalle sobrellevar ese error a cero y lo verás en un momento.

Cómo evitar las alucinaciones de la IA en tu trabajo diario

Funciona mejor con instrucciones precisas. Si redactas un informe, no pidas “analiza X”, pide “analiza X con estos datos y estas normas”. Así vas a poder reducir alucinaciones de la IA y ganar consistencia. Prueba estos tres pasos rápidos antes de pulsar “enviar” en el cliente en línea o la versión de escritorio:

También te puede interesar:ChatGPT Analiza Negocios Y Señala La Oportunidad Más Rentable Del Momento
  1. Define el tema y el marco: “solo derecho laboral en España, 2021–2025”.
  2. Aporta fuentes: enlaces, documentos o un breve extracto fiable.
  3. Pide citas y referencias explícitas, y exige que indique “no encontrado” si falta.

¿Y el cero absoluto? Es viable, pero cuesta

Hablaríamos de modelos finamente ajustados, bases privadas, controles de recuperación y auditoría continua. Reducir a cero las alucinaciones de la IA exige más dinero y más energía, algo que no siempre compensa en tareas cotidianas. Para muchas rutinas, basta con minimizar el riesgo con método.

La privacidad es otra pieza. Entrenar modelos con tus datos personales añade exposición innecesaria. Mangarelli recomendó desactivar el uso de datos para entrenamiento en cada servicio web que uses. En la práctica: entra en ajustes, busca “Privacidad y datos” y apaga la casilla de “usar mis contenidos para entrenar el modelo. Así vas a poder trabajar con menos rastro.

Queda un frente incómodo: los deepfakes

La tecnología para crearlos es global, barata y muy descentralizada. Eso hace que su uso malicioso sea, en palabras del experto, “prácticamente incontrolable aunque las grandes plataformas pongan límites”. Si ves vídeos virales sin contexto, sospecha primero y valida después, igual que haces cuando detectas posibles alucinaciones de la IA en texto.

También hay topes físicos. Los sistemas avanzados consumen recursos a gran escala y la energía es el cuello de botella. Según la Agencia Internacional de la Energía, los centros de datos usaron cerca de 460 TWh en 2022, y el total puede subir con la IA en 2026. La energía se ha convertido en un límite real para el desarrollo de la IA, y eso frena proyectos demasiado ambiciosos.

En el día a día, espera tres señales

Si las plataformas activan por defecto el uso de tus datos, vuelve a revisar ajustes. En caso de que tengan marcas de agua universales para medios sintéticos, prepárate para verificaciones más fáciles. Si tu empresa añade bases internas conectadas a la IA, las alucinaciones de la IA deberían bajar y las auditorías aumentar.

La línea que dejó Mangarelli es clara y útil para ti: entiende cómo generan texto estos sistemas, verifica cada respuesta importante y limita el alcance con fuentes buenas. Recuerda que las alucinaciones de la IA nunca desaparecen por arte de magia, solo con método, datos y presupuesto. Así es como vas a poder sacarles partido sin perder el control.

Copyright © gptzone.net

La Newsletter Diaria Sobre Inteligencia Artificial. Además: Portal de Noticias, Tutoriales, Tips y Trucos de ChatGpt, Openai e Inteligencia Artificial.

Nuestra web está alojada en:

hosting raiola

Suscríbete a nuestra Newsletter Diaria sobre IA

 

Suscríbete a GptZone y recibe cada día TOTALMENTE GRATIS:

 

  • 📰 Noticias Exclusivas de Inteligencia Artificial.
  • 🤖 Prompts Creativos y prácticos.
  • 🎥 Videos Inspiradores sobre IA.
  • 🛠️ Apps Recomendadas para revolucionar tu día a día.

Te has suscrito Satisfactoriamente!

linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram