¿Alguna vez sentiste que hablar con una máquina se parece a pedir ayuda en una ventanilla donde nadie escucha del todo? Promete una respuesta inmediata, pero a menudo deja una sensación más cercana al cansancio que al alivio.

Eso es lo que revela este análisis sobre el desarrollo de la IA, desde que OpenAI lanzó ChatGPT en noviembre de 2022 y aseguró que el chatbot lograba una puntuación muy alta en un simulador para la carrera de derecho. Casi cuatro años después, el hallazgo central es menos brillante: solo un 23% de los estadounidenses cree que la IA le ayuda en su trabajo.

Solo un 23% de los estadounidenses cree que la IA le ayuda en su trabajo.

Además, un 50% dice sentir más preocupación que ilusión. Y un 40% de los empleados afirma que estos asistentes generan más trabajo del que ahorran. La pieza clave no está en la velocidad, sino en la confianza.

El problema tiene incluso nombre propio: workslop (contenido que parece correcto, pero no lo es). También están las “alucinaciones” (respuestas inventadas), un mecanismo ya muy estudiado que muestra el límite actual de estos sistemas.

También te puede interesar:Anthropic Duplica Límites de Uso de Claude Gracias a Alianza con SpaceXAI

En tareas simples, como buscar un dato concreto, la tasa de error ronda el 5%. Pero cuando se le pide combinar conocimiento, contexto y razonamiento, el cableado empieza a fallar: el error supera el 20% al generar citas, profundizar en temas o resumir noticias actualizadas.

Según un estudio de 2026, el 75% de los usuarios reconoce que los asistentes digitales entregan información rápida, pero también frustración. Y un 68% prioriza la exactitud antes que la rapidez. Es una señal clara: el usuario no quiere solo una respuesta, quiere una respuesta fiable.

El interruptor que más falla: la memoria del contexto

Además, estos asistentes sufren una especie de “expiración del contexto” (olvido de la conversación previa). Tras un corto periodo de inactividad, pueden perder el hilo y repetir errores en bucle. Deloitte subraya que esa pérdida de contexto y la repetición son dos de las mayores fuentes de frustración.

El usuario no quiere solo una respuesta, quiere una respuesta fiable.

En atención al cliente, esa deficiencia se vuelve cotidiana. Muchas empresas redujeron personal, deslocalizaron centros de llamadas e impulsaron menús telefónicos, chatbots, códigos QR o enlaces digitales. Pero el 93,4% de los estadounidenses, según Kinsta en 2025, prefiere ser atendido por una persona.

También te puede interesar:Anthropic Duplica Límites de Uso de Claude Gracias a Alianza con SpaceXAI
También te puede interesar:Anthropic Pacta un Acuerdo con Google por 200 Mil Millones, para Uso de Cloud e Infraestructura IA

La razón es práctica, no sentimental. Cuando hay ruido ambiental, acentos marcados o vocabulario especializado, el margen de error supera el 20%. Es como un portero eléctrico que abre rápido, pero no entiende bien quién está del otro lado.

Sesgo, demandas y una factura cada vez más visible

El cuadro se complica fuera de la pantalla. Muchos municipios rechazan nuevos centros de datos por su elevado consumo de electricidad y agua. Al mismo tiempo, crecieron las protestas contra firmas como OpenAI, Anthropic y xAI.

También aumentaron las demandas. En Estados Unidos, los litigios ligados a IA generativa subieron un 143% entre 2023 y 2024. A finales de 2025 había 70 casos abiertos, frente a 30 en 2024. Las causas incluyen derechos de autor, uso no autorizado de contenido, diálogos dañinos y riesgos para menores.

Uno de los casos más sensibles es Bartz contra Anthropic. Allí, un juez determinó que la empresa violó derechos de autor al usar libros pirateados para entrenar sus modelos. La indemnización podría llegar a 1.500 millones de dólares.

Por otra parte, el sesgo ideológico se volvió otra pieza central del debate. Un estudio de Stanford de 2025 con 10.000 participantes y otro del MIT Media Lab detectaron una inclinación hacia posiciones de izquierdas en muchos modelos. La clave, señalan los investigadores, está tanto en los datos de entrenamiento como en los criterios humanos con los que luego se ajustan.

La oportunidad, entonces, no pasa por apagar la máquina, sino por revisar su cableado. Si la IA quiere ocupar un lugar estable en la vida diaria, tendrá que parecerse menos a una promesa automática y más a esa ayuda que, cuando uno la necesita, realmente entiende lo que está pasando.

0 0 votos
Valoración del artículo
Suscribirte
Notificar sobre
guest
0 Comentarios
Más Antiguos
Más Nuevos Más Votados
Comentarios en línea
Ver todos los comentarios