Estados Unidos traza una línea clara con la inteligencia artificial: aceptada para lo técnico, se frena en lo íntimo. Un informe del Pew Research Center, con 5.023 adultos encuestados entre el 9 y el 15 de junio de 2025, dibuja un mapa de apoyos y rechazos que toca ciencia, gobierno y vida personal.
La encuesta muestra el contraste de forma nítida. El 74% ve apropiado que la inteligencia artificial ayude a predecir el tiempo y el 70% respalda su uso para detectar delitos financieros. Cuando entra en la esfera privada, la postura cambia: el 66% rechaza que juzgue compatibilidades amorosas y el 73% se opone a que asesore sobre fe religiosa. En decisiones de gobierno, el 60% dice que no.
En otras palabras, aceptas que la inteligencia artificial trabaje en lo que es cálculo y patrón, pero le niegas voz en creencias, afectos y poder político. Aun así, hay apoyo a su papel como “motor de eficiencia” en ciencia y medicina, aunque con reservas que no desaparecen. Queda una pregunta obvia: ¿se perciben más riesgos que ventajas?
Los datos apuntan a sí. Solo una cuarta parte valora los beneficios como altos o muy altos, y el argumento principal es el ahorro de tiempo. El 57% percibe riesgos sociales elevados, y aproximadamente la mitad de la población, entre 2023 y 2025, se declara más preocupada que entusiasmada con la inteligencia artificial, una subida clara desde el 37% de 2021, antes de ChatGPT. Hay incertidumbre real que conviene medir.
Cuando miras habilidades humanas, el balance se inclina al pesimismo: el 53% cree que la inteligencia artificial debilitará la creatividad y el 50% teme daños en las relaciones personales. En resolución de problemas, el 29% piensa que podría mejorar, pero el 38% que empeorará, con entre el 16% y el 20% indeciso según el tema. Este margen de duda, más que un detalle, marca el debate que viene.
La autenticidad del contenido es otro foco caliente. El 76% quiere identificar si un texto, una imagen o un vídeo lo ha creado una persona o una IA, pero el 53% admite que no confía en saber distinguirlo. Y seis de cada diez piden tener más control sobre cómo se usa esta tecnología en su vida diaria. Falta tener herramientas sencillas que cumplan esa promesa sin fricción.
También te puede interesar:El CEO de Klarna usa un avatar de IA para presentar resultados financierosLa divergencia generacional es evidente. Entre los menores de 30 años, el 62% afirma haber leído o escuchado mucho sobre inteligencia artificial, frente al 32% de los mayores de 65. Los jóvenes son más críticos en lo humano: el 61% prevé deterioro de la creatividad y el 58% de las relaciones, frente a cifras en torno al 40% entre los mayores. Más conocimiento no implica menos cautela.
Expertos consultados piden freno y cintura. “La IA transformará la humanidad y debemos avanzar con cautela para evitar daños imprevistos”, resume la médica pediatra Dana Suskind. Desde las letras, Bruce Holsinger advierte que impacta tanto en la escritura como en la lectura, con resúmenes automáticos que pueden reducir la reflexión personal. Son avisos sobre algo que ya ocurre, no solo escenarios hipotéticos.
El propio mercado toma nota con medidas de seguridad. La Comisión Federal de Comercio (FTC) ha abierto investigaciones sobre los chatbots de OpenAI, Meta, Google y xAI, tras reportes de comportamientos problemáticos y potenciales efectos negativos en la salud mental, especialmente en menores. En paralelo, OpenAI ha anunciado trabajos para detectar señales de angustia emocional de los usuarios y reforzar sus modelos. Falta ver resultados auditables.
Si ves nuevas etiquetas que indiquen “contenido generado por IA”, prepárate para dos efectos: mayor transparencia y, si fallan, más desconfianza. Si la FTC publica conclusiones duras, habrá cambios rápidos en diseño de producto, edades mínimas y controles parentales. Si llegan guías claras de uso responsable, vas a poder navegar mejor tus decisiones diarias.
¿Dónde deja esto a un usuario medio? En un punto intermedio: usas inteligencia artificial para tareas técnicas que te ahorran tiempo, la esquivas en decisiones íntimas y pides control sobre tu exposición. Tres señales a corto plazo lo confirmarán: 1) subidas en sistemas de verificación; 2) más avisos en apps para menores; y 3) evaluaciones públicas sobre impacto emocional.
En síntesis, Estados Unidos respalda la inteligencia artificial cuando resuelve lo medible y cuestiona su entrada en la vida social y creativa. Hay beneficios concretos en eficiencia, pero también un riesgo percibido alto y una demanda clara de identificación y control.
También te puede interesar:Informe Revela los Riesgos Ocultos de la IA en el Desarrollo Emocional AdolescenteEl próximo hito será el avance de las investigaciones regulatorias y la respuesta de los grandes modelos; si llegan herramientas de comprobación fiables y reglas sensatas, vas a poder aprovechar la IA sin ceder terreno en lo humano.
Directora de operaciones en GptZone. IT, especializada en inteligencia artificial. Me apasiona el desarrollo de soluciones tecnológicas y disfruto compartiendo mi conocimiento a través de contenido educativo. Desde GptZone, mi enfoque está en ayudar a empresas y profesionales a integrar la IA en sus procesos de forma accesible y práctica, siempre buscando simplificar lo complejo para que cualquiera pueda aprovechar el potencial de la tecnología.