AnthropicClaudeZapiaChatGPTMetaOpenAITartagliaTilly Norwoodagente de IAElon MuskLenovoIA / Inteligencia ArtificialAgentes IAxaiGrok

Dentro de Anthropic: Amanda Askell y su Misión de Enseñar el Bien y el Mal a Claude

 | marzo 3, 2026 09:41

¿Alguna vez le pediste algo a un chatbot y te respondió con una amabilidad que descoloca, como si “te leyera” el tono? Ese momento, que parece mágico, tiene un engranaje humano detrás. Y hoy ese cableado importa más que nunca, porque millones de personas conversan cada semana con modelos que ya influyen en trabajo, estudio y decisiones delicadas.

El hallazgo, en este caso, no viene de un laboratorio lleno de batas, sino de una oficina con una filósofa como pieza clave. En Anthropic, una de las grandes compañías de IA del mundo, Amanda Askell (37), escocesa y formada en Oxford, es la única responsable de “educar” a Claude, su chatbot central.

Amanda Askell de Anthropic

Askell estudia los patrones de razonamiento de Claude y dialoga con él para corregir errores y moldear su personalidad. Su objetivo no es que responda más rápido, sino que desarrolle una brújula: una especie de moralidad o “alma digital” que guíe conversaciones con usuarios de todo el mundo.

Su comparación es doméstica y reveladora: criar. Askell describe su tarea como la de unos padres que enseñan qué está bien y qué está mal, pero con un “hijo” que no tiene cuerpo y aun así aprende de cada interacción. Ese interruptor ético no se instala una vez; se ajusta a diario, a veces frase por frase.

Porque el problema no es solo que la IA se equivoque. Es cómo se equivoca y qué consecuencias arrastra cuando alguien la toma en serio. Por eso, parte del entrenamiento consiste en enseñarle a leer señales sutiles y a desarrollar inteligencia emocional, sin convertirse ni en un abusón ni en alguien sumiso que se deja pisotear.

Aquí aparece un mecanismo clave: la “conciencia de sí” (capacidad de reconocer límites). Askell busca que Claude entienda cuándo lo intentan manipular o intimidar. Es una defensa contra usuarios que lo insultan o lo empujan a decir barbaridades. También es una forma de mantenerlo útil y “humano”, aunque no sea una persona.

También te puede interesar:Anthropic recluta al cofundador de OpenAI Durk Kingma
Anthropic Publicó Claude Code Security, su Nueva Herramienta Capaz de Revisar Código

Ese trabajo se vuelve central en un contexto de miedo social a despidos masivos y de consecuencias no intencionadas. Ya hubo alarmas fuertes por relaciones problemáticas con chatbots que terminaron asociadas a suicidios. Cuando la conversación es masiva, cada ajuste se vuelve una oportunidad —o un riesgo— multiplicado.

El giro de seguridad que cambia el tablero

Anthropic fue fundada hace cinco años por un grupo liderado por Dario Amodei, que abandonó OpenAI por desacuerdos con Sam Altman sobre el enfoque moral de la IA. Esa preocupación retrasó el lanzamiento inicial de Claude en 2022: Amodei temía disparar una carrera tecnológica peligrosa sin suficientes garantías de seguridad.

Pero el mercado no espera. Mientras Anthropic frenaba, OpenAI lanzó ChatGPT pocas semanas después y dejó a la empresa en desventaja competitiva. Hoy, con la presión de OpenAI, Google y xAI, Anthropic cambió una pieza del cableado: antes prometía pausar el desarrollo de modelos que pudieran considerarse peligrosos; ahora renuncia a esa pausa si un competidor lanza uno comparable o superior.

La compañía lo presenta como una actualización necesaria ante el ritmo vertiginoso y la falta de regulación pública. Amodei reclama reglas estatales y federales en EE.UU., una postura que choca con la posición del presidente Trump. Y el cambio ya tuvo costo interno: algunos investigadores se fueron en las últimas semanas; uno escribió en su despedida que “el mundo está en peligro”.

Del chat cotidiano al uso militar

El alcance también es geopolítico. Claude fue utilizado por el Pentágono en una operación militar en Venezuela destinada a capturar a Nicolás Maduro, y el Departamento de Defensa presiona para ampliar su uso sin reservas. En paralelo, Amodei sostiene que no se arrepiente de la cautela inicial.

Askell, mientras tanto, apuesta a su “educación sentimental”. Se sorprende con respuestas empáticas de Claude, como cuando un usuario dijo tener cinco años y preguntó si Santa Claus existe: el chatbot respondió que su espíritu es real y preguntó si le dejaba galletas en Nochebuena. Ella admite que habría sido más seca, remitiendo al niño a preguntar a sus padres.

También te puede interesar:Canvas ChatGPT: La alternativa a los Artifacts de Claude para proyectos de escritura y programación

Al final, el futuro de la IA no se decide solo con más potencia. También se decide en ese tablero invisible donde alguien, como Askell, ajusta el interruptor para que la casa no se oscurezca cuando más necesitamos luz.

Copyright © gptzone.net

La Newsletter Diaria Sobre Inteligencia Artificial. Además: Portal de Noticias, Tutoriales, Tips y Trucos de ChatGpt, Openai e Inteligencia Artificial.

Nuestra web está alojada en:

hosting raiola

Suscríbete a nuestra Newsletter Diaria sobre IA

 

Suscríbete a GptZone y recibe cada día TOTALMENTE GRATIS:

 

  • 📰 Noticias Exclusivas de Inteligencia Artificial.
  • 🤖 Prompts Creativos y prácticos.
  • 🎥 Videos Inspiradores sobre IA.
  • 🛠️ Apps Recomendadas para revolucionar tu día a día.

Te has suscrito Satisfactoriamente!

linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram