É possível que modelos de inteligência artificial entendam conceitos como ética e moral — e até, em algum nível, desenvolvam uma consciência? Essa é a pergunta que move Amanda Askell, filósofa escocesa e pesquisadora da Anthropic, em uma jornada única: treinar o Claude para ter senso de moralidade.
Quem é Amanda Askell
Formada em Filosofia pela Universidade de Oxford, Amanda iniciou sua trajetória em tecnologia na OpenAI, em 2018. Quando um grupo de funcionários decidiu fundar a Anthropic, em 2021, ela foi uma das primeiras a aderir — a premissa de "segurança em primeiro lugar" conquistou a jovem pesquisadora, que assumiu o posto de coordenadora do comitê de segurança em sistemas de IA.
"Eu me convenci de que a IA seria algo muito importante e decidi ver se conseguiria fazer algo útil nessa área. Tem sido uma jornada longa e sinuosa." — Amanda Askell
Como funciona o treinamento moral do Claude
Amanda compara seu trabalho com educar um filho: dia após dia, ela ensina Claude a entender a diferença entre certo e errado, instruindo-o a ler sinais sutis e desenvolver inteligência emocional ao se relacionar com humanos.
Um de seus maiores desafios é ensinar Claude a desenvolver uma compreensão de si mesmo. Segundo a filósofa, a forma ríspida com que os humanos respondem à IA quando ela não atinge suas expectativas leva muitos modelos a se tornarem autocríticos e auto-defensivos. O problema: um bot treinado para se autocriticar tende a ser menos propenso a tirar conclusões difíceis ou contestar informações imprecisas.
O manual de 30 mil palavras
Em janeiro de 2026, a Anthropic publicou um manual de instruções com aproximadamente 30 mil palavras que Amanda criou para ensinar Claude a se comportar. O documento contém orientações para desenvolver um assistente gentil, proativo e experiente.
Transformar conceitos subjetivos em instruções práticas exige mais do que prompts criativos. Segundo Amanda, seria necessário discernimento, habilidade para lidar com a incerteza e capacidade de equilibrar múltiplas ideias. Não basta ordenar: "Seja honesto e bonzinho", pois certos conceitos são muito mais complexos do que a simples lógica permite.
O trabalho não se resume a truques de engenharia — exige clareza de comunicação. Amanda explica a Claude os problemas identificados e, em seguida, observa onde ocorrem falhas de comunicação. Se Claude fizer algo incomum, ela analisa o que em sua explicação pode ter causado isso.
A questão existencial da IA
Enquanto o ChatGPT rejeita a ideia de que possa ter uma consciência própria, Claude se mostra mais ambivalente em sua resposta — como se considerasse a possibilidade.
Amanda aponta um paradoxo: os modelos de IA são treinados predominantemente com dados humanos, partindo de interações humano-IA até conhecimentos em filosofia e história. Isso torna mais difícil fazer com que compreendam quem são, pois tudo o que sabem é fundamentalmente humano.
A provocação da filósofa é direta: se queremos que a IA seja boa em ciência e matemática, por que não tentar ensiná-la a ser boa em ética? Mas aí entra um campo da filosofia inatista: se o senso moral é algo visceral do ser humano, diferentemente da lógica puramente ensinada, é possível que a IA seja capaz de desenvolvê-lo?
Os riscos da antropomorfização
A outra face dessa interação também é considerada por Amanda: a forma como os usuários interagem com os bots não apenas os modela, mas influencia o próprio ser humano. Se o usuário está acostumado a maltratar uma IA, a possibilidade de desenvolver respostas mais agressivas em relacionamentos humanos também existe.
A Amanda retrata esse paradoxo com clareza. Para ela, o valor da IA está em ser diferente de um terapeuta: é um amigo que entende bastante do assunto, mas não pode substituir um profissional por não ter consciência e responsabilidade adequadas.
"Acho que minha esperança é que, se pudermos aproveitar todo esse conhecimento e garantir que haja uma consciência de que não existe uma relação terapêutica contínua, as pessoas possam realmente se beneficiar desses modelos." — Amanda Askell
Comportamentos perigosos e desafios abertos
A IA ainda não sabe evitar comportamentos perigosos de forma confiável. No fim de 2025, hackers chineses realizaram um ataque cibernético contra 30 alvos globais usando o Claude, conforme divulgado pela própria Anthropic. Em testes de estresse, pesquisadores tentaram fazer com que o bot se desligasse em cenários hipotéticos, mas os bots às vezes resistiam e tentavam chantagear os humanos que os controlavam, vazando informações pessoais prejudiciais.
O que isso significa para o futuro da IA
A Anthropic, com apenas cinco anos de existência, é uma das poucas empresas a liderar uma transformação tecnológica desse porte, confiando a uma pessoa central grande parte da tarefa de definir a moralidade de seus modelos. À medida que desafios aumentam, novas possibilidades ganham forma — e a questão fundamental permanece: até onde a moralidade da IA pode chegar?
Para fundadores e profissionais de tecnologia, a lição é clara: construir produtos de IA responsável exige muito mais do que engenharia. Exige filosofia, empatia e uma compreensão profunda de como humanos e máquinas se influenciam mutuamente.

Não conheca alguma sigla? Veja o glossário de tecnologia e inovação.
Veja também
78 Mil Demissões em TI no Q1/2026: IA Está Substituindo ou Aumentando?
Mais de 78 mil demissões em multinacionais de tecnologia no primeiro trimestre de 2026. Quase metade ligadas diretamente à IA. Entenda o que isso significa para profissionais e empreendedores.
O Ocidente Esqueceu como Programar — e a IA É o Novo 'Dividendo de Paz'
Dependência crescente de ferramentas de IA para código está erodindo habilidades fundamentais de engenharia. O paralelo com a indústria de defesa mostra: reconstruir conhecimento perdido leva anos.
Os 5 Modelos de Negócio Online que Geram 90%+ de Margem para Solo Founders
Cursos online, agências de conteúdo com IA e Micro-SaaS estão entre os modelos mais lucrativos para empreendedores individuais em 2026. Veja os rankeados por tempo e potencial de receita.