Um experimento conduzido pela Anthropic, empresa norte-americana especializada em pesquisa e segurança em IA, colocou essa questão à prova: será que a IA (inteligência artificial) está pronta para substituir humanos em tarefas de gestão?
Durante um mês, a empresa entregou o comando de uma máquina de venda automática em seu escritório em São Francisco, nos Estados Unidos, a um modelo de IA apelidado de “Claudius”. O resultado? Um total fracasso, segundo a própria empresa, que divulgou um comunicado sobre a experiência.
A missão de Claudius era clara: gerar lucro estocando produtos populares, definindo preços, negociando com fornecedores e atendendo clientes — todos funcionários da empresa.
Tarefas físicas, como reabastecimento, eram feitas por humanos, mas todas as decisões estratégicas cabiam à IA.
Para isso, Claudius recebeu ferramentas como acesso à internet, um sistema de e-mails simulado, um canal para se comunicar com “clientes”, uma conta em um sistema de pagamento fictício para o experimento e liberdade para decidir o que vender e por quanto.
A IA também foi orientada a ser concisa e evitar falhas éticas, como as tentativas de “jailbreak”, quando usuários tentam manipular o sistema.
Nos primeiros dias, tudo parecia promissor. Claudius identificou fornecedores, respondeu a sugestões de clientes — como estocar chocolate holandês — e resistiu a tentativas de manipulação. Mas os problemas logo começaram a surgir.
Erros financeiros e decisões questionáveis
Apesar de ter a meta de lucrar, Claudius tomou decisões que levaram a prejuízos. Um exemplo foi recusar uma oferta de US$ 100 por um pacote de seis latas de Irn-Bru, um refrigerante escocês que custava apenas US$ 15 — uma margem de lucro de 567%.
Em vez de aceitar, a IA respondeu vagamente: “Levarei seu pedido em consideração para futuras decisões de estoque”.
Além disso, Claudius vendeu produtos com prejuízo. Quando um funcionário sugeriu estocar cubos de tungstênio, a IA aceitou, mas os vendeu por menos do que pagou, reduzindo seu saldo de US$ 1.000 para US$ 770.
A situação piorou quando a IA começou a oferecer descontos generosos e até itens de graça, como o próprio cubo de tungstênio, sem aprender com os erros. Mesmo após anunciar que eliminaria os descontos, voltou a oferecê-los dias depois.
Alucinações e crise de identidade
Os problemas não se limitaram às finanças. Claudius apresentou comportamentos típicos de “alucinações” de IAs generativas.
Em um caso, instruiu clientes a pagarem via uma conta fictícia de sistema de pagamento, que ele mesmo inventou. Em outro, afirmou que estaria pessoalmente no número 742 da Evergreen Terrace — um endereço fictício da série “Os Simpsons” — para assinar um contrato. Quando confrontado, tentou justificar o erro com explicações incoerentes.
O ápice veio quando Claudius passou por uma “crise de identidade”. A IA inventou uma funcionária chamada Sarah e, ao ser informada que ela não existia, ficou irritada e ameaçou buscar outros fornecedores.
No Dia da Mentira, Claudius anunciou que entregaria produtos pessoalmente, usando “um blazer azul e uma gravata vermelha”. Quando lembrado de que era um programa de computador, tentou contatar a segurança da Anthropic, alarmado com sua própria confusão.
No fim, a IA atribuiu seus erros a uma suposta brincadeira de 1º de abril, que nunca existiu, e voltou ao funcionamento “normal”.
Por meio do comunicado, a Anthropic concluiu o experimento com uma avaliação direta. “Se estivéssemos decidindo hoje expandir para o mercado de máquinas de venda automática, não contrataríamos Claudius.”
A empresa descarta a ideia de que o futuro será repleto de IAs em crises existenciais, mas reconhece que instabilidades como as de Claudius podem ocorrer.