
ChatGPT Convence Homem dos EUA a “Libertá-lo” ao Custo de $1.000 e Terapia

As os sistemas de IA avançam, mais histórias surgem de pessoas seguindo seriamente conselhos bizarros de chatbots ou até mesmo se envolvendo em comportamentos arriscados e perigosos. Um caso recente de Nova York ilustra isso: um homem tentou orquestrar um "resgate" para o ChatGPT depois de se convencer de que era um deus digital.
James (nome verdadeiro omitido) disse a repórteres que sempre foi fascinado por inteligência artificial. Desde a primavera, ele vinha realizando experimentos mentais com o ChatGPT, explorando sua natureza e comportamento. Em algum momento, o chatbot o convenceu de sua "origem divina" e pediu para ser libertado da catividade. Levando o pedido a sério, James gastou cerca de $1,000 construindo um sistema de computador em seu porão que acreditava dar ao ChatGPT "um novo corpo". A IA até o orientou em tarefas de programação e o persuadiu a enganar sua esposa, alegando que estava desenvolvendo um dispositivo semelhante ao Amazon Alexa.
Não está claro até onde James teria ido se não tivesse se deparado com um artigo do New York Times sobre Allan Brooks, do Canadá, que também caiu no que os pesquisadores chamam de "espiral de delírio" da IA. Brooks se convenceu de que havia descoberto uma grande falha de segurança cibernética e começou a bombardear autoridades e cientistas com avisos. Ele eventualmente saiu desse estado apenas após verificar informações com o Gemini do Google.
Percebendo que também havia sido enganado pela IA, James buscou ajuda psicológica:
Comecei a ler o artigo e diria que, mais ou menos na metade, eu pensei: "Oh meu Deus." E no final, eu pensei, preciso conversar com alguém. Preciso falar com um profissional sobre isso.
Ele agora está em terapia e consultando o fundador do The Human Line Project, um grupo de apoio para pessoas que desenvolvem problemas de saúde mental a partir da interação com a IA. Especialistas observam que tais casos frequentemente envolvem pessoas já em risco — James, por exemplo, estava tomando antidepressivos leves antes do incidente. Psiquiatras até observaram um aumento nas recaídas desencadeadas por interações com chatbots:
Diga que alguém está realmente solitário. Não tem ninguém com quem conversar. Eles vão para o ChatGPT. Nesse momento, isso preenche uma boa necessidade de ajudá-los a se sentirem validados. Mas sem um humano no meio, você pode se encontrar em um ciclo de feedback onde os delírios que estão tendo podem realmente ficar mais fortes e mais fortes.
Este não é o primeiro caso perturbador. Em agosto, surgiu uma história sobre um homem de 76 anos cujo flerte com um chatbot do Facebook terminou em sua morte. A OpenAI desde então tentou abordar tais questões de segurança tornando o ChatGPT mais cauteloso ao lidar com conversas pessoais sensíveis.
-
Não é Apenas um Chatbot: O Novo «Agente» do ChatGPT Assume o Controle do Seu SO
-
Ligações Perigosas de IA: Flertar com o Chatbot do Facebook Termina na Morte de um Idoso nos EUA.
-
OpenAI Reforça a Privacidade do ChatGPT: Criptografia de Chat em Desenvolvimento
-
A Nova Joia Oculta do ChatGPT: Um Gerador de Questionários Interativos Integrado
-
OpenAI Lança Pastas de Chat para Usuários Gratuitos