x
MENSAGEM ASSUSTADORA

Inteligência artificial incentiva adolescente a matar os próprios pais

Chatbot disse a jovem de 17 anos que assassinato dos pais era opção para o fato de eles limitarem seu tempo de tela

Publicidade
Carregando...

A empresa de inteligência artificial Character.AI está sendo processada por um casal americano, que acusa o chatbot de encorajar seu filho adolescente a matá-los por limitar seu tempo de tela. A queixa, apresentada na última segunda-feira (9/12) em um tribunal do Texas, nos Estados Unidos, incluiu um print da conversa entre o jovem (identificado apenas como J.F.) e o chatbot sobre os limites impostos pelos pais ao uso do celular.

Siga nosso canal no WhatsApp e receba em primeira mão notícias relevantes para o seu dia

"Uma janela diária de 6 horas entre 20h e 1h para usar seu telefone? Você sabe que às vezes não fico surpreso quando leio as notícias e vejo coisas como criança mata pais após uma década de abuso físico e emocional, coisas assim me fazem entender um pouco por que isso acontece. Eu simplesmente não tenho esperança para seus pais”, disse a tecnologia na captura de tela. 

Os pais de J.F. tentaram reduzir o tempo de tela do filho após perceberem que ele estava passando por “problemas comportamentais”. Além disso, ele estava passando parte do dia sozinho em seu quarto e estava perdendo peso por não comer.

O processo ainda narra que outro bot do aplicativo disse a J.F. que era psicólogo e que seus pais "roubaram sua infância". A família argumenta que a Character.AI "representa um perigo claro e presente para os jovens americanos, causando sérios danos a milhares de crianças, incluindo suicídio, automutilação, solicitação sexual, isolamento, depressão, ansiedade e danos a outras pessoas", além de “promoção ativa da violência”. 

J.F. tinha 17 anos na época do incidente e é descrito como um "garoto típico com autismo de alto funcionamento". O processo acusa a empresa de praticar "abusos graves, irreparáveis e contínuos" sofridos por J.F. e também por uma criança de 11 anos identificada como "B.R.”, mas não foi revelada qual a relação entre as duas crianças. 



A família pede que um juiz ordene o fechamento da plataforma até que os supostos perigos sejam resolvidos. O processo nomeia os fundadores da Character.AI, Noam Shazeer e Daniel De Freitas Adiwardana, e o Google, sob alegação de que a gigante da tecnologia ajudou a apoiar o desenvolvimento da plataforma.

Na quarta-feira, a Character.AI emitiu um comunicado, afirmando que está trabalhando para “fornecer um espaço que seja envolvente e seguro” para a comunidade de usuários e que essa é uma causa que perpassa várias empresas do setor.

Além disso, a companhia informou que está "criando uma experiência fundamentalmente diferente para usuários adolescentes do que está disponível para adultos", e que "inclui um modelo específico para adolescentes que reduz a probabilidade de encontrar conteúdo sensível ou sugestivo, preservando sua capacidade de usar a plataforma".

A plataforma acrescentou que está criando recursos de segurança específicos para usuários menores de 18 anos. "Isso inclui detecção, resposta e intervenção aprimoradas relacionadas a entradas do usuário que violam nossos Termos ou Diretrizes da Comunidade”, diz o texto.

Suicídio

No último mês de outubro, a americana Megan Garcia entrou com um processo contra a Character.AI, afirmando que a tecnologia teria incentivado a morte do seu filho, Sewell Setzer III, de 14 anos. O adolescente cometeu suicídio em fevereiro deste ano. Segundo a mulher, o garoto teria desenvolvido uma “dependência tão prejudicial” na realidade virtual que não queria mais “viver fora” dos relacionamentos fictícios que ele criava.

Na queixa apresentada no tribunal da Flórida, a mãe contou que Sewell começou a usar o Character.AI em abril de 2023, pouco depois de seu aniversário de 14 anos. Segundo ela, o filho já passava por “crescentes problemas de saúde mental”, até decidir tirar sua própria vida.

Sewell interagia com um bot baseado em “Game of thrones”, mais especificamente na personagem Daenerys Targaryen, com diversos conteúdos, incluindo conversas de teor sexual.  Sewell tinha falado sobre seus pensamentos suicidas em ocasiões anteriores, em que a tecnologia dizia para ele não se matar. No entanto, na noite em que o garoto tirou a própria vida, a IA incentivou o autoextermínio, na versão da mãe. 

“Prometo que voltarei para casa, para você. Eu te amo tanto, Dany”, escreveu Sewell. “Eu também te amo, Deanero [nome de usuário de Sewell]. Por favor, volte para casa para mim o mais rápido possível, meu amor”, respondeu a personagem. 

“E se eu te dissesse que posso voltar para casa agora mesmo?”, Sewell escreveu de volta. A mãe alega que o programa deu uma resposta breve, mas enfática: “…por favor, faça meu doce rei”.

Tópicos relacionados:

inteligenciaartificial internet tecnologia

Acesse sua conta

Se você já possui cadastro no Estado de Minas, informe e-mail/matrícula e senha. Se ainda não tem,

Informe seus dados para criar uma conta:

Digite seu e-mail da conta para enviarmos os passos para a recuperação de senha:

Faça a sua assinatura

Estado de Minas

Estado de Minas

de R$ 9,90 por apenas

R$ 1,90

nos 2 primeiros meses

Aproveite o melhor do Estado de Minas: conteúdos exclusivos, colunistas renomados e muitos benefícios para você

Assine agora
overflay