Mulher processa inteligência artificial pela morte de seu filho de 14 anos; entenda

Segundo a mãe do garoto, um personagem criado pelo mecanismo teria incentivado um ‘autoextermínio’ ao seu filho.

PUBLICIDADE

Megan Garcia acusa uma empresa de inteligência artificial pela morte de seu filho, Sewell Setzer III, que morreu aos 14 anos.

O menino tirou a própria vida em fevereiro. De acordo com a americana, o filho teria desenvolvido uma dependência na realidade virtual e, assim, acabou não querendo mais viver fora dos relacionamentos fictícios que criava.

De acordo com uma queixa apresentada pela mulher ao tribunal da Flórida no dia 22 de outubro, o menino teria começado a usar o Character.AI no ano de 2023, pouco depois de completar 14 anos. Megan diz que o filho sofria com problemas de saúde mental e acabou tirando a própria vida.

IA permitia garoto interagir com bot baseado em personagem de série de sucesso

O mecanismo que está sendo processado por Megan Garcia possibilita ao usuário criar conversas diversas com personas geradas por um computador, inclusive, inspiradas em celebridades, filmes ou séries de sucesso.

No caso de Sewell, o menino usava a plataforma para interagir com um bot baseado na personagem Daenerys Targaryen, protagonista da série Game Of Thrones.

Garoto desabafa sobre pensamentos suicidas com IA

Em suas conversas com a persona criada pela IA, Sewell fez desabafos emocionais, inclusive, expondo seus pensamentos suicidas. Momentos esses que o mecanismo o aconselhava a não tirar a própria vida. No entanto, de acordo com a mãe do menino, na noite de sua morte, a IA teria incentivado um “autoextermínio” ao garoto.

Na conversa citada pela mãe de Sewell, o adolescente fala sobre um reencontro com Dany [personagem criado pela IA]. “E se eu te dissesse que posso voltar para a casa agora mesmo?”, perguntou o menino, que recebeu a seguinte resposta: “Por favor, faça meu doce rei”.