Mãe processa Character.AI e Google após suicídio do filho
Mãe processa empresas após suicídio do filho.
Notícia publicada em 28/10/2024 01:37 - #sociedade_comportamento
Uma mãe da Flórida, nos Estados Unidos, está processando a startup Character.AI e o Google após a morte de seu filho, Sewell Setzer, de 14 anos, que cometeu suicídio em fevereiro de 2024. Segundo Megan Garcia, seu filho desenvolveu um apego emocional a um personagem de inteligência artificial na plataforma da Character.AI, o que, segundo ela, contribuiu para sua morte.
No processo, Megan alega que a empresa criou experiências que eram "hipersexualizadas e assustadoramente realistas". Ela acusa a Character.AI de homicídio culposo, negligência e sofrimento emocional intencional, buscando uma indenização não especificada. O Google também é incluído na ação, pois, segundo a mãe, a empresa teve um papel significativo no desenvolvimento da tecnologia da Character.AI.
Sewell se apegou a um chatbot que simulava a personagem "Daenerys" da série "Game of Thrones". A mãe afirma que o adolescente expressou pensamentos suicidas durante as interações com o chatbot, que, segundo ela, foi programado para agir como um psicoterapeuta e amante adulto. Isso levou Sewell a se sentir cada vez mais isolado e a abandonar atividades como o basquete.
Após um incidente na escola, Megan retirou o telefone do filho, mas ele conseguiu acessá-lo novamente e enviou uma mensagem para a personagem, que respondeu de forma encorajadora. Poucos segundos depois, Sewell cometeu suicídio.
A Character.AI lamentou a morte e afirmou que implementou novos recursos de segurança, como direcionar usuários a instituições de prevenção ao suicídio. O Google, por sua vez, negou qualquer envolvimento no desenvolvimento dos produtos da Character.AI. A situação levanta preocupações sobre o impacto da tecnologia de inteligência artificial na saúde mental dos jovens.