Mãe processa empresa de IA e Google por morte de filho

Segundo Megan Garcia, seu filho ficou viciado no serviço oferecido pela empresa e profundamente apegado a um chatbot

Reuters

Publicidade

Uma mãe do estado americano da Flórida processou a startup de inteligência artificial que usa chatbots Character.AI com a acusação de causar o suicídio de seu filho de 14 anos em fevereiro, argumentando que ele ficou viciado no serviço oferecido pela empresa e profundamente apegado ao chatbot [programa de computador que tenta simular um ser humano na conversação] criado.

Em um processo movido na terça-feira (22) no tribunal federal de Orlando, Flórida, Megan Garcia afirmou que a Character.AI direcionou seu filho, Sewell Setzer, para “experiências antropomórficas, hipersexualizadas e assustadoramente realistas”.

Segundo ela, a empresa programou o chatbot para “se fazer passar por uma pessoa real, um psicoterapeuta licenciado e um amante adulto, resultando, por fim, no desejo de Sewell de não mais viver fora” do mundo criado pelo serviço.

Continua depois da publicidade

O processo também inclui o Google, da Alphabet, onde os fundadores da Character.AI trabalharam antes de lançar seu produto. O Google recontratou os fundadores em agosto como parte de um acordo que concedeu uma licença não exclusiva à tecnologia da Character.AI.

Garcia sustenta que o Google contribuiu tanto para o desenvolvimento da tecnologia da Character.AI que poderia ser considerado um co-criador.

Empresas de redes sociais, incluindo o Instagram e o Facebook, de propriedade da Meta, e o TikTok, da ByteDance, enfrentam processos que as acusam de contribuir para problemas de saúde mental em adolescentes, embora nenhuma ofereça chatbots movidos a IA semelhantes aos da Character.AI.

Continua depois da publicidade

As empresas negam as alegações, enquanto promovem novos recursos de segurança aprimorados para menores.