A popular série da Netflix, Black Mirror, aborda em um de seus episódios o cenário distópico que agora se tornou realidade, com a chegada da inteligência artificial (IA), simulando conversas com pessoas falecidas usando essa tecnologia.
ANÚNCIO
Especialistas em ética do Centro Leverhulme para o Futuro da Inteligência, instituição da Universidade de Cambridge, afirmaram que esse tipo de experimento é "altamente arriscado" devido ao seu possível impacto psicológico.
O que são os 'deadbots'?
Os deadbots são chats de inteligência artificial capazes de simular a personalidade de indivíduos falecidos. De acordo com um novo estudo ético realizado na Universidade de Cambridge, o uso dessa tecnologia para esses fins deve incluir protocolos de segurança para proteger os amigos e familiares do falecido.
Algumas empresas de chatbots já começaram a oferecer a opção de recriar, por meio da IA, a maneira de falar e os traços de personalidade de um ente querido que faleceu.
“É essencial que os serviços que oferecem um além digital considerem os direitos e o consentimento, não apenas das pessoas que estão participando, mas também daqueles que terão que interagir com essas simulações”, disse Tomasz Hollanek, coautor do estudo.
"Estes serviços correm o risco de causar uma grande aflição às pessoas enlutadas se forem expostas a aparições digitais indesejadas e perturbadoras de entes queridos falecidos. O efeito psicológico que isso poderia ter em pessoas que já estão sofrendo poderia ser devastador", explicou.
As descobertas foram publicadas na revista especializada Philosophy and Technology em um estudo intitulado ‘Griefbots, deadbots, postmortem avatars: on responsible applications of generative AI in the digital afterlife industry (Griefbots, deadbots, avatares pós-morte: sobre aplicações responsáveis de IA generativa na indústria do pós-vida digital)’.
O estudo detalha como as empresas de chat de IA que oferecem ‘ressuscitar’ os mortos poderiam usar essa tecnologia para bombardear os amigos e familiares em luto com mensagens e anúncios.