Ciência e Tecnologia

“Chatbots não são pessoas”: projeto de lei busca fazer com que as empresas de IA avisem as crianças

O projeto visa proteger as crianças

Los Chatbots más utilizados por las personas en todo el mundo. | Foto: Referencial
Os chatbots não são pessoas | Foto: Referencial

Num mundo onde a inteligência artificial já faz parte do dia a dia de muitas pessoas, os chatbots tornaram-se comuns, até mesmo para crianças. Mas o que acontece quando estes sistemas começam a gerar confiança a tal ponto que os menores os percebem quase como amigos?

ANÚNCIO

Clique para receber notícias de Tecnologia e Ciências pelo WhatsApp

Para evitar riscos, a Califórnia propôs um projeto de lei, o SB 243, que busca estabelecer regras mais rígidas para empresas que desenvolvem chatbots de IA.

Um lembrete constante: “Eu não sou humano”

A proposta, promovida pelo senador Steve Padilla, visa que chatbots de inteligência artificial informem periodicamente as crianças que não estão conversando com uma pessoa real, mas com um programa de computador.

Mas isso não é tudo. Procura também regular as técnicas de interação utilizadas pelas empresas para evitar que menores se tornem dependentes destes sistemas. O objetivo é prevenir efeitos negativos na saúde mental das crianças, como o isolamento ou o vício nestas plataformas.

Maior supervisão e relatórios obrigatórios

O projeto também exigiria que as empresas de inteligência artificial apresentassem relatórios anuais ao Departamento de Serviços de Saúde da Califórnia. Esses relatórios incluiriam:

  • Quantas vezes foi detectada ideação suicida em crianças que usam chatbots.
  • Quantas vezes a IA abordou temas delicados relacionados à saúde mental.
  • Avisos obrigatórios para informar os pais e utilizadores sobre os possíveis efeitos destas interações nos menores.

Casos que levantaram preocupação

Esta iniciativa surge após incidentes que geraram grande polémica. Um dos casos mais marcantes ocorreu no ano passado, quando um pai processou a Character.AI, alegando que a relação que seu filho adolescente estabeleceu com um chatbot teria contribuído para sua morte.

ANÚNCIO

Como resultado da polêmica, a Character.AI anunciou medidas como controle parental e o desenvolvimento de um novo modelo de IA para adolescentes, com filtros para evitar conteúdos inadequados ou excessivamente sugestivos.

LEIA TAMBÉM:

Dentro do jogo: Firefox também adiciona ferramentas de inteligência artificial

Por que 2025 poderá ser o ano decisivo para o metaverso?

iPhone é o celular mais vendido do ano pelo sexto ano consecutivo: a estratégia da Apple para se manter no topo

Uma medida necessária ou uma reação exagerada?

O senador Steve Padilla defendeu firmemente esta iniciativa, deixando clara a sua posição sobre a importância de regulamentar estas tecnologias: “Os nossos filhos não são ratos de laboratório com os quais as empresas tecnológicas possam experimentar à custa da sua saúde mental”.

Com este projeto, a Califórnia junta-se a uma tendência global em que governos e legisladores procuram regular a inteligência artificial e o seu impacto nos menores. Embora o foco tenha sido nas redes sociais, agora as atenções também estão voltadas para chatbots e assistentes virtuais.

À medida que estas tecnologias evoluem, a questão é: até que ponto devem as empresas assumir a responsabilidade pelo impacto dos seus produtos nos utilizadores mais jovens?

ANÚNCIO

Tags


Últimas Notícias