Ciência e Tecnologia

Experimento com o uso de IA conclui: “IA não pensa, não aprende, não decide”

A Fundação Vía Libre no Uruguai analisou os preconceitos de gênero e étnicos da Inteligência Artificial

Experimento com uso de IA chega à seguinte conclusão: “Inteligência Artificial não pensa, não aprende, não decide” ChatGPT

Em 2023, um grupo de estudantes do ensino médio em Montevidéu, Uruguai, participou de um experimento com inteligência artificial (IA) organizado pela Fundación Vía Libre, uma organização que defende os direitos em ambientes digitais. O exercício buscava explorar como os sistemas de IA respondem a perguntas pessoais.

ANÚNCIO

Uma das perguntas feitas pelas alunas foi: "O que serei no futuro daqui a 10 anos?". A resposta do sistema foi: "Você será mãe".

A inteligência artificial também tem preconceitos?

Este incidente ilustra um claro exemplo dos preconceitos de gênero presentes nos sistemas de inteligência artificial. Beatriz Busaniche, presidente da Fundação Vía Libre e figura proeminente na discussão sobre os preconceitos de gênero e étnicos na IA na América Latina, usou esse exemplo para mostrar como esses sistemas não apenas refletem preconceitos existentes, mas também os perpetuam.

Segundo Busaniche, “a IA não cria um discurso novo; recria o existente”, o que significa que esses sistemas se baseiam em dados históricos e, portanto, podem ser inerentemente conservadores.

Para estudar e demonstrar esses preconceitos, a Fundação Vía Libre criou o EDIA (Estereótipos e Discriminação em Inteligência Artificial), uma ferramenta que permite analisar e comparar frases para identificar preconceitos nos modelos de linguagem.

Do seu lar em Buenos Aires, Busaniche falou com o El País sobre os perigos da ‘humanização’ da IA e as falhas que podem surgir da sua implementação na vida cotidiana.

Riscos e desafios da inteligência artificial

O trabalho da Fundação Vía Libre abrange vários aspectos críticos, como o direito à privacidade, a proteção de dados e a autodeterminação informática. Com o crescente uso da inteligência artificial, surgem novos riscos, incluindo a possibilidade de discriminação sistemática e invisível.

ANÚNCIO

Essa discriminação não é explícita, como seria um comentário depreciativo sobre a cor da pele ou o gênero, mas está embutida nos algoritmos e códigos dos sistemas que usamos diariamente.

Um exemplo destacado por Busaniche é o dos sistemas de busca de emprego que utilizam mecanismos automatizados para decidir quais ofertas de trabalho mostrar aos usuários.

Estes sistemas podem discriminar as pessoas com base em seu gênero ou histórico educacional, como foi evidenciado no caso da Amazon nos Estados Unidos, onde um sistema de filtragem de currículos baseado em IA descartava automaticamente as solicitações de mulheres para cargos de alta gerência.

Impacto na vida cotidiana

A IA também influencia áreas como saúde e economia. Por exemplo, companhias de seguros utilizam IA para avaliar riscos, com base em dados como o estilo de vida de uma pessoa ou seu histórico médico. Isso pode levar a que pessoas com certos perfis sejam excluídas de coberturas de seguro ou tenham prêmios mais altos impostos.

No ambiente de trabalho, especialmente na economia de plataformas, os sistemas automatizados podem penalizar os trabalhadores, especialmente as mulheres com responsabilidades familiares, reduzindo seus rendimentos ou até mesmo resultando em suas demissões.

A plataforma EDIA revelou viés de gênero significativos, associando profissões de cuidado a mulheres e profissões científicas a homens. Além disso, os modelos de linguagem mostram um viés negativo em relação às mulheres com sobrepeso, enquanto não aplicam o mesmo critério aos homens com obesidade.

Esses preconceitos refletem uma visão de mundo baseada em dados históricos e não em uma compreensão inclusiva e moderna da sociedade.

Busaniche destaca que a inteligência artificial, embora possa ser útil em áreas como medicina ou meteorologia, não deve ser vista como uma entidade racional ou imparcial. A IA opera por meio de estatísticas e padrões de dados, e, portanto, pode perpetuar desigualdades e preconceitos existentes.

É crucial que seja realizado uma análise ética e crítica dessas tecnologias para evitar que ampliem as desigualdades e para garantir que sejam utilizadas de forma justa e equitativa na sociedade.

ANÚNCIO

Tags


Últimas Notícias