Ciência e Tecnologia

Riscos éticos na área da saúde: OMS alerta para o uso de IA para diagnósticos sem marcos legais de segurança

A falta de regulamentação clara está criando uma lacuna ética e legal perigosa que coloca em risco a segurança e a equidade do paciente

Riesgos por diagnósticos de IA. - Whisk/FW
Riscos por diagnósticos de IA - Whisk/FW (Made with Google AI)

A Organização Mundial da Saúde (OMS) emitiu um alerta urgente, observando que a Inteligência Artificial está sendo rapidamente integrada aos sistemas de saúde europeus (desde diagnóstico por imagem até priorização de pacientes) sem as salvaguardas éticas necessárias ou estruturas regulatórias básicas.

Clique para receber notícias de Tecnologia e Ciências pelo WhatsApp

O problema central é a ambiguidade da responsabilidade: se uma IA cometer um erro de diagnóstico fatal, não há clareza jurídica sobre quem é o responsável.

Riesgos por diagnósticos de IA. - Whisk/FW
Riscos por diagnósticos de IA - Whisk/FW (Made with Google AI)

Diagnóstico sem responsabilização: a lacuna legal

O relatório do Escritório Regional da OMS para a Europa destaca que a adoção da IA ​​na medicina está se acelerando para tarefas de alto risco, como analisar radiografias, detectar câncer em estágios iniciais e gerenciar listas de espera. Embora esses sistemas prometam maior eficiência, sua implementação está muito mais rápida do que a criação de leis e políticas.


A principal preocupação ética e legal é a falta de responsabilização. No sistema atual, quando um médico comete um erro, o arcabouço legal (que varia de negligência médica a imperícia) é claro. No entanto, quando o erro é cometido por um algoritmo de aprendizado profundo, a cadeia de responsabilidade se rompe: é o programador, o hospital que o adquiriu ou o médico que aceitou a recomendação da IA?

Riesgos por diagnósticos de IA. - Whisk/FW
Riscos por diagnósticos de IA - Whisk/FW (Made with Google AI)

A OMS alerta que essa lacuna regulatória expõe os pacientes a riscos legais e de segurança, pois não há um processo claro de responsabilização para garantir transparência ou reparação por danos.

O perigo oculto: Viés e discriminação algorítmica

Além da responsabilidade, a OMS também aponta para os sérios riscos éticos associados ao viés.

A IA na área da saúde é treinada com base em vastos conjuntos de dados históricos. Se esses dados forem tendenciosos (por exemplo, se o conjunto de dados contiver informações predominantemente de um único grupo étnico, gênero ou classe social), a ferramenta de IA pode desenvolver um viés algorítmico que discrimina sistematicamente ou subdiagnostica grupos minoritários.

Isso pode levar a um sistema de saúde de duas categorias, em que pessoas de determinadas origens ou identidades recebem diagnósticos imprecisos ou atrasados ​​simplesmente porque o algoritmo não foi projetado ou rigorosamente testado para uma população diversificada. A falta de uma estrutura de auditoria transparente dificulta a identificação e a mitigação desses vieses antes que causem danos reais.

Riesgos por diagnósticos de IA. - Whisk/FW
Riesgos por diagnósticos de IA. - Whisk/FW (Made with Google AI)

O chamado à ação imediata: três pilares da OMS

Diante da rápida e descontrolada integração da IA ​​nos sistemas de saúde, a OMS está convocando urgentemente os governos a implementarem regulamentações vinculativas baseadas em três pilares:

  • Transparência e Explicabilidade: Exigir que os desenvolvedores sejam claros sobre como e com quais dados a IA foi treinada.
  • Auditoria Independente: Estabelecer mecanismos para que terceiros avaliem os sistemas de IA quanto a vieses e falhas antes do uso clínico.
  • Supervisão Humana: Garantir que o julgamento humano (o médico) seja sempre o responsável final pela decisão e que a IA seja apenas uma ferramenta de apoio, não um substituto para o diagnóstico.

LEIA TAMBÉM:

Google lança o Gemini 3, que integra recursos interessantes

Este é o novo projeto de inteligência artificial de Jeff Bezos: ele receberá um investimento recorde

Será que veremos o novo Xbox no The Game Awards? Já existe um precedente

Somente com regulamentações robustas podemos garantir que a tecnologia seja usada para melhorar a saúde pública sem comprometer a segurança ou a equidade na assistência à saúde.

Últimas Notícias