Estudo identifica fontes de viés em algoritmos de IA na área da saúde
Estudo identifica fontes de viés em algoritmos de IA na área da saúde
Pesquisa destacou as potenciais fontes de viés de algoritmos de IA na saúde e propôs estratégias para mitigar os vieses e as disparidades
A adoção inteligência artificial (IA) está aumentando rapidamente na área da saúde. Porém, os algoritmos utilizados podem ser moldados por vários fatores, como determinantes sociais da saúde, que podem influenciar os resultados de saúde e levar a disparidades. Um estudo recente publicado na PLOS Digital Health buscou destacar as potenciais fontes de viés em cada etapa do desenvolvimento de algoritmos de IA na área da saúde e propôs estratégias para mitigar o problema.
Segundo o estudo, algoritmos de IA são treinados usando conjuntos de dados que refletem as informações e os preconceitos presentes nesses dados. Isso pode resultar em algoritmos que perpetuam e ampliam o viés existente na sociedade, o que levanta uma preocupação significativa sobre as disparidades em saúde entre as populações minoritárias. Por serem normalmente menos representadas nesses conjuntos de dados, é muito provável que o algoritmo possa gerar interpretações tendenciosas dos dados disponíveis, bem como de quaisquer valores atípicos ou dados ausentes para essas populações de pacientes, com base em características como raça, gênero e status socioeconômico.
Por isso, os pesquisadores julgam essencial considerar e mitigar esses vieses ao desenvolver e implementar algoritmos de IA para garantir que eles sejam justos, confiáveis e equitativos em sua aplicação clínica. Além disso, é fundamental envolver uma variedade de stakeholders, incluindo pacientes, profissionais de saúde e especialistas em ética, para garantir que as decisões relacionadas ao desenvolvimento e implementação dos algoritmos sejam tomadas de forma transparente e colaborativa.
De acordo com o levantamento, raça, sexo e status de deficiência são fatores que podem determinar quais problemas de saúde são priorizados e financiados e, em última análise, quais pesquisas, incluindo aquelas relacionadas à IA, são produzidas. Tais vieses resultariam na identificação de problemas de pesquisa que favorecem um segmento da população, independentemente da carga da doença.
Os cientistas também analisaram que comunidades em que os rastreamentos de câncer são frequentemente realizados terão incidências maiores em comparação com populações não atendidas, que consequentemente seriam “rotuladas” como tendo uma menor incidência de câncer. Isso resultaria em um algoritmo tendencioso que direciona o rastreamento para comunidades mais assistidas, levando a disparidades adicionais em saúde.
Recomendações para algoritmos de IA
Para os pesquisadores, não é incomum que os algoritmos tenham um bom desempenho durante os testes e validação, mas apresentem um desempenho ruim quando implementados no mundo real ou posteriormente em sua vida útil.
Portanto, para mitigar o viés em algoritmos de IA, os autores recomendam adotar uma abordagem ampla que cubra todas as etapas do ciclo de vida do algoritmo. Isso inclui a coleta e seleção de dados de treinamento diversificados e representativos, a análise cuidadosa dos recursos utilizados pelo algoritmo – para garantir que eles não introduzam vieses – e a formulação do problema para evitar preconceitos.
Além disso, eles incentivam realizar uma avaliação contínua do algoritmo em relação a seu desempenho e envolver múltiplos stakeholders, incluindo especialistas em ética, grupos afetados e organizações regulatórias, na tomada de decisões relacionadas ao algoritmo.
Recebar nossa Newsletter

NATALIA CUMINALE
Sou apaixonada por saúde e por todo o universo que cerca esse tema -- as histórias de pacientes, as descobertas científicas, os desafios para que o acesso à saúde seja possível e sustentável. Ao longo da minha carreira, me especializei em transformar a informação científica em algo acessível para todos. Busco tendências todos os dias -- em cursos internacionais, conversas com especialistas e na vida cotidiana. No Futuro da Saúde, trazemos essas análises e informações aqui no site, na newsletter, com uma curadoria semanal, no podcast, nas nossas redes sociais e com conteúdos no YouTube.