Home Inovação Os desafios para inteligência artificial funcionar em saúde

Os desafios para inteligência artificial funcionar em saúde

A qualidade dos dados e o viés algorítmico podem interferir em como as ferramentas de inteligência artificial funcionam.

               
596
Inteligência artificial pode falhar assim como qualquer profissional de saúde. É preciso corrigir tais erros e aperfeiçoar continuamente.

Estimativas da Universidade de Stanford apontam que, em 2021, o investimento privado em inteligência artificial (IA) foi de 93,5 bilhões de dólares. A saúde é uma das áreas mais beneficiadas, com a ferramenta contribuindo com atendimentos e diagnósticos mais rápidos e precisos, reduzindo custos e melhorando a experiência de pacientes e profissionais de saúde.

No entanto, especialistas alertam que é preciso cautela para enfrentar os desafios e limitações na construção de algoritmos que façam as análises de dados. De acordo com relatório do Instituto Alan Turing, entidade de ciência de dados e inteligência artificial do Reino Unido, a dificuldade em acessar dados de qualidade impediu que as ferramentas de IA fossem mais efetivas contra a Covid-19 no primeiro ano da pandemia, principalmente com as populações mais vulneráveis.

Um estudo publicado no British Medical Journal (BMJ) no início da pandemia confirma esse apontamento. Pesquisadores revisaram 169 publicações aplicando 232 modelos de previsão que utilizam IA para diagnóstico e análise de risco da população desenvolver doença grave ou mortalidade. Por não levar todas as variáveis em consideração, os achados indicaram que todos possuíam um risco alto – um exemplo de como os resultados podem sofrer interferências.

Apesar das análises criarem uma dúvida quanto às possibilidades do uso de inteligência artificial, é preciso levar em consideração alguns fatores, como a qualidade dos dados, que nenhuma tecnologia nasceu 100% pronta e, principalmente, que humanos constroem os algoritmos. Possíveis falhas e erros que possam vir a ocorrer merecem atenção e devem ser solucionados.

Detecção de câncer de pele

Sandra Avila, professora-assistente, cientista e pesquisadora do Instituto de Computação da Universidade de Campinas (Unicamp), integra um estudo que desenvolveu um algoritmo que analisa imagens de lesões e manchas na pele para identificar possíveis melanomas, um dos principais tipos de câncer de pele.

A ferramenta atingiu 86% de precisão e deve contribuir com a detecção precoce em áreas onde não há profissionais especializados. Com projetos relacionados à pesquisa, Avila recebeu o Google Latin America Research Awards (Lara) por 5 anos consecutivos. Entretanto, para que de fato seja usado no dia a dia da saúde pública, o sistema precisa de aperfeiçoamentos.

As imagens disponíveis em bancos públicos, que são utilizadas no treinamento do algoritmo para identificar o melanoma, são majoritariamente de pessoas brancas. “Se eu pegar o padrão que um especialista identifica para dizer se é ou não melanoma, ele já é diferente entre pessoas brancas e negras. Se já se sabe que o padrão é diferente, não tem como a máquina aprender se eu não estou dando essa informação”, afirma Sandra. Nesse caso, o algoritmo não funcionaria em pessoas negras, podendo apontar resultados incorretos.

Construção de um banco de dados robusto

A grande maioria dos cerca de 50 mil dados utilizados no estudo de detecção melanomas vem de bases da Austrália, Estados Unidos e Europa, por serem mais robustas e acessíveis. Uma parte menor, de cerca de 2 mil imagens, vem da Universidade Federal do Espírito Santo (Ufes). Para sanar a questão da falta de representatividade, o projeto tem parcerias com o Hospital de Amor, de Barretos, SP, com o Hospital de Clínicas da Unicamp e com a ONG SAS Brasil, para a criação de um banco próprio.

A pesquisadora explica que mesmo com os dados em mãos, é preciso levar em consideração outras variáveis, como alimentação, estilo de vida e incidência solar na hora de treinar os modelos. O ideal é ter acima de 100 mil imagens, sendo um banco plural, com pessoas de diferentes tipos de peles e regiões do Brasil.

“Esse processo vai realmente fazer a diferença e ter um impacto muito forte. Imagine um dermatologista ter um suporte de um sistema que aprendeu um monte de dados em uma velocidade absurda, que vem sendo treinado com o desenvolvimento dos algoritmos. A ideia não é ter um modelo de inteligência artificial sozinho, nem um especialista sozinha. É criar uma inteligência aumentada, com os dois andando em conjunto”, avalia Sandra.

Ela alerta que não é possível ter um modelo que seja representativo para todas as variáveis, mas o profissional de saúde deve se atentar às informações que vão além da imagem da lesão ou mancha, como já é feito tradicionalmente para chegar a um diagnóstico.

“Temos inteligências artificiais que já foram aprovadas no FDA [Food and Drug Administration, dos Estados Unidos] e estão sendo aplicadas. Daqui a pouco vamos ter no Brasil também. Mas não vai ser em grande escala ou funcionar para tudo. O mais importante é saber restringir algumas coisas no sentido de que ‘isso pode ser aplicado para esse tipo de pessoa e esse para esse outro tipo’. As pessoas precisam entender que aquele sistema não funciona para qualquer ocasião e problema”, defende a cientista. Para isso, é preciso testar incansavelmente e criar regras para que não se aumentem as desigualdades, contemplando apenas alguns grupos e excluindo outros do uso de tais tecnologias.

Erro de percurso com inteligência artificial

Dentre as tecnologias aprovadas pelo FDA que utilizam a inteligência artificial está o Ava Fertility Tracker, da startup suíça Ava. A pulseira inteligente utiliza IA para analisar biomarcadores (dados de vida real) e indicar quando a mulher está em período fértil. Dessa forma, pode-se prevenir uma gravidez indesejada ou aproveitar o momento para tentar engravidar. O aparelho possui 89% de precisão, segundo o fabricante.

Com a chegada da pandemia de Covid-19 o cenário mudou. O wearable passou a identificar alterações relacionadas à doença, criando uma discrepância nos dados relacionados ao ciclo menstrual. A empresa aproveitou a oportunidade e agora está desenvolvendo um estudo para analisar a acurácia do aparelho na detecção precoce de Covid. Testes iniciais apontaram precisão de 71% em detectar alterações Covid, 2 dias antes do início dos sintomas.

“Existe um interesse comercial e eles viram o risco que esse novo cenário estava trazendo. O que prevalece? A estratégia comercial de colocar mais um produto no mercado ou a missão continuará a ser o de identificar o período fértil de mulheres, que levaria à necessidade de descobrir outros biomarcadores que consigam dar essa resposta? O que a empresa vai fazer com uma situação como essa depende muito da estratégia que está por trás”, afirma Onicio Leal, pesquisador do Center for Child Well-being and Development da University of Zurich e Diretor de Pesquisa e Desenvolvimento do Colab, startup de tecnologia com soluções para governos.

Desafios

Na visão do pesquisador, os desafios para desenvolver IA são diferentes para cada contexto. Em alguns casos, a falta de qualidade nos dados pode impactar no resultado. Onicio explica que mesmo em situações onde os dados são de qualidade, é preciso encontrar o algoritmo para se atingir os objetivos. O ideal é que eles sejam definidos antes da análise, mas em alguns casos, novos achados podem ocorrer durante o processo, e então é preciso considerar o que fazer com eles.

Outro tema bastante discutido pelos especialistas é a solução dos vieses. Seja por um “vício” da base de dados ou por uma interpretação sistemática dos dados, sem levar em consideração outras informações pertinentes, os algoritmos podem ter resultados tendenciosos, que podem criar distorções nos resultados.

“A parte boa é que existem algumas áreas que tentam mitigar esses problemas. Uma delas se chama ‘explainable AI’ [inteligência artificial explicável], e o seu principal propósito é abrir a caixa preta”, afirma Onicio. A ideia, é descobrir o funcionamento e tornar mais transparente o modo como essas tecnologias funcionam.

Mas o pesquisador faz um alerta: é preciso que haja interesse das empresas em resolver tais questões. “Se querem usar, os gestores de saúde no Brasil precisam estudar e saber o que é inteligência artificial e aprendizado de máquina. Porque às vezes não precisa nem disso, uma função simples que você faz no banco de dados é o suficiente para economizar milhares de reais com IA. As pessoas têm que sair da piscina rasa e mergulhar”, conclui.

Na prática em saúde

“Eu tenho uma máxima no uso de IA para a saúde hoje: qualquer um que fala que tem certeza, provavelmente está mentindo. É tudo muito novo e a gente está descobrindo os caminhos”, afirma Anthony Eigier, cofundador e CEO da NeuralMed. A empresa constrói algoritmos que analisam dados de pacientes, auxiliando os serviços de saúde no diagnóstico e tratamento.

Uma das premissas da healthtech é que as ferramentas sejam construídas em parceria com médicos para que esses possam detalhar as especificidades de cada situação ou patologia. Isso contribui com a redução de falhas ao longo do prazo, assim como a revisão constante dos processos.

“Tem um problema bastante comum no mundo da IA que é o viés da base de dados. Se a gente tem uma base de dados específica, na hora que você vai para outra base muito diferente, de vez em quando o algoritmo não consegue identificar os mesmos padrões”, explica Anthony.

A empresa desenvolveu uma ferramenta para identificar casos de pneumotórax, doença onde o ar inspirado por uma pessoa vai para o lugar errado, permanecendo entre as camadas que revestem o pulmão, podendo causar um colapso no sistema respiratório. O algoritmo analisa exames de imagem e aponta quais pacientes podem ter a condição. Durante os testes, a equipe da NeuralMed verificou que a tecnologia identificava apenas aqueles pacientes que já tinham um dreno torácico, tratamento para pneumotórax, e não aqueles que podiam ter a doença.

Contudo, só ter uma ferramenta que analise um big data é pouco para o cuidado em saúde da população. Os limites, muitas vezes, têm mais a ver com a capacidade dos hospitais e clínicas em acompanhar os pacientes e suas condições.

“Um dado que foi criado por um médico treinado na sua especialidade provavelmente é um dado de qualidade. A estratégia de guardar dados é muito valiosa, porque um paciente é um filme, não uma foto. Desde que você consiga acessá-lo, refinar e transformar em valor lá na frente”, reforça o CEO.

Inteligência infinita?

“Essa diferença entre o resultado prático e a expectativa que a gente tinha delas talvez indique que a nossa perspectiva sobre a tecnologia e o que ela é esteja equivocada”, afirma José Borbolla Neto, sócio e head de Educação no Cappra Institute for Data Science e fundador da Branded Brain, consultoria na área de dados.

Com o desenvolvimento das tecnologias que utilizam sistemas de inteligência artificial, criou-se a ideia de que elas possuem capacidade ilimitada, que seriam capazes de resolver todo e qualquer problema. No entanto, é preciso ter em mente que elas são ferramentas que irão complementar o trabalho de profissionais. No caso da saúde, o auxílio de algoritmos pode contribuir para que o médico chegue a um diagnóstico mais preciso, mas dificilmente a tecnologia trabalhará sozinha.

“A gente tem essa visão de solucionismo tecnológico, de que essas ferramentas, por serem complexas e tão poderosas em termos de processamento de dados, deveriam produzir uma verdade mais verdadeira. A precisão seria tão grande que não haveria o que se discutir. E o que se vê é que quando você pega um determinado algoritmo e vai otimizando para atingir determinado objetivo, isso vai produzindo diversas externalidades paralelas”, explica Borbolla.

Discriminação algorítmica

Existe uma discussão na comunidade científica sobre o risco do uso de inteligências artificiais servirem para perpetuar discriminações. Mesmo que não seja o objetivo, algumas ferramentas podem ser danosas a grupos minoritários.

Borbolla afirma que é preciso levar em consideração que o uso que se dá à tecnologia é mais importante que a tecnologia em si. Mesmo que as pessoas que construíram tais ferramentas não tenham o objetivo de perpetuar discriminações, a formação delas pode criar um viés que provoque um racismo algorítmico.

“A maneira como a gente [seres humanos] interpreta dados, resultados e informações está inextricavelmente conectada aos nossos valores, morais, da época, da família, do local onde nascemos, e de vários outros elementos sociais, históricos, emocionais, psicológicos, entre outros”, afirma.

A ideia de ter uma equipe plural é uma das principais defendidas pelos especialistas na área, levando sempre em consideração o benefício à população e a redução de distorções. Mais do que isso, é sempre preciso estar atento às possíveis falhas e corrigi-las.

“Sem dúvida nenhuma uma equipe diversa ajuda. Mas não adianta definir uma equipe plural se o meu único jeito de definir sucesso é o lucro. Porque eventualmente o que essa equipe vai propor, vai produzir um efeito positivo que não é captado pelo lucro, e às vezes até o diminui. Mas está melhorando um monte de outras coisas que não estão sendo medidas”, alerta Borbolla.

DEIXE UMA RESPOSTA

Por favor insira seu comentário!
Digite seu nome aqui