Machine Learning em Saúde: os modelos são uma “caixa preta”?

A predição na área da saúde é um ramo amplo e envolvendo técnicas diversas. Nos últimos anos, o uso de técnicas de Inteligência Artificial (IA), particularmente de machine learning, tem se tornado cada vez mais popular. Quando pesquisamos pelos termos “machine learning” e “prediction” na base de artigos médicos PubMed, torna-se evidente a recente e crescente popularidade de tais temas nos artigos publicados no mundo:

Quantidade de artigos científicos publicados no PubMed, por ano, que mencionam os termos “machine learning” e “prediction”.

Uma preocupação igualmente crescente, porém, diz respeito à interpretação dos resultados dos algoritmos preditivos em saúde. Dependendo do tipo de algoritmo utilizado, pode ser difícil explicar em termos simples a lógica de funcionamento dos modelos que levou a determinado resultado preditivo.

Alguns têm atribuído a qualidade de “caixa preta” aos algoritmos de machine learning — mas cabe a ressalva de que o adjetivo não é apropriado na maioria dos casos. Vejamos:

Machine Learning em saúde não envolve apenas Deep Learning

Deep Learning é um ramo do machine learning particularmente útil em problemas que envolvem dados não-estruturados, como análise de imagens médicas e processamento de linguagem natural. Em tais modelos, formados por “redes neurais profundas” que mimetizam o funcionamento dos neurônios cerebrais, as etapas de processamento envolvidas são numerosas e complexas, o que dificulta a plena descrição das variáveis preditoras (features) que interferem nos resultados.

Trabalhos têm sido feitos analisando esta questão e a tendência é que se aperfeiçoem os métodos de descrição dos modelos, bem como se amplie o conhecimento geral dos princípios da IA aplicada à saúde, mitigando pelo menos parcialmente a incompreensão que pode permear os consumidores dos modelos preditivos.

Machine Learning aplicado a dados estruturados em saúde

Aqui na Lean Saúde trabalhamos sobretudo com algoritmos de IA utilizando dados estruturados, isto é, dados tabulares relacionados à clínica de pacientes, dados demográficos, informações de sinistralidades, etc.

Os algoritmos mais utilizados neste ramo da IA facilitam a interpretação dos modelos e das variáveis preditoras (features) — por exemplo, por meio de gráficos de Shapley, que permitem visualizar a contribuição de cada feature para determinado modelo preditivo.

Exemplo de gráfico de Shapley, utilizado para visualizar a contribuição de cada variável preditora (feature) num dado modelo preditivo. Fonte: https://towardsdatascience.com/explain-your-model-with-the-shap-values-bc36aac4de3d

Documentação dos algoritmos de machine learning

Via de regra, os algoritmos de machine learning são bem documentados e possuem seu mecanismo de funcionamento (código-fonte) disponível para consulta e estudo. Não é plenamente correto atribuir a característica de “caixa preta” à vasta maioria dos algoritmos, uma vez que sua utilização se baseia numa lógica previsível e documentada.

Certo é que os algoritmos de machine learning fornecem uma modelagem computacional complexa, e não por acaso, têm apresentado uma acurácia preditiva superior à maioria das técnicas tradicionais, como a regressão linear, por exemplo. Em problemas particularmente complexos — como na área de saúde pública, medicina e economia da saúde –, envolvendo múltiplas variáveis que se relacionam de modo complexo, modelagens muito simples podem não ser ideais.

As técnicas tradicionalmente usadas na estatística tradicional, como a regressão acima mencionada, têm sua utilidade e seus prós e contras. Não à toa, fazem parte da rotina de predição e da inferência estatística de longa data. Mesmo em situações específicas, podem apresentar desempenho superior a algoritmos de machine learning, conforme as comparações feitas pelos cientistas de dados.

Uma vantagem delas é justamente a facilidade de sua interpretação, atribuindo pesos às variáveis preditoras que se somam num modelo linear, por exemplo — ainda que haja perda de acurácia preditiva em tal modelagem matemática de problemas complexos, ou ainda que se possa induzir a erros de interpretação pelo público leigo, com frequência creditando uma interpretação biológica pareada de modo exato ao modelo matemático simplificado.

Discernimento e boa técnica

A chave para adotar de maneira responsável uma ou outra técnica preditiva passa por alguns princípios:

  • Aprimorar continuamente os esforços de divulgação da IA junto às pessoas que utilizarão os modelos preditivos;
  • Aprimorar continuamente as técnicas de análise das variáveis preditoras, sobretudos nos algoritmos de deep learning, para que se identifiquem potenciais vieses dos modelos;
  • Comparar os prós e contras dos modelos tradicionais vs. modelos de machine learning utilizandoe métricas objetivas, sem ideias pré-concebidas ou achismos;
  • Aprimorar os métodos de interpretação dos mecanismos dos algoritmos de machine learning, para ampliar sua “explicabilidade” — um ramo de pesquisa chamado de “XAI – Explainable Artificial Intelligence“;
  • Utilizar boas práticas no processamento de big data e na modelagem de modelos preditivos, atentando-se a todas as etapas de pré-processamento e a todas as validações dos modelos.