
A inteligência artificial na saúde pode tornar diagnósticos mais precisos, ajudar a identificar riscos sanitários, ser um mecanismo para aprimorar a gestão do setor. Mas também pode acentuar desigualdades, aumentar o preconceito e se transformar em uma ferramenta para perfilização – a análise dos dados para identificar comportamentos, o consumo e, a partir da combinação de informações avaliar condições de saúde, por exemplo. Como reduzir os riscos do uso inadequado e qual a urgência em se resolver a questão?
Enquanto especialistas e advogados afirmam haver urgência na regulamentação desses dados sensíveis, a Agência Nacional de Proteção de Dados (ANPD), entidade responsável pela regulação, avalia que o essencial é cumprir a agenda regulatória.
Em entrevista ao JOTA, o diretor da ANPD, Arthur Pereira Sabbat, prevê que o assunto será abordado entre 2024 e 2025. O diretor, oficial da reserva do Exército, assumiu o posto em novembro de 2020. Seu mandato vai até novembro de 2025. “A ANPD precisa amadurecer em termos doutrinários suas próprias conceituações a todos os aspectos que cercam o tema.” Não há intenção, segundo ele, em apressar o cronograma.
Um cenário bem distinto do identificado pela secretária de Informação e Saúde Digital do Ministério da Saúde, Ana Estela Haddad. “Já estamos vulneráveis. Precisamos reverter esse quadro”, afirmou, durante um evento nesta semana.
Um grupo de trabalho com especialistas foi formado na secretaria recém-criada para identificar as principais lacunas da Lei Geral de Proteção de Dados (LGPD) e pensar em propostas para regulamentá-la. “Queremos participar do processo de regulação. A saúde tem muitas especificidades, muitas suscetibilidades e elas precisam ser levadas em consideração”, disse.
Por mais distante que a inteligência artificial possa parecer, ela já faz parte do cotidiano. O recurso pode estar presente já no momento da ligação para uma central de atendimento de serviço médico, que direciona o autor da ligação para o canal em que a assistência será realizada. Mas há muito mais.
O laudo de exames pode ser, ainda, fruto de um processo que passa também pelo aprendizado de máquina. Dados epidemiológicos, combinados com outras informações, já são usados para fazer mapeamento de riscos de surtos ou de outras ameaças de saúde.
Em entrevista à coluna, a pesquisadora Analluza Bolivar Dallari conta que leis esparsas já podem ser usadas para contornar usos maliciosos e discriminatórios do algoritmo. “A própria Lei Geral de Proteção de Dados, quando afirma que é vedada a prática de seleção de riscos”, diz.
Um dos casos sempre citados como seleção de risco é usar informações de uma pessoa para, a partir das informações, facilitar ou dificultar sua entrada em um plano de saúde.
O problema, completa Dallari, é que o artigo da LGPD está voltado sobretudo para a saúde suplementar. Mas os riscos vão muito além.
“Várias empresas captam dados que podem revelar informações sobre saúde, que podem ser usadas para perfilização e para potenciais discriminações. O algoritmo pode detectar, a partir das compras, se faço algum tipo de dieta, se estou grávida ou se quero engravidar. Tudo a partir do meu consumo”, diz. A advogada acrescenta: dados relacionados à saúde podem ser identificados em um universo bem distinto da ficha médica. “O prontuário eletrônico está sob sigilo. Mas há outras formas de obtenção de dados.”
Dallari ressalta ser admiradora da inteligência artificial. “O uso ético, seguro, é necessário. No SUS, ela pode ajudar a reduzir custos, trazer inovações importantes tanto na atenção primária quanto especializada.” Mas garantias precisam ser criadas, afirma ela, tendo em mente que a seleção de risco ocorre de várias formas. E que tal prática resulta em atos discriminatórios.
A vulnerabilidade na área da saúde também deve ser levada em consideração. “Todos somos vulneráveis. Mas no caso de um paciente, ele quer resolver um problema de saúde. Quer um medicamento, um diagnóstico. Muitas vezes, sobrevida. Nessas condições, há menos espaço para questionar.” Em virtude dessa vulnerabilidade, é mais difícil ter clareza dos potenciais resultados discriminatórios ou lesivos que a inteligência artificial pode resultar. Isso vale também para erros induzidos pelo algoritmos.
Em entrevista ao JOTA, o gerente de Sistemas de Informação e Saúde Digital da Opas, Marcelo D’Agostino, observa que algoritmos levam em conta seleções de dados, que também podem falhar, de acordo com o universo usado como parâmetro. Como exemplo, ele cita um problema em que vários acidentes automobilísticos provocavam morte apenas de motoristas do sexo feminino. Investigações mostraram que o sistema de segurança havia sido projetado para corpos com características masculinas.
No caso da saúde, a relação entre erro do algoritmo e o desfecho não é simples de ser identificada. Daí a necessidade de haver rastreabilidade. “O problema é que, muitas vezes, é difícil definir as responsabilidades. A cadeia de desenvolvimento é extensa”, diz Dallari.
A pesquisadora considera urgente a regulamentação da LGPD. “Ela foi publicada num contexto pré-pandemia. Logo houve uma rápida transformação digital”, conta. Cabe inicialmente à Autoridade Nacional de Proteção de Dados fazer a regulamentação. Para Dallari, há uma omissão por parte do órgão em relação à área de saúde. “Há tratamento massivo de dados pessoais, que são de alto risco. O potencial discriminatório lesivo é alto. Mesmo assim, a ANPD preferiu começar a regulamentar dados pessoais sensíveis à religião. Perdeu uma chance. Talvez porque a saúde seja muito complexa, talvez porque os interesses sejam outros.”
Sabatt diz que, neste momento, os dados estão sendo reunidos para uma melhor tomada de decisão. Cita ainda o fato de que, em 2021, reuniões foram realizadas com o setor de saúde, onde um movimento de autorregulação foi identificado. “O que apresentaram nos deu muita tranquilidade. Era o início de um processo de autorregulação que incentivamos.” E como justificativa ele acrescenta: o setor de saúde, assim como os demais, conhece mais de si próprio do que a ANPD.
Para ele, as regras existentes na lei já são suficientes para proteger abusos. E mesmo que sejam cometidos, afirma, a lei permite que punições sejam fixadas, independentemente de uma regulamentação. Mesmo que a regulamentação venha em 2025, o passivo poderá ser avaliado.
Ana Estela Haddad tem uma percepção diferente. Em entrevista ao JOTA, ela observou haver lacunas que precisam ser tratadas, como o risco de obtenção de vantagens econômicas a partir de dados em saúde e da importância de se discutir o tema dentro do governo, com legisladores e também com a ANPD.
De acordo com a secretária, alguns contatos já começam a ser realizados para o amadurecimento do tema. “São todas questões que guardam aspectos éticos de regulamentação, que a gente vai precisar abrir uma discussão de forma integrada.”
O descompasso no discurso deixa claro haver ainda um longo caminho para a integração. Chama ainda a atenção o apreço do diretor da ANPD pela autorregulamentação. Experiências anteriores já mostraram que esse tipo de iniciativa está longe de trazer bons resultados.