Desafios da Responsabilização na Saúde Digital com Inteligência Artificial

Recentemente, um movimento crescente tem sido observado no setor tecnológico, onde grandes empresas estão desenvolvendo ferramentas que analisam prontuários médicos, resultados de exames e dados provenientes de dispositivos móveis. A proposta é centralizar informações de saúde, que atualmente estão dispersas, facilitando o acesso dos usuários a seus dados e, em última análise, aprimorando a tomada de decisões. Embora essa inovação represente um avanço significativo, o cenário é mais complexo e arriscado do que aparenta.

Os dados de saúde são classificados como informações sensíveis, pois refletem aspectos íntimos da vida das pessoas. A centralização dessas informações em plataformas digitais pode criar vulnerabilidades, tornando-as alvos atrativos para ataques cibernéticos. Entretanto, o problema se estende além da questão técnica, envolvendo também aspectos jurídicos. Já foram registrados casos em que sistemas de inteligência artificial falharam ao identificar emergências clínicas ou fornecer orientações inadequadas, levantando a questão: quem é responsável quando a tecnologia comete um erro?

Esta discussão, ainda em estágio inicial, tornou-se fundamental, uma vez que nas relações de consumo mediadas por tecnologia, a responsabilidade parece se dissipar entre desenvolvedores, plataformas e prestadores de serviços. Para o usuário, no entanto, os riscos são reais e imediatos. Outro ponto a ser considerado é o consentimento: idealmente, o compartilhamento de dados deve ocorrer com autorização livre, informada e inequívoca. Na prática, no entanto, muitos consumidores enfrentam termos de uso extensos e complexos, resultando em uma clara assimetria informacional entre empresas e usuários.

No Brasil, a Lei Geral de Proteção de Dados Pessoais (LGPD) estabelece um regime rigoroso para o tratamento de dados sensíveis, incluindo os relacionados à saúde. Contudo, a eficácia dessa proteção depende não apenas da legislação, mas também de sua aplicação em face de tecnologias em rápida evolução. O Código de Defesa do Consumidor define a responsabilidade objetiva e solidária dos fornecedores, mas essa lógica presume relações de consumo identificáveis, onde é possível traçar a cadeia de fornecimento e os pontos de controle.

O desafio imposto pela inteligência artificial reside no fato de que as decisões são tomadas por sistemas que operam de forma opaca e estão integrados a diversos agentes, muitas vezes sem que seja possível identificar onde ocorreu uma falha específica. Portanto, a discussão não deve se focar em restringir a inovação, mas sim em estabelecer limites claros para sua implementação.

A adoção de inteligência artificial na saúde é considerada inevitável, mas o modelo de responsabilização que deverá acompanhar esse avanço ainda está indefinido, assim como o nível de proteção que será efetivamente assegurado ao consumidor. Enquanto a tecnologia promete agilidade e decisões mais precisas, o sistema jurídico deve garantir que, em caso de erro, haja uma resposta clara e responsável.

Compartilhe :

Facebook
Twitter
LinkedIn
Pinterest