A medicina contemporânea não é movida apenas por exames, consultas e cirurgias. Ela é, cada vez mais, movida por dados. Prontuários eletrônicos, exames de imagem, testes genéticos, informações de dispositivos vestíveis, sensores do cotidiano e registros populacionais formam hoje o arcabouço que sustenta diagnósticos mais precoces, tratamentos personalizados e políticas públicas mais eficientes. O dado deixou de ser um subproduto do cuidado para se tornar parte essencial dele.

Esse cenário abriu uma oportunidade inédita. Com grandes volumes de informação, algoritmos de inteligência artificial conseguem identificar padrões muitas vezes invisíveis ao olho humano, antecipar riscos e apoiar decisões clínicas com precisão crescente. Ao mesmo tempo, nunca foi tão necessário discutir quem controla esses dados, como eles circulam e até onde podem ser utilizados.

Há, porém, um ponto central que não pode ser ignorado: dados de saúde são altamente sensíveis. Eles carregam informações íntimas sobre o corpo, a mente e o futuro das pessoas. Um uso inadequado pode levar à discriminação, à estigmatização ou à exploração comercial indevida.

O mesmo dado que salva vidas pode, se mal-governado, gerar danos irreversíveis à confiança da sociedade na ciência e na inovação. Essa confiança, aliás, não é abstrata nem inabalável. Os resultados recentes do ENAMED expuseram fragilidades profundas na formação médica brasileira e produziram um efeito que vai além do campo educacional. Em um sistema de saúde cada vez mais dependente de dados, algoritmos e decisões automatizadas, confiança institucional não é acessória; é infraestrutura crítica.

No Brasil, a Lei Geral de Proteção de Dados (LGPD) reconhece essa sensibilidade ao classificar dados de saúde como dados pessoais sensíveis, exigindo cuidados redobrados quanto à finalidade, à segurança, à transparência e à base legal para seu uso. A lógica é clara: inovação não pode ser construída à custa da autonomia do paciente. Na prática, contudo, surge uma tensão inevitável. Pesquisa científica, desenvolvimento tecnológico e o treinamento de modelos de inteligência artificial dependem de grandes volumes de dados, enquanto consentimentos genéricos ou pouco claros fragilizam o pacto de confiança entre pacientes e instituições. 

Continua após a publicidade

Paradoxalmente, quando levada ao extremo, a proteção pode gerar seu oposto. Regras excessivamente rígidas, insegurança jurídica ou interpretações maximalistas da legislação podem inviabilizar pesquisas legítimas, atrasar descobertas e aprofundar desigualdades em saúde. O desafio não é escolher entre privacidade e inovação, mas construir marcos regulatórios inteligentes, capazes de proteger o indivíduo sem paralisar a ciência. 

Esse dilema se intensifica no campo das imagens médicas.Afinal, retinografias, tomografias e lâminas histopatológicas são representações potencialmente identificáveis de um indivíduo? Uma vez utilizadas para treinar modelos de inteligência artificial, podem ser reutilizadas inúmeras vezes, levantando uma questão central da era digital: é possível rastrear onde um dado foi usado e, se necessário, retirá-lo do sistema?

Na Europa, o Regulamento Geral de Proteção de Dados (GDPR) enfrenta essa questão ao garantir ao cidadão o direito de retirar seu consentimento a qualquer tempo, inclusive para usos secundários em pesquisa. Na prática, isso impõe um enorme desafio técnico e institucional. Nem sempre é possível “apagar” um dado já incorporado a modelos complexos, mas o princípio obriga sistemas a adotarem governança, rastreabilidade e versionamento desde a sua concepção. Nesse modelo, o controle do dado permanece, ao menos em última instância, com o cidadão.

Continua após a publicidade

Essas discussões não são teóricas. No Bascom Palmer Eye Institute, da Universidade de Miami, trabalhamos com 66 milhões de prontuários clínicos e mais de 300 mil imagens oftalmológicas, construindo uma das maiores infraestruturas de dados para pesquisa em visão. Nesse contexto, modelos machine-to-machine capazes de predizer a espessura da camada de fibras nervosas da retina (RNFL) a partir de simples retinografias estão revolucionando o diagnóstico e o acompanhamento do glaucoma, com potencial para democratizar o rastreio da doença.

A lição é clara. Inteligência artificial e big data já moldam a medicina do presente e definirão a do futuro. Mas sistemas de saúde verdadeiramente modernos não são apenas data-driven. São, sobretudo, human-centered. O futuro dos dados em saúde será guiado por algoritmos, sim, mas sustentado pela ética, pela governança e pela confiança das pessoas que tornam esse futuro possível.

*Gustavo Rosa Gameiro é médico e cientista, membro do programa de jovens lideranças médicas da Academia Nacional de Medicina. Felipe Medeiros é oftalmologista e professor da Universidade de Miami



Source link

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *