O uso da Inteligência Artificial (I.A.) na Medicina é uma realidade presente, para:
- apoio diagnóstico,
- análise de exames de imagem,
- triagem de pacientes,
- predição de riscos clínicos, e
- otimização de fluxos de atendimento.
Os benefícios são evidentes, mas quem responde pelos erros quando a decisão médica é influenciada por sistemas de Inteligência Artificial?
É essencial compreender que a I.A. deve ser tratada como ferramenta auxiliar à decisão clínica, e não como substituta do raciocínio médico, pois a responsabilidade profissional continua vinculada ao médico, que deve compreender as limitações da ferramenta, validar criticamente os resultados apresentados, não delegando decisões ao sistema, sob pena de caracterizar falha na prestação.
Portanto, devem ser evitados riscos jurídicos associados ao uso inadequado I.A., entre os quais erros de diagnóstico baseados em algoritmos, falta de transparência com o paciente, e excessiva dependência tecnológica.
Também devem ser considerados riscos jurídicos no que se reporta a questões vinculadas à LGPD, uma vez que as ferramentas de I.A. utilizam significativos volumes de dados sensíveis de pacientes.
Diante desse cenário, torna-se ainda mais importante o termo de consentimento livre e esclarecido (TCLE), que deverá contemplar informações acerca da utilização de ferramentas tecnológicas no diagnóstico, das limitações desses sistemas e de eventual necessidade de validação clínica. Essa transparência fortalece a relação médico-paciente e reduz riscos de questionamentos futuros.
O uso de ferramentas de Inteligência Artificial não afasta a responsabilidade civil do médico, que, por sua vez, deve ter conduta diligente, manter o protagonismo do raciocínio clínico, analisar críticamente os dados, documentar adequadamente as decisões, e manter adequada e transparente comunicação com o paciente.
A tecnologia evolui rapidamente, mas a responsabilidade médica continua sendo, essencialmente, humana.



