“É fundamental afirmar que a IA não é, nem pode ser, um substituto do julgamento clínico, da experiência médica nem do contacto humano. O diagnóstico é parte essencial do ato médico, que envolve não apenas dados objetivos, mas também interpretação contextual, escuta ativa e empatia”, afirmou Carlos Cortes, em declarações à agência Lusa.
O bastonário acrescentou que a IA deve ser encarada como uma ferramenta de apoio à decisão clínica e não como agente autónomo de diagnóstico.
Carlos Cortes insiste que as ferramentas de IA não estão habilitadas a fazer diagnósticos, pois faltam “evidência científica robusta, mecanismos de validação rigorosos, e sobretudo, transparência algorítmica que permite aos médicos compreender e confiar nas decisões sugeridas”.
A Comissão para a Inteligência Artificial da Ordem dos Médicos salienta que “a adoção de IA na medicina só deve ocorrer com base em validação científica, com explicabilidade, responsabilização e supervisão médica contínua. A integração de IA nos fluxos clínicos exige o respeito por princípios éticos como a autonomia, a não maleficência e a justiça”.
Nos casos de diagnósticos errados o bastonário refere que as “consequências podem ser gravíssimas: atrasos no início de terapêuticas adequadas, agravamento de estados clínicos, exposição a tratamentos desnecessários ou inapropriados, sofrimento evitável e até perda de vidas humanas”, ao mesmo tempo que não assumem responsabilidade moral.
Além disso, a ausência de explicabilidade em muitos algoritmos dificulta a identificação de erros, esbate a fronteira da responsabilidade e ameaça a confiança dos doentes nos médicos e na medicina.
O responsável diz ainda que em Portugal não foram identificados casos em que o uso de IA tenha causado consequências clínicas relevantes, embora a ausência de casos não possa ser confundida com a ausência de risco.
“A implementação de tecnologias disruptivas exige vigilância, capacidade de auditoria, sistemas de reporte estruturado e regulação proativa”, até porque o país não dispõe de entidade dedicada ao acompanhamento da IA na saúde, representando uma “lacuna grave no setor onde estão em causa a segurança clínica, os diretos dos doentes e a integridade do ato médico”, conclui o bastonário.
As declarações do bastonário surgem depois de a plataforma espanhola Maldita ter alertado para a circulação em ‘sites’ e redes sociais de depoimentos de pessoas que pediram diagnósticos a modelos de IA.
Alegações como “pedi ao ChatGPT para ler a minha mão e ele detetou cancro de pele” ou “ChatGPT diagnostica uma mulher com cancro um ano antes dos médicos” circulam nas redes sociais, afirmando que a ferramenta de IA é capaz de fazer diagnósticos médicos.
Contudo, os resultados dos ‘chatbots’ de IA são baseados em probabilidades, os dados de treino podem não ser confiáveis e não podem fazer a análise abrangente que um médico faz, refere a plataforma.
NR/HN/Lusa
0 Comments