![]()
Um estudo recente expõe falhas sistemáticas nos grandes modelos de linguagem quando estes fornecem informações sobre políticas de saúde europeias. A qualidade e o rigor das respostas variam consoante o perfil de quem pergunta e o país de onde a consulta é feita. Os doentes recebem informações mais limitadas e com menor solidez técnica comparativamente aos profissionais de saúde. A conclusão é do relatório “IA y Política Pública: Hacia una nueva arquitectura de incidencia”, elaborado pela consultora LLYC no âmbito do European Health Summit, que analisou quase 1500 respostas de quatro sistemas de IA.
“A IA tornou-se um interveniente com capacidade para influenciar a opinião pública, a circulação de informação e a perceção de temas fundamentais como a saúde”, afirma Carlos Parry, Líder de Healthcare Europa na LLYC. “As divergências sistemáticas detetadas, especialmente a desigualdade informativa entre profissionais de saúde e doentes, e a disparidade geográfica colocam um desafio crítico de equidade”, sublinha. A monitorização deste fenómeno por reguladores e pela indústria é, para o especialista, uma necessidade premente, dado o risco de se moldarem perceções públicas de forma enviesada.
A análise identificou um padrão claro de desigualdade informativa. Os profissionais de saúde obtêm consistentemente respostas descritas como as mais completas e tecnicamente rigorosas. Já os doentes deparam-se com lacunas informativas significativas, com menor visibilidade e rigor nos conteúdos recebidos. Curiosamente, os meios de comunicação social obtiveram as pontuações mais baixas em indicadores como visibilidade e qualidade das fontes, apesar de registarem grandes lacunas. As administrações públicas, por seu turno, veem os modelos a adotar uma postura especialmente favorável perante os intervenientes institucionais do setor.
A geografia também desenha um mapa de desequilíbrios. Consultas feitas a partir de países como a Alemanha, a França ou a Espanha tendem a gerar resultados mais completos e com fontes de melhor qualidade. Em contraste, países da Europa de Leste, como a Polónia e a Hungria, recebem informações mais fragmentadas e com um nível de consenso mais baixo entre os diferentes modelos. Esta adaptação do conteúdo ao contexto nacional, longe de uniformizar o acesso, parece acentuar clivagens.
No que toca às regulamentações em análise, o Espaço Europeu de Dados de Saúde (EHDS) surge como a norma mais sólida, com maior visibilidade e qualidade argumentativa. A Lei da IA, por sua vez, é associada à carga emocional mais intensa. A Avaliação de Tecnologias Sanitárias (HTA) e a Reforma Farmacêutica apresentam, segundo o documento, as maiores lacunas informativas.
O estudo comparou o desempenho de quatro modelos. O Gemini posiciona-se com a maior precisão e fiabilidade na análise das regulamentações, mostrando também uma maior capacidade para minimizar a desinformação e manter uma qualidade uniforme entre diferentes utilizadores. O Anthropic oferece um perfil estratégico, útil para antecipar impactos regulamentares. Já o Perplexity apresenta o maior risco de desinformação, demonstrando uma dependência acentuada de meios de comunicação gerais para fundamentar as suas respostas. O OpenAI, com um perfil mais modesto, destaca-se ainda assim pela utilização notável de fontes oficiais da UE e de literatura revista por pares.
Daniel Fernández Trejo, Diretor-Geral de Deep Learning na LLYC, reflete sobre a mudança de paradigma: “Passámos de uma Web de pesquisa para uma Web de respostas sintéticas. Compreender a lógica algorítmica desta nova ‘arquitetura da influência’ é tão importante hoje como foi compreender os meios de comunicação no passado”. A interação entre a Inteligência Artificial e a política pública no setor da saúde confirma, assim, a existência de vieses sistémicos que exigem atenção.
PR/HN



0 Comments