![]()
No âmbito da conferência “Saúde Odisseia 2030”, o Painel 3 dedicou-se a um dos temas mais sensíveis da transformação digital: a humanização e a ética. Moderado por Hélder Mota Filipe, Bastonário da Ordem dos Farmacêuticos, a discussão não se cingiu a fórmulas pré-concebidas, antes mergulhou na complexa teia de relações entre máquinas, profissionais e doentes.
A intervenção inicial de Maurício Alves, administrador hospitalar, trouxe para a mesa a fria realidade do terreno. Descreveu a pressão para a digitalização como um “tsunami” com benefícios inegáveis de eficiência, mas alertou para o risco de se criar um “hospital gélido”. “Um formulário eletrónico não capta o olhar de ansiedade de um familiar. Um algoritmo de triagem não mede a solidão. Estamos a otimizar processos e a desumanizar momentos?”, questionou, defendendo que a tecnologia deve ser um canal e não uma barreira. Partilhou a experiência-piloto da sua ULS na utilização de tablets para recolher o historial do doente na urgência, mas garantindo que, seguidamente, um profissional dedica uns minutos exclusivos a olhar nos seus olhos – “a gestão do silêncio também é um ato clínico”.
Na sequência, Ana Sofia Ferreira, da PLANAPP, trouxe uma perspetiva mais sistémica. Reconheceu que muitos projetos de digitalização são desenhados a partir de cima, focados em métricas de produtividade, e falham em integrar a “psicologia do utilizador final”. “Implementamos uma plataforma de teleconsulta fantástica, mas se o médico a vê como mais uma tarefa burocrática e o idoso não consegue ligar a câmara, falhámos redondamente”, ilustrou. Defendeu uma “antropologia digital” no planeamento, que antecipe estas resistências e fragilidades. “Humanizar na era digital não é pôr um emoji num chatbot. É desenhar serviços que não excluam ninguém e que libertem tempo para o genuíno cuidado.”
A intervenção da jurista Rita Abreu Lima introduziu o frio corte da lei no calor da relação de cuidado. Abordou os dilemas éticos e legais em crescendo: o que acontece aos dados de um wearable que deteta um problema de saúde num cidadão? Quem é responsável por um diagnóstico feito por uma IA que falha? “A lei tenta, com a sua lentidão característica, acompanhar uma realidade que se redefine a cada segundo. A privacidade, a confidencialidade e o consentimento informado estão a ser desafiados de formas inéditas”, sublinhou. A sua exposição deixou claro que o quadro legal atual é, por vezes, insuficiente para lidar com a pergunta: “Quando um algoritmo faz parte da equipa clínica, quem responde pelos seus erros?”
O comentário final de Fernando Regateiro, da Comissão da Humanização do SNS, funcionou como uma síntese provocadora. Relembrou que a humanização não é um acessório, mas a base de um sistema de saúde digno. “Podemos ter o hospital mais high-tech do mundo, mas se uma pessoa se sente um número, o sistema falhou. A tecnologia deve servir para nos devolver tempo – tempo para escutar, para explicar, para acompanhar. O grande desafio ético não é da máquina, é nosso: garantir que usamos estas ferramentas para nos tornarmos mais humanos, e não mais eficientes e distantes.”
O debate que se seguiu na plateia revelou as mesmas clivagens e preocupações. Discutiu-se se a formação dos profissionais está a prepará-los para esta dupla função de especialistas técnicos e cuidadores empáticos. Falou-se do risco de criar uma nova forma de iliteracia – a digital – que deixará para trás os mais idosos e vulneráveis. A pergunta que pairou no ar, sem uma resposta definitiva, foi: estaremos a construir um futuro de saúde mais preciso e rápido, mas menos compassivo?
RE/HN



0 Comments