Saúde

Consulta médica por IA preocupa especialistas, que alertam para riscos da prática

País está entre os três maiores usuários da ferramenta, com 140 milhões de comandos diários; especialistas alertam para riscos do uso da IA em diagnósticos médicos.

31/10/2025 às 10:24 por Redação Plox

O uso de Inteligência Artificial tem avançado rapidamente no Brasil. Dados recentes apontam que o país já figura entre os três maiores usuários semanais do ChatGPT, ficando atrás apenas dos Estados Unidos e da Índia. Em escala global, mais de 2 bilhões de comandos são enviados diariamente a esse tipo de sistema, sendo 140 milhões apenas de usuários brasileiros.

Especialistas veem riscos em "consultas" médicas por IA

Com o aumento dessa frequência, surgem preocupações sobre o uso inadequado da tecnologia, principalmente quando o assunto é saúde. Muitas pessoas têm recorrido à IA para obter “consultas” e diagnósticos, atitude considerada arriscada por especialistas.

A médica Ana Cristina Albricker, coordenadora e professora do curso de Medicina do Centro Universitário UniBH, ressalta que a Inteligência Artificial não pode substituir uma avaliação médica profissional. O risco ocorre quando sistemas de IA passam a ocupar o lugar do atendimento humano, comprometendo a precisão e a responsabilidade do cuidado à saúde.

Presença do profissional é insubstituível

A importância do acompanhamento presencial é destacada pela especialista. Ela afirma que o exame físico, a interação direta e o conhecimento da história do paciente continuam sendo essenciais para qualquer diagnóstico seguro.

Cautela com diagnósticos e receitas fornecidos por IA

Entre os principais perigos do uso de IA como ferramenta de diagnóstico, Ana Cristina alerta para possíveis erros terapêuticos e agravamento do quadro clínico. Diagnósticos automatizados jamais garantem segurança ao paciente, e receitas médicas devem ser sempre individualizadas e prescritas por médicos habilitados.

A especialista também lembra que, além das limitações técnicas, plataformas baseadas em IA estão sujeitas a “alucinações”, quando informações falsas podem ser geradas de modo convincente. Seguir orientações não validadas por médicos e provenientes de fontes sem credibilidade pode resultar em graves consequências à saúde.
As informações foram colhidas pelo portal Alto Astral.

Compartilhar a notícia

V e j a A g o r a