Um quinto dos clínicos gerais usam IA em seu trabalho, diz pesquisa

A IA de consultoria pode correr o risco de comprometer os dados do paciente e as informações fornecidas podem estar incorretas, dizem os pesquisadores.

Por Marina Zhang
18/09/2024 22:59 Atualizado: 18/09/2024 22:59
Matéria traduzida e adaptada do inglês, publicada pela matriz americana do Epoch Times.

Uma pesquisa com clínicos gerais no Reino Unido revelou que mais de 20% utilizam inteligência artificial (IA) para sugestões de diagnóstico e tratamento.

O ChatGPT, lançado em novembro de 2022, foi a ferramenta mais popular entre os médicos.

“Evidências preliminares sugerem as habilidades impressionantes dessas ferramentas para auxiliar na escrita de documentação empática”, escreveram os autores. “No entanto, essas ferramentas também apresentam limitações. Elas são propensas a criar informações errôneas.”

Mais de 1.000 médicos foram entrevistados. Cerca de 30% usaram a IA para gerar documentação após consultas com pacientes, enquanto 28% e 25% a utilizaram, respectivamente, para sugerir opções de diagnóstico ou tratamento.

Os autores disseram que sua amostra pode não ser representativa dos médicos do Reino Unido. Os resultados foram publicados na terça-feira no BMJ Health and Care Informatics.

A pesquisa é o maior estudo já realizado sobre o uso de IA generativa por médicos, que é capaz de criar conteúdo, na prática clínica, segundo os autores.

Após o lançamento do ChatGPT no final de 2022, o interesse em chatbots movidos por grandes modelos de linguagem aumentou significativamente, e a atenção tem se concentrado cada vez mais no potencial clínico dessas ferramentas.

Os resultados indicam que os médicos “podem extrair valor dessas ferramentas, especialmente em tarefas administrativas e para apoiar o raciocínio clínico. No entanto, alertamos que essas ferramentas têm limitações, pois podem conter erros e vieses sutis”, escreveram os autores.

“A comunidade médica precisará encontrar maneiras de educar tanto médicos quanto estudantes de medicina e orientar pacientes sobre a adoção segura dessas ferramentas.”

Riscos e orientações

Consultar IA pode comprometer os dados dos pacientes, e as informações fornecidas pela IA podem estar incorretas, dizem os autores.

“Não está claro como as empresas de internet por trás da IA generativa utilizam as informações que coletam”, escreveram os autores.

Os autores referenciam um ensaio clínico randomizado de 2024 que testou a capacidade do ChatGPT de documentar históricos de pacientes.

Os médicos entrevistariam os pacientes sobre o histórico de suas doenças, e o ChatGPT documentaria o histórico do paciente. Os autores descobriram que 36% dos documentos continham informações errôneas.

“Mais pesquisas são necessárias para investigar a adoção da IA generativa pelos médicos e como implementar essas ferramentas de forma segura e eficaz na prática clínica”, disseram os autores, acrescentando que atualmente não há diretrizes sobre como os médicos devem usar essas ferramentas.

“A comunidade médica precisará encontrar maneiras de educar médicos e estudantes sobre os potenciais benefícios dessas ferramentas ao resumir informações, mas também sobre os riscos.”