A rápida evolução da inteligência artificial generativa, com destaque para os Modelos de Linguagem de Larga Escala (Large Language Models ou LLMs), tem impactado diversos setores, incluindo a medicina.
É crucial compreender tanto os benefícios quanto os desafios associados a essa tecnologia, como exemplificado por casos recentes que destacam a necessidade de cautela e responsabilidade em sua aplicação.
Erros e desvios
Nesta semana, vivi um caso interessante. Apresentando a ferramenta do aplicativo ChatGPT, que permite a interação por fala, para uma amiga médica, esta fez uma pergunta sobre “um paciente masculino, com 35 anos, 90kg e 1,85m de altura, apresentando lesão de pele ulcerada, expansiva, em membro inferior direito, bordas elevadas, sem resposta ao tratamento com amoxicilina + clavulanato”.
A resposta com as alternativas de possíveis hipóteses diagnósticas foi errada (ou, no mínimo, incompleta) pois não considerou a Leishmaniose (que era o diagnóstico correto).
Engenharia de prompt
Fiquei curioso e inseri no prompt (a forma como fazemos perguntas às LLMs) o fato de estarmos no Brasil (região tropical), instruindo-o a gerar respostas baseadas na epidemiologia mais adequada a este cenário.
O resultado foi excelente, com a resposta correta citada entre outras (como infecção fúngica e até linfoma).
Este exemplo evidencia a necessidade de precisão nas instruções dadas a assistentes virtuais. A aplicação dessas tecnologias requer uma compreensão profunda da medicina para evitar interpretações equivocadas ou informações imprecisas.
A implantação de ferramentas de inteligência artificial deve ser precedida pelo projeto da devida Engenharia de Prompt, concebida através do trabalho de uma equipe multidisciplinar, que envolve os profissionais de medicina e tecnologia.
O uso pessoal, com prompt não padronizado e estabelecido conforme um protocolo específico, pode levar a erros graves.
Uso responsável e ético da inteligência artificial
A experiência desses casos destaca a importância de incorporar assistentes virtuais, como o ChatGPT, de maneira ética e responsável na prática médica. Profissionais de medicina e enfermagem devem ser os condutores dessa tecnologia, utilizando-a como uma ferramenta de apoio para pesquisa, redação de documentos e análise de dados, mas sempre mantendo a responsabilidade final sobre as decisões.
Dicas para o uso adequado da inteligência artificial
Seguem algumas dicas para ajudar os profissionais e empresas destas áreas na implementação de suas soluções e no uso consciente, responsável, ético e eficaz da inteligência artificial:
Supervisão Humana Constante: A intervenção humana é crucial para garantir a validade e a ética das informações geradas pela inteligência artificial.
Validação e Verificação: As informações obtidas por meio de assistentes virtuais devem ser verificadas com fontes confiáveis para evitar a propagação de dados imprecisos.
Educação Contínua: Profissionais médicos devem investir em educação contínua para compreender plenamente as capacidades e limitações das LLMs e outras tecnologias similares.
Conformidade com as Normas Éticas e Legais: O uso da tecnologia na prática médica deve estar em conformidade com as normas éticas e legais estabelecidas pela profissão.
Em resumo, a inteligência artificial generativa tem o potencial de revolucionar a prática médica mas sua implementação deve ser conduzida com responsabilidade, considerando sempre os princípios éticos e legais que regem a profissão. A parceria eficaz entre profissionais da medicina e tecnologia é essencial para maximizar os benefícios e mitigar os riscos associados a essa transformação.