OpenAI atualiza políticas e restringe ChatGPT para uso médico
Estratégia Med | Foto: frimufilms/Freepik

OpenAI atualiza políticas e restringe ChatGPT para uso médico

Mudança nas políticas de IA estabelece regras mais rigorosas para o uso de chatbots na medicina e proíbe aconselhamento personalizado sem supervisão

A OpenAI atualizou, no último sábado (29), suas Políticas de Uso e Termos de Serviço, reforçando que o ChatGPT e demais modelos de linguagem da empresa não devem ser utilizados para oferecer diagnósticos, tratamentos ou qualquer tipo de aconselhamento médico personalizado sem o envolvimento de um profissional licenciado.

De acordo com o novo documento, o uso das ferramentas da OpenAI em áreas que exigem licença profissional, como medicina e direito, só é permitido com a supervisão adequada de um profissional qualificado. A medida visa garantir segurança, precisão e responsabilidade no uso da inteligência artificial em contextos sensíveis, como saúde, finanças e decisões legais.

O que diz a atualização

Entre as novas diretrizes, está a proibição explícita do: “fornecimento de consultoria personalizada que exija licença, como consultoria jurídica ou médica, sem o envolvimento adequado de um profissional licenciado”.

Além disso, o texto também restringe a automação de decisões críticas em áreas sensíveis sem revisão humana, o que inclui aplicações médicas, jurídicas e outras atividades de alto risco.

A OpenAI afirma que as mudanças refletem seu compromisso com segurança, transparência e uso responsável da IA, buscando evitar que as respostas geradas sejam interpretadas como substitutas de orientação profissional.

Inscreva-se em nossa newsletter!

Receba notícias sobre residência médica, revalidação de diplomas e concursos médicos, além de materiais de estudo gratuitos e informações relevantes do mundo da Medicina.

De acordo com a própria ferramenta de IA

“O uso dos serviços da OpenAI deve seguir nossas Políticas de Uso. Você não pode utilizá-los para oferecer aconselhamento personalizado que exija licença profissional, como o médico ou jurídico, sem o envolvimento adequado de um profissional licenciado.”

O que isso não significa — e o que significa

Não significa:

  • Que você não pode usar o ChatGPT ou outros serviços da OpenAI para conversar sobre temas médicos de forma geral.
  • Que a ferramenta não possa ser utilizada para educação em saúde, explicação de termos médicos, interpretação de informações científicas ou apoio ao entendimento de temas complexos.

Significa:

  • Que não se deve usar o ChatGPT como substituto de diagnóstico, tratamento ou tomada de decisão médica, sem acompanhamento de um profissional qualificado.
  • Que, ao tratar de temas médicos ou de alto risco, é obrigatória a revisão humana e a supervisão de um profissional licenciado, evitando a automatização completa dessas decisões.

O que continua sendo permitido

No contexto educacional e informativo, o ChatGPT pode ser usado como ferramenta de apoio, desde que não se apresente o conteúdo como diagnóstico ou prescrição médica.

O que o ChatGPT pode fazer:

  • Explicar possíveis causas gerais de sintomas, de forma educativa.
  • Ajudar o leitor a entender exames, termos médicos ou orientações já dadas por profissionais.
  • Indicar quando procurar atendimento médico, especialmente em situações de urgência.
  • Apontar fontes confiáveis, como o Ministério da Saúde, OMS e sociedades médicas.

As novas Políticas de Uso entraram em vigor em 29 de outubro de 2025 e estão disponíveis, em português, no site oficial da empresa responsável pela tecnologia. Clique no botão abaixo para conferir:

Por fim, se você quer ficar por dentro de mais conteúdos relevantes sobre a área médica, continue acompanhando o material preparado pelo Portal de Notícias do Estratégia MED. Aqui, você encontrará informações atualizadas sobre residências, carreira médica e muito mais.

Você pode gostar também