A OpenAI atualizou, no último sábado (29), suas Políticas de Uso e Termos de Serviço, reforçando que o ChatGPT e demais modelos de linguagem da empresa não devem ser utilizados para oferecer diagnósticos, tratamentos ou qualquer tipo de aconselhamento médico personalizado sem o envolvimento de um profissional licenciado.
De acordo com o novo documento, o uso das ferramentas da OpenAI em áreas que exigem licença profissional, como medicina e direito, só é permitido com a supervisão adequada de um profissional qualificado. A medida visa garantir segurança, precisão e responsabilidade no uso da inteligência artificial em contextos sensíveis, como saúde, finanças e decisões legais.
Navegue pelo conteúdo
O que diz a atualização
Entre as novas diretrizes, está a proibição explícita do: “fornecimento de consultoria personalizada que exija licença, como consultoria jurídica ou médica, sem o envolvimento adequado de um profissional licenciado”.
Além disso, o texto também restringe a automação de decisões críticas em áreas sensíveis sem revisão humana, o que inclui aplicações médicas, jurídicas e outras atividades de alto risco.
A OpenAI afirma que as mudanças refletem seu compromisso com segurança, transparência e uso responsável da IA, buscando evitar que as respostas geradas sejam interpretadas como substitutas de orientação profissional.
De acordo com a própria ferramenta de IA
“O uso dos serviços da OpenAI deve seguir nossas Políticas de Uso. Você não pode utilizá-los para oferecer aconselhamento personalizado que exija licença profissional, como o médico ou jurídico, sem o envolvimento adequado de um profissional licenciado.”
O que isso não significa — e o que significa
Não significa:
- Que você não pode usar o ChatGPT ou outros serviços da OpenAI para conversar sobre temas médicos de forma geral.
- Que a ferramenta não possa ser utilizada para educação em saúde, explicação de termos médicos, interpretação de informações científicas ou apoio ao entendimento de temas complexos.
Significa:
- Que não se deve usar o ChatGPT como substituto de diagnóstico, tratamento ou tomada de decisão médica, sem acompanhamento de um profissional qualificado.
- Que, ao tratar de temas médicos ou de alto risco, é obrigatória a revisão humana e a supervisão de um profissional licenciado, evitando a automatização completa dessas decisões.
O que continua sendo permitido
No contexto educacional e informativo, o ChatGPT pode ser usado como ferramenta de apoio, desde que não se apresente o conteúdo como diagnóstico ou prescrição médica.
O que o ChatGPT pode fazer:
- Explicar possíveis causas gerais de sintomas, de forma educativa.
- Ajudar o leitor a entender exames, termos médicos ou orientações já dadas por profissionais.
- Indicar quando procurar atendimento médico, especialmente em situações de urgência.
- Apontar fontes confiáveis, como o Ministério da Saúde, OMS e sociedades médicas.
As novas Políticas de Uso entraram em vigor em 29 de outubro de 2025 e estão disponíveis, em português, no site oficial da empresa responsável pela tecnologia. Clique no botão abaixo para conferir:
Por fim, se você quer ficar por dentro de mais conteúdos relevantes sobre a área médica, continue acompanhando o material preparado pelo Portal de Notícias do Estratégia MED. Aqui, você encontrará informações atualizadas sobre residências, carreira médica e muito mais.



