O Conselho Federal de Medicina (CFM) publicou na edição de hoje (27) do Diário Oficial da União uma nova resolução que normatiza o uso da inteligência artificial na medicina. O texto estabelece direitos e deveres dos médicos, define critérios de governança, classifica níveis de risco das ferramentas e reforça que a decisão clínica permanece, em qualquer circunstância, sob responsabilidade humana. A norma entrará em vigor em 180 dias. Confira o texto na íntegra:
Navegue pelo conteúdo
Princípios gerais e objetivo da norma
A resolução estabelece diretrizes para pesquisa, desenvolvimento, validação, auditoria, monitoramento e uso responsável de modelos, sistemas e aplicações de inteligência artificial (IA) na medicina.
Segundo o texto, o objetivo é promover o desenvolvimento tecnológico com segurança, transparência, ética e respeito aos direitos fundamentais, garantindo que a adoção de IA beneficie os pacientes sem comprometer a autonomia médica.
A norma também prevê:
- Governança proporcional ao grau de risco;
- Transparência com base em evidências científicas;
- Incentivo à interoperabilidade entre sistemas; e
- Monitoramento contínuo ao longo do ciclo de vida da solução.
Direitos dos médicos no uso de IA
Entre os principais direitos assegurados aos profissionais, destacam-se:
- Utilizar a IA como ferramenta de apoio à decisão clínica, gestão, pesquisa e educação médica;
- Ter acesso a informações claras sobre funcionamento, limitações, riscos e evidências científicas da ferramenta;
- Recusar o uso de sistemas sem validação adequada ou que contrariem princípios éticos;
- Preservar sua autonomia profissional;
- Não ser responsabilizado por falhas exclusivamente atribuíveis ao sistema, desde que tenha havido uso diligente e crítico.
A norma é explícita ao afirmar que o médico não pode ser obrigado a seguir automaticamente recomendações algorítmicas.
Deveres do médico e responsabilidade profissional
A resolução reforça que a inteligência artificial deve atuar como instrumento de apoio, e não como substituta da decisão clínica. Nesse contexto, o CFM estabelece que o médico deve manter julgamento crítico diante das recomendações emitidas pelos sistemas de IA, avaliando sua pertinência à luz do quadro clínico e das evidências científicas. O uso da ferramenta como suporte à conduta também deverá ser registrado em prontuário.
O profissional deve ainda assegurar a confidencialidade e a segurança dos dados de saúde envolvidos, além de utilizar exclusivamente sistemas que estejam em conformidade com as normas técnicas, éticas e legais vigentes no país. Eventuais falhas relevantes ou riscos identificados deverão ser comunicados às instâncias competentes.
Do ponto de vista ético-profissional, o texto é claro ao afirmar que a responsabilidade pelos atos médicos permanece integralmente com o profissional, mesmo quando há utilização de inteligência artificial no processo decisório.
Relação médico-paciente e consentimento
A norma determina que o uso de IA não pode comprometer a escuta qualificada, a empatia e a centralidade do cuidado humano. O paciente deverá ser informado, de forma clara, quando a IA for utilizada como apoio relevante em seu cuidado.
Além disso, é vedado delegar à IA a comunicação de diagnósticos ou decisões terapêuticas sem mediação humana. O paciente pode também recusar o uso de IA em seu atendimento e, direitos como segunda opinião e privacidade, permanecem garantidos.
Classificação de risco das soluções de IA
A resolução cria quatro categorias de risco. São elas:
| Classificação de Risco | Definição |
|---|---|
| Baixo risco | Aplicações administrativas ou de apoio, sem impacto direto em decisões clínicas ou na condução do tratamento. |
| Médio risco | Ferramentas que apoiam decisões clínicas ou operacionais relevantes, mas que exigem supervisão humana ativa para validação das recomendações. |
| Alto risco | Sistemas que influenciam decisões médicas críticas ou executam ações com impacto clínico relevante, podendo gerar danos significativos em caso de falha. |
| Risco inaceitável | Aplicações incompatíveis com direitos fundamentais, princípios éticos ou com a segurança do paciente, não admitidas no contexto da prática médica. |
Instituições deverão realizar avaliação preliminar de risco antes da implementação.
Soluções de maior risco exigirão validação rigorosa, auditorias regulares e monitoramento contínuo.
Governança e criação de Comissão de IA
Hospitais e instituições que adotarem sistemas próprios de IA deverão instituir uma Comissão de IA e Telemedicina, subordinada à diretoria técnica e sob coordenação médica. O diretor técnico será responsável pela fiscalização das diretrizes de segurança, ética e transparência.
A norma também determina:
- Avaliação de impacto algorítmico;
- Mecanismos de prevenção de vieses discriminatórios;
- Transparência sobre desempenho e limitações; e
- Cooperação com órgãos de controle, como os Conselhos Regionais de Medicina.
Proteção de dados e LGPD
A resolução estabelece que o uso de dados no treinamento, na validação e na implementação de sistemas de inteligência artificial deve observar rigorosamente a Lei Geral de Proteção de Dados Pessoais (LGPD). A norma reforça que o tratamento de informações, especialmente dados sensíveis de saúde, precisa estar amparado por bases legais adequadas e alinhado às finalidades informadas aos titulares.
Entre as exigências previstas estão a adoção dos princípios de privacy by design e privacy by default, a implementação de medidas técnicas e administrativas de segurança e a proteção contra acessos não autorizados, vazamentos, perdas ou alterações indevidas. O objetivo é garantir a integridade, a confidencialidade e a segurança das informações utilizadas pelas ferramentas de IA no contexto assistencial e institucional.
Autonomia médica garantida
A resolução reafirma que a decisão final sobre diagnóstico, prognóstico e tratamento é atribuição exclusiva do médico. O texto também estabelece que nenhuma instituição poderá impor metas, protocolos ou políticas internas que subordinem a conduta profissional às recomendações emitidas por sistemas de inteligência artificial.
O médico tem o direito de deixar de utilizar ou até mesmo desligar a ferramenta sempre que considerar seu uso inadequado à situação clínica concreta. A norma ainda prevê que o profissional não poderá ser penalizado por optar por não seguir a recomendação de um sistema de IA, desde que sua conduta esteja alinhada aos preceitos técnicos, científicos e éticos da profissão.
Se você quer ficar por dentro de mais conteúdos relevantes sobre a área médica, continue acompanhando o material preparado pelo Portal de Notícias do Estratégia MED. Aqui, você encontrará informações atualizadas sobre residências, carreira médica e muito mais.



