Uso de inteligência artificial na medicina passa a ter regulamentação específica do CFM
Foto: ThisIsEngineering/Pexels

Uso de inteligência artificial na medicina passa a ter regulamentação específica do CFM

O Conselho Federal de Medicina (CFM) publicou na edição de hoje (27) do Diário Oficial da União uma nova resolução que normatiza o uso da inteligência artificial na medicina. O texto estabelece direitos e deveres dos médicos, define critérios de governança, classifica níveis de risco das ferramentas e reforça que a decisão clínica permanece, em qualquer circunstância, sob responsabilidade humana. A norma entrará em vigor em 180 dias. Confira o texto na íntegra:

Princípios gerais e objetivo da norma

A resolução estabelece diretrizes para pesquisa, desenvolvimento, validação, auditoria, monitoramento e uso responsável de modelos, sistemas e aplicações de inteligência artificial (IA) na medicina.

Segundo o texto, o objetivo é promover o desenvolvimento tecnológico com segurança, transparência, ética e respeito aos direitos fundamentais, garantindo que a adoção de IA beneficie os pacientes sem comprometer a autonomia médica.

A norma também prevê:

  • Governança proporcional ao grau de risco;
  • Transparência com base em evidências científicas;
  • Incentivo à interoperabilidade entre sistemas; e
  • Monitoramento contínuo ao longo do ciclo de vida da solução.

Inscreva-se em nossa newsletter!

Receba notícias sobre residência médica, revalidação de diplomas e concursos médicos, além de materiais de estudo gratuitos e informações relevantes do mundo da Medicina.

Direitos dos médicos no uso de IA

Entre os principais direitos assegurados aos profissionais, destacam-se:

  • Utilizar a IA como ferramenta de apoio à decisão clínica, gestão, pesquisa e educação médica;
  • Ter acesso a informações claras sobre funcionamento, limitações, riscos e evidências científicas da ferramenta;
  • Recusar o uso de sistemas sem validação adequada ou que contrariem princípios éticos;
  • Preservar sua autonomia profissional;
  • Não ser responsabilizado por falhas exclusivamente atribuíveis ao sistema, desde que tenha havido uso diligente e crítico.

A norma é explícita ao afirmar que o médico não pode ser obrigado a seguir automaticamente recomendações algorítmicas.

Deveres do médico e responsabilidade profissional

A resolução reforça que a inteligência artificial deve atuar como instrumento de apoio, e não como substituta da decisão clínica. Nesse contexto, o CFM estabelece que o médico deve manter julgamento crítico diante das recomendações emitidas pelos sistemas de IA, avaliando sua pertinência à luz do quadro clínico e das evidências científicas. O uso da ferramenta como suporte à conduta também deverá ser registrado em prontuário.

O profissional deve ainda assegurar a confidencialidade e a segurança dos dados de saúde envolvidos, além de utilizar exclusivamente sistemas que estejam em conformidade com as normas técnicas, éticas e legais vigentes no país. Eventuais falhas relevantes ou riscos identificados deverão ser comunicados às instâncias competentes.

Do ponto de vista ético-profissional, o texto é claro ao afirmar que a responsabilidade pelos atos médicos permanece integralmente com o profissional, mesmo quando há utilização de inteligência artificial no processo decisório.

Relação médico-paciente e consentimento

A norma determina que o uso de IA não pode comprometer a escuta qualificada, a empatia e a centralidade do cuidado humano. O paciente deverá ser informado, de forma clara, quando a IA for utilizada como apoio relevante em seu cuidado.

Além disso, é vedado delegar à IA a comunicação de diagnósticos ou decisões terapêuticas sem mediação humana. O paciente pode também recusar o uso de IA em seu atendimento e, direitos como segunda opinião e privacidade, permanecem garantidos.

Classificação de risco das soluções de IA

A resolução cria quatro categorias de risco. São elas:

Classificação de RiscoDefinição
Baixo riscoAplicações administrativas ou de apoio, sem impacto direto em decisões clínicas ou na condução do tratamento.
Médio riscoFerramentas que apoiam decisões clínicas ou operacionais relevantes, mas que exigem supervisão humana ativa para validação das recomendações.
Alto riscoSistemas que influenciam decisões médicas críticas ou executam ações com impacto clínico relevante, podendo gerar danos significativos em caso de falha.
Risco inaceitávelAplicações incompatíveis com direitos fundamentais, princípios éticos ou com a segurança do paciente, não admitidas no contexto da prática médica.

Instituições deverão realizar avaliação preliminar de risco antes da implementação.

Soluções de maior risco exigirão validação rigorosa, auditorias regulares e monitoramento contínuo.

Governança e criação de Comissão de IA

Hospitais e instituições que adotarem sistemas próprios de IA deverão instituir uma Comissão de IA e Telemedicina, subordinada à diretoria técnica e sob coordenação médica. O diretor técnico será responsável pela fiscalização das diretrizes de segurança, ética e transparência. 

A norma também determina:

  • Avaliação de impacto algorítmico;
  • Mecanismos de prevenção de vieses discriminatórios;
  • Transparência sobre desempenho e limitações; e
  • Cooperação com órgãos de controle, como os Conselhos Regionais de Medicina.

Proteção de dados e LGPD

A resolução estabelece que o uso de dados no treinamento, na validação e na implementação de sistemas de inteligência artificial deve observar rigorosamente a Lei Geral de Proteção de Dados Pessoais (LGPD). A norma reforça que o tratamento de informações, especialmente dados sensíveis de saúde, precisa estar amparado por bases legais adequadas e alinhado às finalidades informadas aos titulares.

Entre as exigências previstas estão a adoção dos princípios de privacy by design e privacy by default, a implementação de medidas técnicas e administrativas de segurança e a proteção contra acessos não autorizados, vazamentos, perdas ou alterações indevidas. O objetivo é garantir a integridade, a confidencialidade e a segurança das informações utilizadas pelas ferramentas de IA no contexto assistencial e institucional.

Autonomia médica garantida

A resolução reafirma que a decisão final sobre diagnóstico, prognóstico e tratamento é atribuição exclusiva do médico. O texto também estabelece que nenhuma instituição poderá impor metas, protocolos ou políticas internas que subordinem a conduta profissional às recomendações emitidas por sistemas de inteligência artificial.

O médico tem o direito de deixar de utilizar ou até mesmo desligar a ferramenta sempre que considerar seu uso inadequado à situação clínica concreta. A norma ainda prevê que o profissional não poderá ser penalizado por optar por não seguir a recomendação de um sistema de IA, desde que sua conduta esteja alinhada aos preceitos técnicos, científicos e éticos da profissão.

Se você quer ficar por dentro de mais conteúdos relevantes sobre a área médica, continue acompanhando o material preparado pelo Portal de Notícias do Estratégia MED. Aqui, você encontrará informações atualizadas sobre residências, carreira médica e muito mais.

banco_questoes

Você pode gostar também