Nova resolução define que IA atua apenas como apoio clínico, preserva autonomia profissional e garante direitos do paciente.
O Conselho Federal de Medicina (CFM) publicou a Resolução nº 2.459/2026, que estabelece as primeiras diretrizes oficiais para o uso da inteligência artificial na prática médica no Brasil. A norma determina que a tecnologia deve ser utilizada exclusivamente como ferramenta de apoio à decisão clínica, sem substituir o julgamento do médico.
O objetivo é garantir segurança, ética e qualidade no atendimento, diante da expansão do uso de sistemas de IA na área da saúde.
IA como apoio à decisão clínica
De acordo com a resolução, a inteligência artificial pode auxiliar na análise de dados e na organização de informações médicas, mas não tem autonomia para emitir diagnósticos ou indicar tratamentos.
A decisão final permanece sob responsabilidade do médico, que deve avaliar criticamente qualquer sugestão gerada por sistemas automatizados.
“A tecnologia não pode, em nenhuma hipótese, emitir diagnóstico diretamente sem a mediação do médico”, afirma a advogada Caroline Bittar, especialista em Direito Médico. Segundo ela, a IA deve ser usada apenas como suporte técnico e fonte complementar de informação.
Relação médico-paciente e transparência
A norma também reforça que toda comunicação com o paciente deve ser feita exclusivamente pelo médico, preservando a relação direta no atendimento.
“A comunicação com o paciente permanece como uma atribuição exclusivamente humana”, destaca Bittar.
Sempre que o uso da inteligência artificial for relevante no atendimento, essa informação deverá constar no prontuário. Além disso, o paciente terá o direito de recusar o uso da tecnologia em seu tratamento.
Autonomia médica e regras para instituições
Hospitais e clínicas não podem obrigar médicos a seguirem recomendações geradas por sistemas de IA, garantindo a autonomia profissional em todas as decisões clínicas.
“A medida visa evitar que a tecnologia substitua o julgamento humano e manter a relação médico-paciente como central no cuidado”, explica a especialista.
As instituições de saúde também deverão criar estruturas de governança específicas para o uso da IA, incluindo comissões de inteligência artificial e telemedicina, sempre coordenadas por médicos.
Responsabilidade em caso de falhas
A resolução prevê que o médico poderá não ser responsabilizado em situações em que o erro seja exclusivamente decorrente da inteligência artificial, desde que tenha utilizado a ferramenta com cautela e dentro das normas éticas.
“As ferramentas ampliam as possibilidades na medicina, mas a responsabilidade sobre o cuidado com o paciente continua sendo, essencialmente, humana”, conclui Bittar.
Caroline Bittar – Advogada, especialista em Direito Médico
Destaque – Imagem: Divulgação / + aloart / G.I.



