Resolução: o que você precisa saber sobre o uso de IA na saúde
10/04/2026

O Conselho Federal de Medicina (CFM) publicou uma nova resolução sobre o uso de Inteligência Artificial (IA) aplicada à prática médica no Brasil. Essa publicação do CFM é um marco histórico. Ao estabelecer diretrizes sobre governança, classificação de risco, supervisão humana obrigatória e proteção de dados, o CFM procura preencher uma lacuna normativa que já não poderia mais existir diante da rápida incorporação da tecnologia na assistência à saúde.

Do ponto de vista regulatório, trata-se de um avanço. Do ponto de vista jurídico, contudo, abre-se um novo campo de complexidades — especialmente no que diz respeito à responsabilização civil, à governança institucional e à proteção de direitos fundamentais.

A decisão final é do médico – mas o risco é compartilhado?

A resolução é categórica: a IA é ferramenta de apoio; a decisão final é sempre do médico. A norma também prevê que o profissional não será responsabilizado por falhas atribuíveis exclusivamente ao sistema, desde que comprovado o uso diligente, crítico e ético da ferramenta.

Aqui surge o primeiro desafio: Na prática forense, a delimitação entre “falha do sistema” e “falha no uso do sistema” será extremamente sensível. Como comprovar que o médico exerceu julgamento crítico suficiente? Qual será o padrão probatório exigido? O simples registro em prontuário do uso da IA será suficiente para demonstrar diligência?

Em eventual demanda judicial, o debate poderá envolver perícias complexas sobre funcionamento algorítmico, viés de treinamento, base de dados utilizada e nível de autonomia do sistema. O risco é que o médico permaneça como polo passivo natural das ações, enquanto desenvolvedores e fornecedores de tecnologia permaneçam à margem da discussão processual.

A responsabilidade das instituições e o dever de governança

A norma exige que instituições que desenvolvam ou utilizem sistemas próprios instituam processos internos de governança e, quando aplicável, criem Comissão de IA e Telemedicina sob coordenação médica.

Hospitais e clínicas que adotarem soluções de IA sem estrutura robusta de governança, incluindo validação técnica, auditorias, controle de vieses e rastreabilidade de decisões, poderão enfrentar responsabilização por falha organizacional. Em outras palavras, a IA deixa de ser apenas uma ferramenta tecnológica e passa a integrar o dever estrutural de segurança do serviço de saúde.

Transparência e consentimento: o que significa “informar o paciente”?

A resolução assegura ao paciente o direito de ser informado sempre que a IA for utilizada como apoio relevante em seu cuidado.

Mas o que significa, na prática, informação adequada?

Será suficiente um termo genérico no contrato de prestação de serviços? Será necessário consentimento específico para cada utilização? Como explicar ao paciente o funcionamento de um modelo preditivo baseado em aprendizado profundo, cuja lógica interna pode ser opaca até mesmo para especialistas?

A chamada “caixa-preta algorítmica” desafia o princípio bioético da autonomia. Se o paciente não compreende minimamente o funcionamento da tecnologia, sua decisão é verdadeiramente livre?

Supervisão humana obrigatória: conceito claro, aplicação complexa

A norma reafirma que a IA não pode substituir o médico e que a supervisão humana é obrigatória.

Entretanto, quanto mais sofisticados forem os sistemas, especialmente aqueles com alto acerto diagnóstico, maior será o risco de “viés de automação”: a tendência do profissional em confiar excessivamente na recomendação da máquina.

Se o médico seguir a recomendação e ocorrer dano, poderá ser acusado de ter delegado indevidamente sua autonomia. Se rejeita a recomendação e o desfecho é negativo, poderá ser questionado por não ter seguido ferramenta considerada tecnicamente superior.

O equilíbrio entre autonomia profissional e responsabilidade será um campo fértil de litigiosidade.

Avanço ético, desafios jurídicos

A Resolução é necessária e oportuna. Ela reconhece que a IA já é realidade e estabelece balizas importantes: supervisão humana, centralidade do médico, proteção de dados e respeito à dignidade da pessoa humana.
Contudo, a regulamentação ética não elimina os conflitos jurídicos — apenas os organiza.

Estamos ingressando em uma nova fase do Direito Médico, na qual a análise de prontuários dividirá espaço com a análise de logs de sistemas, auditorias algorítmicas e relatórios técnicos de treinamento de modelos.

A Inteligência Artificial pode ampliar a segurança e a eficiência da medicina. Mas, se não houver maturidade institucional, clareza contratual entre médicos, hospitais e desenvolvedores, e cultura sólida de compliance, ela também poderá ampliar a litigiosidade.

A tecnologia é ferramenta. A responsabilidade continua sendo humana.


*Camila Cortez é advogada, fundadora da KCortez Consultoria, Diretora e Professora do Instituto BIOMEDS.





Obrigado por comentar!
Erro!
Contato
+55 11 5561-6553
Av. Rouxinol, 84, cj. 92
Indianópolis - São Paulo/SP