O Conselho Federal de Medicina (CFM) publicou uma nova resolução sobre o uso de Inteligência Artificial (IA) aplicada à prática médica no Brasil. Essa publicação do CFM é um marco histórico. Ao estabelecer diretrizes sobre governança, classificação de risco, supervisão humana obrigatória e proteção de dados, o CFM procura preencher uma lacuna normativa que já não poderia mais existir diante da rápida incorporação da tecnologia na assistência à saúde.
Do ponto de vista regulatório, trata-se de um avanço. Do ponto de vista jurídico, contudo, abre-se um novo campo de complexidades — especialmente no que diz respeito à responsabilização civil, à governança institucional e à proteção de direitos fundamentais.
A decisão final é do médico – mas o risco é compartilhado?
A resolução é categórica: a IA é ferramenta de apoio; a decisão final é sempre do médico. A norma também prevê que o profissional não será responsabilizado por falhas atribuíveis exclusivamente ao sistema, desde que comprovado o uso diligente, crítico e ético da ferramenta.
Aqui surge o primeiro desafio: Na prática forense, a delimitação entre “falha do sistema” e “falha no uso do sistema” será extremamente sensível. Como comprovar que o médico exerceu julgamento crítico suficiente? Qual será o padrão probatório exigido? O simples registro em prontuário do uso da IA será suficiente para demonstrar diligência?
Em eventual demanda judicial, o debate poderá envolver perícias complexas sobre funcionamento algorítmico, viés de treinamento, base de dados utilizada e nível de autonomia do sistema. O risco é que o médico permaneça como polo passivo natural das ações, enquanto desenvolvedores e fornecedores de tecnologia permaneçam à margem da discussão processual.
A responsabilidade das instituições e o dever de governança
A norma exige que instituições que desenvolvam ou utilizem sistemas próprios instituam processos internos de governança e, quando aplicável, criem Comissão de IA e Telemedicina sob coordenação médica.
Hospitais e clínicas que adotarem soluções de IA sem estrutura robusta de governança, incluindo validação técnica, auditorias, controle de vieses e rastreabilidade de decisões, poderão enfrentar responsabilização por falha organizacional. Em outras palavras, a IA deixa de ser apenas uma ferramenta tecnológica e passa a integrar o dever estrutural de segurança do serviço de saúde.
Transparência e consentimento: o que significa “informar o paciente”?
A resolução assegura ao paciente o direito de ser informado sempre que a IA for utilizada como apoio relevante em seu cuidado.
Mas o que significa, na prática, informação adequada?
Será suficiente um termo genérico no contrato de prestação de serviços? Será necessário consentimento específico para cada utilização? Como explicar ao paciente o funcionamento de um modelo preditivo baseado em aprendizado profundo, cuja lógica interna pode ser opaca até mesmo para especialistas?
A chamada “caixa-preta algorítmica” desafia o princípio bioético da autonomia. Se o paciente não compreende minimamente o funcionamento da tecnologia, sua decisão é verdadeiramente livre?
Supervisão humana obrigatória: conceito claro, aplicação complexa
A norma reafirma que a IA não pode substituir o médico e que a supervisão humana é obrigatória.
Entretanto, quanto mais sofisticados forem os sistemas, especialmente aqueles com alto acerto diagnóstico, maior será o risco de “viés de automação”: a tendência do profissional em confiar excessivamente na recomendação da máquina.
Se o médico seguir a recomendação e ocorrer dano, poderá ser acusado de ter delegado indevidamente sua autonomia. Se rejeita a recomendação e o desfecho é negativo, poderá ser questionado por não ter seguido ferramenta considerada tecnicamente superior.
O equilíbrio entre autonomia profissional e responsabilidade será um campo fértil de litigiosidade.
Avanço ético, desafios jurídicos
A Resolução é necessária e oportuna. Ela reconhece que a IA já é realidade e estabelece balizas importantes: supervisão humana, centralidade do médico, proteção de dados e respeito à dignidade da pessoa humana.
Contudo, a regulamentação ética não elimina os conflitos jurídicos — apenas os organiza.
Estamos ingressando em uma nova fase do Direito Médico, na qual a análise de prontuários dividirá espaço com a análise de logs de sistemas, auditorias algorítmicas e relatórios técnicos de treinamento de modelos.
A Inteligência Artificial pode ampliar a segurança e a eficiência da medicina. Mas, se não houver maturidade institucional, clareza contratual entre médicos, hospitais e desenvolvedores, e cultura sólida de compliance, ela também poderá ampliar a litigiosidade.
A tecnologia é ferramenta. A responsabilidade continua sendo humana.
*Camila Cortez é advogada, fundadora da KCortez Consultoria, Diretora e Professora do Instituto BIOMEDS.