Inteligência artificial nos ensaios clínicos em oncologia
04/06/2025

Em meio às rápidas transformações tecnológicas que atravessam a saúde, a integração da inteligência artificial (IA) aos ensaios clínicos oncológicos surge como uma das mais promissoras — e também mais desafiadoras — inovações dos últimos anos. A recente publicação de Azenkot et al. no ASCO Educational Book 2025 (da Sociedade Americana de Oncologia Clínica) nos convida a olhar para além do entusiasmo técnico e refletir sobre as implicações humanas, éticas e estruturais dessa transição.

O artigo destaca como a IA e o aprendizado de máquina (ML) estão sendo usados para aperfeiçoar o desenho e a representatividade dos ensaios clínicos, principalmente nas fases II e III. Ferramentas inteligentes já estão auxiliando desde o recrutamento de pacientes até a análise de desfechos, passando pela automação de operações e pela gestão de dados em tempo real. Mais do que eficiência, esses recursos oferecem algo raro em tempos de sobrecarga: tempo para escutar.

Para os médicos que conduzem ensaios clínicos — especialmente aqueles que não contam com equipes numerosas — a IA pode funcionar como um parceiro silencioso e incansável, assumindo tarefas repetitivas e liberando espaço mental e emocional para o que realmente importa: o cuidado centrado no paciente. Essa não é uma substituição de papéis, mas uma redistribuição de atenção.

Na outra ponta, para os pacientes, essas ferramentas podem significar acesso mais rápido e mais justo a pesquisas inovadoras. Sistemas como o TrialGPT e o OncoLLM são capazes de cruzar dados clínicos, genômicos e geográficos para encontrar ensaios compatíveis com o perfil de cada pessoa. É uma resposta concreta para um problema antigo: a dificuldade de encontrar pacientes elegíveis e diversificados em tempo hábil.

Mas junto ao entusiasmo vêm os alertas. O artigo não ignora os riscos: viés algorítmico, falta de representatividade nos dados, transparência limitada e desafios éticos. A aplicação da IA em oncologia exige um equilíbrio delicado entre inovação e responsabilidade. Um ponto particularmente sensível é a capacidade desses sistemas de incorporar experiências subjetivas e decisões clínicas complexas — o que nos lembra que, apesar de todo o avanço, ainda será o olhar humano que guiará as decisões mais importantes.

Nesse sentido, a ASCO propõe um framework ético para o uso responsável da IA, resumido no acrônimo FAIITH**: Fairness, Accountability, Informed stakeholders, Institutional oversight, Transparency, Human-centered application. Em outras palavras, a tecnologia só deve ser aplicada se for justa, transparente, supervisionada e centrada na pessoa.

Mais do que uma transformação técnica, estamos diante de uma chance histórica de reconectar tecnologia e empatia, ciência e escuta, dados e propósito. A inteligência artificial não elimina a necessidade de contato humano — ao contrário, pode ser a oportunidade que precisávamos para recuperar algo que nunca deveria ter sido perdido: tempo, presença e confiança.

Se quisermos que os ensaios clínicos sejam mais inclusivos, rápidos e eficazes, será necessário investir também em pontes humanas: entre o pesquisador e o paciente, entre o programador e o médico, entre os dados e as histórias que eles representam.

A inteligência pode ser artificial. Mas o cuidado, não.


*Gabriela Tannus é economista da Saúde e voluntária técnica do Instituto Vencer o Câncer.





Obrigado por comentar!
Erro!
Contato
+55 11 5561-6553
Av. Rouxinol, 84, cj. 92
Indianópolis - São Paulo/SP