Em meio às rápidas transformações tecnológicas que atravessam a saúde, a integração da inteligência artificial (IA) aos ensaios clínicos oncológicos surge como uma das mais promissoras — e também mais desafiadoras — inovações dos últimos anos. A recente publicação de Azenkot et al. no ASCO Educational Book 2025 (da Sociedade Americana de Oncologia Clínica) nos convida a olhar para além do entusiasmo técnico e refletir sobre as implicações humanas, éticas e estruturais dessa transição.
O artigo destaca como a IA e o aprendizado de máquina (ML) estão sendo usados para aperfeiçoar o desenho e a representatividade dos ensaios clínicos, principalmente nas fases II e III. Ferramentas inteligentes já estão auxiliando desde o recrutamento de pacientes até a análise de desfechos, passando pela automação de operações e pela gestão de dados em tempo real. Mais do que eficiência, esses recursos oferecem algo raro em tempos de sobrecarga: tempo para escutar.
Para os médicos que conduzem ensaios clínicos — especialmente aqueles que não contam com equipes numerosas — a IA pode funcionar como um parceiro silencioso e incansável, assumindo tarefas repetitivas e liberando espaço mental e emocional para o que realmente importa: o cuidado centrado no paciente. Essa não é uma substituição de papéis, mas uma redistribuição de atenção.
Na outra ponta, para os pacientes, essas ferramentas podem significar acesso mais rápido e mais justo a pesquisas inovadoras. Sistemas como o TrialGPT e o OncoLLM são capazes de cruzar dados clínicos, genômicos e geográficos para encontrar ensaios compatíveis com o perfil de cada pessoa. É uma resposta concreta para um problema antigo: a dificuldade de encontrar pacientes elegíveis e diversificados em tempo hábil.
Mas junto ao entusiasmo vêm os alertas. O artigo não ignora os riscos: viés algorítmico, falta de representatividade nos dados, transparência limitada e desafios éticos. A aplicação da IA em oncologia exige um equilíbrio delicado entre inovação e responsabilidade. Um ponto particularmente sensível é a capacidade desses sistemas de incorporar experiências subjetivas e decisões clínicas complexas — o que nos lembra que, apesar de todo o avanço, ainda será o olhar humano que guiará as decisões mais importantes.
Nesse sentido, a ASCO propõe um framework ético para o uso responsável da IA, resumido no acrônimo FAIITH**: Fairness, Accountability, Informed stakeholders, Institutional oversight, Transparency, Human-centered application. Em outras palavras, a tecnologia só deve ser aplicada se for justa, transparente, supervisionada e centrada na pessoa.
Mais do que uma transformação técnica, estamos diante de uma chance histórica de reconectar tecnologia e empatia, ciência e escuta, dados e propósito. A inteligência artificial não elimina a necessidade de contato humano — ao contrário, pode ser a oportunidade que precisávamos para recuperar algo que nunca deveria ter sido perdido: tempo, presença e confiança.
Se quisermos que os ensaios clínicos sejam mais inclusivos, rápidos e eficazes, será necessário investir também em pontes humanas: entre o pesquisador e o paciente, entre o programador e o médico, entre os dados e as histórias que eles representam.
A inteligência pode ser artificial. Mas o cuidado, não.
*Gabriela Tannus é economista da Saúde e voluntária técnica do Instituto Vencer o Câncer.