Neste Artigo
A combinação de inteligência artificial com simulações Monte Carlo pode representar um salto quântico na radioterapia computacional. Essa afirmação, feita no prefácio da segunda edição do livro Monte Carlo Techniques in Radiation Therapy (CRC Press, 2022), não é exagero — os avanços recentes em redes neurais profundas estão transformando a maneira como geramos, processamos e aplicamos dados de simulação MC na prática clínica. Para uma visão abrangente de todas as técnicas MC em radioterapia, confira nosso guia completo sobre Monte Carlo em Radioterapia.
Guia completo da série: para visão geral e links dos artigos relacionados, volte ao guia completo sobre Monte Carlo em radioterapia.

Simulações MC são inerentemente estatísticas e produzem volumes massivos de dados — características que tornam o campo um candidato natural para abordagens de deep learning. Redes neurais profundas (DNN) já demonstraram capacidade de aprender correlações estatísticas complexas em domínios como visão computacional, e agora essa mesma infraestrutura metodológica está sendo direcionada para problemas específicos da física médica.
Este artigo explora como a IA está sendo integrada ao ecossistema Monte Carlo, desde a estimativa direta de distribuições de dose até a aceleração de simulações e a correção de imagens em CBCT. Também discutiremos as tendências futuras, incluindo a previsão de que o método MC permanecerá um componente essencial da infraestrutura científica em radioterapia.
Redes Neurais Profundas e Simulação Monte Carlo
Para compreender como a IA se conecta ao Monte Carlo, vale revisitar a mecânica básica das redes neurais. Uma DNN é organizada em camadas de neurônios conectados por pesos ajustáveis. Cada neurônio aplica uma função de ativação não-linear à soma ponderada de suas entradas — sem essa não-linearidade, a rede inteira seria apenas uma função linear gigante, incapaz de capturar padrões complexos.
Quando lidamos com dados de imagem — como distribuições de dose em voxels ou imagens de CT — redes convolucionais (CNN) se destacam. Operações de convolução intercaladas entre as camadas permitem capturar propriedades não-locais dos dados de entrada. A arquitetura U-Net, muito utilizada em segmentação médica, combina um caminho de contração (downsampling) com um caminho de expansão (upsampling), ideal para transformações imagem-a-imagem. Autoencoders variacionais e redes adversariais generativas (GAN) completam o arsenal de arquiteturas empregadas nos trabalhos discutidos neste artigo.
Na prática, treinar uma rede envolve ajustar hiperparâmetros como taxa de aprendizado, tamanho de batch e pesos de penalização. Esse processo não é trivial — mas frameworks como Keras, TensorFlow e PyTorch, originalmente desenvolvidos por grandes empresas de tecnologia, reduziram drasticamente a barreira de entrada para pesquisadores de física médica.
Uma simulação MC em radioterapia pode ser vista como um mapeamento: de uma imagem de CT para uma distribuição de dose, por exemplo. Não existe expressão analítica explícita para esse mapeamento, mas a rede neural consegue aprendê-lo a partir de dados suficientes. A simulação envolve transporte de partículas, scoring e binning — operações que produzem resultados determinísticos para um conjunto fixo de condições, mas com variância estatística inerente.
Inteligência Artificial para Estimativa de Dose MC
Vários grupos de pesquisa investigaram o uso de CNNs para estimar distribuições de dose em diferentes contextos — radioterapia interna, externa e braquiterapia — usando simulações MC como referência de treinamento e validação.

Lee et al. (2019) propuseram a Deep-Dose, uma rede baseada em U-Net treinada com patches de imagens PET e CT associados a distribuições de dose calculadas pelo GATE (aplicação GEANT4 para tomografia por emissão). O banco de dados incluiu dez pacientes com oito aquisições PET/CT após injeção intravenosa de 68Ga-NOTA-RGD, cobrindo de 1 a 62 minutos pós-injeção. A acurácia ficou dentro de 3% da computação de referência, com tempo de cálculo reduzido de horas para minutos.
Götz et al. (2019) combinaram U-Net com decomposição empírica de modos, usando imagens de CT e mapas de dose estimados pelo protocolo MIRD (método de S-values por órgão) a partir de SPECT para tratamentos com 177Lu. O desempenho superou o método rápido de dose-volume-kernel convencional.
Em radioterapia externa e braquiterapia, Nguyen et al. (2019) utilizaram contornos de estruturas, prescrições e doses entregues como dados de treinamento para tratamentos de VMAT de cabeça e pescoço. Liu et al. (2019) investigaram modelos para tomoterapia helicoidal em câncer de nasofaringe. Mao et al. (2020) desenvolveram o RapidBrachyDL para cálculos rápidos de dose em braquiterapia. Todos relataram predições acuradas.
Um ponto que merece atenção: redes neurais treinadas com dados MC nunca poderão substituir completamente o MC — dependerão sempre das simulações para gerar conjuntos de treinamento. O objetivo real é acelerar o tempo de computação para níveis clinicamente viáveis (minutos em vez de horas). O treinamento extensivo e as simulações MC de referência podem ser realizados offline, fora do fluxo de planejamento. Porém, a construção cuidadosa do dataset de treinamento é fundamental: ele precisa cobrir uma gama suficiente de casos clínicos. Para mais detalhes sobre como são modelados os feixes fotônicos externos com Monte Carlo, confira nosso artigo dedicado.
Outro aspecto frequentemente negligenciado: em um cálculo MC puro, a incerteza estatística é conhecida. Com uma rede neural baseada em MC, essa incerteza está implicitamente presente, mas invisível ao usuário.
Denoising de Dose Monte Carlo com Deep Learning
Diferentemente dos métodos da seção anterior — que tentam substituir o MC mapeando diretamente de imagens para dose — o denoising atua como pós-processamento. A rede recebe distribuições de dose ruidosas (obtidas com poucos históricos MC) e gera mapas suavizados, equivalentes a simulações com muito mais partículas.
Métodos de denoising MC existem há tempo. Naqa et al. (2005) demonstraram que suavizar flutuações estatísticas pode reduzir o tempo de cálculo. O “ruído” da dose computada está ligado à variância na energia depositada e diminui a uma taxa de $1/\sqrt{N}$, onde $N$ é o número de partículas simuladas. Atingir baixa flutuação em regiões de baixa dose exige um número enorme de iterações.
Técnicas tradicionais de filtragem incluem wavelets 3D, filtragem média-mediana avançada e difusão anisotrópica. Funcionam razoavelmente, mas a aceleração efetiva depende muito das características da distribuição de dose.
Com deep learning, o princípio é treinar uma CNN com pares de distribuições dose alta-variância / dose baixa-variância, obtidas de simulações MC com baixa e alta estatística, respectivamente. A maioria dos trabalhos emprega variantes da U-Net, embora DenseNet e codificadores-decodificadores convolucionais de caminho também tenham sido estudados.
| Aplicação | Autores | Modalidade | Indicação |
|---|---|---|---|
| Fótons | Peng et al. (2019), Fornander (2019), Neph et al. (2019), Kontaxis et al. (2020) | EBRT, MRgRT | Cérebro, cabeça e pescoço, fígado, pulmão, próstata |
| Prótons | Javaid et al. (2019), Madrigal (2018) | Protonterapia | Diversas indicações |
| MR-guiada | Neph et al. (2019) | MRgRT (campo magnético) | Dose por delocalização de partículas carregadas em campo magnético |
Fonte: Monte Carlo Techniques in Radiation Therapy (2nd ed., CRC Press, 2022)
Os resultados são encorajadores. CNNs produziram mapas de dose com equivalência de ruído usando 10 a 100 vezes menos partículas do que originalmente necessário. As métricas de avaliação incluíram peak signal-to-noise ratio, índice gama e histogramas dose-volume (DVH).
Desafios permanecem. Os resultados dependem do tamanho e da complexidade dos datasets de treinamento, e a generalização para outros cenários ainda não está garantida. Crucialmente, mapas de dose denoised precisam preservar gradientes de dose — e não está totalmente claro como garantir isso em todas as situações. Para entender melhor como a dose é calculada no paciente, veja nosso artigo sobre cálculo de dose no paciente com Monte Carlo.
O problema de denoising não se limita a distribuições de dose. Métodos investigados para CT de baixa dose — como os de Wolterink et al. (2017) e Yang et al. (2018) — podem servir de inspiração para aplicações em radioterapia.
IA para Modelagem de Detectores e Fontes de Radiação
Os trabalhos apresentados até aqui dependem dos resultados das simulações MC, sem alterar a simulação em si. A próxima fronteira é mais ambiciosa: substituir partes da própria simulação MC por redes neurais, acelerando o transporte de partículas em componentes geométricos específicos.

Sarrut et al. (2018) propuseram uma DNN para aprender a Angular Response Function (ARF) de um sistema colimador-detector SPECT. Em vez de simular explicitamente o transporte de fótons no cabeçote de imagem, a rede recebe propriedades cinemáticas dos fótons (energia e direção) que cruzam um plano virtual e retorna probabilidades de detecção em cada janela de energia. Comparada às ARF baseadas em histogramas, a abordagem com rede neural depende menos da estatística dos dados de treinamento, não requer binning explícito e precisa de menos dados de treinamento. O speedup em relação ao MC analógico variou de 10 a 3.000: mais eficiente em regiões de baixa contagem (speedup de 1.000–3.000) do que em regiões de alta contagem (speedup de 20–300), e mais eficiente para radionuclídeos de alta energia como 131I. Esta implementação está disponível na plataforma GATE.
Em PET, redes neurais foram propostas para estimar a profundidade de interação (DOI) e a posição de eventos em cintiladores pixelizados ou monolíticos contínuos (Zatcepin et al. 2020; Berg e Cherry 2018; Müller et al. 2019). Incorporar a DOI na reconstrução de imagem melhora a qualidade das imagens PET.
Talvez a aplicação mais ousada seja o uso de GANs para gerar phase spaces. Sarrut et al. (2019) empregaram redes adversariais generativas para aprender a distribuição do phase space gerado pela simulação de um LINAC. As propriedades de cada partícula (energia, posição e direção) que atingem um plano na saída do cabeçote são armazenadas em arquivos de phase space — tipicamente dezenas de gigabytes, difíceis de manipular. Limitações estatísticas por reciclagem de partículas surgem quando mais partículas são necessárias do que as armazenadas.
Após o treinamento, a rede geradora “G” produz partículas que pertencem à distribuição de probabilidade do phase space original, ocupando cerca de 10 MB em vez de vários GB. Os testes demonstraram boa acurácia dosimétrica, inclusive para braquiterapia de próstata. Para detalhes sobre modelagem de feixes e phase spaces, veja nosso artigo sobre fundamentos do Monte Carlo em radioterapia.
Ainda restam questões em aberto: não está claro se a mesma arquitetura GAN funciona para qualquer tipo de phase space, e o treinamento exige ajuste delicado de hiperparâmetros. Métodos alternativos como modelos de mistura gaussiana também podem ser úteis.
Correção de Scatter em CBCT com Redes Neurais
A tomografia computadorizada cone beam (CBCT) é indissociável da radioterapia moderna, mas sofre com qualidade de imagem inferior e artefatos causados por scatter. O painel de imagem captura não apenas fótons primários atenuados da fonte de raios X, mas também fótons de espalhamento coerente e incoerente dentro do paciente. Para uma reconstrução de imagem acurada, a contribuição do scatter precisaria ser conhecida e subtraída — mas na prática, o painel fornece apenas um sinal cumulativo sem discriminação.
Simulações MC oferecem uma solução conceitual: podem identificar fótons espalhados separadamente, gerando projeções scatter-free perfeitas. Jarry et al. (2006) já usavam MC para estimar scatter em CBCT. O problema é que a simulação direta de fótons kV é lenta demais para integração clínica, mesmo com técnicas de redução de variância (Mainegra-Hing e Kawrakow 2008).
Trabalhos recentes propõem redes convolucionais profundas que aprendem a partir de projeções CBCT simuladas por MC. As redes geram imagens de scatter estimado (projeções) como saída, recebendo projeções brutas como entrada (Lee et al. 2019; van der Heyden et al. 2020; Lalonde et al. 2020; Maier et al. 2019). Todos reportam resultados promissores. Esses métodos dependem exclusivamente de simulações MC para treinamento, onde fótons primários são distinguíveis de espalhados — o que seria impossível apenas com projeções experimentais.
Outra abordagem opera no domínio da imagem: recebe CBCT como entrada e gera CT sintético como saída. Essas imagens sintéticas apresentam muito menos artefatos que as CBCT originais.
Perspectivas e o Futuro do Monte Carlo em Radioterapia
A integração de IA ao Monte Carlo traz uma mudança de paradigma na física médica. Em certa medida, o pesquisador precisa abrir mão do instinto de dominar matematicamente o fenômeno investigado e, em vez disso, confiar em grandes volumes de dados para aprendizado heurístico. Essa transição demandará novas competências — a habilidade de implementar e gerenciar tarefas computacionais complexas passará a ser tão importante quanto a modelagem de física de radiação.
Entretanto, como este artigo demonstrou, os trabalhos em deep learning para radioterapia dependem fortemente de dados de treinamento gerados por MC. A simulação precisa ser configurada e avaliada com competência. A geração de datasets adequados pode se tornar uma habilidade em si, análoga ao commissioning de um sistema de planejamento (TPS).
Atualmente, a IA opera no nível “alto” do MC — conectando entrada (CT) a saída (dose) de uma simulação ou substituindo etapas intermediárias (como GANs para phase space). Ainda resta saber se a IA será útil em níveis mais profundos do código MC, como no transporte de partículas em si. É possível imaginar redes neurais substituindo modelos numéricos handcrafted para ajustar dados medidos complexos ou até funções de distribuição de probabilidade para certos tipos de interações.
A comunidade de física de altas energias (HEP) já explora IA ativamente: deep learning para modelagem de interações nucleares (Ciardiello et al. 2020), redes neurais em física da matéria condensada (Carrasquilla e Melko 2017), e GANs para simulação rápida de cascatas de partículas em calorímetros eletromagnéticos (Paganini et al. 2018). A troca de conhecimento entre HEP e radioterapia seria extremamente benéfica.
Quanto ao método Monte Carlo em si, a lei de Amdahl continuará sendo um fator limitante para máquinas massivamente paralelas, mas os ganhos em velocidade de chips monoprocessados seguem a lei de Moore. O desenvolvimento de algoritmos é mais difícil de prever — dados históricos mostram saltos de produtividade inexplicáveis: um fator 2,8 em 1991 e 1,6 em 1998, ilustrando a natureza caótica do progresso nesse campo.
Desde 2005 surgiram novos códigos — principalmente interfaces para códigos existentes como TOPAS e GATE — e o número de publicações sobre MC continua crescendo rapidamente. O GEANT4, em particular, apresenta forte crescimento de uso. Como observou o prefácio do livro, “ainda não vimos o fim das aplicações potenciais, garantindo diversão sem fim para gerações futuras.”
O cenário é claro: o tempo de treinamento das redes ainda é grande e exige GPUs pesadas. A generalização dos modelos aprendidos para datasets diferentes dos de treinamento permanece incerta. A acurácia final nem sempre atinge o nível do MC convencional. Mesmo assim, este é um campo extremamente promissor, e o número de publicações na interseção de IA e MC para radioterapia deve crescer exponencialmente nos próximos anos. Para explorar como o Monte Carlo se aplica a outras modalidades como protonterapia e QA avançado, veja nosso artigo sobre prótons e QA avançado com Monte Carlo.




