Skip to main content

A American Medical Association registrou que 81% dos médicos já usam alguma ferramenta de inteligência artificial em saúde e 76% reconhecem ganho clínico, mas o mesmo levantamento mostrou que privacidade de dados (86%) e validação de segurança (88%) seguem como as maiores barreiras à adoção. Em radiologia, onde a IA agêntica já entra em workflows de triagem, priorização e geração de laudos, esse contraste entre uso disseminado e desconfiança fundamentada é exatamente o que diretores clínicos precisam endereçar antes de assinar um contrato. As cinco perguntas a seguir, sintetizadas a partir de um artigo recente do CEO da CIVIE, Dhruv Chopra, são o filtro mínimo que separa fornecedores sérios do hype de feira.

1. Como o fornecedor lida com dados de pacientes?

Antes de discutir desempenho de algoritmo, a primeira pergunta é onde os dados moram. Saúde é o setor com maior custo médio de violação — US$ 10 milhões por incidente, segundo o IBM Cost of a Data Breach Report. No Brasil, a LGPD enquadra dados de saúde como sensíveis, com fiscalização ativa da ANPD e multas que chegam a 2% do faturamento. Operações que envolvem treinamento contínuo do modelo precisam deixar claro se há anonimização efetiva, se chaves criptográficas são exclusivas do cliente e se contratos definem responsabilidade civil em caso de incidente.

Radiologista revisa imagens em múltiplos monitores enquanto algoritmos de IA pré-processam exames
Adoção de IA agêntica em radiologia exige clareza sobre dados, validação clínica e responsabilidade — não apenas métricas de acurácia.

2. Há certificação independente?

Validação de terceiros separa software de medical-grade. Os selos a procurar são HITRUST CSF, SOC 2 Type II e ISO 27001. Especificamente em saúde, HITRUST integra controles de HIPAA, NIST e ISO em um único framework auditável, e é hoje o padrão de fato no mercado norte-americano. No Brasil, fornecedores que já atendem hospitais com certificação ONA Nível 3 ou Joint Commission International costumam ter processos parecidos, mas vale exigir o relatório completo, não apenas o logotipo no site.

3. O modelo foi validado clinicamente — e em quem?

Validar acurácia em datasets internos é insuficiente. Diretores devem pedir publicações peer-reviewed, com coortes externas, métricas como sensibilidade, especificidade, AUC e curva PR, e estratificação por subgrupo demográfico. Modelos treinados em populações majoritariamente caucasianas falham com frequência em pacientes negros e asiáticos — fato documentado em estudos sobre detecção de melanoma, raio-X de tórax e ECG. O viés algorítmico é caso de responsabilidade civil, e não apenas de ética. Hospitais que superam radiologistas em câncer de pâncreas com IA publicaram os números brutos antes de comercializar.

4. Quem é responsável quando o algoritmo erra?

O contrato precisa definir cadeia de responsabilidade. O fornecedor cobre indenizações até que limite? Como ficam custos de notificação a pacientes em caso de incidente? E em decisões clínicas que dependeram do output do modelo, quem responde — o radiologista que validou, o hospital que adquiriu ou o desenvolvedor? Esse ponto é especialmente delicado em sistemas autônomos ou “agênticos” que tomam ações sem revisão humana imediata. A American College of Radiology recomenda que a interpretação final permaneça com o radiologista para evitar zonas cinzentas, mas não é o que todos os contratos de SaaS dizem na prática. Para fluxos mais automatizados de teleradiologia, vale olhar para arquiteturas como a do Expert Radiology com PACS RamSoft, onde a responsabilidade está claramente definida no contrato de serviço.

5. Qual o caminho de manutenção e drift?

IA não é software entregue “de uma vez”. Modelos sofrem drift à medida que distribuição de pacientes muda, novos protocolos de aquisição entram em operação e versões de scanner são atualizadas. Pergunte ao fornecedor: com que frequência o modelo é re-treinado? Quem monitora a performance em produção? Há painel de métricas que o cliente acessa? Qual o plano de comunicação quando uma versão é deprecated? Fornecedores maduros têm model cards públicos, log de versões e janelas de transição clara.

O contexto brasileiro

No Brasil, o cenário acelerou em 2025 com a publicação da regulamentação da Anvisa para Software como Dispositivo Médico (SaMD) baseado em IA, que classifica algoritmos por nível de risco e exige plano de gerenciamento pós-mercado. Há ainda discussões no CFM sobre limites do laudo gerado por máquina e responsabilidade ética. Hospitais escola, como os ligados ao SUS e à rede Ebserh, vêm exigindo cláusulas mais rigorosas em contratos de IA, e a tendência é que esse rigor se espalhe para o mercado privado.

Vale dizer que o pessoal-chave para conduzir essa avaliação não é apenas o radiologista chefe — TI, segurança da informação, jurídico e compliance precisam estar no mesmo comitê. Tratar a aquisição de IA como uma compra puramente clínica é o caminho mais rápido para problemas regulatórios e contratuais.

Para além das cinco perguntas

A mensagem do artigo da CIVIE, somada à pesquisa da AMA, é que a discussão saiu do “se” para o “como”. Evitar IA na radiologia hoje é praticamente impossível: ferramentas de triagem, transcrição de voz com modelo de linguagem e priorização de worklist estão embarcadas em sistemas que muitas clínicas já operam sem perceber. A tarefa do gestor é exigir, na vez seguinte que renovar um contrato, evidências verificáveis em cada uma dessas cinco frentes. Investimentos recentes — como o aporte de US$ 150 milhões na Aidoc — mostram que o mercado segue capitalizado, então o poder de barganha do hospital aumenta.

Fonte: DOTmed — AI in radiology: Questions physicians are right to ask (08/05/2026)