Skip to main content

Investigadores de la UB Crean IA para Detectar Informes de Radiología Generados por IA

Investigadores de la Universidad Estatal de Buffalo (UB) han desarrollado un sistema basado en inteligencia artificial diseñado para distinguir informes radiológicos redactados por clínicos de aquellos generados por grandes modelos de lenguaje — una capacidad orientada a detectar documentación médica falsificada y prevenir el fraude en los seguros de salud. El trabajo fue liderado por Nalini Ratha, profesor del Departamento de Ciencias de la Computación e Ingeniería de la UB, junto con los doctorandos Arjun Ramesh Kaushik y Tanvi Ranga. El equipo presentó sus resultados en el taller GenAI4Health durante la Conferencia sobre Sistemas de Procesamiento de Información Neural (NeurIPS) en diciembre de 2025.

Investigadores de la UB desarrollan sistema de IA para detectar informes de radiología generados artificialmente
Framework BERT-Mamba de la UB detecta informes radiológicos sintéticos con precisión del 92-100%

El Problema: IA Generativa y Fraude en Documentación Médica

La creciente capacidad de los grandes modelos de lenguaje para producir texto convincente y específico del dominio ha creado una nueva categoría de riesgo en la atención sanitaria: la fabricación de informes radiológicos que parecen auténticos a los revisores humanos. Estos informes sintéticos podrían utilizarse para falsificar historiales médicos de pacientes, fabricar pruebas que respalden reclamaciones fraudulentas a los seguros, o manipular registros médicos electrónicos en contextos legales o administrativos.

«Con la IA generativa volviéndose cada vez más capaz de producir informes radiológicos convincentes, existe un mayor riesgo de que informes fabricados se usen para falsificar historiales médicos y apoyar reclamaciones fraudulentas», señaló Ratha. «Los informes radiológicos tienen estructura, vocabulario y normas estilísticas altamente especializados, lo que hace que los detectores de propósito general sean poco fiables. Por eso, nuestro objetivo fue construir un framework de detección diseñado específicamente para radiología.»

Metodología: Dataset y Arquitectura BERT-Mamba

Para desarrollar y validar su sistema, el equipo construyó un conjunto de datos con 14.000 pares de informes de radiografía de tórax: uno redactado por radiólogos y otro generado por IA. Los informes sintéticos se produjeron de dos maneras: parafraseando informes existentes mediante grandes modelos de lenguaje, y generando informes directamente a partir de radiografías mediante modelos visión-lenguaje. El dataset se centra en la sección de hallazgos de los informes radiológicos, que típicamente contiene observaciones clínicas detalladas y terminología especializada.

Usando este conjunto de datos, el equipo construyó un framework de detección basado en una arquitectura BERT-Mamba, diseñada para separar los patrones estilísticos del contenido clínico. La hipótesis central es que los modelos de lenguaje frecuentemente replican la terminología médica con fidelidad, pero difieren de los clínicos humanos en el estilo de escritura — y estas diferencias, aunque sutiles, son detectables computacionalmente con suficiente precisión para ser clínicamente relevantes.

Resultados: Precisión del 92% al 100%

En las pruebas, el sistema logró puntuaciones de Coeficiente de Correlación de Matthews (MCC) que van del 92% al 100% al distinguir informes escritos por humanos de los generados por IA. El modelo también identificó informes sintéticos generados por sistemas de IA que no había encontrado durante el entrenamiento, demostrando una capacidad de generalización significativa más allá de los LLMs incluidos en el conjunto de entrenamiento.

«Los sistemas de IA dejan huellas estilísticas sutiles — patrones en el fraseado, la puntuación y la elección de palabras que difieren de cómo los radiólogos escriben naturalmente. Al separar el estilo del contenido y tratarlo como una característica medible propia, nuestro modelo pudo detectar esos patrones con una precisión excepcional», explicó Kaushik.

Ranga añadió una observación clave: «Lo que encontramos es que los LLMs tienden a escribir en un lenguaje pulido y expansivo, mientras que los clínicos escriben de forma concisa y directa.» Esta asimetría entre el estilo elaborado de los LLMs y la precisión característica de los informes radiológicos profesionales es la señal central que explota el framework BERT-Mamba.

Implicaciones para la Seguridad de la Información en Salud

La relevancia de esta investigación va más allá del contexto académico. En un ecosistema sanitario donde los informes radiológicos digitales circulan entre proveedores, aseguradoras, reguladores y sistemas de PACS, la capacidad de autenticar la autoría humana de un documento médico podría convertirse en un componente clave de la infraestructura de seguridad de la información clínica. La IA en la imagen médica ya se discute ampliamente en el contexto del diagnóstico — pero su aplicación a la autenticidad documental abre un campo completamente nuevo.

Para las aseguradoras y las organizaciones de atención gestionada, la integración de herramientas de autenticación de informes radiológicos en los flujos de validación de reclamaciones podría reducir significativamente los costes del fraude. En contextos legales y regulatorios, la capacidad de determinar si un informe fue redactado por un clínico o generado por un LLM podría ser material para la resolución de disputas y la auditoría de cumplimiento.

Contexto Más Amplio: IA Generativa en Radiología

La investigación de la UB surge en un momento en que la IA generativa se está explorando en múltiples contextos radiológicos — desde la generación automatizada de borradores de informes hasta el apoyo a la toma de decisiones clínicas. Herramientas como GPT-4V, Med-PaLM y soluciones propietarias de proveedores como Nuance (Microsoft) ya permiten la generación de texto estructurado a partir de imágenes médicas o dictados de voz. A medida que estas capacidades se expanden, la proliferación de texto generado por IA en los flujos de trabajo clínicos crea una necesidad urgente de mecanismos de autenticación.

Del mismo modo que los sistemas PACS con IA integrada deben garantizar la integridad de la cadena de custodia de la imagen, los sistemas de generación y transmisión de informes necesitarán herramientas de verificación de autoría. La investigación de la UB proporciona una base técnica concreta para dichos sistemas.

Próximos Pasos

Los investigadores planean expandir su conjunto de datos para incluir modalidades radiológicas adicionales más allá de las radiografías de tórax, y probar el framework con una gama más amplia de modelos de IA — incluyendo los que surjan después de la fecha de publicación del trabajo actual. Su objetivo a largo plazo es publicar el framework públicamente, permitiendo que los sistemas de salud, aseguradoras y reguladores integren la verificación de autoría de informes radiológicos en sus propios flujos de trabajo. Si se adopta a escala, esta capacidad podría fortalecer significativamente la integridad de la documentación médica en todo el ecosistema de salud digital.

Fuente: DOTmed

Leave a Reply