La IA de Cedars-Sinai supera a los modelos especializados en la lectura de estafas cardíacas.
EchoPrime, publicado en Nature en febrero de 2026, supera tanto a las herramientas de IA específicas para tareas como a los modelos base anteriores en 23 benchmarks cardíacos, y su código, pesos y una demostración están disponibles públicamente.
Un ecocardiograma es una de las herramientas de diagnóstico más comunes en cardiología: un ultrasonido del corazón que revela cómo se mueve, cómo se llenan y vacían sus cámaras, y si su estructura está comprometida. Interpretar uno requiere formación, tiempo y un tipo específico de atención espacial, la capacidad de observar imágenes en movimiento de un corazón latiendo y traducirlas en una narrativa clínica.
Investigadores del Cedars-Sinai Medical Center, trabajando con colegas de Kaiser Permanente Northern California, Stanford Health Care, Beth Israel Deaconess Medical Center en Boston y Chang Gung Memorial Hospital en Taiwán, han construido un sistema de IA que puede hacer lo mismo.
EchoPrime, un modelo de visión-lenguaje basado en video, analiza el metraje de ecocardiogramas y genera un informe escrito sobre la forma y función cardíaca. Sus hallazgos fueron publicados en Nature (volumen 650, páginas 970-977) en febrero de 2026, bajo el título “Evaluación integral del ecocardiograma con IA de lenguaje visual primado por vista.”
La escala del entrenamiento es lo que distingue a EchoPrime. El modelo fue entrenado con más de 12 millones de videos de ecocardiografía emparejados con interpretaciones escritas de cardiólogos, extraídos de 275,442 estudios en 108,913 pacientes en Cedars-Sinai.
Ningún modelo de IA anterior para ecocardiografía ha sido entrenado con datos de ese volumen.
¿Qué puede hacer?
Probado en cinco sistemas de salud internacionales, EchoPrime logró un rendimiento de vanguardia en 23 benchmarks diversos de estructura y función cardíaca, superando tanto a enfoques de IA específicos para tareas, modelos entrenados para hacer una cosa, como medir la fracción de eyección, como a modelos base anteriores que buscaban una capacidad más amplia.
Las salidas del modelo están diseñadas para asistir a los clínicos, no para reemplazarlos: produce un resumen verbal que los cardiólogos pueden revisar y en el que pueden actuar, en lugar de emitir un diagnóstico de forma autónoma.
El equipo de investigación ha hecho que el código, los pesos y una demostración funcional del modelo estén disponibles públicamente, una decisión que refleja un cambio más amplio en la investigación de IA hacia la publicación abierta, y que permitirá a otras instituciones probar EchoPrime con sus propias poblaciones de pacientes.
El contexto a su alrededor
EchoPrime llega en un año en que el diagnóstico erróneo por IA ha sido nombrado como una de las principales amenazas a la seguridad del paciente por ECRI, la organización de seguridad en salud. Ese contexto no socava tanto la promesa de EchoPrime como enmarca el estándar que necesitará cumplir.
El objetivo no es una IA que a veces lea ecocardiogramas con precisión, sino una que lo haga de manera lo suficientemente consistente como para reducir la carga sobre los cardiólogos sin introducir nuevas categorías de error.
La cardiología ha sido un área productiva para diagnósticos asistidos por IA precisamente porque los datos, video de ultrasonido, electrocardiogramas, imágenes, son relativamente estructurados y abundantes.
El trabajo de Cedars-Sinai es, sin duda, el intento más exhaustivo hasta ahora de convertir esa abundancia de datos en una herramienta generalizada. Si EchoPrime pasa de ser un modelo publicado a un despliegue clínico a gran escala depende de factores, aprobación regulatoria, adopción institucional, responsabilidad, que el artículo de Nature no aborda.
Pero como demostración de lo que ahora es técnicamente posible en IA cardíaca, establece una nueva marca.
Otros artículos
La IA de Cedars-Sinai supera a los modelos especializados en la lectura de estafas cardíacas.
La EchoPrime AI de Cedars-Sinai fue entrenada con 12 millones de videos de ecocardiogramas y publicada en Nature.
