Искусственный интеллект Cedars-Sinai обходит специализированные модели в чтении сердечных сканов
EchoPrime, опубликованный в журнале Nature в феврале 2026 года, превосходит как специализированные инструменты ИИ, так и предыдущие базовые модели по 23 кардиологическим критериям, а его код, веса и демонстрационная версия доступны для общественности.
Эхокардиограмма — один из самых распространенных диагностических инструментов в кардиологии: ультразвук сердца, который показывает, как оно движется, как его камеры наполняются и опустошаются, и нарушена ли его структура. Для интерпретации эхокардиограммы требуется обучение, время и специфический вид пространственного внимания, способность смотреть на движущиеся изображения бьющегося сердца и переводить их в клинический нарратив.
Исследователи из медицинского центра Сидарс-Синай, работая с коллегами из Kaiser Permanente Northern California, Stanford Health Care, медицинского центра Beth Israel Deaconess в Бостоне и мемориальной больницы Чан Гун в Тайване, создали систему ИИ, которая может делать то же самое.
EchoPrime, основанная на видео модели зрительно-языкового восприятия, анализирует видеозаписи эхокардиограмм и генерирует письменный отчет о форме и функции сердца. Его результаты были опубликованы в журнале Nature (том 650, страницы 970-977) в феврале 2026 года под заголовком «Комплексная оценка эхокардиограммы с использованием зрительно-языкового ИИ с предварительной настройкой».
Масштаб обучения — это то, что отличает EchoPrime. Модель была обучена на более чем 12 миллионах видеозаписей эхокардиографии, сопоставленных с письменными интерпретациями кардиологов, собранными из 275,442 исследований на 108,913 пациентах в Сидарс-Синай.
Ни одна предыдущая модель ИИ для эхокардиографии не была обучена на данных такого объема.
Что она может делать?
Проверенная в пяти международных системах здравоохранения, EchoPrime достигла передового уровня производительности по 23 разнообразным критериям структуры и функции сердца, превосходя как специализированные подходы ИИ, модели, обученные выполнять одну задачу, такую как измерение фракции выброса, так и предыдущие базовые модели, которые стремились к более широким возможностям.
Выходные данные модели предназначены для помощи клиницистам, а не для их замены: она производит устный резюме, которое кардиологи могут просмотреть и на основе которого могут действовать, а не ставит диагноз автономно.
Исследовательская группа сделала код модели, веса и работающую демонстрацию общедоступными, что отражает более широкий сдвиг в исследованиях ИИ в сторону открытой публикации и позволит другим учреждениям протестировать EchoPrime на своих собственных популяциях пациентов.
Контекст вокруг этого
EchoPrime появляется в год, когда неправильный диагноз, поставленный ИИ, был назван одной из главных угроз безопасности пациентов организацией ECRI, занимающейся безопасностью в здравоохранении. Этот контекст не умаляет обещания EchoPrime, скорее он определяет стандарт, которому ей нужно соответствовать.
Цель не в том, чтобы создать ИИ, который иногда точно читает эхокардиограммы, а в том, чтобы он делал это достаточно последовательно, чтобы снизить нагрузку на кардиологов, не вводя новые категории ошибок.
Кардиология была продуктивной областью для диагностики с помощью ИИ именно потому, что данные, ультразвуковое видео, электрокардиограммы, визуализация относительно структурированы и обильны.
Работа Сидарс-Синай, возможно, является самым тщательным на сегодняшний день попыткой превратить это изобилие данных в обобщенный инструмент. То, перейдет ли EchoPrime от опубликованной модели к клиническому развертыванию в большом масштабе, зависит от факторов, таких как регуляторное одобрение, институциональное принятие, ответственность, которые статья в Nature не рассматривает.
Но как демонстрация того, что теперь технически возможно в кардиологическом ИИ, она устанавливает новую планку.
Другие статьи
Искусственный интеллект Cedars-Sinai обходит специализированные модели в чтении сердечных сканов
EchoPrime AI от Cedars-Sinai был обучен на 12 миллионах видео эхокардиограмм и опубликован в журнале Nature.
