Эффективность ИИ-анализа рентгеновских снимков повысили за счет текстовых данных

МОСКВА, 16 января. /ТАСС/. Специалисты Университета Иннополис в составе международной группы исследователей разработали модель на основе технологий искусственного интеллекта (ИИ), которая за счет обучения на мультимодальных данных (изображения и текстовые описания) о патологиях органов позволяет лучше понимать причины тех или иных выводов системы. Новый подход позволит ускорить развитие этих технологий, сообщили ТАСС в пресс-службе вуза.

Вместе с наборами изображений, размеченных для обучения системы, авторы также использовали текст - описание признаков патологий.

"Исследователи выяснили, что при совместном использовании изображения и текста искусственный интеллект лучше учится и обобщает закономерности. Кроме того, в этом случае не требуется ручная разметка примеров для обучения (концептов) - ключевые элементы автоматически выделяются моделью во время "тренировки", что позволяет сократить долю предварительной обработки данных специалистами", - уточнили в университете.

По словам руководителя лаборатории ИИ в медицине Университета Иннополис Ильи Першина, авторы использовали более 18,6 тыс. рентгеновских снимков различных органов, а также аннотации и врачебные заключения.

"Эксперименты показали, что наш подход повышает не только интерпретируемость решений, но и <...> устойчивость моделей глубокого обучения, что важно для безопасности использования ИИ. <…> Наша модель [во время испытаний после обучения] больше обращала внимание на зону вокруг патологии органа на рентгеновском снимке, то есть намеренно выбирала более надежные и при этом сложные способы решения задачи, точность результатов сохранялась" , - цитирует пресс-служба организации слова студента Университета Иннополис Даниса Алукаева, входящего в число авторов работы.

Объяснимость выводов ИИ

В исследовании также приняли участие представители Копенгагенского и Эдинбургского университетов.

"Модель машинного обучения часто воспринимается как черный ящик: "на вход" мы подаем какую-то информацию, "на выходе" - получаем результат. На практике специалистам, принимающим решения при помощи ИИ-сервисов, важно понимать причины, почему результат получился таким. Большинство современных моделей машинного обучения - черные ящики, в них нет механизмов для объяснения поведения модели. Наша научная работа и полученные результаты позволили приблизиться к пониманию того, что происходит внутри инструментов, основанных на искусственном интеллекте" , - также уточнил Алукаев.