Интерпретируемость в медицине |
Так совпало, что я недавно прочёл статью Transparency of deep neural networks for medical image analysis и пост от канала Reliable ML про интерпретируемость. Я работаю в сфере медицины уже почти пять лет, и всё это время постоянно где-то на орбите внимания мелькает эта тема.
Что такое интерпретируемость, если решается задача классификации всего рентгенологического исследования - в целом понятно. Врачи не доверяют системам, которые просто говорят "тут где-то на картинке есть рак", а значит нужны какие-то методы, которые будут "объяснять" итоговое предсказание. Их придумано довольно много - разнообразные виды GradCAMа, окклюзия, LIME. Из коробки многие из них можно взять из библиотеки Captum для Pytorch.
Если вы хотите узнать ещё больше об организации процессов ML-разработки, подписывайтесь на наш Телеграм-канал Варим ML
Читать далееhttps://habr.com/ru/post/714354/?utm_source=habrahabr&utm_medium=rss&utm_campaign=714354
Комментировать | « Пред. запись — К дневнику — След. запись » | Страницы: [1] [Новые] |