Token Pruning или «Первое слово съела корова» |
Начнем повествование с приевшейся, шаблонной, клишированной фразы, мотивирующей сжатие нейронных сетей:
За последние несколько лет нейронные сети достигли значительных успехов в разнообразных приложениях и сферах человеческой (и нечеловеческой) деятельности, превосходя даже человека на ряде задач. Но мощь и гибкость, способность фитировать сложные зависимости, требуют значительных вычислительных ресурсов как на этапе обучения, так и на инференсе, что ограничивает зачастую применение нейронных сетей на мобильных устройствах и при наличии ограниченных вычислительных мощностей.
Поэтому по мере бурного прогресса и развития новых архитектур параллельно идет активная разработка разнообразных подходов по сжатию и повышению эффективности нейронных сетей.
И cегодня я бы хотел рассказать об одном методе, специфичном для популярной нынче архитектуры Transformer.
Поехали!https://habr.com/ru/post/679782/?utm_source=habrahabr&utm_medium=rss&utm_campaign=679782
Комментировать | « Пред. запись — К дневнику — След. запись » | Страницы: [1] [Новые] |