Случайны выбор дневника Раскрыть/свернуть полный список возможностей


Найдено 985 сообщений
Cообщения с меткой

natural language processing - Самое интересное в блогах

Следующие 30  »
rss_habr

Как Маруся отвечает на вопросы пользователей обо всём на свете

Среда, 01 Февраля 2023 г. 11:04 (ссылка)

Привет, это команда ответов на вопросы Маруси. Мы все привыкли к тому, что голосовые помощники отвечают на любые вопросы. Не всегда правильно, но обычно вполне толково и с пользой. А вы когда-нибудь задумывались, как это устроено? Сейчас расскажем на примере нашей Маруси.

Материал состоит из двух частей, это первая часть. В ней мы дадим поверхностный обзор того как устроена Маруся, локализуем место навыка «ответов на вопросы» и расскажем на концептуальном уровне, как можно решать эту задачу.

Читать далее

https://habr.com/ru/post/713124/?utm_source=habrahabr&utm_medium=rss&utm_campaign=713124

Метки:   Комментарии (0)КомментироватьВ цитатник или сообщество
rss_habr

ChatGPT как инструмент для поиска: решаем основную проблему

Четверг, 26 Января 2023 г. 11:55 (ссылка)

Вышедшая чуть больше месяца назад ChatGPT уже успела нашуметь: школьникам в Нью-Йорке запрещают использовать нейросеть в качестве помощника, её же ответы теперь не принимаются на StackOverflow, а Microsoft планирует интеграцию в поисковик Bing - чем, кстати, безумно обеспокоен СЕО Alphabet (Google) Сундар Пичаи. Настолько обеспокоен, что в своём письме-обращении к сотрудникам объявляет "Code Red" ситуацию. В то же время Сэм Альтман, CEO OpenAI - компании, разработавшей эту модель - заявляет, что полагаться на ответы ChatGPT пока не стоит.

Насколько мы действительно близки к внедрению продвинутых чат-ботов в поисковые системы, как может выглядеть новый интерфейс взаимодействия, и какие основные проблемы есть на пути интеграции? Могут ли модели сёрфить интернет бок о бок с традиционными поисковиками? На эти и многие другие вопросы постараемся ответить под катом.

Погрузиться с головой →

https://habr.com/ru/post/709222/?utm_source=habrahabr&utm_medium=rss&utm_campaign=709222

Комментарии (0)КомментироватьВ цитатник или сообщество
rss_habr

Real AI семантический анализатор. Онлайн-демо – овощи, фрукты и их свойства

Понедельник, 23 Января 2023 г. 12:09 (ссылка)

Всем привет!
Мы продолжаем развитие нашей системы анализа естественного языка и, завершив промежуточный этап работы над коммерческим сценарием выявления поручений из документов, решили выложить в отрытый доступ онлайн демо по нахождению в тексте объектов и соответствующих им характеристик. Как нам кажется, мы сделали уникальную вещь, по крайней мере, нам не известно о доступных онлайн системах построения смысловой модели текста с таким уровнем детализации.

Далее описание применяемой технологии, предметной области, ограничений и возможностей демо.

Читать далее

https://habr.com/ru/post/712140/?utm_source=habrahabr&utm_medium=rss&utm_campaign=712140

Метки:   Комментарии (0)КомментироватьВ цитатник или сообщество
rss_habr

Падаем в кроличью нору. Ищем способ характеризовать текстовые датасеты

Пятница, 20 Января 2023 г. 11:49 (ссылка)

Всем привет! На связи Игорь Буянов, разработчик в команде разметки MTS AI. Сегодня я поделюсь с вами своими наработками, появившимися во время изучения метрик оценки генерации данных. Когда я только пришел в команду разметки, эта задача была особо актуальной - нас тогда просили нагенерить данные под тестирование информационного бота по COVID. Дело в том, что тестирование результатов выполнялось вручную, что значительно замедляло работу. Каких-либо автоматических метрик оценки качества генерации тестовых данных не существовало.

В какой-то момент мне надоело это терпеть, и я решил посмотреть, а как качество текстов оценивают разработчики языковых моделей. У них точно есть перплексия, может, есть что-то еще.

Спустя время, проведенное за штудированием статей, я нашел кандидата среди известных метрик для оценки качества генерации, но кроме того, к своему удивлению, у меня появилось несколько теоретических тезисов о качестве данных вообще. В этом посте я делюсь ими с сообществом в надежде на дальнейшее обсуждение. Для лучшего понимания дальнейшего текста рекомендую прочитать эту статью.

Читать далее

https://habr.com/ru/post/711764/?utm_source=habrahabr&utm_medium=rss&utm_campaign=711764

Метки:   Комментарии (0)КомментироватьВ цитатник или сообщество
rss_habr

Падаем в кроличью нору. Ищем способ характеризовать текстовые датасеты

Пятница, 20 Января 2023 г. 11:49 (ссылка)

Всем привет! На связи Игорь Буянов, разработчик в команде разметки MTS AI. Сегодня я поделюсь с вами своими наработками, появившимися во время изучения метрик оценки генерации данных. Когда я только пришел в команду разметки, эта задача была особо актуальной - нас тогда просили нагенерить данные под тестирование информационного бота по COVID. Дело в том, что тестирование результатов выполнялось вручную, что значительно замедляло работу. Каких-либо автоматических метрик оценки качества генерации тестовых данных не существовало.

В какой-то момент мне надоело это терпеть, и я решил посмотреть, а как качество текстов оценивают разработчики языковых моделей. У них точно есть перплексия, может, есть что-то еще.

Спустя время, проведенное за штудированием статей, я нашел кандидата среди известных метрик для оценки качества генерации, но кроме того, к своему удивлению, у меня появилось несколько теоретических тезисов о качестве данных вообще. В этом посте я делюсь ими с сообществом в надежде на дальнейшее обсуждение. Для лучшего понимания дальнейшего текста рекомендую прочитать эту статью.

Читать далее

https://habr.com/ru/post/711764/?utm_source=habrahabr&utm_medium=rss&utm_campaign=711764

Метки:   Комментарии (0)КомментироватьВ цитатник или сообщество
rss_habr

MedBench: NLP-задачи в медицине, модели и методы их решения

Четверг, 19 Января 2023 г. 22:55 (ссылка)

Привет, Хабр! Меня зовут Даниил Погуляка. Я студент четвертого курса МГТУ им. Н.Э. Баумана, факультета "Информатика, искусственный интеллект и системы управления". Уже некоторое время я занимаюсь изучением методов машинного обучения, в частности, касающихся автоматической обработки текстов (Natural Language Processing, NLP). В конце прошлого года мне удалось попасть на стажировку в Sber AI Lab. Оказавшись в команде проекта MedBench, у меня появилась возможность поработать над практическими NLP задачами. В этой статье я бы хотел рассказать вам о проекте, которым занимался на протяжении своей стажировки. Проект связан с использованием нейронных сетей в сфере медицины, но подробнее о нём после небольшого введения.

Читать далее

https://habr.com/ru/post/711700/?utm_source=habrahabr&utm_medium=rss&utm_campaign=711700

Метки:   Комментарии (0)КомментироватьВ цитатник или сообщество
rss_habr

[Перевод] Важные исследования в области AI в 2022 г

Четверг, 19 Января 2023 г. 17:48 (ссылка)

Данная статья представляет собой свободный перевод раздела "Исследования" из доклада State of the Art 2022 (октябрь). Доклад State of the Art публикуется уже пятый год. Это подборка самых интересных вещей в мире AI, (конечно с точки зрения авторов). Отчет включает в себя несколько блоков:

Читать далее

https://habr.com/ru/post/711512/?utm_source=habrahabr&utm_medium=rss&utm_campaign=711512

Метки:   Комментарии (0)КомментироватьВ цитатник или сообщество
rss_habr

О когезии и когерентности

Вторник, 17 Января 2023 г. 10:31 (ссылка)

В этом посте я собрал все свои заметки, которые собрал при изучении лингвистических явлений, таких как когезия, когерентность и связь между ними, а также лексические цепи. В конце вас ждет пара интересных алгоритмов: вычисление этих самых лексических цепей и генерация саммари на их основе.

Читать далее

https://habr.com/ru/post/711054/?utm_source=habrahabr&utm_medium=rss&utm_campaign=711054

Метки:   Комментарии (0)КомментироватьВ цитатник или сообщество
rss_habr

О когезии и когерентности

Вторник, 17 Января 2023 г. 10:31 (ссылка)

В этом посте я собрал все свои заметки, которые собрал при изучении лингвистических явлений, таких как когезия, когерентность и связь между ними, а также лексические цепи. В конце вас ждет пара интересных алгоритмов: вычисление этих самых лексических цепей и генерация саммари на их основе.

Читать далее

https://habr.com/ru/post/711054/?utm_source=habrahabr&utm_medium=rss&utm_campaign=711054

Метки:   Комментарии (0)КомментироватьВ цитатник или сообщество
rss_habr

NER в поисках брендов. Часть 1

Вторник, 10 Января 2023 г. 10:01 (ссылка)

Опыт показывает, что построение результативных коммуникаций в маркетинге требует пристального изучения целевой аудитории и неочевидных знаний о ней. А значит, нужны новые подходы. Наши специалисты из CleverData предлагают использовать практику data science и рассмотреть один из таких подходов, как бренд-анализ. Хотим поделиться опытом, как с помощью NER (техники распознавания именованных сущностей) мы начали выделять бренды в покупках целевой аудитории одного из европейских производителей автомобилей. Оказалось, что эта аудитория предпочитает бутилированную воду, товары для взрослых Durex и электронику Apple. Расскажем, как мы пришли к таким выводам и чем они могут быть полезны.

Читать далее

https://habr.com/ru/post/708414/?utm_source=habrahabr&utm_medium=rss&utm_campaign=708414

Метки:   Комментарии (0)КомментироватьВ цитатник или сообщество
rss_habr

Мы в город изумрудный идем дорогой трудной. Ваш компас в мир NLP

Суббота, 07 Января 2023 г. 12:59 (ссылка)

Всегда завидовал, что существует ресурс roadmap.sh, где есть разные дорожные карты для разработчиков, а для MLщиков, NLP в частности, нет. Устал я это терпеть и решил сделать сам. С другой стороны, меня интересовали вопросы: а NLP Уngineer это кто? А NLP Research engineer это уже другое? А это то же самое, что NLP Scientis? Чтобы хоть немного разобраться, я решил посмотреть, а что вообще сейчас требуется в вакансиях, где в заголовке фигурирует NLP. В результате вместо просто дорожной карты, получилось собрать еще парочку интересных диаграмм. Надеюсь тем, кто только смотрит в сторону NLP, она поможет сориентироваться, всем HR поможет в построении диаграмм компетенций, а специалистам поможет оценивать кандидатов на собеседовании.

Ссылка на репозиторий.

Читать далее

https://habr.com/ru/post/709364/?utm_source=habrahabr&utm_medium=rss&utm_campaign=709364

Метки:   Комментарии (0)КомментироватьВ цитатник или сообщество
rss_habr

Мы в город изумрудный идем дорогой трудной. Ваш компас в мир NLP

Суббота, 07 Января 2023 г. 12:59 (ссылка)

Всегда завидовал, что существует ресурс roadmap.sh, где есть разные дорожные карты для разработчиков, а для MLщиков, NLP в частности, нет. Устал я это терпеть и решил сделать сам. С другой стороны, меня интересовали вопросы: а NLP Уngineer это кто? А NLP Research engineer это уже другое? А это то же самое, что NLP Scientis? Чтобы хоть немного разобраться, я решил посмотреть, а что вообще сейчас требуется в вакансиях, где в заголовке фигурирует NLP. В результате вместо просто дорожной карты, получилось собрать еще парочку интересных диаграмм. Надеюсь тем, кто только смотрит в сторону NLP, она поможет сориентироваться, всем HR поможет в построении диаграмм компетенций, а специалистам поможет оценивать кандидатов на собеседовании.

Ссылка на репозиторий.

Читать далее

https://habr.com/ru/post/709364/?utm_source=habrahabr&utm_medium=rss&utm_campaign=709364

Метки:   Комментарии (0)КомментироватьВ цитатник или сообщество
rss_habr

Разбираемся, как мерить разнообразие слов

Четверг, 05 Января 2023 г. 18:44 (ссылка)

Привет в Новом году. Я тут добрался на праздниках до одной темы, которая пылится у меня уже полгода в закладках. Поговорим сегодня о метриках лексического разнообразия. Эти метрики показывают насколько богат текст на разные слова, помогая нам оценить его сложность. В этой небольшой заметке я кратко расскажу историю вопроса, о современных метриках, а в конце покажу результаты предварительных экспериментов. Тетрадка доступна по ссылке.

Читать дальше →

https://habr.com/ru/post/709202/?utm_source=habrahabr&utm_medium=rss&utm_campaign=709202

Метки:   Комментарии (0)КомментироватьВ цитатник или сообщество
rss_habr

Разбираемся, как мерить разнообразие слов

Четверг, 05 Января 2023 г. 18:44 (ссылка)

Привет в Новом году. Я тут добрался на праздниках до одной темы, которая пылится у меня уже полгода в закладках. Поговорим сегодня о метриках лексического разнообразия. Эти метрики показывают насколько богат текст на разные слова, помогая нам оценить его сложность. В этой небольшой заметке я кратко расскажу историю вопроса, о современных метриках, а в конце покажу результаты предварительных экспериментов. Тетрадка доступна по ссылке.

Читать дальше →

https://habr.com/ru/post/709202/?utm_source=habrahabr&utm_medium=rss&utm_campaign=709202

Метки:   Комментарии (0)КомментироватьВ цитатник или сообщество
rss_habr

Стихи, цветы и драконы на EMNLP 2022

Четверг, 29 Декабря 2022 г. 16:51 (ссылка)

EMNLP это одна из самых больших конференций в области обработки естественных языков, NLP. В этом году конференция проходила с 7 по 11 декабря в Абу-Даби. Из кучи статьей, представленных на конференции, я хотел бы выделить три, которые привлекли мое внимание. Эти статьи не обязательно самые полезные или известные, но по-моему они точно достойны упоминания. Две статьи были представлены в виде постеров, а у третьей было полноценное выступление. Моя любимая из этих трех статей PoeLM, статья про генерацию стихов на испанском языке с формальными ограничениями.

Поехали!

https://habr.com/ru/post/708490/?utm_source=habrahabr&utm_medium=rss&utm_campaign=708490

Метки:   Комментарии (0)КомментироватьВ цитатник или сообщество
rss_habr

Стихи, цветы и драконы на EMNLP 2022

Четверг, 29 Декабря 2022 г. 16:51 (ссылка)

EMNLP это одна из самых больших конференций в области обработки естественных языков, NLP. В этом году конференция проходила с 7 по 11 декабря в Абу-Даби. Из кучи статьей, представленных на конференции, я хотел бы выделить три, которые привлекли мое внимание. Эти статьи не обязательно самые полезные или известные, но по-моему они точно достойны упоминания. Две статьи были представлены в виде постеров, а у третьей было полноценное выступление. Моя любимая из этих трех статей PoeLM, статья про генерацию стихов на испанском языке с формальными ограничениями.

Поехали!

https://habr.com/ru/post/708490/?utm_source=habrahabr&utm_medium=rss&utm_campaign=708490

Метки:   Комментарии (0)КомментироватьВ цитатник или сообщество
rss_habr

[Перевод] Делаем фронт на React, а ChatGPT будет нашим Redux редьюсером

Четверг, 29 Декабря 2022 г. 16:04 (ссылка)

Приложение React/Redux представляет собой односторонний цикл потока данных. Пользователь взаимодействует с пользовательским интерфейсом, который производит действия Redux, которые отправляются в функции reducer, которые обновляют объект состояния приложения, который передается обратно в React для повторного отображения пользовательского интерфейса.

Разговор с ChatGPT также представляет собой односторонний цикл. Человек посылает запрос (действие), который передается языковой модели (редуктор), которая обновляет разговор (состояние) своим ответом.

Можем ли мы использовать последнюю модель ChatGPT для этих целей? Спойлер: да, можем!

Читать далее

https://habr.com/ru/post/708360/?utm_source=habrahabr&utm_medium=rss&utm_campaign=708360

Комментарии (0)КомментироватьВ цитатник или сообщество

Следующие 30  »

<natural language processing - Самое интересное в блогах

Страницы: [1] 2 3 ..
.. 10

LiveInternet.Ru Ссылки: на главную|почта|знакомства|одноклассники|фото|открытки|тесты|чат
О проекте: помощь|контакты|разместить рекламу|версия для pda