Случайны выбор дневника Раскрыть/свернуть полный список возможностей


Найдено 23 сообщений
Cообщения с меткой

language model - Самое интересное в блогах

Следующие 30  »
rss_habr

Кейсы применения ChatGPT для задач программиста

Понедельник, 05 Декабря 2022 г. 15:26 (ссылка)

Разберем 7 примеров использования ChatGPT, которые могут помочь программисту. Также посмотрим, как хорошо она умеет писать код. В статье выжимка из популярных тредов твиттера и блог-постов, чтобы вы могли не тратить время на их чтение.

Читать далее

https://habr.com/ru/post/703568/?utm_source=habrahabr&utm_medium=rss&utm_campaign=703568

Метки:   Комментарии (0)КомментироватьВ цитатник или сообщество
rss_habr

Понимают ли нейронные модели грамматику человеческого языка?

Четверг, 20 Октября 2022 г. 13:00 (ссылка)

https://habr.com/ru/post/694462/?utm_source=habrahabr&utm_medium=rss&utm_campaign=694462

Комментарии (0)КомментироватьВ цитатник или сообщество
rss_habr

Введение в извлечение сущностей из текста и NER

Вторник, 05 Июля 2022 г. 17:07 (ссылка)

Извлечение информации означает создание структурированных данных из неструктурированного текста. На практике задача может выглядеть так: нужно автоматически создать запись в календаре исходя из текста письма, как на рисунке ниже.

Читать далее

https://habr.com/ru/post/675220/?utm_source=habrahabr&utm_medium=rss&utm_campaign=675220

Метки:   Комментарии (0)КомментироватьВ цитатник или сообщество
rss_habr

Простым языком о языковых моделях и цепи Маркова (Markov Chain)

Вторник, 05 Июля 2022 г. 17:04 (ссылка)

N-граммы

N-граммы – это статистические модели, которые предсказывают следующее слово после N-1 слов на основе вероятности их сочетания. Например, сочетание I want to в английском языке имеет высокую вероятностью, а want I to – низкую. Говоря простым языком, N-грамма – это последовательность n слов. Например, биграммы – это последовательности из двух слов (I want, want to, to, go, go to, to the…), триграммы – последовательности из трех слов (I want to, want to go, to go to…) и так далее.

Такие распределения вероятностей имеют широкое применение в машинном переводе, автоматической проверке орфографии, распознавании речи и умном вводе. Например, при распознавании речи, по сравнению с фразой eyes awe of an, последовательность I saw a van будет иметь большую вероятность. Во всех этих случаях мы подсчитываем вероятность следующего слова или последовательности слов. Такие подсчеты называются языковыми моделями.

Как же рассчитать P(w)? Например, вероятность предложения P(I, found, two, pounds, in, the, library). Для этого нам понадобится цепное правило, которое определяется так:

Читать далее

https://habr.com/ru/post/675218/?utm_source=habrahabr&utm_medium=rss&utm_campaign=675218

Метки:   Комментарии (0)КомментироватьВ цитатник или сообщество

Следующие 30  »

<language model - Самое интересное в блогах

Страницы: [1] 2 3 ..
.. 10

LiveInternet.Ru Ссылки: на главную|почта|знакомства|одноклассники|фото|открытки|тесты|чат
О проекте: помощь|контакты|разместить рекламу|версия для pda