Редактирование: План лекций по обработке естественного языка
Внимание! Вы не авторизовались на сайте. Ваш IP-адрес будет публично видимым, если вы будете вносить любые правки. Если вы войдёте или создадите учётную запись, правки вместо этого будут связаны с вашим именем пользователя, а также у вас появятся другие преимущества.
Правка может быть отменена. Пожалуйста, просмотрите сравнение версий, чтобы убедиться, что это именно те изменения, которые вас интересуют, и нажмите «Записать страницу», чтобы изменения вступили в силу.
Текущая версия | Ваш текст | ||
Строка 7: | Строка 7: | ||
# Классификация методов обработки языка. | # Классификация методов обработки языка. | ||
− | Лекция 2: | + | Лекция 2: традиционные методы обработки естественного языка и вспомогательные задачи |
# Токенизация и сегментация. | # Токенизация и сегментация. | ||
# Формальные грамматики и Tomita-parser. | # Формальные грамматики и Tomita-parser. | ||
+ | # Скрытые марковские модели. | ||
# Лемматизация и стемминг. | # Лемматизация и стемминг. | ||
− | Лекция 3 | + | Лекция 3: введение в ИНС и полносвязные сети |
− | |||
− | |||
− | |||
− | |||
− | |||
# Общая идея многослойных ИНС и функции активации. | # Общая идея многослойных ИНС и функции активации. | ||
# Полносвязные сети и перцептрон. | # Полносвязные сети и перцептрон. | ||
Строка 23: | Строка 19: | ||
# Word2vec. | # Word2vec. | ||
− | Лекция | + | Лекция 4: инструменты интеллектуальной обработки |
# TensorFlow и Keras. | # TensorFlow и Keras. | ||
# PyTorch. | # PyTorch. | ||
− | + | Лекция5: построение методов трансляции | |
− | # Рекуррентные ИНС | + | # Рекуррентные ИНС. |
− | # | + | # Seq2seq. |
+ | |||
+ | Лекция 6: проблема обработки длинных последовательностей | ||
+ | # Длинная краткосрочная память (LSTM). | ||
+ | # Управляемый рекуррентный блок (GRU). | ||
# Seq2seq + Attention. | # Seq2seq + Attention. | ||