Редактирование: План лекций по обработке естественного языка

Перейти к: навигация, поиск

Внимание! Вы не авторизовались на сайте. Ваш IP-адрес будет публично видимым, если вы будете вносить любые правки. Если вы войдёте или создадите учётную запись, правки вместо этого будут связаны с вашим именем пользователя, а также у вас появятся другие преимущества.

Правка может быть отменена. Пожалуйста, просмотрите сравнение версий, чтобы убедиться, что это именно те изменения, которые вас интересуют, и нажмите «Записать страницу», чтобы изменения вступили в силу.
Текущая версия Ваш текст
Строка 7: Строка 7:
 
# Классификация методов обработки языка.
 
# Классификация методов обработки языка.
  
Лекция 2: Вспомогательные задачи и формальные грамматики
+
Лекция 2: традиционные методы обработки естественного языка и вспомогательные задачи
 
# Токенизация и сегментация.
 
# Токенизация и сегментация.
 
# Формальные грамматики и Tomita-parser.
 
# Формальные грамматики и Tomita-parser.
 +
# Скрытые марковские модели.
 
# Лемматизация и стемминг.
 
# Лемматизация и стемминг.
  
Лекция 3: Вероятностные алгоритмы
+
Лекция 3: введение в ИНС и полносвязные сети
# Скрытые марковские модели и алгоритм Витерби.
 
# EM-алгоритм.
 
# Тематическое моделирование.
 
 
 
Лекция 4: введение в ИНС и полносвязные сети
 
 
# Общая идея многослойных ИНС и функции активации.
 
# Общая идея многослойных ИНС и функции активации.
 
# Полносвязные сети и перцептрон.
 
# Полносвязные сети и перцептрон.
Строка 23: Строка 19:
 
# Word2vec.
 
# Word2vec.
  
Лекция 5: инструменты интеллектуальной обработки
+
Лекция 4: инструменты интеллектуальной обработки
 
# TensorFlow и Keras.
 
# TensorFlow и Keras.
 
# PyTorch.
 
# PyTorch.
  
Лекция6: построение методов трансляции
+
Лекция5: построение методов трансляции
# Рекуррентные ИНС и и Seq2seq.
+
# Рекуррентные ИНС.
# Долгая краткосрочная память (LSTM) и управляемый рекуррентный блок (GRU).
+
# Seq2seq.
 +
 
 +
Лекция 6: проблема обработки длинных последовательностей
 +
# Длинная краткосрочная память (LSTM).
 +
# Управляемый рекуррентный блок (GRU).
 
# Seq2seq + Attention.
 
# Seq2seq + Attention.
  

Обратите внимание, что все добавления и изменения текста статьи рассматриваются как выпущенные на условиях лицензии Creative Commons — Attribution 3.0 (см. LUWRAIN Wiki:Авторские права). Если вы не хотите, чтобы ваши тексты свободно распространялись и редактировались любым желающим, не помещайте их сюда.
Вы также подтверждаете, что являетесь автором вносимых дополнений или скопировали их из источника, допускающего свободное распространение и изменение своего содержимого.
НЕ РАЗМЕЩАЙТЕ БЕЗ РАЗРЕШЕНИЯ МАТЕРИАЛЫ, ОХРАНЯЕМЫЕ АВТОРСКИМ ПРАВОМ!