Редактирование: План лекций по обработке естественного языка

Перейти к: навигация, поиск

Внимание! Вы не авторизовались на сайте. Ваш IP-адрес будет публично видимым, если вы будете вносить любые правки. Если вы войдёте или создадите учётную запись, правки вместо этого будут связаны с вашим именем пользователя, а также у вас появятся другие преимущества.

Правка может быть отменена. Пожалуйста, просмотрите сравнение версий, чтобы убедиться, что это именно те изменения, которые вас интересуют, и нажмите «Записать страницу», чтобы изменения вступили в силу.
Текущая версия Ваш текст
Строка 7: Строка 7:
 
# Классификация методов обработки языка.
 
# Классификация методов обработки языка.
  
Лекция 2: Вспомогательные задачи и формальные грамматики
+
Лекция 2: традиционные методы обработки естественного языка и вспомогательные задачи
# Токенизация и сегментация.
+
1. Токенизация и сегментация.
# Формальные грамматики и Tomita-parser.
+
2. Формальные грамматики и Tomita-parser.
# Лемматизация и стемминг.
+
3. Скрытые марковские модели.
 +
4. Лемматизация и стемминг.
  
Лекция 3: Вероятностные алгоритмы
+
Лекция 3: введение в ИНС и полносвязные сети
# Скрытые марковские модели и алгоритм Витерби.
+
1. Общая идея многослойных ИНС и функции активации.
# EM-алгоритм.
+
2. Полносвязные сети и перцептрон.
# Тематическое моделирование.
+
3. Векторное представление слов.
 +
4. Word2vec.
  
Лекция 4: введение в ИНС и полносвязные сети
+
Лекция 4: инструменты интеллектуальной обработки
# Общая идея многослойных ИНС и функции активации.
+
1. TensorFlow и Keras.
# Полносвязные сети и перцептрон.
+
2. PyTorch.
# Векторное представление слов.
 
# Word2vec.
 
  
Лекция 5: инструменты интеллектуальной обработки
+
Лекция5: построение методов трансляции
# TensorFlow и Keras.
+
1. Рекуррентные ИНС.
# PyTorch.
+
2. Seq2seq.
  
Лекция6: построение методов трансляции
+
Лекция 6: проблема обработки длинных последовательностей
# Рекуррентные ИНС и и Seq2seq.
+
1. Длинная краткосрочная память (LSTM).
# Долгая краткосрочная память (LSTM) и управляемый рекуррентный блок (GRU).
+
2. Управляемый рекуррентный блок (GRU).
# Seq2seq + Attention.
+
3. Seq2seq + Attention.
  
 
Лекция 7: self-attention  и трансформер
 
Лекция 7: self-attention  и трансформер
# Self-attention.
+
1. Self-attention.
# Multi-head attention.
+
2. Multi-head attention.
# Transformer.
+
3. Transformer.
  
 
Лекция 8: лингвистические модели глубокого обучения
 
Лекция 8: лингвистические модели глубокого обучения
# Введение в masked language modelling.
+
1. Введение в masked language modelling.
# BERT.
+
2. BERT.
# GPT-3.
+
3. GPT-3.

Обратите внимание, что все добавления и изменения текста статьи рассматриваются как выпущенные на условиях лицензии Creative Commons — Attribution 3.0 (см. LUWRAIN Wiki:Авторские права). Если вы не хотите, чтобы ваши тексты свободно распространялись и редактировались любым желающим, не помещайте их сюда.
Вы также подтверждаете, что являетесь автором вносимых дополнений или скопировали их из источника, допускающего свободное распространение и изменение своего содержимого.
НЕ РАЗМЕЩАЙТЕ БЕЗ РАЗРЕШЕНИЯ МАТЕРИАЛЫ, ОХРАНЯЕМЫЕ АВТОРСКИМ ПРАВОМ!