План лекций по обработке естественного языка — различия между версиями

Материал из LUWRAIN Wiki
Перейти к: навигация, поиск
(Новая страница: « = План лекций по обработке естественного языка = Лекция 1: введение # Классификация задач…»)
 
(План лекций по обработке естественного языка)
Строка 8: Строка 8:
  
 
Лекция 2: традиционные методы обработки естественного языка и вспомогательные задачи
 
Лекция 2: традиционные методы обработки естественного языка и вспомогательные задачи
1. Токенизация и сегментация.
+
# Токенизация и сегментация.
2. Формальные грамматики и Tomita-parser.
+
# Формальные грамматики и Tomita-parser.
3. Скрытые марковские модели.
+
# Скрытые марковские модели.
4. Лемматизация и стемминг.
+
# Лемматизация и стемминг.
  
 
Лекция 3: введение в ИНС и полносвязные сети
 
Лекция 3: введение в ИНС и полносвязные сети
1. Общая идея многослойных ИНС и функции активации.
+
# Общая идея многослойных ИНС и функции активации.
2. Полносвязные сети и перцептрон.
+
# Полносвязные сети и перцептрон.
3. Векторное представление слов.
+
# Векторное представление слов.
4. Word2vec.
+
# Word2vec.
  
 
Лекция 4: инструменты интеллектуальной обработки
 
Лекция 4: инструменты интеллектуальной обработки
1. TensorFlow и Keras.
+
# TensorFlow и Keras.
2. PyTorch.
+
# PyTorch.
  
 
Лекция5: построение методов трансляции
 
Лекция5: построение методов трансляции
1. Рекуррентные ИНС.
+
# Рекуррентные ИНС.
2. Seq2seq.
+
# Seq2seq.
  
 
Лекция 6: проблема обработки длинных последовательностей  
 
Лекция 6: проблема обработки длинных последовательностей  
1. Длинная краткосрочная память (LSTM).
+
# Длинная краткосрочная память (LSTM).
2. Управляемый рекуррентный блок (GRU).
+
# Управляемый рекуррентный блок (GRU).
3. Seq2seq + Attention.
+
# Seq2seq + Attention.
  
 
Лекция 7: self-attention  и трансформер
 
Лекция 7: self-attention  и трансформер
1. Self-attention.
+
# Self-attention.
2. Multi-head attention.
+
# Multi-head attention.
3. Transformer.
+
# Transformer.
  
 
Лекция 8: лингвистические модели глубокого обучения
 
Лекция 8: лингвистические модели глубокого обучения
1. Введение в masked language modelling.
+
# Введение в masked language modelling.
2. BERT.
+
# BERT.
3. GPT-3.
+
# GPT-3.

Версия 05:21, 15 ноября 2021

План лекций по обработке естественного языка

Лекция 1: введение

  1. Классификация задач обработки естественного языка.
  2. Численные оценки качества обработки.
  3. Классификация методов обработки языка.

Лекция 2: традиционные методы обработки естественного языка и вспомогательные задачи

  1. Токенизация и сегментация.
  2. Формальные грамматики и Tomita-parser.
  3. Скрытые марковские модели.
  4. Лемматизация и стемминг.

Лекция 3: введение в ИНС и полносвязные сети

  1. Общая идея многослойных ИНС и функции активации.
  2. Полносвязные сети и перцептрон.
  3. Векторное представление слов.
  4. Word2vec.

Лекция 4: инструменты интеллектуальной обработки

  1. TensorFlow и Keras.
  2. PyTorch.

Лекция5: построение методов трансляции

  1. Рекуррентные ИНС.
  2. Seq2seq.

Лекция 6: проблема обработки длинных последовательностей

  1. Длинная краткосрочная память (LSTM).
  2. Управляемый рекуррентный блок (GRU).
  3. Seq2seq + Attention.

Лекция 7: self-attention и трансформер

  1. Self-attention.
  2. Multi-head attention.
  3. Transformer.

Лекция 8: лингвистические модели глубокого обучения

  1. Введение в masked language modelling.
  2. BERT.
  3. GPT-3.