План лекций по обработке естественного языка — различия между версиями
MSP (обсуждение | вклад) (Новая страница: « = План лекций по обработке естественного языка = Лекция 1: введение # Классификация задач…») |
MSP (обсуждение | вклад) (→План лекций по обработке естественного языка) |
||
Строка 8: | Строка 8: | ||
Лекция 2: традиционные методы обработки естественного языка и вспомогательные задачи | Лекция 2: традиционные методы обработки естественного языка и вспомогательные задачи | ||
− | + | # Токенизация и сегментация. | |
− | + | # Формальные грамматики и Tomita-parser. | |
− | + | # Скрытые марковские модели. | |
− | + | # Лемматизация и стемминг. | |
Лекция 3: введение в ИНС и полносвязные сети | Лекция 3: введение в ИНС и полносвязные сети | ||
− | + | # Общая идея многослойных ИНС и функции активации. | |
− | + | # Полносвязные сети и перцептрон. | |
− | + | # Векторное представление слов. | |
− | + | # Word2vec. | |
Лекция 4: инструменты интеллектуальной обработки | Лекция 4: инструменты интеллектуальной обработки | ||
− | + | # TensorFlow и Keras. | |
− | + | # PyTorch. | |
Лекция5: построение методов трансляции | Лекция5: построение методов трансляции | ||
− | + | # Рекуррентные ИНС. | |
− | + | # Seq2seq. | |
Лекция 6: проблема обработки длинных последовательностей | Лекция 6: проблема обработки длинных последовательностей | ||
− | + | # Длинная краткосрочная память (LSTM). | |
− | + | # Управляемый рекуррентный блок (GRU). | |
− | + | # Seq2seq + Attention. | |
Лекция 7: self-attention и трансформер | Лекция 7: self-attention и трансформер | ||
− | + | # Self-attention. | |
− | + | # Multi-head attention. | |
− | + | # Transformer. | |
Лекция 8: лингвистические модели глубокого обучения | Лекция 8: лингвистические модели глубокого обучения | ||
− | + | # Введение в masked language modelling. | |
− | + | # BERT. | |
− | + | # GPT-3. |
Версия 05:21, 15 ноября 2021
План лекций по обработке естественного языка
Лекция 1: введение
- Классификация задач обработки естественного языка.
- Численные оценки качества обработки.
- Классификация методов обработки языка.
Лекция 2: традиционные методы обработки естественного языка и вспомогательные задачи
- Токенизация и сегментация.
- Формальные грамматики и Tomita-parser.
- Скрытые марковские модели.
- Лемматизация и стемминг.
Лекция 3: введение в ИНС и полносвязные сети
- Общая идея многослойных ИНС и функции активации.
- Полносвязные сети и перцептрон.
- Векторное представление слов.
- Word2vec.
Лекция 4: инструменты интеллектуальной обработки
- TensorFlow и Keras.
- PyTorch.
Лекция5: построение методов трансляции
- Рекуррентные ИНС.
- Seq2seq.
Лекция 6: проблема обработки длинных последовательностей
- Длинная краткосрочная память (LSTM).
- Управляемый рекуррентный блок (GRU).
- Seq2seq + Attention.
Лекция 7: self-attention и трансформер
- Self-attention.
- Multi-head attention.
- Transformer.
Лекция 8: лингвистические модели глубокого обучения
- Введение в masked language modelling.
- BERT.
- GPT-3.