План лекций по обработке естественного языка — различия между версиями
MSP (обсуждение | вклад) (Новая страница: « = План лекций по обработке естественного языка = Лекция 1: введение # Классификация задач…») |
MSP (обсуждение | вклад) (→План лекций по обработке естественного языка) |
||
(не показаны 2 промежуточные версии этого же участника) | |||
Строка 7: | Строка 7: | ||
# Классификация методов обработки языка. | # Классификация методов обработки языка. | ||
− | Лекция 2: | + | Лекция 2: Вспомогательные задачи и формальные грамматики |
− | + | # Токенизация и сегментация. | |
− | + | # Формальные грамматики и Tomita-parser. | |
− | + | # Лемматизация и стемминг. | |
− | |||
− | Лекция 3: | + | Лекция 3: Вероятностные алгоритмы |
− | + | # Скрытые марковские модели и алгоритм Витерби. | |
− | + | # EM-алгоритм. | |
− | + | # Тематическое моделирование. | |
− | |||
− | Лекция 4: | + | Лекция 4: введение в ИНС и полносвязные сети |
− | + | # Общая идея многослойных ИНС и функции активации. | |
− | + | # Полносвязные сети и перцептрон. | |
+ | # Векторное представление слов. | ||
+ | # Word2vec. | ||
− | + | Лекция 5: инструменты интеллектуальной обработки | |
− | + | # TensorFlow и Keras. | |
− | + | # PyTorch. | |
− | + | Лекция6: построение методов трансляции | |
− | + | # Рекуррентные ИНС и и Seq2seq. | |
− | + | # Долгая краткосрочная память (LSTM) и управляемый рекуррентный блок (GRU). | |
− | + | # Seq2seq + Attention. | |
Лекция 7: self-attention и трансформер | Лекция 7: self-attention и трансформер | ||
− | + | # Self-attention. | |
− | + | # Multi-head attention. | |
− | + | # Transformer. | |
Лекция 8: лингвистические модели глубокого обучения | Лекция 8: лингвистические модели глубокого обучения | ||
− | + | # Введение в masked language modelling. | |
− | + | # BERT. | |
− | + | # GPT-3. |
Текущая версия на 05:37, 15 ноября 2021
План лекций по обработке естественного языка[править]
Лекция 1: введение
- Классификация задач обработки естественного языка.
- Численные оценки качества обработки.
- Классификация методов обработки языка.
Лекция 2: Вспомогательные задачи и формальные грамматики
- Токенизация и сегментация.
- Формальные грамматики и Tomita-parser.
- Лемматизация и стемминг.
Лекция 3: Вероятностные алгоритмы
- Скрытые марковские модели и алгоритм Витерби.
- EM-алгоритм.
- Тематическое моделирование.
Лекция 4: введение в ИНС и полносвязные сети
- Общая идея многослойных ИНС и функции активации.
- Полносвязные сети и перцептрон.
- Векторное представление слов.
- Word2vec.
Лекция 5: инструменты интеллектуальной обработки
- TensorFlow и Keras.
- PyTorch.
Лекция6: построение методов трансляции
- Рекуррентные ИНС и и Seq2seq.
- Долгая краткосрочная память (LSTM) и управляемый рекуррентный блок (GRU).
- Seq2seq + Attention.
Лекция 7: self-attention и трансформер
- Self-attention.
- Multi-head attention.
- Transformer.
Лекция 8: лингвистические модели глубокого обучения
- Введение в masked language modelling.
- BERT.
- GPT-3.