Машинное обучение (англ Machine Learning) — обширный подраздел искусственного интеллекта, математическая дисциплина, использующая разделы математической статистики, численных методов оптимизации, теории вероятностей, дискретного анализа, и извл

Рейтинг: 13
Создана: 5 лет назад
Владелец: root

Machine Learning/Data Mining/Big Data

Основная информация

Машинное обучение (англ Machine Learning) — обширный подраздел искусственного интеллекта, математическая дисциплина, использующая разделы математической статистики, численных методов оптимизации, теории вероятностей, дискретного анализа, и извлекающая знания из данных.

Data Mining (рус. добыча данных, интеллектуальный анализ данных, глубинный анализ данных) — собирательное название, используемое для обозначения совокупности методов обнаружения в данных ранее неизвестных, нетривиальных, практически полезных и доступных интерпретации знаний, необходимых для принятия решений в различных сферах человеческой деятельности.

Стена группы

Загрузка...
3 месяца назад
#

NLP Trends 2020


На онлайн-конференции «Нас слышат, видят, реагируют: куда движутся технологии?» 23 апреля прошла дискуссия о развитии технологий обработки естественного языка. Михаил Бурцев, заведующий лабораторией нейронных систем и глубокого обучения МФТИ, выступил с лекцией: NLP Trends 2020.

3 месяца назад
#

Курс FastAi: Урок 2: Разбираемся что такое потери


Ноутбук который мы рассматриваем в этом уроке: https://github.com/fastai/course-v3/b...

3 месяца назад
#

Лекция: Архитектуры NLP, Transformer, Bert. (10.04.2020)


Занятие ведёт Татьяна Гайнцева.
Ссылка на диск с материалами: https://drive.google.com/drive/u/0/fo...



Семинар: архитектуры NLP, Transformer, Bert (10.04.2020)


Занятие ведёт Артём Чумаченко.

3 месяца назад
#

Семинар: обучение CNN


3 месяца назад
#

Синтез речи в 2020


Синтез речи в 2020 году достиг уже достаточного качества, чтобы синтезированную речь можно было спутать с записью настоящего человека. На семинаре рассмотрим, как так получилось.

Будут рассказаны основы работы с аудио и речью для тех, кто никогда ранее не работал в этой области. Будут подробно рассмотрены самые популярные архитектуры для синтеза речи, такие как Tacotron, FastSpeech, будут рассмотрены их основные недостатки и способы их устранения. Будут также подробно рассмотрены различные вокодеры (и будет рассказано, что это такое): от WaveNet и LPCNet до WaveFLow.

Докладчик: Сергей Полежаев.

Слайды: https://drive.google.com/open?id=1dhq...



Tree Structures and (Self)attention


В области обработки естественного языка модели с архитектурой Transformer уже несколько лет пользуются популярностью, что не удивительно, так как различные её модификации показывают SOTA на ряде задач. Ванильный трансформер работает с последовательными данными, слова поступают на вход модели в порядке их написания в предложении, что совсем не учитывает синтаксические особенности языка. Однако в некоторых случаях, важно учитывать и синтаксис, например, при работе с языками программирования, где в язык заложен чёткий синтаксис. Для передачи такого рода информации, данные можно представлять в виде дерева, например, на основе синтаксического разбора, но тогда становится непонятно, как применять механизм внимания, один из главных компонентов ячейки Transformer.

На данном семинаре мы разберём 2 статьи, в которых авторы предлогают модификации механизма внимания, для работы с иерархическими структурами.

Статьи:

https://arxiv.org/abs/1909.06639

https://arxiv.org/abs/2002.08046

Докладчик: Егор Спирин.

Слайды: https://docs.google.com/presentation/...

Авторизация

Войдите, используя Ваш аккаунт

Войти с помощью

Пользователи