Обсуждение статьи "Нейросети — это просто (Часть 20): Автоэнкодеры"

 

Опубликована статья Нейросети — это просто (Часть 20): Автоэнкодеры:

Мы продолжаем изучение алгоритмов обучения без учителя. Возможно, у читателя может возникнуть вопрос об соответствии последних публикаций теме нейронных сетей. В новой статье мы возвращаемся к использованию нейронных сетей.

В общем случае Автоэнкодер представляет собой нейронную сеть, состоящую из 2-х блоков энкодера и декодера. Слой исходных данных энкодера и слой результатов декодера содержат одинаковое количество элементов. Между энкодером и декодером имеется скрытый слой, размер которого, обычно, меньше размера исходных данных. В процессе обучения нейронами данного слоя формируется латентное (скрытое) состояние, способное в сжатой форме описать исходные данные.

Автоэнкодер

Напоминает задачу сжатия данных, которую мы решали с использованием метода главных компонент. Но о различие подходов мы поговорим чуть позже.

Как уже было сказано выше, автоэнкодер — это нейронная сеть и обучается уже известным нам методом обратного распространения ошибки. Фокус состоит в том, что так как мы используем не размеченные данные, то мы обучаем модель сначала сжать данные энкодером до размера латентного состояния. А затем в декодере восстанавливать данные до исходного состояния с минимальной потерей информации.

Автор: Dmitriy Gizlyk

 
Это просто, только разделов уже 20 частей).
 
Vasiliy Smirnov #:
Это просто, только разделов уже 20 частей).

Я стараюсь показать различные подходы и продемонстрировать различные варианты использования.
А названием "это просто" хотел подчеркнуть доступность технологии каждому желающемую

 
Hi Dmitry, are you available to help me setup and run this EA?