Что подать на вход нейросети? Ваши идеи... - страница 58

 
Чем не устраивает обычное определение обучения - присвоение параметрам модели конкретных значений?
[Удален]  
Aleksey Nikolayev #:
Чем не устраивает обычное определение обучения - присвоение параметрам модели конкретных значений?
Это можно спросить у самой модели :)

Обычное определение обучения как присвоения параметрам модели конкретных значений может быть недостаточным по нескольким причинам:

  1. Неполнота описания процесса: Обучение модели включает в себя не только присвоение параметрам значений, но и процесс оптимизации этих параметров на основе данных. Этот процесс может включать выбор алгоритма оптимизации, настройку гиперпараметров, выбор функции потерь и другие аспекты, которые не охватываются простым присвоением значений.

  2. Игнорирование динамики обучения: Обучение модели — это динамический процесс, который может включать множество итераций и шагов. Простое присвоение значений не отражает этот итеративный характер, где параметры постепенно корректируются для минимизации ошибки.

  3. Отсутствие контекста данных: Обучение модели происходит на основе данных, и процесс обучения включает в себя анализ и интерпретацию этих данных. Простое присвоение значений не учитывает, как данные используются для обучения модели и как они влияют на конечные параметры.

  4. Неучет обобщения: Цель обучения модели — не только минимизация ошибки на тренировочных данных, но и способность модели обобщать свои знания на новые, невиданные данные. Простое присвоение значений не отражает этот аспект обобщения.

  5. Игнорирование валидации и тестирования: Процесс обучения также включает в себя валидацию и тестирование модели, чтобы оценить её производительность и избежать переобучения. Простое присвоение значений не учитывает эти важные этапы.

Таким образом, более полное определение обучения модели должно включать в себя процесс оптимизации параметров на основе данных, с учетом динамики обучения, контекста данных, способности к обобщению и этапов валидации и тестирования.

[Удален]  
Вообще удивительно, зачем ценные специалисты начинают обсуждение сложной и интересной МО темы, в ней не ориентируясь :)
 
Forester #:

Про обучение...

Пару лет назад встретил такое выражение на обычном (не техническом сайте): базы данных на основе нейросетей.
В общем я с этим термином согласился для себя. Сам деревьями занмаюсь - база данных на основе деревьев тоже применима.
1 лист в дереве  = 1 строке в базе данных.

Отличия:

1 строка в БД содержит только 1 пример из сохраненных в БД данных.

1 лист содержит:

1) 1 пример и все точно такие же примеры (при делении дерева по максимуму до последнего отличия)

или

2) 1 пример и точно такие же примеры + наиболее похожие примеры, если деление останавливается раньше. Это называется обобщением примеров.
Похожие примеры определяются разными алгоритмами по разному при выборе сплитов дерева.

Преимущества деревьев перед БД: обобщение и быстрый поиск нужного листа - не надо перебирать миллион строк, до листа можно добраться, через несколько сплитов.

Кластеризация тоже обобщает. Kmeans - по близости примеров к центру кластера, др. методы по другому. Тоже можно поделить на макс число кластеров = числу примеров и получится аналог БД/листьев без обобщения.

Нейросети более сложно понять и осознать, но по сути тоже база данных, хоть и не такая очевидная, как листья и кластеры.

В итоге: обучение дерева = это запоминание/запись примеров, как в базе данных. Если остановили деление/обучение раньше максимально точного запоминания, то запомнили с обобщением.

Андрей конечно хочет подвести к тому, что обучение это оптимизация. Нет - это запоминание. Но оптимизация тоже присутствует. Можно оптимизацией перебрать варианты с глубиной обучения, методы сплитов и т.д. На каждом шаге оптимизации будет происходить обучение отдельной модели. Но обучение не есть оптимизация. Это запоминание.
Эхх если бы вы только знали сколько вы ерунды тут наговорили с умным видом..

Но у меня нету ни времени ни желания что то объяснять 
 
Forester #:

Про обучение...

Пару лет назад встретил такое выражение на обычном (не техническом сайте): базы данных на основе нейросетей.
В общем я с этим термином согласился для себя. Сам деревьями занмаюсь - база данных на основе деревьев тоже применима.
1 лист в дереве  = 1 строке в базе данных.

Отличия:

1 строка в БД содержит только 1 пример из сохраненных в БД данных.

1 лист содержит:

1) 1 пример и все точно такие же примеры (при делении дерева по максимуму до последнего отличия)

или

2) 1 пример и точно такие же примеры + наиболее похожие примеры, если деление останавливается раньше. Это называется обобщением примеров.
Похожие примеры определяются разными алгоритмами по разному при выборе сплитов дерева.

Преимущества деревьев перед БД: обобщение и быстрый поиск нужного листа - не надо перебирать миллион строк, до листа можно добраться, через несколько сплитов.

Кластеризация тоже обобщает. Kmeans - по близости примеров к центру кластера, др. методы по другому. Тоже можно поделить на макс число кластеров = числу примеров и получится аналог БД/листьев без обобщения.

Нейросети более сложно понять и осознать, но по сути тоже база данных, хоть и не такая очевидная, как листья и кластеры.

В итоге: обучение дерева = это запоминание/запись примеров, как в базе данных. Если остановили деление/обучение раньше максимально точного запоминания, то запомнили с обобщением.

Андрей конечно хочет подвести к тому, что обучение это оптимизация. Нет - это запоминание. Но оптимизация тоже присутствует. Можно оптимизацией перебрать варианты с глубиной обучения, методы сплитов и т.д. На каждом шаге оптимизации будет происходить обучение отдельной модели. Но обучение не есть оптимизация. Это запоминание.

а как определяется качество обучения?
 
Andrey Dik #:

а как определяется качество обучения?
Максимальное качество обучения будет при абсолютно точном запоминании, т.е. при полной записи всех данных в БД, или при обучении дерева до самого последнего возможного сплита или при кластризации с числом кластеров = числу примеров.

Деревья с остановкой сплитования раньше или кластеризация с меньшим числом кластеров - обобщат и объединят данные в листьях/кластерах. Это будут недообученые модели, но в условиях наличия  шума они могут оказаться более успешными, чем модели с точным запоминанием.

В начале ветки МО был пример с обучением леса таблице умножения. Т.к. ей не подали для обучения бесконечное число возможных вариантов, то лес выдает иногда точные ответы, но в основном - приблизительные. Очевидно, что он недообучен. Но умеет обобщать - находя и усредняя самые близкие  к правильному ответы отдельных деревьев.

С обучением в условиях шума - сложно оценить качество. Особенно если шум намного сильнее закономерностей, как в трейдинге.

Для этого придумали оценку на валидационной и тестовой выборке, крос-валидацию, валкинг форвард и т.д.
[Удален]  
Forester #:
Максимальное качество обучения будет при абсолютно точном запоминании, т.е. при полной записи всех данных в БД, или при обучении дерева до самого последнего возможного сплита или при кластризации с числом кластеров = числу примеров.

Деревья с остановкой сплитования раньше или кластеризация с меньшим числом кластеров - обобщат и объединят данные в листьях/кластерах. Это будут недообученые модели, но в условиях наличия  шума они могут оказаться более успешными, чем модели с точным запоминанием.

В начале ветки МО был пример с обучением леса таблице умножения. Т.к. ей не подали для обучения бесконечное число возможных вариантов, то лес выдает иногда точные ответы, но в основном - приблизительные. Очевидно, что он недообучен. Но умеет обобщать - находя и усредняя самые близкие  к правильному ответы отдельных деревьев.

С обучением в условиях шума - сложно оценить. Особенно если шум намного сильнее закономерностей, как в трейдинге.

Максимальное качество обучения это максимальное качество прогнозов на новых данных. Никого не интересуют прогнозы на обучающей выборке, потому что они и так известны. Это уже не обучение, а аппроксимация. Вы же не называете аппроксимацию обучением.

Например, двухслойный MLP является универсальным аппроксиматором, который способен приблизить любую произвольную функцию с любой точностью. Значит ли это, что он максимально качественно обучается - конечно же нет. Иначе бы не изобретали другие нейросетевые архитектуры, которые лучше именно обучаются, а не подгоняют, для конкретных задач.

Слабо, хотя вроде бы давно в теме.
 
Aleksey Nikolayev #:
Чем не устраивает обычное определение обучения - присвоение параметрам модели конкретных значений?

Не отражает суть. Присваивать можно любую белиберду и отсебятину. 

Если отталкиваться от противного (запоминания/зубрёжки), то обучение - это выявление неких шаблонов, благодаря которым можно создавать или выявлять новые знания. 

Как пример: Чат пишет стихи на произвольную тему. 

 
Maxim Dmitrievsky #:
Максимальное качество обучения это максимальное качество прогнозов на новых данных. Никого не интересуют прогнозы на обучающей выборке, потому что они и так известны. Это уже не обучение, а аппроксимация. Вы же не называете аппроксимацию обучением.

Например, двухслойный MLP является универсальным аппроксиматором, который способен приблизить любую произвольную функцию с любой точностью. Значит ли это, что он максимально качественно обучается - конечно же нет. Иначе бы не изобретали другие нейросетевые архитектуры, которые лучше именно обучаются, а не подгоняют, для конкретных задач.
Так ты уже определись..

Апроксмация не обучение но нейронка это апроксиматор..

Те нейронка не обучаеться?


Один думает что БД ето классификатор другой путаеться с апроксимацией...

Вы чего експерты?😀
[Удален]  
mytarmailS #:
Так ты уже определись..

Апроксмация не обучение но нейронка это апроксиматор..

Те нейронка не обучаеться?


Один думает что БД ето классификатор другой путаеться с апроксимацией...

Вы чего експерты?😀
Обучение - это более широкое понятие, нежели оптимизация и аппроксимация. Почему так сложно идёт? Потому что скуфы собрались?