Что такое обучение?

 
С удивлением обнаружил, какое широкое это понятие в техническом смысле. 
Учитывая, что я не разбираюсь в МО, в названии которого этот термин, предполагаю, что оно ещё шире (в разы). 

На размышления о том, что такое обучение в техническом смысле, поначалу меня подтолкнуло ковыряние в MLP-нейросетях, простых многослойных нейросетях: как с общеизвестным обучением с обратным распространеием ошибки, так и с перебором весов в оптимизаторе терминала. 
Проблема сводилась к простому: почему эта «паутина» нейронов не работает от слова совсем. Промежуточные мысли выкладывал в своей ветке «Что подать на вход нейросети» и частично в теме «Торговля на статистике».
Суть размышлений в следующем: откуда спецы так уверенно оперируют терминами «обучает», «нашла зависимости», «запоминает информацию(!)», «стирает часть информации», «долговременная память, короткая память» и тд. Последние относятся к архитектурам LSTM. 

Откуда вдруг непонятные числа, которые «повторяют кривульки» графика вдруг стали «информацией», если нет никаких признаков информации: семантика, смысл, логика, причино-следственная связь, алгоритм, язык в конце концов. График цены - это всего лишь положение котировки относительно других. Цены можно смокойно заменить на проценты, умножить все цены на какое-то число - результат один - положение котировки относительно других в любой шкале. Всё. 
Чего там запоминает LSTM, чего она там «стирает». Здесь не коты и собаки, не картинки со смыслом, не причино-следственная связь и стационарность картинок, когда кот есть кот и всегда будет котом. Здесь — неведомая нестационарная лабуда, гоняющая от уровня к уровню, разница между которыми - положение соседних котировок «выше/ниже» экстремальной. 

Другая странная вещь — шум. Его так часто, а главное — так уверенно упоминают и оперируют им, что шум — это нечто собой разумеющееся. А учитывая, что ни здесь, да нигде особо не принято начинать с определения слов, разбора признаков и тому подобное (это занудно и скучно), легче просто заявить: «На М1 шума много, там не заработать. А вот на H4 и выше — шума нет».
Абсолютно беспочвенные, рандомные по сути заявления, которые подаются даже не как гипотеза (о существовании шума в графиках цен), и даже не как необоснованная акиома или постула, подаётся — как самый фактический факт, не требующий проверки. 
У термина «шум» есть конкретное определение. Если же опустить последнее и просто рассматривать общее понимание и ценовой контекст шума, то само это понятие, которое является исключительно частью виртуального(!) пространства (котировок в реальности не существуют) подразумевают как аналогичный(!) шуму из физического-реального мира. Нечто, что «мешает» чистому сигналу. Помехи, как у антены, как у радио. Контекст «помех». 
И «помехи», как и «информация» графика цены, с которыми якобы работают трейдеры и специалисты МО, даже не проверялись на существование в принципе. Существование в виртуальном пространстве. Вот «они есть и всё, работаем». А куда работаем - непонятно. Бесконечно и непонятно.


В результате появилась мысль, что прежде, чем оперировать понятием «обучение», нужно как минимум определиться с предметом обучения, ключевым и единственным его наполнения — информацией. 
Что есть она, применительно к графику цен. Отсюда просто первая мысль: график цены — это, наверное, зашифрованный язык. А если это текст, который читается слева-направо, значит его можно «прочитать», расшифровать, понять смысл, который, наверное будет иметь примерно следующий вид: «Вот тут крупный игрок вошёл, набирает позицию, ждите пока, скоро полетим вверх». И задача вроде как сводится к поиску и подбору соответсвующей архитектуры. 

Это всё глобальные, фундаментальные вопросы. И, строя какие-то теории и гипотезы, нужно просто хотя бы отталкиваться от этого. Некая база, минимум.




В один момент в теме МО написали, что обычная нейросеть не может «выучить» работу калькулятора. Для меня это стало открытием! Я поспешил проверить: обучил MLP таблице умножения посредством подачи на вход умножаемых чисел и целей - ответов.  Все примеры из таблицы умножения скормил нейросети. 
В результате она правильно отвечала на все примеры: 5 * 5 = 24.9 а какой-нибудь 6 * 6 = 36.0284. Это нормальный ответ нейросети, всё верно. Но когда подал на вход 11 * 11, MLP мне выдала... 90. Умножение 3232 на 49474 тоже выдало 90. Ни больше, ни меньше. 

Я тогда крайне удивился, как так: эта MLP из 1000 нейронов способна запомнить каждый свечной паттерн и выучить весь путь цены, создавая в тестере стратегий грааль! А тут не может «тупо посчитать ровно также, как в прошлый раз».
Тогда до меня дошло (немного), насколько сложное явление закономерностей. 

Обобщение, правила, закономерности, экстраполяция — вот суть обучения. И MLP, имея 1 000 000 нейронов, но также неспособная умножить 11 на 11, напоминает колонию насекомых. Сколько им не кидай польскую отраву, купленную с маркетплейса, они никогда не сообразят, что её лучше больше не употреблять, ведь «много наших полегло» .

Отсюда вытекает следующее явление — интеллектуальность. Если «тупая» MLP способна только энциклопедически запоминать примеры, то «умная» нейросеть должна сделать «что-то большее». Не а количественном, а в качественном плане.

Это наталкивает на мысль, что у интеллектуальности существуют «классы». Низший класс — зубрёжка примеров таблицы умножения. Выше класс — способность умножать 11 на 11, изучив только примеры таблицы умножения.  

Другой пример: 4, 8, 16, 32. Миллионы полносвязных нейронов не знают, какое следующее число. Они знают только то, что идёт после чисел 4, 8, и 16. И что ещё забавнее: они не знают, что идёт после числа 2. 

Уровни интеллектуалности (классов) в действии. Этакий тест IQ, по сути. 



Так вот, во-первых, любопытны эти уровни интеллектуальности, и как перейти с одного на другой, имея под рукой числа и арифметику.

А применительно к форексу: если люди не разобрались, что означает виртуальный график цены, как они могут с него «что-то» поиметь. Против некоторых контраргументов не спорю: успешные трейдеры и часть успехов в МО. Вопрос более широкий скорее. 






Вопрос ветки остаётся тем же: интересуют ваши версии и как вы себе представляете архитектуру, которая «понимает» больше, чем зубрёжка. 

Метод ведения ветки: лирика, умеренный флуд, курилка, разбор темы (больше всего приветствуется), примеры (желательно простые). 
Тестирование стратегий - Алгоритмический трейдинг, торговые роботы - Справка по MetaTrader 5
Тестирование стратегий - Алгоритмический трейдинг, торговые роботы - Справка по MetaTrader 5
  • www.metatrader5.com
Тестер стратегий позволяет тестировать и оптимизировать торговые стратегии ( советники ) перед началом использования их в реальной торговле. При...
 

Обучение - это передача знаний. Чему научили, то и делает.

дОбыча знаний - это датамайнинг. А потом обучение дОбытым знаниям.

Отсюда выводится, что если архитектура сначала что-то датамайнит, а потом обучается на намайненном, то она делает больше, чем зубрежку.


ЗЫ не понимаю зачем создавать 500 тем, если уже есть по МО.

 

В результате она правильно отвечала на все примеры: 5 * 5 = 24.9 а какой-нибудь 6 * 6 = 36.0284. Это нормальный ответ нейросети, всё верно. Но когда подал на вход 11 * 11, MLP мне выдала... 90. Умножение 3232 на 49474 тоже выдало 90. Ни больше, ни меньше. 

ну это так бывает,тупая машинка,. гралей никто не обещал. тем более в прогнозировании врем рядов. что подал, то и на выходе. Все тлен

 
Maxim Dmitrievsky #:

ЗЫ не понимаю зачем создавать 500 тем, если уже есть по МО.

Чтобы не засорять МО простыми вопросами. Или вам там нравится, когда кто-то забегает и постит лозунги "ну и где ваши сигналы с советниками", "не работает это всё". 
Вот пусть здесь выливается всё. 

Слишком большой пробел между новичками и маститыми
Порог вхождения - настоящая яма

Но, мне пофиг, захотел - создал. 


Maxim Dmitrievsky #:

дОбыча знаний - это датамайнинг.


Поиск выключателя в тёмной комнате - это добыча конкретных знаний: о том, что лучше сразу свернуть налево, чтобы не запнуться. Здесь известны предметы информации: среда, объекты, частичные связи.  

Как процесс «ковыряния» чисел — которые лишь выражают положения котировки на графике относительно других котировок, может называться датамайнингом, если неизвестно, что там «дата». 

 
Забористая утренняя смесь? ) когда утро начинается не с кофе.
 
Evgeny Belyaev #:

ну это так бывает,тупая машинка,. гралей никто не обещал. тем более в прогнозировании врем рядов. что подал, то и на выходе. Все тлен

Вот это первый уровень некой «интеллектуальности» машины: подаёшь число - она в ответ другое. Разметка, запоминание. 

И любопытно, как из запоминания перейти к правилу, не прибегая к «костылям» по типу добавить вручную модуль калькулятора, чтобы НС могла выходить за пределы таблицы умножения. 

То есть, интересно, чтобы нейросеть, грубо говоря, смотреля на задание теста IQ по поводу лишней фигуры - разобралась в правиле их построения и «поняла», какая фигура лишняя, имея лишь координаты и размеры. А не 100000 примеров подобных заданий. 
 
Maxim Dmitrievsky #:
Забористая утренняя смесь? ) когда утро начинается не с кофе.

Я говядину по-кремлёвски готовлю :) 

Надышался лучка 

Не спрашивай, зачем (готовлю в 5 утра). 

 
Ivan Butko #:


И любопытно, как из запоминания перейти к правилу, не прибегая к «костылям» по типу добавить вручную модуль калькулятора, чтобы НС могла выходить за пределы таблицы умножения. 

калькулятор на то и калькулятор, он работает с заданным набором правил. при выходе за диапазон калькулятора туфта. либо расширяй диапазон наблюдений... тогда считает правильно... либо фильтруй.. либо при выходе за диапазон выключай калькулятор.

 
Ivan Butko:
...
Чего там запоминает LSTM, чего она там «стирает». Здесь не коты и собаки, не картинки со смыслом, не причино-следственная связь и стационарность картинок, когда кот есть кот и всегда будет котом. Здесь — неведомая нестационарная лабуда, гоняющая от уровня к уровню, разница между которыми - положение соседних котировок «выше/ниже» экстремальной. 
...
Другая странная вещь — шум.
А если это текст, который читается слева-направо, значит его можно «прочитать», расшифровать, понять смысл, который, наверное будет иметь примерно следующий вид: «Вот тут крупный игрок вошёл, набирает позицию, ждите пока, скоро полетим вверх». И задача вроде как сводится к поиску и подбору соответсвующей архитектуры. 
...   
Нейронная сеть - это статистика. В том смысле, что она решает задачи статистики статистическими методами, и ни чего более. Никаких смыслов там нет и не будет.

Что касается шума, то понятие "крупный игрок" ещё более надуманное, чем шум. Кто-то свечку держал, чтобы утверждать что-то про "крупного игрока"?
Человек видит свечу в активе, который торгует и думает, что какой-то мифический "крупный игрок" охотится за его стопом. Ему невдомек, что это было просто-напросто открытие торговой сессии в каком-нибудь Шанхае и толпа арбитражных роботов мгновенно разнесла отголоски данного события по всем рынкам.

Не надо очеловечивать нейронные сети и не надо очеловечивать рынок. Это бездушная машина, и понятие "шум" как нельзя более подходит к рынку. На рынке всё шум - и M1, H4. Сам рынок - шум, и ничего более.

Самая совершенная нейронная сеть, способная мгновенно уловить все возможные смыслы находится в вашей голове. Взгляните на график, что вы в нём видите? Никакая искусственная нейронная сеть не справится с задачей лучше.

Имхо, нейронная сеть не может победить хаос. И статистика перед хаосом бессильна. Рынок - это фрактальная система, тут нужны какие-то совсем другие подходы.
 
Ivan Butko #:

То есть, интересно, чтобы нейросеть, грубо говоря, смотреля на задание теста IQ по поводу лишней фигуры - разобралась в правиле их построения и «поняла», какая фигура лишняя, имея лишь координаты и размеры. А не 100000 примеров подобных заданий. 

А какой разум может так, без обучения?

Даже некоторые племена людей умеют считать до двух и чуть более им хватает.

Так же известно, что если ребёнок до 4 лет не слышал человеческую речь или не занимались с ним целенаправленно, то он не сможет выучить какой либо язык.

Без обучения не выйдет.

Другое дело способность к абстрагированию, когда конкретная задача раскладывается на уже известные знания и оперирование происходит этими знаниями.

 
Вот, можно почитать интервью с человеком, занимающимся абстракцией и аналогией в ИИ. 
«Если вы вынуждены обучать нейросеть на тысячах примеров, то это уже провал». Способны ли нейросети к абстрактному мышлению
«Если вы вынуждены обучать нейросеть на тысячах примеров, то это уже провал». Способны ли нейросети к абстрактному мышлению
  • 2021.10.16
  • Джон Павлус
  • knife.media
Книга «Гедель, Эшер, Бах: эта бесконечная гирлянда», удостоенная в 1979 году Пулитцеровской премии, вдохновила многих информатиков. В их числе была и Мелани Митчелл, которая на тот момент работала учителем математики в одной из нью-йоркских школ. После прочтения внушительной 777-страничной книги она решила посвятить себя изучению искусственного...