Обучение - это передача знаний. Чему научили, то и делает.
дОбыча знаний - это датамайнинг. А потом обучение дОбытым знаниям.
Отсюда выводится, что если архитектура сначала что-то датамайнит, а потом обучается на намайненном, то она делает больше, чем зубрежку.
ЗЫ не понимаю зачем создавать 500 тем, если уже есть по МО.
В результате она правильно отвечала на все примеры: 5 * 5 = 24.9 а какой-нибудь 6 * 6 = 36.0284. Это нормальный ответ нейросети, всё верно. Но когда подал на вход 11 * 11, MLP мне выдала... 90. Умножение 3232 на 49474 тоже выдало 90. Ни больше, ни меньше.
ну это так бывает,тупая машинка,. гралей никто не обещал. тем более в прогнозировании врем рядов. что подал, то и на выходе. Все тлен
ЗЫ не понимаю зачем создавать 500 тем, если уже есть по МО.
Чтобы не засорять МО простыми вопросами. Или вам там нравится, когда кто-то забегает и постит лозунги "ну и где ваши сигналы с советниками", "не работает это всё".
Вот пусть здесь выливается всё.
Слишком большой пробел между новичками и маститыми
Порог вхождения - настоящая яма
Но, мне пофиг, захотел - создал.
дОбыча знаний - это датамайнинг.
Поиск выключателя в тёмной комнате - это добыча конкретных знаний: о том, что лучше сразу свернуть налево, чтобы не запнуться. Здесь известны предметы информации: среда, объекты, частичные связи.
Как процесс «ковыряния» чисел — которые лишь выражают положения котировки на графике относительно других котировок, может называться датамайнингом, если неизвестно, что там «дата».
ну это так бывает,тупая машинка,. гралей никто не обещал. тем более в прогнозировании врем рядов. что подал, то и на выходе. Все тлен
И любопытно, как из запоминания перейти к правилу, не прибегая к «костылям» по типу добавить вручную модуль калькулятора, чтобы НС могла выходить за пределы таблицы умножения.
То есть, интересно, чтобы нейросеть, грубо говоря, смотреля на задание теста IQ по поводу лишней фигуры - разобралась в правиле их построения и «поняла», какая фигура лишняя, имея лишь координаты и размеры. А не 100000 примеров подобных заданий.
И любопытно, как из запоминания перейти к правилу, не прибегая к «костылям» по типу добавить вручную модуль калькулятора, чтобы НС могла выходить за пределы таблицы умножения.
калькулятор на то и калькулятор, он работает с заданным набором правил. при выходе за диапазон калькулятора туфта. либо расширяй диапазон наблюдений... тогда считает правильно... либо фильтруй.. либо при выходе за диапазон выключай калькулятор.
...
Чего там запоминает LSTM, чего она там «стирает». Здесь не коты и собаки, не картинки со смыслом, не причино-следственная связь и стационарность картинок, когда кот есть кот и всегда будет котом. Здесь — неведомая нестационарная лабуда, гоняющая от уровня к уровню, разница между которыми - положение соседних котировок «выше/ниже» экстремальной.
...
Другая странная вещь — шум.
А если это текст, который читается слева-направо, значит его можно «прочитать», расшифровать, понять смысл, который, наверное будет иметь примерно следующий вид: «Вот тут крупный игрок вошёл, набирает позицию, ждите пока, скоро полетим вверх». И задача вроде как сводится к поиску и подбору соответсвующей архитектуры.
...
Что касается шума, то понятие "крупный игрок" ещё более надуманное, чем шум. Кто-то свечку держал, чтобы утверждать что-то про "крупного игрока"?
Человек видит свечу в активе, который торгует и думает, что какой-то мифический "крупный игрок" охотится за его стопом. Ему невдомек, что это было просто-напросто открытие торговой сессии в каком-нибудь Шанхае и толпа арбитражных роботов мгновенно разнесла отголоски данного события по всем рынкам.
Не надо очеловечивать нейронные сети и не надо очеловечивать рынок. Это бездушная машина, и понятие "шум" как нельзя более подходит к рынку. На рынке всё шум - и M1, H4. Сам рынок - шум, и ничего более.
Самая совершенная нейронная сеть, способная мгновенно уловить все возможные смыслы находится в вашей голове. Взгляните на график, что вы в нём видите? Никакая искусственная нейронная сеть не справится с задачей лучше.
Имхо, нейронная сеть не может победить хаос. И статистика перед хаосом бессильна. Рынок - это фрактальная система, тут нужны какие-то совсем другие подходы.
То есть, интересно, чтобы нейросеть, грубо говоря, смотреля на задание теста IQ по поводу лишней фигуры - разобралась в правиле их построения и «поняла», какая фигура лишняя, имея лишь координаты и размеры. А не 100000 примеров подобных заданий.
А какой разум может так, без обучения?
Даже некоторые племена людей умеют считать до двух и чуть более им хватает.
Так же известно, что если ребёнок до 4 лет не слышал человеческую речь или не занимались с ним целенаправленно, то он не сможет выучить какой либо язык.
Без обучения не выйдет.
Другое дело способность к абстрагированию, когда конкретная задача раскладывается на уже известные знания и оперирование происходит этими знаниями.
- 2021.10.16
- Джон Павлус
- knife.media
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Вы принимаете политику сайта и условия использования
Учитывая, что я не разбираюсь в МО, в названии которого этот термин, предполагаю, что оно ещё шире (в разы).
На размышления о том, что такое обучение в техническом смысле, поначалу меня подтолкнуло ковыряние в MLP-нейросетях, простых многослойных нейросетях: как с общеизвестным обучением с обратным распространеием ошибки, так и с перебором весов в оптимизаторе терминала.
Проблема сводилась к простому: почему эта «паутина» нейронов не работает от слова совсем. Промежуточные мысли выкладывал в своей ветке «Что подать на вход нейросети» и частично в теме «Торговля на статистике».
Суть размышлений в следующем: откуда спецы так уверенно оперируют терминами «обучает», «нашла зависимости», «запоминает информацию(!)», «стирает часть информации», «долговременная память, короткая память» и тд. Последние относятся к архитектурам LSTM.
Откуда вдруг непонятные числа, которые «повторяют кривульки» графика вдруг стали «информацией», если нет никаких признаков информации: семантика, смысл, логика, причино-следственная связь, алгоритм, язык в конце концов. График цены - это всего лишь положение котировки относительно других. Цены можно смокойно заменить на проценты, умножить все цены на какое-то число - результат один - положение котировки относительно других в любой шкале. Всё.
Чего там запоминает LSTM, чего она там «стирает». Здесь не коты и собаки, не картинки со смыслом, не причино-следственная связь и стационарность картинок, когда кот есть кот и всегда будет котом. Здесь — неведомая нестационарная лабуда, гоняющая от уровня к уровню, разница между которыми - положение соседних котировок «выше/ниже» экстремальной.
Другая странная вещь — шум. Его так часто, а главное — так уверенно упоминают и оперируют им, что шум — это нечто собой разумеющееся. А учитывая, что ни здесь, да нигде особо не принято начинать с определения слов, разбора признаков и тому подобное (это занудно и скучно), легче просто заявить: «На М1 шума много, там не заработать. А вот на H4 и выше — шума нет».
Абсолютно беспочвенные, рандомные по сути заявления, которые подаются даже не как гипотеза (о существовании шума в графиках цен), и даже не как необоснованная акиома или постула, подаётся — как самый фактический факт, не требующий проверки.
У термина «шум» есть конкретное определение. Если же опустить последнее и просто рассматривать общее понимание и ценовой контекст шума, то само это понятие, которое является исключительно частью виртуального(!) пространства (котировок в реальности не существуют) подразумевают как аналогичный(!) шуму из физического-реального мира. Нечто, что «мешает» чистому сигналу. Помехи, как у антены, как у радио. Контекст «помех».
И «помехи», как и «информация» графика цены, с которыми якобы работают трейдеры и специалисты МО, даже не проверялись на существование в принципе. Существование в виртуальном пространстве. Вот «они есть и всё, работаем». А куда работаем - непонятно. Бесконечно и непонятно.
В результате появилась мысль, что прежде, чем оперировать понятием «обучение», нужно как минимум определиться с предметом обучения, ключевым и единственным его наполнения — информацией.
Что есть она, применительно к графику цен. Отсюда просто первая мысль: график цены — это, наверное, зашифрованный язык. А если это текст, который читается слева-направо, значит его можно «прочитать», расшифровать, понять смысл, который, наверное будет иметь примерно следующий вид: «Вот тут крупный игрок вошёл, набирает позицию, ждите пока, скоро полетим вверх». И задача вроде как сводится к поиску и подбору соответсвующей архитектуры.
Это всё глобальные, фундаментальные вопросы. И, строя какие-то теории и гипотезы, нужно просто хотя бы отталкиваться от этого. Некая база, минимум.
В один момент в теме МО написали, что обычная нейросеть не может «выучить» работу калькулятора. Для меня это стало открытием! Я поспешил проверить: обучил MLP таблице умножения посредством подачи на вход умножаемых чисел и целей - ответов. Все примеры из таблицы умножения скормил нейросети.
В результате она правильно отвечала на все примеры: 5 * 5 = 24.9 а какой-нибудь 6 * 6 = 36.0284. Это нормальный ответ нейросети, всё верно. Но когда подал на вход 11 * 11, MLP мне выдала... 90. Умножение 3232 на 49474 тоже выдало 90. Ни больше, ни меньше.
Я тогда крайне удивился, как так: эта MLP из 1000 нейронов способна запомнить каждый свечной паттерн и выучить весь путь цены, создавая в тестере стратегий грааль! А тут не может «тупо посчитать ровно также, как в прошлый раз».
Тогда до меня дошло (немного), насколько сложное явление закономерностей.
Обобщение, правила, закономерности, экстраполяция — вот суть обучения. И MLP, имея 1 000 000 нейронов, но также неспособная умножить 11 на 11, напоминает колонию насекомых. Сколько им не кидай польскую отраву, купленную с маркетплейса, они никогда не сообразят, что её лучше больше не употреблять, ведь «много наших полегло» .
Отсюда вытекает следующее явление — интеллектуальность. Если «тупая» MLP способна только энциклопедически запоминать примеры, то «умная» нейросеть должна сделать «что-то большее». Не а количественном, а в качественном плане.
Это наталкивает на мысль, что у интеллектуальности существуют «классы». Низший класс — зубрёжка примеров таблицы умножения. Выше класс — способность умножать 11 на 11, изучив только примеры таблицы умножения.
Другой пример: 4, 8, 16, 32. Миллионы полносвязных нейронов не знают, какое следующее число. Они знают только то, что идёт после чисел 4, 8, и 16. И что ещё забавнее: они не знают, что идёт после числа 2.
Уровни интеллектуалности (классов) в действии. Этакий тест IQ, по сути.
Так вот, во-первых, любопытны эти уровни интеллектуальности, и как перейти с одного на другой, имея под рукой числа и арифметику.
А применительно к форексу: если люди не разобрались, что означает виртуальный график цены, как они могут с него «что-то» поиметь. Против некоторых контраргументов не спорю: успешные трейдеры и часть успехов в МО. Вопрос более широкий скорее.
Вопрос ветки остаётся тем же: интересуют ваши версии и как вы себе представляете архитектуру, которая «понимает» больше, чем зубрёжка.
Метод ведения ветки: лирика, умеренный флуд, курилка, разбор темы (больше всего приветствуется), примеры (желательно простые).