Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
А какой разум может так, без обучения?
Даже некоторые племена людей умеют считать до двух и чуть более им хватает.
Так же известно, что если ребёнок до 4 лет не слышал человеческую речь или не занимались с ним целенаправленно, то он не сможет выучить какой либо язык.
Без обучения не выйдет.
Другое дело способность к абстрагированию, когда конкретная задача раскладывается на уже известные знания и оперирование происходит этими знаниями.
1) НС с помощью «костыля» в виде безусловного знания о количестве знаков после запятой в вещественном числе double, умеет запилить огромное число
2) НС с помощью примеров таблицы умножения «видит», что перед запятой количество знаков увеличивается после определённого умножения определённых чисел. На 2 знака, ведь последний её ответ 81,0174938........
3) Почему она не может дать ответ выше 81? Почему она не видит, что разрядность увеличивается.
Это «знание», и НС топчется по нему, но не обучается ему.
Аналогично задаче 4, 8, 16, 32. НС не знает, что дальше. Но «правило» то элементарное.
НС не обучается правилам, и это я выделил, как некий уровень/класс интеллектуальности, который нужно преодолеть, чтобы «смочь».
И отсюда одна из основных мыслей: если НС с сотнями нейронов и десятками слоёв не может элементарного, с чего она может что-то «понять» на графике цены, если успешные трейдеры использовали «весь потенциал» мозга в виде нескольких интеллектуальных «уровней/классов», чтобы решать задачи абстракции, сравнения, анализа и тд.
Вот, можно почитать интервью с человеком, занимающимся абстракцией и аналогией в ИИ.
Прикольно, любопытно
Нейронная сеть - это статистика. В том смысле, что она решает задачи статистики статистическими методами, и ни чего более. Никаких смыслов там нет и не будет.
Что касается шума, то понятие "крупный игрок" ещё более надуманное, чем шум. Кто-то свечку держал, чтобы утверждать что-то про "крупного игрока"?
Человек видит свечу в активе, который торгует и думает, что какой-то мифический "крупный игрок" охотится за его стопом. Ему невдомек, что это было просто-напросто открытие торговой сессии в каком-нибудь Шанхае и толпа арбитражных роботов мгновенно разнесла отголоски данного события по всем рынкам.
Не надо очеловечивать нейронные сети и не надо очеловечивать рынок. Это бездушная машина, и понятие "шум" как нельзя более подходит к рынку. На рынке всё шум - и M1, H4. Сам рынок - шум, и ничего более.
Самая совершенная нейронная сеть, способная мгновенно уловить все возможные смыслы находится в вашей голове. Взгляните на график, что вы в нём видите? Никакая искусственная нейронная сеть не справится с задачей лучше.
Имхо, нейронная сеть не может победить хаос. И статистика перед хаосом бессильна. Рынок - это фрактальная система, тут нужны какие-то совсем другие подходы.
Согласен, я недавно к этому пришёл, что все свечные паттерны «в лоб» стремятся к отработке 50 на 50 по статистике. С небольшими перекосами и некоторыми объективными закономерностями по типу средней волатильности/торговых сессий/ночного скальпинга.
Но у Вас та же самая ошибка, которую я описал: вы оперируете понятием шума методом лозунга:
На рынке всё шум - и M1, H4. Сам рынок - шум, и ничего более.
Вы не определились с контекстом шума, а он может быть разным:
1) Шум как разновидность громкого звука
2) Шум как помеха
Очевидно, Вы имели ввиду второй вариант. Но, он относится к паразитному смешиванию физических процессов, а котировки - виртуальный. Здесь шум может восприниматься исключительно и только, как «рисование брокером».
Поэтому неправильно говорить, что М1 - это шум. Как минимум - некорректно, поскольку нам неизвестен график, наша задача - наоборт, узнать - есть ли шум.
А он «узнается» только после того, как расшифруется рынок. И тогда, когда найдётся рабочая ТС, которая работает бесконечно стабильно, можно будет сказать, и то - условно - что есть шум, что «мешает» майнить бабки с графика цены.
Вот, можно почитать интервью с человеком, занимающимся абстракцией и аналогией в ИИ.
...
Ранний ИИ был основан на логике. Но в последние годы акцент сместился на обучение посредством множества примеров — считается, что ИИ сможет вывести из них знания о вещах, с которыми никогда прежде не сталкивался.
Исследователи надеялись, что способность к обобщению возникнет сама собой из набора данных, но этого не произошло.
...
1) На логике??? Ни разу не встречал упоминание логики в контексте ИИ. Мы тут в ветках больше про это говорим)
Если вам известны НС основанные на логике - сообщите, пожалуйста. Что это такое и почему они уступили место «количеству», которое «не смогло».
...Нейросети не способны мыслить образно. Исследователи ИИ только сейчас начинают это понимать.
Вот-вот-вот, почему тысячи нейронов не могут этого сделать?
Потому что до конца не известно, как это работает у того же человека.
Я думаю, что есть некая способность, может даже генетически обусловленная, которая эксплуатируется при обучении ребёнка.
Один из тестов для ребенка на интеллект - понимание переносного смысла, с переходом на абстракцию и поиск ассоциации, такой - задать вопрос "Что значит золотые руки у мастера?". И, если ребёнок говорит о драг металле, то ему ставится ЗПР и подозрение на УО (конечно, в совокупности с другими тестами). И вот, вспоминая работу LLM моделей, можно предположить, что часть детей проходит этот тест только по той причине, что сталкивались уже с этим вопросом ранее, так как подобное понятие используется в культуре и фольклоре, а не использует те навыки абстрагирования, которые проверяются. Такой тест проводят для детей 6-8 лет, а для социально запущенных и старше.
Но, в то же время, с более простыми вещами, как группировка по признаку ребёнок знакомиться значительно раньше, т.е. может уже интуитивно проводить сравнительные действия и даже ранжировать. Но, опять же, многое зависит от родителей и дошкольного образования.
Заметьте, в школе учите умножение, или ещё чего, и дальше кроме арифметических действий детям дают задачи, где цифры связываются с конкретными объектами, что так же способствует формированию ассоциаций.
Есть наблюдения, говорящие о том, что мозг получаемую новую информацию кладёт в ближайшие свободные ячейки памяти (формируются синоптические связи), и это приводит к воспоминаниям, сопутствующим основному процессу. Т.е. если напрячься немного, то вспомните как учили таблицу умножения, как рассказывали её родителю и не понимали смысл этого действия - не стих же и не в ритму, там же найдёте воспоминания о времени года, а может и детали всплывут быта и лица одноклассников. Такой механизм организации памяти способствует работе абстракции, когда в мозг приходят данные с рецепторов и ищется на них реакция через интерпретацию - подымаются те же задачи, которые уже решались и новые связи там же наращиваются (образно), усиливая вариативность и абстракцию.
Получается, что кроме механизма группировки информации, требуется ещё правильное обучение (череда последовательных событий).
Кажется, что LLM модели, уже близки, но опять же, сложно сказать, они просто запомнили информацию или есть признаки абстрагирования за счёт улавливания контекста.
Это «знание», и НС топчется по нему, но не обучается ему.
Ну, задача классических НС описывать имеющиеся примеры в известных ей пределах показателей, в заданном при обучении пространстве.
И отсюда одна из основных мыслей: если НС с сотнями нейронов и десятками слоёв не может элементарного, с чего она может что-то «понять» на графике цены, если успешные трейдеры использовали «весь потенциал» мозга в виде нескольких интеллектуальных «уровней/классов», чтобы решать задачи абстракции, сравнения, анализа и тд.
Тут дело в том, что понять может никто и не может - есть некоторые вероятности, которые запоминает мозг, но он более пластичен и проще перестраивается, а методы МО обычно усредняют примеры все за время обучения и так и используются на новых данных. В то же время, я считаю, что надо помогать и самому генерировать предикторы, которые будут акцентировать внимание на те или иные моменты.
В целом методы МО не работают стабильно из-за дрейфа данных, т.е. меняются вероятностные распределения для генерируемых внутри НС предикторов или самостоятельно созданных. А меняются по двум причинам - либо это ложные закономерности, либо изменился рынок (к примеру, больше трейдеров (в финансовом исчислении) вдруг стало использовать иные похожие стратегии, чем до этого). Пока у меня такие мысли на этот счёт. Надо уделять больше внимания дрейфу и мониторингу отдельных закономерностей.
1) На логике??? Ни разу не встречал упоминание логики в контексте ИИ. Мы тут в ветках больше про это говорим)
Если вам известны НС основанные на логике - сообщите, пожалуйста. Что это такое и почему они уступили место «количеству», которое «не смогло».
Ну, как вариант, речь может идти о методах сравнения по заготовленным паттернам для распознавания изображения.
Ещё есть направление "генетическое программирование", к примеру тут почитайте, смысл там в том, что обучение создаёт по сути формулы, которые можно использовать для экстраполяции, т.е. на новых диапазонах данных, а не только интерполяции, как в классических НС.
А так, есть отдельные проекты и с НС, созданные для работы с табличными данными, сегодня вот прочитал про эту , но думаю, работает это чудо медленно, но если разберётесь, как запустить и обучите - пишите о результатах.
Ещё эту статью посмотрите, тут кажется более даже наглядно. Сам эти методы не применял, но есть идеи, к чему попробовать применить.
Ищите информацию по "символьная регрессия" или "symbolic-regression", а так же " генетическое программирование ".
Интересная тема, очень обширная в направлениях для обсуждения.
Наблюдается следующий парадокс. Часто люди, разбирающиеся в МО, оперируют общепринятыми шаблонами, не вникая в семантику определений, не могут выйти за рамки именно шаблонов. В этом и парадокс, человек, рассуждающий об обучении, не может выйти за рамки шаблонов, заложенных в него учебниками, масмедия. Не вникают даже в определения понятий в области МО, а некоторые понятия просто ошибочны: слепо следуют шаблонам.
Выше были уже высказаны очень интересные мысли Иваном, ниже высказался Алексей. Одно из ключевых направлений мысли, которую я ранее высказывал в ветке "Что подать...", заключается в понимании разницы между запоминанием и обучением, и что что обучение - это процесс. Еще удачно приведён пример с детьми, которые не могут освоить не только языки, но и вообще не способны к простым когнитивным проявлениям мозга - дети, не имеющие контактов с носителями языка до 4-7 лет (это имеет непосредственное значение и ключ к пониманию процесса обучения).
Очень много хотелось бы высказать в этой ветке, нужно выделить на это время. Даже уже вышесказанное участниками содержит в себе крупицы понимания не только о том, почему "МО не работает", но и, что нужно, чтобы работало.
Песок - неважная замена овсу. Языковые игры с терминами - плохая замена пониманию того, что они означают в конкретной предметной области.
Чтобы избежать постоянных бессмысленных отсылок к обыденному значению термина "обучение", используйте его синонимы в МО, например "калибровка модели".
В применениях МО для трейдинга есть более осмысленные вопросы для приложения интеллектуальных усилий. Например, особенности достижения компромисса для смещения-дисперсии в наших приложениях МО.
Очень полезная тема получилась.
То есть, по-твоему, обучение — это процесс. Вне зависимости от результата.
Тогда возникает пробел в том, что есть процесс, который приводит к «интеллектуальности» любого уровня: будь то способность умножать 2 на 2, либо отвечать как LLM.
Деление на «полезное» обучение и «бестолковое» — как-то не очень звучит. Но такая логика к нему ведёт.