링크에 대해 SergNF에게 많은 감사를 드립니다. 나 자신은 1년 이상 전에 NN에 손을 댔습니다(TradingSolutions에서 그리고 아주 간단하게): Jordan-Elman 네트워크를 사용하여 다른 MA를 입력으로 적용하여 내일의 고가를 예측하려고 했습니다. 물론 원시적이지만 여기에서도 수십 개의 매우 다양하고 흥미로운 MA를 구성하는 과정에서 나 자신을 위한 유용한 결론을 많이 만들었습니다...
그 당시에는 신경망 분류와 코호넨 맵에 대해 생각하지 않았고 NN의 이점이 거의 없다는 성급한 결론을 내린 후 GA를 실험하기 시작했습니다. 내 경로는 NS에서 Grail을 찾고 있던 대부분의 트레이더에게 일반적인 방식이라고 생각합니다. 이제 엘리엇의 입장에서 보면 국회와 소통하는 1차 물결(철저한 준비 없이 일방적인 시험)과 2차(심각한 냉각) 단계를 성공적으로 통과했다고 할 수 있을 것 같습니다. 제3의 물결이 올 시간이다, 히히...
추신 나는 Yurixx의 의견에 합류합니다. 무례함은 용인되어서는 안되지만 전문가는 매우 호기심이 많다는 것을 인정해야합니다. 당신은 나를 설득하지 않았다. 나는 테스트가 바 시작 가격을 기반으로 한다는 것을 완벽하게 이해하지만, 하지만! : 막대가 열립니다. 방금 열린 막대를 포함하여 4개 지점에서 AC 값을 찾아야 하기 때문에 이 Expert Advisor를 사용합니다. 그리고 바를 닫아야만 이 AS가 형성된다면 어디에서 얻을 수 있나요?결국 현재로서는 이 바의 오프닝만 남았습니다.
당신은 바가 열렸으므로 바 오프닝 가격이 있다고 작성합니다. 그것은 (바의 시가) 바가 형성되는 동안 변하지 않을 것입니다.
나는 그것이 명확하기를 바랍니다 :)
이것은 그들에게 명확하지 않습니다. Volume[0] == 1일 때(즉, 새 막대의 첫 번째 눈금이 도착한 경우) Сlose[0] == Open[0] == High[0] = Low[0], 즉 이자형. 바의 마지막 종가 는 이미 형성되었으며 바 자체가 닫힐 때까지 틱 단위로 변경됩니다. 그리고 이 매우 기본적인 문맹과 테스트의 "조정 가능한" 품질에 대한 주장에서 비롯됩니다.
불만족한 모든 라머의 이마에 지울 수 없는 페인트로(또는 더 나은 방법으로 뜨겁게 달궈진 인두로 태우기) 다음과 같이 쓰면 됩니다. "닫기[0]은 터미널에 도착한 마지막 틱의 입찰이며 전략 테스터의 텔레파시 능력이 아닙니다."
eugenk1 : 얘들 아, Reshetov를 매우 흥미롭게 만든 것은 나에게 보였습니다. .. 물론 인공지능은 말할 필요도 없다. AI는 필연적으로 적응과 학습, 심지어는 신경망 , 심지어 선형 필터입니다. 여기서 우리는 지표의 그룹 행동에 대해 이야기해야 할 것 같습니다. 각각의 중요성과 유용성을 반영하여 가중치가 할당됩니다. 그리고 가중 "투표"가 수행됩니다. 칠면조 4마리에 대해 내가 취할 수 있는 유일한 것은 4개의 매개변수가 아니라 14개입니다. 이는 자체뿐만 아니라 다양한 조합도 고려하기 위함입니다. 이런 식으로 실제 적응 시스템을 구축할 수 있는 것 같습니다. 정상화 된 (내가 위에서 쓴) 칠면조를 가져옵니다. 각각의 품질은 가상 트랜잭션으로 평가됩니다. 거짓말을 하는 칠면조는 체중 감소로 벌점을 받고("내 신호를 정확히 반대로 해석합니다"라는 음수까지) 체중이 증가하면 올바르게 작동하는 칠면조가 권장됩니다. 그건 그렇고, 그런 시스템은 정말 지식인이라는 칭호를 받을 자격이 있습니다... 칠면조 4마리가 아니라 10마리를 취하면 가능한 조합의 수는 1023이 될 것입니다. 인간의 마음이 그런 산을 분석할 수 있다는 것이! 그리고 시스템은 ...
고전 학습 알고리즘의 알고리즘은 완전히 다르지만 이 접근 방식을 적응형이라고 합니다. 언제:
뉴런이 거짓말을 하면 "채찍"이 됩니다. w[i] i= a[i] i로 표시된 모든 입력에 대해;
뉴런이 정답을 입력하면 "당근"이 그 안에 꽂힙니다. i로 지정된 모든 입력에 대해 w[i] += a[i];
그런 다음 이가 있는지 확인하고 다시 거짓말을 하면 거짓말을 멈출 때까지 맨 엉덩이에 "채찍"으로 다시 합니다. 이 알고리즘이 수렴한다는 것을 증명하는 정리도 있는데 누구의 이름이 기억나지 않습니다. 조만간 그는 별도의 평면에 대한 허용 가능한 방정식을 찾을 수 있지만 식별된 개체가 이러한 개체의 특성 값 공간에서 선형으로 분리 가능한 경우에만 가능합니다.
그리고 구매 및 판매에 의한 식별은 선형으로 분리할 수 없으므로 뉴런은 펄스를 잃기 전에도 여전히 실수를 범하고 고전적인 학습 알고리즘으로 구동합니다.
Itso : 그러나 프로그램 자체가 언제 열고 닫을지 결정하는 경우 정의에 따라 인공 지능이 있습니다. 그리고 전문가 최적화 프로세스는 이 시스템의 훈련을 나타냅니다.
거래자가 언제 열고 어디에서 열고 언제 닫을지 결정한다고 해도 이것이 그가 지능을 가지고 있다는 것을 의미하지는 않습니다. 당신은 바보를 넣어 그에게 버튼을 누르도록 가르 칠 수 있습니다. 그러나 이 바보 같은 결정에 버튼을 누르는 것은 거래의 관점에서 볼 때 전혀 지적인 것이 아니라 주관적일 것입니다(예를 들어 버튼의 색상은 결정을 내리는 데 주관적으로 더 매력적일 것입니다. 값)
Mathemat писал (а): 나 자신은 1년 이상 전에 NN에 손을 댔습니다(TradingSolutions에서 그리고 아주 간단하게): Jordan-Elman 네트워크를 사용하여 다른 MA를 입력으로 적용하여 내일의 고가를 예측하려고 했습니다.
그것이 바로 뉴런에 손을 댄 것입니다. 내가 진지하게 참여했다면 " 신경망 은 식별에는 적합하지만 외삽에는 절대 적합하지 않습니다."라는 수학적으로 입증된 사실을 오랫동안 알고 있었을 것입니다. 따라서 그들의 도움으로 앞으로의 기간 동안 값을 예측하는 것은 불가능합니다. 결과는 플러스 / 마이너스 킬로미터가 될 것입니다. 다른 한편, 많은 경우에 기호의 값으로 어떤 대상이 어떤 클래스에 속하는지 다양한 정도의 확실성을 가지고 식별하는 것이 가능합니다.
예를 들어 칠면조와 오실레이터의 가치를 통해 가장 수익성이 높은 포지션이 속하는 클래스를 매수 또는 매도할 수 있습니다. 그리고 실패할 수 있기 때문에 식별 문제의 공식화에서. 그러나 뉴런의 도움으로 이러한 포즈를 취해야 하는 위치를 계산하려고 하면 테스트에서 성공할 가능성이 있지만 샘플 외부에서는 불가능하기 때문입니다. 테이크의 가치는 이미 외삽입니다. 가격이 적어도 그것에 닿아야 하기 때문입니다(목표를 결정하려면 피버즐을 사용하는 것이 더 나을 것입니다).
간단히 말해서, 당신은 TV로 콘크리트 벽에 못을 박으려고 했습니다.
"Perceptron"프로젝트 완료 후 얻은 결과를 기반으로 한 더 자세한 결론과 수학적 계산은 책에서 읽을 수 있습니다.
Minsky, M 및 Papert, S (1969) 퍼셉트론; 계산 기하학 소개, MIT Press, 매사추세츠
번역이 있습니다:
Minsky M., Papert S. Perceptrons: Per. 영어로부터. - M.: Mir, 1971. - p. 261
여러분, 탐닉하기 전에 탐닉의 결과를 바탕으로 의미 있는 공개 결론을 내리기 전에 먼저 해당 주제에 대한 자료에 익숙해지도록 하십시오. 첫째, 아프지 않을 것이고 둘째, 모두가 오랫동안 알고 있던 갈퀴를 밟지 않도록 할 것입니다.
Reshetov писал (а): Minsky, M 및 Papert, S (1969) 퍼셉트론; 계산 기하학 소개, MIT Press, 매사추세츠
번역이 있습니다:
Minsky M., Papert S. Perceptrons: Per. 영어로부터. - M.: Mir, 1971. - p. 261
아이들이여, 당신이 탐닉하기 전에 당신의 탐닉 결과에 기초하여 중요한 공개 결론을 도출하기 전에 먼저 주제에 대한 재료에 익숙해지도록 노력하십시오. 첫째, 아프지 않을 것이고 둘째, 모두가 오랫동안 알고 있던 갈퀴를 밟지 않도록 할 것입니다.
출처 지적해주셔서 감사합니다. 글쎄, 재료에 관해서는 신경 예측 주제에 관한 출판물에서 실제로 알게되었습니다. 이러한 간행물은 아직 끝나지 않았으며 신경의 적절성을 확인하기까지 합니다. 보간 작업에 대한 신경의 부적합에 대한 귀하의 절대적인 판결에도 불구하고( Reshetov , 즉, 외삽이 아닌 inter ) 선형에 대해 그렇게 현명하게 이야기하는 경우 확실히 알아야 합니다. 분리 가능성 ... 그건 그렇고, 내가 틀리지 않았다면, 퍼셉트론에 의한 선형 불가분 문제(예: XOR)의 풀 수 없다는 민스키의 정리는 신경에 대한 관심을 진정시켰습니다. 그러나 다층 네트워크를 생각할 때까지만).
레셰토프 : Minsky, M 및 Papert, S (1969) 퍼셉트론; 계산 기하학 소개, MIT Press, 매사추세츠
번역이 있습니다:
Minsky M., Papert S. Perceptrons: Per. 영어로부터. - M.: Mir, 1971. - p. 261
아이들이여, 당신이 탐닉하기 전에 당신의 탐닉 결과에 기초하여 중요한 공개 결론을 도출하기 전에 먼저 주제에 대한 재료에 익숙해지도록 노력하십시오. 첫째, 아프지 않을 것이고 둘째, 모두가 오랫동안 알고 있던 갈퀴를 밟지 않도록 할 것입니다.
출처 지적해주셔서 감사합니다. 글쎄, 재료에 관해서는 신경 예측 주제에 관한 출판물에서 실제로 알게되었습니다. 이러한 간행물은 아직 끝나지 않았으며 신경의 적절성을 확인하기까지 합니다. 보간 작업에 대한 신경의 부적합에 대한 귀하의 절대적인 판결에도 불구하고( Reshetov , 즉, 외삽이 아닌 inter ) 선형에 대해 그렇게 현명하게 이야기하는 경우 확실히 알아야 합니다. 분리 가능성 ... 그건 그렇고, 내가 틀리지 않았다면, 퍼셉트론에 의한 선형 불가분 문제(예: XOR)의 풀 수 없다는 민스키의 정리는 신경에 대한 관심을 진정시켰습니다. 그러나 다층 네트워크를 생각할 때까지만).
기사는 기사이지만 기하학적 의미는 어디에서도 얻을 수 없습니다. 그리고 선형 분리 가능성에 따라 선형 평면을 사용하여 이러한 동일한 개체의 좌표(특성 값)를 알고 있는 경우 선형 필터 를 사용하면 파리를 커틀릿에서 분리할 수 있습니다. 그러나 역 문제에 대한 솔루션은 없습니다. 객체의 이름을 뉴런에 지정한 후 좌표를 찾습니다. 물체에 대해 배울 수 있는 모든 것, 즉 물체가 분리 평면의 어느 쪽에 있는지만 알 수 있습니다. 따라서 보간 및 외삽에 대한 이야기가 없습니다.
2 SergNF
네, 저는 일반적으로 남극에서와 같이 주제와 거리가 멉니다. 포스트 eugenk'a에만 매여 있지만 아무도 지원하지 않습니다. 그리고 전문가를 보기로 결정했을 때 AI가 어디에 있고 어떻게 가르칠 것인가에 대해 너무 오래 고민하고 고민했습니다. :-))
그런데 기초적인 질문에도 대화가 요점에서 빗나가자 그는 참지 못하고 끼어들었다. :-)
불행히도 여기 기술은 거의 논의되지 않았습니다. 기본적으로 전문가일 뿐입니다. 그리고 이 기술은 확실히 흥미롭습니다. 생각할 거리를 얻었습니다. 그래서 그 주제는 나에게 매우 유용한 것으로 판명되었습니다.
이 구슬은 얇은 것이므로 Forex에 꿰맬 수 없습니다. :-)))
좋아하는 칠면조(외부인 경우 iCustom을 통해)를 가져와 일정량만큼 파일에 칠면조 값을 출력합니다. "첫 번째 막대에서" 낮음 또는 이 간격의 최고/최저. http://www.tora-centre.ru/library/ns/spekulant04.htm , http://www.tora-centre.ru/library/ns/ 에서 병렬 기사를 읽으면 적용 방법을 분석하고 생각할 수 있습니다. spekulant03.htm
그 당시에는 신경망 분류와 코호넨 맵에 대해 생각하지 않았고 NN의 이점이 거의 없다는 성급한 결론을 내린 후 GA를 실험하기 시작했습니다. 내 경로는 NS에서 Grail을 찾고 있던 대부분의 트레이더에게 일반적인 방식이라고 생각합니다. 이제 엘리엇의 입장에서 보면 국회와 소통하는 1차 물결(철저한 준비 없이 일방적인 시험)과 2차(심각한 냉각) 단계를 성공적으로 통과했다고 할 수 있을 것 같습니다. 제3의 물결이 올 시간이다, 히히...
추신 나는 Yurixx의 의견에 합류합니다. 무례함은 용인되어서는 안되지만 전문가는 매우 호기심이 많다는 것을 인정해야합니다.
당신은 나를 설득하지 않았다. 나는 테스트가 바 시작 가격을 기반으로 한다는 것을 완벽하게 이해하지만, 하지만! : 막대가 열립니다. 방금 열린 막대를 포함하여 4개 지점에서 AC 값을 찾아야 하기 때문에 이 Expert Advisor를 사용합니다. 그리고 바를 닫아야만 이 AS가 형성된다면 어디에서 얻을 수 있나요?결국 현재로서는 이 바의 오프닝만 남았습니다.
당신은 바가 열렸으므로 바 오프닝 가격이 있다고 작성합니다. 그것은 (바의 시가) 바가 형성되는 동안 변하지 않을 것입니다.
나는 그것이 명확하기를 바랍니다 :)
불만족한 모든 라머의 이마에 지울 수 없는 페인트로(또는 더 나은 방법으로 뜨겁게 달궈진 인두로 태우기) 다음과 같이 쓰면 됩니다. "닫기[0]은 터미널에 도착한 마지막 틱의 입찰이며 전략 테스터의 텔레파시 능력이 아닙니다."
얘들 아, Reshetov를 매우 흥미롭게 만든 것은 나에게 보였습니다. .. 물론 인공지능은 말할 필요도 없다. AI는 필연적으로 적응과 학습, 심지어는 신경망 , 심지어 선형 필터입니다. 여기서 우리는 지표의 그룹 행동에 대해 이야기해야 할 것 같습니다. 각각의 중요성과 유용성을 반영하여 가중치가 할당됩니다. 그리고 가중 "투표"가 수행됩니다. 칠면조 4마리에 대해 내가 취할 수 있는 유일한 것은 4개의 매개변수가 아니라 14개입니다. 이는 자체뿐만 아니라 다양한 조합도 고려하기 위함입니다. 이런 식으로 실제 적응 시스템을 구축할 수 있는 것 같습니다. 정상화 된 (내가 위에서 쓴) 칠면조를 가져옵니다. 각각의 품질은 가상 트랜잭션으로 평가됩니다. 거짓말을 하는 칠면조는 체중 감소로 벌점을 받고("내 신호를 정확히 반대로 해석합니다"라는 음수까지) 체중이 증가하면 올바르게 작동하는 칠면조가 권장됩니다. 그건 그렇고, 그런 시스템은 정말 지식인이라는 칭호를 받을 자격이 있습니다... 칠면조 4마리가 아니라 10마리를 취하면 가능한 조합의 수는 1023이 될 것입니다. 인간의 마음이 그런 산을 분석할 수 있다는 것이! 그리고 시스템은 ...
- 뉴런이 거짓말을 하면 "채찍"이 됩니다. w[i] i= a[i] i로 표시된 모든 입력에 대해;
- 뉴런이 정답을 입력하면 "당근"이 그 안에 꽂힙니다. i로 지정된 모든 입력에 대해 w[i] += a[i];
그런 다음 이가 있는지 확인하고 다시 거짓말을 하면 거짓말을 멈출 때까지 맨 엉덩이에 "채찍"으로 다시 합니다.이 알고리즘이 수렴한다는 것을 증명하는 정리도 있는데 누구의 이름이 기억나지 않습니다. 조만간 그는 별도의 평면에 대한 허용 가능한 방정식을 찾을 수 있지만 식별된 개체가 이러한 개체의 특성 값 공간에서 선형으로 분리 가능한 경우에만 가능합니다.
그리고 구매 및 판매에 의한 식별은 선형으로 분리할 수 없으므로 뉴런은 펄스를 잃기 전에도 여전히 실수를 범하고 고전적인 학습 알고리즘으로 구동합니다.
그리고 전문가 최적화 프로세스는 이 시스템의 훈련을 나타냅니다.
그러나 프로그램 자체가 언제 열고 닫을지 결정하는 경우 정의에 따라 인공 지능이 있습니다.
그리고 전문가 최적화 프로세스는 이 시스템의 훈련을 나타냅니다.
나 자신은 1년 이상 전에 NN에 손을 댔습니다(TradingSolutions에서 그리고 아주 간단하게): Jordan-Elman 네트워크를 사용하여 다른 MA를 입력으로 적용하여 내일의 고가를 예측하려고 했습니다.
예를 들어 칠면조와 오실레이터의 가치를 통해 가장 수익성이 높은 포지션이 속하는 클래스를 매수 또는 매도할 수 있습니다. 그리고 실패할 수 있기 때문에 식별 문제의 공식화에서. 그러나 뉴런의 도움으로 이러한 포즈를 취해야 하는 위치를 계산하려고 하면 테스트에서 성공할 가능성이 있지만 샘플 외부에서는 불가능하기 때문입니다. 테이크의 가치는 이미 외삽입니다. 가격이 적어도 그것에 닿아야 하기 때문입니다(목표를 결정하려면 피버즐을 사용하는 것이 더 나을 것입니다).
간단히 말해서, 당신은 TV로 콘크리트 벽에 못을 박으려고 했습니다.
"Perceptron"프로젝트 완료 후 얻은 결과를 기반으로 한 더 자세한 결론과 수학적 계산은 책에서 읽을 수 있습니다.
Minsky, M 및 Papert, S (1969) 퍼셉트론; 계산 기하학 소개, MIT Press, 매사추세츠
번역이 있습니다:
Minsky M., Papert S. Perceptrons: Per. 영어로부터. - M.: Mir, 1971. - p. 261
여러분, 탐닉하기 전에 탐닉의 결과를 바탕으로 의미 있는 공개 결론을 내리기 전에 먼저 해당 주제에 대한 자료에 익숙해지도록 하십시오. 첫째, 아프지 않을 것이고 둘째, 모두가 오랫동안 알고 있던 갈퀴를 밟지 않도록 할 것입니다.
Minsky, M 및 Papert, S (1969) 퍼셉트론; 계산 기하학 소개, MIT Press, 매사추세츠
번역이 있습니다:
Minsky M., Papert S. Perceptrons: Per. 영어로부터. - M.: Mir, 1971. - p. 261
아이들이여, 당신이 탐닉하기 전에 당신의 탐닉 결과에 기초하여 중요한 공개 결론을 도출하기 전에 먼저 주제에 대한 재료에 익숙해지도록 노력하십시오. 첫째, 아프지 않을 것이고 둘째, 모두가 오랫동안 알고 있던 갈퀴를 밟지 않도록 할 것입니다.
Minsky, M 및 Papert, S (1969) 퍼셉트론; 계산 기하학 소개, MIT Press, 매사추세츠
번역이 있습니다:
Minsky M., Papert S. Perceptrons: Per. 영어로부터. - M.: Mir, 1971. - p. 261
아이들이여, 당신이 탐닉하기 전에 당신의 탐닉 결과에 기초하여 중요한 공개 결론을 도출하기 전에 먼저 주제에 대한 재료에 익숙해지도록 노력하십시오. 첫째, 아프지 않을 것이고 둘째, 모두가 오랫동안 알고 있던 갈퀴를 밟지 않도록 할 것입니다.