karoch, 두 대의 차를 건너는 전략을 취하고 모델에서 교차로의 직접적인 표시를 제공하지 않는 경우.
인식도 잘 안되고 신기하기도 한데 이게 가장 원시적인 알고리즘이라..
파란색 원래 신호, 빨간색 예측
정규화가 없으면 일반적으로
MA Expert Advisor가 어떤 기간을 사용하는지 미리 알 수 없습니다. 또는 다른 지표가 사용됩니다. MA(X)가 아니라 원시 인용부호(x), 예를 들어 100개의 막대에서 모델을 훈련시키십시오(블랙박스에서 MA 기간을 모르면 사용할 수 있는 막대의 수만 추측할 수 있습니다. ).
또 다른 테스트 케이스, ma와 price의 교차점. 마지막 몇 개 막대의 증분이 입력으로 사용되며 거래 방향(1-매수, 0-매도)이 출력입니다. 기본 네트워크 매개변수: 1 tanh가 있는 조밀한 계층. 1 에포크, 배치=32. win - MA 기간당 입력 수, 전체 - 훈련 샘플 크기. 네트워크는 훈련 중에 반복되는 예제가 없도록 1 Epoch에서 훈련됩니다. 검증은 수직으로 반전된(*-1) 훈련 세트에서 발생합니다. 테스트는 별도의 독립 샘플에서 실행됩니다. 그들은 모두 합계와 같습니다. per<=win을 사용하면 네트워크가 숨겨진 패턴을 검색할 수 있음을 증명하는 데 필요한 높은 정확도를 보여줍니다.
소규모 네트워크(1000개 미만 뉴런)의 경우 CPU당 계산이 GPU당 계산보다 빠릅니다. 배치 = 8192이면 계산이 동시에 수행됩니다. 1개와 100개의 은닉 뉴런이 있는 이 테스트 케이스는 동시에 계산됩니다. CPU의 경우 배정밀도와 단정밀도는 동일한 시간으로 간주되며 결과는 비슷합니다. 다른 유형의 활성화가 거의 같은 시간에 계산되고 비슷한 결과를 제공합니다. 승리의 크기는 시간에 큰 영향을 미치지 않습니다. total=10^6, batch=1은 18분으로 계산됩니다. 배치와 시간 간의 관계는 선형입니다.
샘플 크기 정확도. 배치=1, 당=100, 승리=100. 첫 번째 열 - 샘플 크기(총), 2 - 시간 min.sec, 3 - 테스트 정확도, 4 - 훈련 정확도, 5 - 검증 정확도. 1m 18.49 99. 98.7 99. 100k 1.54 98.5 97.3 98.6 10k 0.11 97.8 88.4 98.1 1k 0.01 71.2 62.1 66.5
사전에 알려지지 않은 창의적인 접근 방식
무엇이든 근사할 수 있으며 TS는 근사치 없이 코드의 명확한 논리입니다.
명확한 논리는 우리에게 알려지지 않았습니다. 카운트 업 .. 이것은 디컴파일이 아닙니다. 그것은 "이미지와 모양으로" 흐릿하게 남아 있습니다. 아비바스 스니커즈
karoch, 두 대의 차를 건너는 전략을 취하고 모델에서 교차로의 직접적인 표시를 제공하지 않는 경우.
인식도 잘 안되고 신기하기도 한데 이게 가장 원시적인 알고리즘이라..
파란색 원래 신호, 빨간색 예측
정규화가 없으면 일반적으로
karoch, 두 대의 차를 건너는 전략을 취하고 모델에서 교차로의 직접적인 표시를 제공하지 않는 경우.
인식도 잘 안되고 신기하기도 한데 이게 가장 원시적인 알고리즘이라..
파란색 원래 신호, 빨간색 예측
정규화가 없으면 일반적으로
karoch, 두 대의 차를 건너는 전략을 취하고 모델에서 교차로의 직접적인 표시를 제공하지 않는 경우.
인식도 잘 안되고 신기하기도 한데 이게 가장 원시적인 알고리즘이라..
파란색 원래 신호, 빨간색 예측
정규화가 없으면 일반적으로
MA Expert Advisor가 어떤 기간을 사용하는지 미리 알 수 없습니다. 또는 다른 지표가 사용됩니다.
MA(X)가 아니라 원시 인용부호(x), 예를 들어 100개의 막대에서 모델을 훈련시키십시오(블랙박스에서 MA 기간을 모르면 사용할 수 있는 막대의 수만 추측할 수 있습니다. ).
글쎄요, Y는 조사한 Expert Advisor가 발행한 것입니다.
MA Expert Advisor가 어떤 기간을 사용하는지 미리 알 수 없습니다. 또는 다른 지표가 사용됩니다.
내가 무엇을 할 수 있고 무엇을 할 수 없는지 말하지 말아요 "당신이 어떻게 할 수 있는지 모르겠어요"라고 말하면 정직할 것입니다.
MA(X)가 아닌 원시 인용(x)으로 모델을 훈련시키십시오.
원시에 나쁘지 않다
원시에 나쁘지 않다
원시에 나쁘지 않다
여기에 MO가 정말 필요한가요?
내 결과. 누가 해독 할 수 있습니까? 잘했습니다. 이미 무엇인지 잊어 버렸습니다.
또 다른 테스트 케이스, ma와 price의 교차점. 마지막 몇 개 막대의 증분이 입력으로 사용되며 거래 방향(1-매수, 0-매도)이 출력입니다. 기본 네트워크 매개변수: 1 tanh가 있는 조밀한 계층. 1 에포크, 배치=32. win - MA 기간당 입력 수, 전체 - 훈련 샘플 크기. 네트워크는 훈련 중에 반복되는 예제가 없도록 1 Epoch에서 훈련됩니다. 검증은 수직으로 반전된(*-1) 훈련 세트에서 발생합니다. 테스트는 별도의 독립 샘플에서 실행됩니다. 그들은 모두 합계와 같습니다. per<=win을 사용하면 네트워크가 숨겨진 패턴을 검색할 수 있음을 증명하는 데 필요한 높은 정확도를 보여줍니다.
소규모 네트워크(1000개 미만 뉴런)의 경우 CPU당 계산이 GPU당 계산보다 빠릅니다. 배치 = 8192이면 계산이 동시에 수행됩니다. 1개와 100개의 은닉 뉴런이 있는 이 테스트 케이스는 동시에 계산됩니다. CPU의 경우 배정밀도와 단정밀도는 동일한 시간으로 간주되며 결과는 비슷합니다. 다른 유형의 활성화가 거의 같은 시간에 계산되고 비슷한 결과를 제공합니다. 승리의 크기는 시간에 큰 영향을 미치지 않습니다. total=10^6, batch=1은 18분으로 계산됩니다. 배치와 시간 간의 관계는 선형입니다.
샘플 크기 정확도. 배치=1, 당=100, 승리=100. 첫 번째 열 - 샘플 크기(총), 2 - 시간 min.sec, 3 - 테스트 정확도, 4 - 훈련 정확도, 5 - 검증 정확도.
1m 18.49 99. 98.7 99.
100k 1.54 98.5 97.3 98.6
10k 0.11 97.8 88.4 98.1
1k 0.01 71.2 62.1 66.5
입력에 노이즈를 추가합니다. 총=10^6, 배치=32, 당=10, 승리=10. 첫 번째 열은 입력의 노이즈 비율, 2 - 테스트의 정확도, 3 - 기차의 정확도, 4 - 검증의 정확도입니다.
0.001 99.8 98.1 99.8
0.01 99.6 98.2 99.6
0.1 96.8 96.1 96.8
1 74.9 74.2 75.1
입력 및 오류 수. 총=10^6, 배치=32, 당=100. 테스트 정확도, 기차 정확도, 검증 정확도.
승리=150: 99.5 98.7 99.5
승리=100: 99.6 98.8 99.6
승리=90: 98.9 98.2 98.9
승리=80: 97.2 96.6 97.2
승리=70: 94.8 94.3 94.8
승리=60: 92.0 91.6 91.9
승리=50: 88.6 88.2 88.6
승리=20: 74.7 74.4 74.7
무게 차트. 1개의 입력 뉴런. ma(100) 왼쪽에 100개 입력, ma(50) 오른쪽에 100개 입력