트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 499

 
막심 드미트리예프스키 :

그리고 제 생각에는 일부 서비스 기능을 제외하고는이 모든 코드가 필요하지 않습니다. 그렇지 않으면 모두가 자신의 것으로 바쁩니다.

이는 지식완도의 위계에 따른 결과이며 기린에게 가능한 것은 하마에게 받아들여지지 않고 그 반대도 마찬가지이므로 초등학교부터 교육기관까지 지식완도 정도에 따라 다양한 교육이 존재한다. .

감사합니다.

 


나는 퍼센트론의 그런 도표를 보았다. 일반적으로 가산기가 하나 있지만 여기서는 3개가 있습니다. 3개의 활성화 뉴런이 있습니까?

MQL4에서는 다음과 같이 했습니다.

   a1 = iAC ( Symbol (), 0 , 0 );
   a2 = iAC ( Symbol (), 0 , 3);
   a3 = iAC ( Symbol (), 0 , 7);
   
   perceptron1[ 0 ]=w11 * a1 + w21 * a2 + w31 * a3;
   perceptron2[ 0 ]=w22 * a2 + w12 * a1 + w32 * a3;
   perceptron3[ 0 ]=w33 * a3 + w13 * a1 + w23 * a2;

당신은 모든 것에 관심이 있습니까? 내가 이해하는 한, 거기에 세 개의 입력 a1, a2,3 각각에 해당하는 가산기에 따라 가중치가 곱해집니다.

그런 다음 선형 함수를 활성화 시그모이드 함수로 교체하려고 합니다.

하나의 가산기 또는 여러 가산기가 더 나은 것을 누가 말할 것입니까? 동일한 입력을 다른 가중치로 사용하는 것이 합리적인지 여부가 명확하지 않습니다.

그리고 나는 또한 우리가 최소한의 2계층 네트워크를 취한다면 3-4개의 계층은 말할 것도 없고 최적화를 위해 많은 변수가 필요할 것인지 묻고 싶었습니다.

모든 레이어가 한 번에 최적화되는 경우입니다. 테스트를 어느 정도 얻을 수 있도록 최대 변수를 몇 개까지 사용할 수 있습니까? 이러한 목적을 위한 소프트웨어가 있을 수 있습니까?

 
forexman77 :

당신은 모든 것에 관심이 있습니까? 내가 이해하는 한, 거기에 세 개의 입력 a1, a2,3 각각에 해당하는 가산기에 따라 가중치가 곱해집니다.

거의 맞습니다. 결과에 추가로 추가되는 편향이 여전히 있습니다.

   perceptron1[ 0 ]=w11 * a1 + w21 * a2 + w31 * a3 + w01 ;
   perceptron2[ 0 ]=w22 * a2 + w12 * a1 + w32 * a3 + w02 ;
   perceptron3[ 0 ]=w33 * a3 + w13 * a1 + w23 * a2 + w03 ;

대부분의 경우 y1, y2, y3 값은 뉴런의 내부 레이어에서 사용되며 이러한 값 자체도 다음 레이어의 입력 값으로 사용해야 합니다

perceptron4[0] = w14 * perceptron1[ 0 ] + w24 * perceptron2[ 0 ] + w34 * perceptron3[ 0 ] + w04;

또는 Y1,Y2,Y3이 출력 값이면 여러 출력 뉴런이 분류에 사용됩니다. 예를 들어 Y1,Y2,Y3 중 가장 큰 값이 Y1이면 결과는 "클래스 1"입니다. Y2에서 가장 큰 값이 Y3이면 결과는 "클래스 2"이고 결과는 "클래스 3"입니다. 뉴런이 분류 대신 회귀에 사용되는 경우 출력 뉴런은 하나뿐입니다. 클래스가 두 개뿐인 경우 하나의 출력 뉴런으로 처리할 수 있습니다(결과가 <0.5이면 class1, >=0.5이면 class2).

뉴런의 활성화 함수에 sigmoid를 추가하는 것은 매우 쉽습니다. 그런 함수가 필요합니다 -

double sigmoid( double sum)
{
     if (sum < - 15.0 )
         return ( 0.0 );
     else if (sum > 15.0 )
         return ( 1.0 );
     else
         return ( 1.0 / ( 1.0 + MathExp (-sum)));
}

그리고 그것으로 이미 내부 레이어(3개의 퍼셉트론 포함)와 하나의 출력 퍼셉트론이 있는 본격적인 뉴런을 얻을 수 있습니다.

   perceptron1[ 0 ] = Sigmoid(w11 * a1 + w21 * a2 + w31 * a3);
   perceptron2[ 0 ] = Sigmoid(w22 * a2 + w12 * a1 + w32 * a3);
   perceptron3[ 0 ] = Sigmoid(w33 * a3 + w13 * a1 + w23 * a2);
   perceptron4[0] = Sigmoid(w14 * perceptron1[0] + w24 * perceptron2[0] + w34 * perceptron3[0] + w04);

결과 = 퍼셉트론4[0]

 
forexman77 :

테스트를 어느 정도 얻을 수 있도록 최대 변수를 몇 개까지 사용할 수 있습니까? 이러한 목적을 위한 소프트웨어가 있을 수 있습니까?

뉴런의 가중치 수는 수만 개 이상일 수 있습니다. mql과 R에는 뉴런을 생성하고 훈련하기 위한 특수 라이브러리가 있습니다. 뉴런을 처음부터 프로그래밍하는 것보다 이를 통해 작업하는 것이 좋습니다.

 
산산이치 포멘코 :

숨을 고르게 놔두지 않아.. 숨을 고르고 진정해


더 멀리 갈수록 더 범주적입니다 ;))

 
산산이치 포멘코 :


이 입장은 통계 공리(그리고 모든 수학은 물론)에 의해 매우 간략하게 공식화됩니다. GARBAGE IN - GARBAGE OUTPUT.

이것을 모르거나 실행에 옮기지 않는 사람은 퍼셉트론이라는 단어를 알든 모르든 빽빽한 무지에 속한다고 생각합니다.


맞아요. 나는 지원한다.

 
막심 드미트리예프스키 :

네, 그 순간에 근사에 대해 읽고 있었기 때문에 실수로 단어를 혼동했습니다.


엄청난 ;))))

 
올렉 자동판매기 :

맞아요. 나는 지원한다.


특정 질문에 대한 응답으로 의식의 흐름을 부적절하게 유지합니까? 일반적으로 나는 나이가 들어감에 따라 사람들의 의식이 둔해 지고 당신이 그에게 말을 하고 그가 당신에게 그의 모든 만족스럽지 못한 환상의 고귀한 부분을 준다는 것을 알아차렸습니다. 물론 같은 방식으로 의사 소통하기 때문에 지원합니다. 아니면 나이가 아니라 문제의 본질에 집중하는 능력이 근본적으로 부족하기 때문일 수도 있습니다.

응답자의 기술은 질문자의 문제에 몰두하고 잠시 동안 자신이되어 그가 필요한 것을 이해하고 이해하는 방식으로 대답하는 것입니다. 그리고 그냥 구두로 똥을 싸는 것은 예술이 아니라 자기 확인입니다.

 
막심 드미트리예프스키 :

특정 질문에 대한 응답으로 의식의 흐름을 부적절하게 유지합니까? 일반적으로 나는 오래 전에 사람들의 의식이 나이가 들면서 당신이 그에게 말을 하면 그가 당신에게 그의 모든 만족스럽지 못한 환상의 고귀한 부분을 준다는 것을 알아차렸습니다. 물론 같은 방식으로 의사 소통하기 때문에 지원합니다. 아니면 나이가 아니라 주제에 집중하는 능력이 근본적으로 부족한 것일 수도 있습니다.

응답자의 기술은 질문자의 문제에 몰두하고 잠시 동안 자신이되어 그가 필요한 것을 이해하고 이해하는 방식으로 대답하는 것입니다. 예술이 아니라 자기 긍정이라니.


헷갈리지 않고, 근사, 보간, 외삽 등 어려운 용어가 무엇인지 꾸준히 구별하기 위해 교과서를 펴고 공부합니다. 그러나 당신은 버튼을 찌르는 것을 선호하고 거기에 찔린 것을 이해하려고 노력합니다. 그리고 이해를 위해서는 지식 기반이 충분하지 않습니다. 배우고 이해하면 의미 있는 실험을 계획하고 의미 있는 실험을 설정할 수 있으며 실험 결과가 명확해집니다.

 
올렉 자동판매기 :

헷갈리지 않고, 근사, 보간, 외삽 등 어려운 용어가 무엇인지 꾸준히 구별하기 위해 교과서를 펴고 공부합니다. 그러나 당신은 버튼을 찌르는 것을 선호하고 거기에 찔린 것을 이해하려고 노력합니다. 그리고 이해를 위해서는 지식 기반이 충분하지 않습니다. 배우고 이해하면 의미 있는 실험을 계획하고 의미 있는 실험을 설정할 수 있으며 실험 결과가 명확해집니다.

미안하지만 내 질문에서 아직 당신의 가치를 입증하지 못했습니다. 적어도 나는 그것을 보지 못했습니다.

그리고 캡틴의 스타일로 쓰는 것은 쓸모없고 모든 것을 뒤집어서 다시 조금 중요하게 보이게합니다.