트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 500

 
막심 드미트리예프스키 :

미안하지만 내 질문에서 아직 당신의 가치를 입증하지 못했습니다. 적어도 나는 그것을 보지 못했습니다.

그리고 캡틴의 스타일로 쓰는 것은 쓸모없고 모든 것을 뒤집어서 다시 조금 중요하게 보이게합니다.


당신은 기본 개념에 대해 혼란스러워합니다. 배우십시오 - 자신의 이익을 위해 필요합니다. 불평보다 배우세요...


추신

그리고 나는 당신에게 아무것도 증명할 필요가 없습니다.

 
올렉 자동판매기 :

당신은 기본 개념에 대해 혼란스러워합니다. 배우십시오 - 자신의 이익을 위해 필요합니다. 불평보다 배우세요...


추신

그리고 나는 당신에게 아무것도 증명할 필요가 없습니다.


또 다른 높은 .. 간단한 질문에 대답하는 대신 - 숲이 외삽 할 수 있는지 여부 :D

나는 이해하기 쉬운 예를 들었습니다. 아니요. 그들은 나와 말다툼을 하기 시작했지만 아무도 설명할 수 없었고 이제 나는 책을 읽어야 하는 것으로 밝혀졌습니다.

스스로 배우고 결론을 내리는 중, 더 이상 필요하지 않습니다. MO를 더듬는 사람들에게는 매우 간단한 질문 이었지만 아무도 더듬지 않는 것으로 나타났습니다.

그리고 물론, 특히 habré와 기사를 쓰는 모든 사람들은 모두 바보이며 분명히 Leo Breiman도 바보입니다.

 
막심 드미트리예프스키 :

또 다른 높은 .. 간단한 질문에 대답하는 대신 - 숲이 외삽 할 수 있는지 여부 :D

나는 이해하기 쉬운 예를 들었습니다. 아니요. 그들은 나와 말다툼을 하기 시작했지만 아무도 설명할 수 없었고 이제 나는 책을 읽어야 하는 것으로 밝혀졌습니다.

스스로 배우고 결론을 내리는 중, 더 이상 필요하지 않습니다. MO를 더듬는 사람들에게는 매우 간단한 질문 이었지만 아무도 더듬지 않는 것으로 나타났습니다.


질문을 이런 식으로 하면 이미 이해와 인식 수준을 입증한 것입니다.

 
올렉 자동판매기 :

이런 식으로 질문을 하면 이미 이해와 인식 수준을 보여주는 것입니다.


모두 안녕)

 
막심 드미트리예프스키 :

모두 안녕)


건강. 배우다.

 
박사 상인 :

거의 맞습니다. 결과에 추가로 추가되는 편향이 여전히 있습니다.

대부분의 경우 y1, y2, y3 값은 뉴런의 내부 레이어에서 사용되며 이러한 값 자체도 다음 레이어의 입력 값으로 사용해야 합니다

또는 Y1,Y2,Y3이 출력 값이면 여러 출력 뉴런이 분류에 사용됩니다. 예를 들어 Y1,Y2,Y3 중 가장 큰 값이 Y1이면 결과는 "클래스 1"입니다. Y2에서 가장 큰 값이 Y3이면 결과는 "클래스 2"이고 결과는 "클래스 3"입니다. 뉴런이 분류 대신 회귀에 사용되는 경우 출력 뉴런은 하나뿐입니다. 클래스가 두 개뿐인 경우 하나의 출력 뉴런으로 처리할 수 있습니다(결과가 <0.5이면 class1, >=0.5이면 class2).

뉴런의 활성화 함수에 sigmoid를 추가하는 것은 매우 쉽습니다. 그런 함수가 필요합니다 -

그리고 그것으로 이미 내부 레이어(3개의 퍼셉트론 포함)와 하나의 출력 퍼셉트론이 있는 본격적인 뉴런을 얻을 수 있습니다.

결과 = 퍼셉트론4[0]


답변 해주셔서 감사합니다! 저에게는 매우 교육적입니다.

내가 이해한 대로 Shift(편향)는 편향 뉴런입니까? 설명에 따르면 입력이 0일 때 도움이 됩니다. 편향 뉴런은 무엇에 사용되며 어떤 가중치를 선택해야 한다고 생각하십니까? 기본적으로 무게입니다.

시그모이드 변환 이후 또는 이후에 임계값을 확인하는 가장 좋은 방법은 무엇입니까?

 
박사 상인 :

뉴런의 비늘 수는 수만 개 이상일 수 있습니다. mql과 R에는 뉴런을 생성하고 훈련하기 위한 특수 라이브러리가 있습니다. 뉴런을 처음부터 프로그래밍하는 것보다 이를 통해 작업하는 것이 좋습니다.


예를 들어 mql4에서는 동시에 최대 15개의 매개변수를 최적화할 수 있었고 mql5에서는 더 많은 매개변수를 최적화할 수 있었습니다.

그리고 한 레이어가 조정된 다음 최적화된 첫 번째 레이어로 두 번째 레이어가 조정되는 방식으로 나타납니다. 그러나 한 번에 모든 계층을 갖는 것이 좋겠지만 컴퓨팅 성능은 제공하지 않습니다.

레이어가 하나씩 최적화되면 이 경우 시스템에 더 이상 패턴이 표시되지 않는다고 가정합니다.

한 층이 함침되더라도 다음 층은 첫 번째 층의 가정을 기반으로 합니다.

 
막심 드미트리예프스키 :

또 다른 높은 .. 간단한 질문에 대답하는 대신 - 숲이 외삽 할 수 있는지 여부 :D


또 다른 높은 .. 간단한 질문에 대답하는 대신 - 숲이 외삽 할 수 있는지 여부 :D

그리고 다음과 같은 질문을 할 수도 있습니다. 랜덤 포레스트는 달고 짜나요? 일반적으로 어리석은 질문을 많이 하고 인터넷에서 링크를 선택할 수도 있습니다.


좀 더 체계적인 교육을 받은 포럼 회원들이 이 문제에 대해 고민하지 않았다면 대답하지 않을 수 없었을 것입니다.


Random Forests는 EXTRAPOLATION이라는 단어가 전혀 적용되지 않기 때문에 외삽할 수 없습니다. 랜덤 포레스트는 다른 머신 러닝 모델과 마찬가지로 미래 값을 예측할 수 있지만 이것은 외삽이 아니며 통계에서 외삽이라는 용어를 전혀 적용할 수 없습니다.


그리고 그 이유입니다.

원래 EXTRAPOLATION이라는 용어는 공식이 있는 일반 함수인 함수를 나타냅니다.

예를 들어.

у = а+ bх

이 공식을 사용하여 원래 정의 영역(보간) 내부와 외부 - 외삽 함수의 값을 계산할 수 있습니다.


통계에는 그런 공식이 없습니다. 일반적으로 단어에서.

그리고 "임의의 숲을 외삽할 수 있는가"에 대한 이 모든 소란은 이것과 정확하게 연결됩니다. 왜냐하면 왜냐하면. 통계에서 아날로그는 다음과 같습니다.

у ~ а + bх

선형 회귀와 선형 함수를 구별하기 위해 등호 대신 물결표가 사용됩니다.

이 차이는 선형 방정식의 "a"가 물결표로 표시된 선형 회귀의 "a"가 아니라는 사실을 포착합니다. "b"에도 동일하게 적용됩니다.

첫 번째 방정식에서 "a"가 상수이면 두 번째 방정식에서 "a"는 분산 값과 "a"의 값이 " 우리가 보는 것은 존재하지 않습니다. 이 NOT 존재의 확률이 10% 이상이면 값 "a"는 무시될 수 있습니다.


그리고 이제 귀하의 질문에:

- 회귀 방정식에서 외삽할 수 있습니까?

- 아니요. 그러나 신뢰 구간 내에서 값을 취할 확률 변수의 미래 값을 예측하는 것은 가능합니다. 이 신뢰 구간이 95%(귀무 가설에서 확률 5%)이면 이 신뢰 구간 내에서 "y"를 얻습니다. 그리고 이 값의 배수인 분산이 있는 ""에 대한 추정치를 얻었다면 아무 것도 예측할 수 없습니다.


함수가있을 때 의미가있는 귀하의 질문이 통계에서 전혀 의미가 없다는 것을 자세히 설명했기를 바랍니다.

 
산산이치 포멘코 :


이제 귀하의 질문에:

- 회귀 방정식에서 외삽할 수 있습니까?

- 아니요. 그러나 신뢰 구간 내에서 값을 취할 확률 변수의 미래 값을 예측하는 것은 가능합니다. 이 신뢰 구간이 95%(귀무 가설에서 확률 5%)이면 이 신뢰 구간 내에서 "y"를 얻습니다. 그리고 이 값의 배수인 분산이 있는 ""에 대한 추정치를 얻었다면 아무 것도 예측할 수 없습니다.


그리고 지금,주의, 그런 질문은 없었습니다 ...)

예를 들어 다음과 같은 질문이 있었습니다.

박사 상인 :

외삽은 훈련 중에 알려진 예측자 값을 넘어 새로운 데이터의 예측을 포함합니다.

나는 그것이 예측자가 아니라 표적이라고 덧붙일 것입니다. 왜냐하면 예측자라면 우리는 외삽이 아니라 보간을 다루고 있기 때문입니다.

따라서 랜덤 포레스트는 보간할 수 있지만(입력을 정규화할 필요조차 없음) 외삽할 수 없습니다.

통계 에서 과거에 확립된 경향을 미래로 확장(시간 경과에 따른 외삽은 인구의 전향적 계산에 사용됨) 관찰 대상이 아닌 모집단의 다른 부분에 대한 표본 데이터의 분포(공간 외삽).

회귀 트리를 사용하면 1.4500 이상의 따옴표와 같은 새로운 데이터로 결과를 확장할 수 없으며 항상 1.4500의 예측을 제공하지만 1.3000보다 크거나 작지 않습니다. 예를 들어 (대상으로) 1.3000-14500의 샘플 및 이것은 의사 결정 트리 구성 원칙에서 비롯됩니다.

트리와 달리 선형 회귀와 신경망은 서로 다른 원칙에 따라 구축되기 때문에 이에 쉽게 대처할 수 있습니다.

다시 한 번: 훈련 간격 외부의 새 데이터는 새 RF 샘플의 입력에 공급될 수 있으며 완벽하게 보간됩니다. 그러나 출력에서는 외삽하지 않습니다. 예측된 값은 훈련된 출력 간격을 절대 넘지 않습니다.

 
막심 드미트리예프스키 :

그리고 지금,주의, 그런 질문은 없었습니다 ...)

예를 들어 다음과 같은 질문이 있었습니다.

박사 상인 :

외삽은 훈련 중에 알려진 예측자 값을 넘어 새로운 데이터의 예측을 포함합니다.

나는 그것이 예측자가 아니라 표적이라고 덧붙일 것입니다. 왜냐하면 예측자라면 우리는 외삽이 아니라 보간을 다루고 있기 때문입니다.

따라서 랜덤 포레스트는 보간할 수 있지만(입력을 정규화할 필요조차 없음) 외삽할 수 없습니다.

통계 에서 과거에 확립된 경향을 미래로 확장(시간 경과에 따른 외삽은 인구의 전향적 계산에 사용됨) 관찰 대상이 아닌 모집단의 다른 부분에 대한 표본 데이터의 분포(공간 외삽).

회귀 트리를 사용하면 1.4500 이상의 따옴표와 같은 새로운 데이터로 결과를 확장할 수 없으며 항상 1.4500의 예측을 제공하지만 1.3000보다 크거나 작지 않습니다. 예를 들어 1.3000-14500의 샘플(목표로) 및 이것은 의사결정 트리 구성 원칙에서 비롯됩니다.

트리와 달리 선형 회귀 및 신경망은 서로 다른 원칙에 따라 구축되기 때문에 이에 쉽게 대처할 수 있습니다.

다시 한 번: 훈련 간격을 벗어난 새 데이터는 새 RF 샘플의 입력에 공급될 수 있으며 완벽하게 보간됩니다. 그러나 출력에서는 외삽하지 않습니다. 예측된 값은 훈련된 출력 간격을 절대 넘지 않습니다.


당신은 내 게시물에서 아무것도 이해하지 못했습니다. 전혀.


귀하의 존재로 인해 죄송합니다.