지뢰밭에서의 시장예절 또는 예의범절 - 페이지 83

 
paralocus писал(а) >>

임계값 H가 있는 틱 BP의 최적 kagi-파티셔닝은 이러한 파티셔닝으로 간주되어야 하며, 여기서 여러 트랜잭션의 연속적인 단색 숄더 수가 최소 개수입니다.

수신된 트랜잭션 시리즈의 분포가 연속된 숄더의 50% 이상이 다른 색상을 갖는 것과 같은 경우 NS는 왜 합니까?

모든 것이 정확합니다. 실제로, 당신이 말한 사례는 당신이 돈을 벌 수 있고 또 벌어야 하는 비효율적인 시장에 해당합니다! 터미널 시간과 별도로 일련의 트랜잭션(RT)을 구축하면(시리즈 읽기만) 효과가 가장 분명합니다.

TS가 Pastekhov의 논문에 설명된 Kagi 구성을 기반으로 파악하는 것은 이러한 영역(그리고 H+/- 전략에서도 동일하게 보입니다)입니다. 그러나 이러한 차량의 낮은 수익성(DC 수수료 대비)과 관련된 문제가 있습니다. 이것은 고전적 전략이 Kagi 구조의 가장 단순하고 가장 접근하기 쉬운 속성을 이용한다는 사실 때문입니다. RT 부호의 교대이지만 다른 규칙성이 있습니다... 그것들은 정확히 NN이 밝혀야 하는 것입니다!

 
Neutron >> :

다른 규칙성이 있습니다... 그것이 NN이 감지해야 하는 것입니다!

이 metsa에서 더 자세히 가능합니까? 어깨길이 빼고는 생각나는게 없네요 (국회랑 카기 생각하면)

그래서 나는 약간 당황했습니다.

나란히 훈련된 신경망이 있다고 합시다: +1,-1,+1,-1,+1,-1....(즉, 이진 입력). 이 경우 그녀가 배울 내용의 세 배를 약 80%의 정확도로 추측할 수 있습니다. 이 경우 NS의 비선형성은 중요하지 않습니다.

 

나는 당신만큼 몇 가지 질문에 대한 답변을 알고 싶습니다!

바이너리 NN이 어떻게 작동하는지 봅시다. 훈련 벡터가 있다고 가정합니다. 출력 오류를 최소화하기 위해 이러한 신경망이 할 수 있는 모든 것은 가능한 모든 입력 조합에 대한 결과의 확률을 계산하는 것입니다. 명확성을 위해 3개의 입력이 있다고 가정하고 모든 입력 조합은 다음 패턴으로 귀결됩니다(아름다움을 위해 +/-1에서 0/1로 이동).

000

001

010

011

100

101

110

111

훈련 벡터 P 를 입력 수 d 보다 몇 배 더 길게 하면 신경망은 단순히 각 패턴에서 1이 나올 확률 p를 계산합니다(0 확률은 1- p임 ). 그러나 우리는 국회 없이 이것을 할 수 있습니다! 여기에 하나의 미묘함이 있습니다. 즉, 훈련 벡터에 조합이 없을 때 무엇을 하시겠습니까? 실제로 이 패턴에 무엇을 할당하시겠습니까? - 아무것도! 벡터 P 를 만날 때까지(패턴) 길이를 늘려야 합니다. 사용할 수 있는 데이터가 충분하거나 데이터가 있더라도 최적의 교육 기간을 벗어날 수 없다는 사실이 아닙니다. 내 말을 이해합니까? 여기서 국회의 장점이 극에 달한다. 그녀는 (모든 경우에 대해) 전체 교육이 필요하지 않으며 일반화의 최대 신뢰성으로 사용 가능한 지식을 일반화할 수 있습니다! 즉, 이전에 자습서에 없었더라도 패턴 자체에 대한 가장 가능성 있는 결과를 복원합니다. 주어진 상황에서 결정을 내리는 데 선례가 필요하지 않기 때문에 성인과 같습니다.

따라서 그녀는 사용 가능한 데이터(입력)를 특정 초표면에 투영하여 결정을 내릴 것이며, 이는 그녀가 훈련 중에 피쳐 공간 에 구축합니다. 이 표면은 다차원(입력 수에 따라 다름)이며 평면 또는 더 높은 차수의 표면(포물면, 3차원 쌍곡면 등)일 수 있습니다. 비선형성의 존재는 표면의 복잡한 토폴로지를 사용할 수 있게 하며, 입력이 바이너리인지는 중요하지 않습니다. 중요하지 않은 표면에 투영되는 것이 중요합니다.

그래서 바이너리 입력에서도 비선형성이 역할을 한다고 생각합니다.

 
네 이해했습니다. 한 가지 아이디어가 있습니다. Y축에서 일련의 거래의 다음 숄더의 투영 모듈이 n>1 스프레드가 될 확률을 계산할 필요가 있습니다. 그런 다음 어깨 길이의 MO로 트릭의 크기를 계산하고 스톱은 동일합니다. 그게 통계가 줄 수 있는 전부지만 +입니다.
 

비선형 FA가 있는 은닉층에 대한 오류의 재계산으로 내가 약간 무딘 것입니다. 내가 은닉층 오류를 제대로 받아들이고 있는 걸까?

여기서 나는 은닉층의 출력에서 오류가 출력층의 해당 시냅스의 미세 수정 값과 같은 것으로 판명되었다는 사실에 혼란스러워합니다

 

아니요, 모든 것이 옳지는 않습니다!

1. 당신은 국회의 결과를 찾습니다 - OUT . 당신이 옳다.

2. 당신은 국회의 오류를 고려합니다: dOUT \u003d x-OUT. 이 오류를 알면 출력 뉴런의 가중치 보정 값을 찾을 수 있습니다. 이것은 당신에게도 맞습니다.

3. 은닉층(입력)의 각 i 번째 뉴런의 출력에서 동일한 오류가 발생합니다. 다음 공식에 따라 입력으로 다시 계산합니다. dIn[i]=dOUT*(1-out[i]^ 2 ), 여기서 out[i] - 은닉층의 i 번째 뉴런의 출력. 각 뉴런의 입력에 주어진 오차( dIn[i] )를 알면 입력 레이어에서 가중치 보정 값을 찾을 수 있습니다.

 

단일 레이어에 대해 100 - 120 에포크를 주었습니다. dvushki의 경우 이것이 충분하지 않습니까? 그녀가 kotira(시간 시계)에서 좋은 결과를 내지 못하는 것.


 
paralocus писал(а) >>

그녀가 kotira(시간 시계)에서 좋은 결과를 내지 못하는 것.

다른 걸 예상했나요?

 
Neutron >> :

다른 걸 예상했나요?

솔직히 말해서 그렇습니다. 최소한 하나의 레이어가 작동했습니다. 물론 당신이 옳긴 하지만, 이제 완전히 시간 프레임을 멈출 때입니다.

 
paralocus писал(а) >>

단일 레이어에 대해 100 - 120 에포크를 주었습니다. dvushki의 경우 이것이 충분하지 않습니까? 그녀가 kotira(시간 시계)에서 좋은 결과를 내지 못하는 것.

단층을 말하는 줄 알았는데...

나는 한 시간 동안 2개의 레이어가 안정적으로 th<=0.05를 생성하고 단일 레이어는 거의 0에 가깝습니다.

사유: