트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 1271

 
그런 다음 정규 분포는 완료된 프로세스에서만 예상 할 수 있다는 아이디어가 떠올랐습니다. (그냥 생각 - 확인하지 않았습니다) 상처는 그렇지 않으므로 고르지 않은 분포와 비 고정성에 대한 모든 가정은 단지 시장이 존재하는 동안에는 확인할 수 없는 추측.
 
막심 드미트리예프스키 :

시장을 위해 그는 기술이 동일하기 때문에 정확히 동일한 방식으로 훈련합니다. "영향"은 잊어 버리십시오. 당신이 그것을 상상하는 훈련에서 명시 적으로는 아닙니다. 그러나 일련의 전략, 최적의 전략 등이 있습니다. (RL에서는 정책이라고 함)

봇 제작자가 있다면 그에게 일련의 질문을 하고 답변에 매우 놀랄 수 있습니다. 이 모든 RL은 환경에 영향을 미치는 고정 요소에 대해 잘 훈련되어 있지만 다른 플레이어와 경기하는 경우 RL은 알몸 형태로 작동하지 않습니다. 제가 이 분야를 깊이 공부하지 않았기 때문에 제가 틀릴 수도 있습니다. 그러나 여기에는 변화하는 환경과의 명확한 상호 작용이 있습니다. 봇의 행동에서 무언가에 대한 기대가 있는지 명확하지 않고 전혀 보이지 않으며 두 사람 모두에게 피해를 줄 확률에 대한 통제가 있습니다. 여기에서 오산은 간단하고 부정적인 결과의 낮은 확률로 작동하지만 이것은 게임 시작 시 정책에 의해 설정된 확률이 아닙니다. 이것은 변화하는 환경에 대한 영향입니다.

 
나는 너희들을 여기에서 읽었다. 몇 개의 게시물과 나는 이론이 완전히 서두르고 있다는 것을 깨달았습니다. 그러나 연습을 시작하면 매우 놀랄 것입니다. 새로운 솔루션을 찾기 위해 모델을 구축하는 것은 실제 거래에 비하면 아무것도 아닙니다. 모든 것을 설정하고 설정하고 기다립니다........ 그러면 첫 번째 신호가 나타나고 로봇이 거래를 엽니다. 그러나 가장 매복은 이 거래의 결과와 그 (로봇) 결정을 분석할 때입니다. 그는 계속 돈을 벌 것인가 아니면 그것을 바꿀 때인가. 최근에 나는 일반적으로 최적화 후에 그가 적자에서 1~3번의 거래를 하고 나서야 상승하기 시작한다는 것을 알게 되었습니다. 그리고 이 순간에도 당신은 소란을 피우고 확인하기 시작합니다. 올 아니오로 올라갈 것입니다. 즉, 실제 거래로 전환하면 검색 및 최적화 기간 동안에는 생각조차 하지 못한 문제에 직면하게 됩니다. 따라서 더 빨리 연습을 시작할수록 능동적인 트레이더의 문제에 더 빨리 직면하게 됩니다. 자연스럽게 IMHO
 
 
나는 비디오와 러시아어로 된 코멘트를 보았고 심지어 행동을 아주 정확하게 표현했다는 것에 놀랐습니다. 자산 평가가 있고, 결과의 확률이 있고, 마이크로 컨트롤이 있고, 개발을 위한 초기 전략이 엿보입니다. 마이크로 컨트롤 효율성과 분명히 경제적 관점에서 가장 효과적인 전투를 위해 정확한 단위 선택에 매우 큰 중점을 둡니다. 게다가 전투에서 빨리 이기기 때문에 다른 것은 필요하지 않습니다. 일반적으로 여러 구성 요소가 분명히 있으며 하나의 뉴런이 아니라 다른 구성 요소를 담당하는 서로 다른 모델이 있을 가능성이 큽니다. 글쎄, 개발자 자신은 기본 전략의 다른 모델이 사용되어 특정 무작위가있을 것이라고 말했습니다.
 

안녕하세요. 여기 있는 모든 사람이 충분히 똑똑하고 이는 풍자와는 거리가 멀고 사실에 대한 진술이라는 것을 알았기 때문에. 지능이 딸리지 않는 사람들이 MO 영역에 오면 커뮤니티에 질문이 있습니다. 누가 우분투를 관리했습니까? 관리에 대해 이야기하고 있습니다. 과제는 이것입니다. 분할할 수 없는 프로세스가 있으며 최적화 기간 동안 이 프로세스가 시스템에 있는 코어 수만큼 실행되어 계산 등을 병렬 처리합니다.

질문: 2개 또는 4개의 코어가 하나의 실행 중인 분할할 수 없는 프로세스를 제공하도록 강제할 수 있습니까? 글쎄, 그게 나야 .. 아마도 아는 사람과 지역 주민들 ...

 

구글은 오늘도 일한다

https://deepmind.com/blog/alphastar-mastering-real-time-strategy-game-starcraft-ii/

그래, 어제 또 희망 없는 논쟁에 빠졌어

 
막심 드미트리예프스키 :

구글은 오늘도 일한다

https://deepmind.com/blog/alphastar-mastering-real-time-strategy-game-starcraft-ii/

그래, 어제 또 희망 없는 논쟁에 빠졌어

전투 결과를 기다리는 그래프에주의하십시오. 뉴런의 피드백을 활성화하는 상황에 대해 말한 확률이 정확히 있습니다. 이 확률이 정찰 중에 어떻게 변하고 양측에서 유닛이 손실되는지 명확하게 알 수 있습니다. 힘의 균형과 그들의 기대에 대한 지속적인 재계산이 있습니다. 이것은 분명히 고전적인 RL 변형이 아닙니다.


 
알렉세이 비아즈미킨 :

전투 결과를 기다리는 그래프에주의하십시오. 뉴런의 피드백을 활성화하는 상황에 대해 말한 확률이 정확히 있습니다. 이 확률이 정찰 중에 어떻게 변하고 양측에서 단위 손실이 발생하는지 명확하게 알 수 있습니다. 힘의 균형과 그들의 기대에 대한 지속적인 재계산이 있습니다. 이것은 분명히 고전적인 RL 변형이 아닙니다.


너무 혀를 내두르셔서 이걸 설명하려고 하신건줄 알았어요 :D

링크에서 내쉬 평형에 대해서도 읽어보고 어제 1 in 1 알고리즘을 읽지도 않고 설명했습니다

당신은 확률이 평가되지 않는다고 썼지 만 상대방에게 영향이 있습니다 :)) 당신의 메시지를 다시 읽으십시오

이것은 분명히 고전적인 딥 RL LOL입니다. 주제에 없으면 말도 안되는 소리 그만하십시오.

 
막심 드미트리예프스키 :

너무 혀를 내두르셔서 이걸 설명하려고 하신건줄 알았어요 :D

링크에서 내쉬 평형에 대해서도 읽어보고 어제 1 in 1 알고리즘을 읽지도 않고 설명했습니다

당신은 확률이 평가되지 않는다고 썼지 만 상대방에게 영향이 있습니다 :)) 당신의 메시지를 다시 읽으십시오

이것은 분명히 고전적인 딥 RL LOL입니다. 주제에 없으면 말도 안되는 소리 그만하십시오.

거래, 자동 거래 시스템 및 거래 전략 테스트에 관한 포럼

거래에서의 기계 학습: 이론 및 실습(거래 등)

Aleksey Vyazmikin , 2019.01.25 17:15

나는 그것을 조금 다르게 봅니다. 장난감에는 봇의 수와 잠재력, 재산, 돈 및 적의 목표는 이러한 추정 지표를 줄이는 것입니다. 예상 지표를 적보다 높게 유지하는 방법, t .e. 결과에 더 적은 에너지를 소비합니다. 따라서 단위를 희생함으로써 상대방 자산의 예상 가치를 단위의 예상 가치보다 더 크게 줄일 것이 분명한 경우, 이것이 올바른 결정이며, 그렇지 않은 경우 상호 영향을 주는 시스템이 얻어집니다. , 그러면 옳지 않습니다. 그리고 거래에서 우리는 보장이 없고 확률만 있으며 장난감에는 계산할 수 있는 수학적 보장이 있습니다.

우리는 상황에 영향을 줄 수 없지만 게임에서 우리 자신에게 유리한 상황을 만드는 것을 포함하여 가능합니다.

거래, 자동 거래 시스템 및 거래 전략 테스트에 관한 포럼

거래에서의 기계 학습: 이론 및 실습(거래 등)

Aleksey Vyazmikin , 2019.01.26 00:06

봇 제작자가 있다면 그에게 일련의 질문을 하고 답변에 매우 놀랄 수 있습니다. 이 모든 RL은 환경에 영향을 미치는 고정 요소에 대해 잘 훈련되어 있지만 다른 플레이어와 경기하는 경우 RL은 알몸 상태에서 작동하지 않습니다. 제가 이 분야를 깊이 공부하지 않았기 때문에 제가 틀릴 수도 있습니다. 그러나 여기에는 변화하는 환경과의 명확한 상호 작용이 있습니다. 봇의 행동에서 무언가에 대한 기대가 있는지 명확하지 않고 전혀 보이지 않으며 두 사람 모두에게 피해를 줄 확률에 대한 통제가 있습니다. 여기에서 오산은 간단하고 부정적인 결과의 낮은 확률로 작동하지만 이것은 게임 시작 시 정책에 의해 설정된 확률이 아닙니다. 이것은 변화하는 환경에 대한 영향입니다.


나는 당신의 두뇌가 책의 관점에서 생각하는 데 익숙할지 모르지만 덜 중요한 문제를 다루는 것이 더 쉽기 때문에 나는 그것을 내 자신의 말로 설명했습니다.
사유: