트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 1703

 
mytarmailS :

당신은 언제 (당신의 지성이 문제를 해결한다고 생각합니까) 이 순간 누군가와 의사 소통을 해야 합니까?

우리는 지금 다른 언어로 의사 소통하기 때문에 여전히 지능에 대한 "벌레 같은"정의를 버릴 수 없습니다.

아마도 AI에 대한 나의 이해가 절름발이일 것입니다. 그러나 일반적으로 AI는 정확히 사람과 상호 작용하는 시스템입니다. AI가 사람과 상호 작용하지 않고 편리한 음성 및 시각적 인터페이스를 제공하지만 숨겨진 모드에서 쟁기질하면 그는 프로그램에 불과합니다. 그렇지 않습니까?

또한 이 프로그램은 신경망에서 작동할 수 있지만 AI는 아닙니다.
 
피터 코노우 :
그리고 데이터에 대한 이러한 과도한 요구가 단점으로 보이지 않습니까? 도로 표지판을 인식하는 HC가 측면에 작은 스티커가 있으면 잘못 인식한다고 들었습니다. 이 초고감도가 필요하지 않을까요?

여기가 조금 다릅니다. 가르칠 때 실수를 하면 본질적으로 당신 자신이 의심하지 않는 것을 그녀에게 가르치기 시작합니다. 나는 국회가 어렸을 때 당신이 그녀에게 원하는 모든 것을 철저히 말해야 한다고 상기시킵니다. 결국 학습에 대한 아이디어의 틀 내에서 얻은 결과를 해석하지만 실제로는 옵션으로 흐릿한 것으로 판명되었습니다.

오늘의 팁. 좌표계의 원점에서 공 형태로 입력 벡터를 배치하면 명확성을 달성하고 불일치를 피할 수 있습니다.

 
피터 코노우 :
아마도 AI에 대한 나의 이해가 절름발이일 것입니다. 그러나 일반적으로 AI는 정확히 사람과 상호 작용하는 시스템입니다. AI가 사람과 상호 작용하지 않고 편리한 음성 및 시각적 인터페이스를 제공하고 스텔스 모드에서 작동 한다면 그는 프로그램일 뿐입니다. 그렇지 않습니까?

네!!!!!

내가 말하는 바로 그거야!




지능 은 정보를 선택하고 변환하는 자체 변경, 자체 조정 알고리즘으로 , 이전에 주제에 알려지지 않았고 기성품 형태로 외부에서 입력되지 않은 정보 모듈이 발생합니다.



이것은 마음이 아닙니다. 이것은 유일하게 알려진 사고 방식이며, 여러분 모두는 그것을 마음과 혼동합니다.

자전거 안장과 자전거 안장을 혼동하여 타는 안장을 원한다!

 
마이클 마르쿠카이테스 :

여기가 조금 다릅니다. 가르칠 때 실수를 하면 본질적으로 당신 자신이 의심하지 않는 것을 그녀에게 가르치기 시작합니다. 나는 국회가 어렸을 때 당신이 그녀에게 원하는 모든 것을 철저히 말해야 한다고 상기시킵니다. 결국 학습에 대한 아이디어의 틀 내에서 얻은 결과를 해석하지만 실제로는 옵션으로 흐릿한 것으로 판명되었습니다.

오늘의 팁. 좌표계의 원점에서 공 형태로 입력 벡터를 배치하면 명확성을 달성하고 불일치를 피할 수 있습니다.

확인. 나는 신경망이 데이터에서 반복되는 불변량을 포착하도록 훈련된다는 것을 알고 있습니다. 사실 이것은 통계적 접근 방식입니다. 작은 일회성 오류가 학습에 큰 영향을 미치는 이유는 무엇입니까? 사람이 눈치 채지 못하고 잊어 버리면 네트워크 교육 이 중단됩니까?
 
피터 코노우 :
확인. 나는 신경망이 데이터에서 반복되는 불변량을 포착하도록 훈련된다는 것을 알고 있습니다. 사실 이것은 통계적 접근 방식입니다. 작은 일회성 오류가 학습에 큰 영향을 미치는 이유는 무엇입니까? 사람이 눈치 채지 못하고 잊어 버리면 네트워크 교육이 중단됩니까?

실수 오류 투쟁. 작은 실수가 큰 영향을 미칠 수 있습니다.

그리고 NN은 중복 데이터를 잡지 않도록 요청받습니다. 반복적인 데이터가 없는 상황에서 올바른 결과를 얻기 위해 숨겨진 패턴을 식별해야 합니다. 일반화의 개념입니다. 유한한 데이터 영역이 있지만 해당 데이터의 50%만 있는 경우. 네트워크는 훈련되었으며 패턴을 식별하면 본 적이 없는 나머지 데이터를 구축할 수 있습니다. 네트워크가 자체적으로 그리는 누락된 픽셀이 있는 오래된 비디오를 복원하는 것과 같습니다.

 
mytarmailS :

네!!!!!

내가 말하는 바로 그거야!




지능 은 정보를 선택하고 변환하는 자체 변경, 자체 조정 알고리즘으로 , 이전에 주제에 알려지지 않았고 기성품 형태로 외부에서 입력되지 않은 정보 모듈이 발생합니다.



이것은 마음이 아닙니다. 이것은 유일하게 알려진 사고 방식이며, 여러분 모두는 그것을 마음과 혼동합니다.

자전거 안장과 자전거 안장을 혼동하여 타는 안장을 원한다!

나는 혼동하지 않는다. 나는 프로그램을 기존 알고리즘, 신경망, AI 및 마인드로 명확하게 구분했습니다.

인공 지능은 신경망의 닫힌 프로그램과 달리 사람과 직접 상호 작용하며 이 상호 작용 과정에서 사람에 의해 프로그래밍됩니다. 그리고 국회의 프로그램은 폐쇄 모드에서 쟁기질하고 외부 데이터의 인식에 제한이 있습니다.

지능의 정의는 정확합니다.
 
알렉세이 비아즈미킨 :

아마도 우회하지만 콘테스트에서 선택은 고정되어 있으며 특히 쓰레기 기능이 없습니다. 조건은 우리가 작업하는 것이 아니며 이러한 기능을 고려하여 데이터를 준비하는 것이 가장 좋은 방법이라고 생각합니다. (해결책은 아직 최종 형태는 아니지만 중요한 작업입니다.)

나무를 만들기 위한 다른 모델은 좋지만 아직 별도의 파일에 업로드할 수 없기 때문에 Expert Advisor에 재봉될 수 없다는 의미입니다. 좋지 않습니다.

JSO 데이터에서 분할을 볼 수 있는 링크를 제공했습니다. 여기에서 전체 모델을 파일로 언로드하기만 하면 됩니다. 그런 다음 분할을 읽습니다.

알렉세이 비아즈미킨 :

부스팅에서 나는 후처리의 부족을 좋아하지 않습니다. 훈련이 끝나면 약한 트리를 버려 모델을 단순화합니다. 나는 그들이 그것을하지 않는 이유를 이해하지 못합니다.

부스팅에서는 정의상 모든 트리가 중요합니다. 각각의 후속 작업은 이전의 모든 항목을 수정합니다. 중간에 하나의 나무를 버리면 그 이후의 모든 것이 잘못된 데이터로 작동합니다. 버려진 나무를 고려하지 않고 다시 훈련해야합니다. 이 경우 첫 번째 나무는 버려진 나무를 매우 밀접하게 반복합니다.

알렉세이 비아즈미킨 :

부스팅에서 개별 나무의 잎은 약함 - 낮은 충만도 - 1% 미만이며 이 매개변수를 조정할 수 없는 것이 나쁩니다.

네. 부스팅에서 별도의 잎이 결함이 있기 때문입니다. 다른 정제 나무의 잎의 반응으로 보완됩니다. 예를 들어 나무 100개와 같은 일련의 답변만이 정답을 제공합니다.
부스트된 모델의 한 장에서 신뢰할 수 있는 것을 얻으려고 하는 것은 불가능합니다.
부스팅에서는 100개 나무의 모든 100개 응답이 합산되며, 각각은 예를 들어 총 0.01 = 1을 제공합니다. 잎 1개의 값 = 0.01 - 이로부터 무엇을 얻고 싶습니까? 그 안에는 아무것도 없습니다. 100잎의 합이 정답입니다.
사실, 첫 번째 나무는 거기에서 강하고 예를 들어 0.7을 제공하고 나머지는 합을 1에 가깝게 만듭니다. 별도로 고려하면 첫 번째 나무의 잎만 있지만 나는 그들이 어떤 나무보다 약하다고 생각합니다. 더 작은 깊이로 인해 랜덤 포레스트 에서.
임의의 포리스트에는 평균이 있습니다. 예를 들어 100그루의 나무의 각 잎 \u003d 1이고 평균도 \u003d 1입니다. 그 안에 여우는 완전하지만 무작위 편차가 있습니다. 그러나 100개의 응답으로 이루어진 군중은 평균을 상당히 정확한 답변으로 제공합니다.

 

진짜 장사꾼으로서 무스 두 마리를 받은 나는 신발을 갈아신고 모델에게 강제로 신발을 갈아 신게 했다. 거래는 보람있는 사업이 아닙니다 :-)


 
피터 코노우 :
나는 혼동하지 않는다. 나는 프로그램을 기존 알고리즘, 신경망, AI 및 마인드로 명확하게 구분했습니다.

인공 지능은 신경망의 닫힌 프로그램과 달리 사람과 직접 상호 작용하며 이 상호 작용 과정에서 사람에 의해 프로그래밍됩니다. 그리고 국회의 프로그램은 폐쇄 모드에서 쟁기질하고 외부 데이터의 인식에 제한이 있습니다.

나는 포기한다 ...

 
일반적으로 사람과 기계 사이의 상호작용을 인터페이스라고 하는데, 이는 인체공학의 법칙에 따라 개발된 것이지만 이것은 또 다른 숲.....
사유: