유니쿰 디메온을 예로 들어 보겠습니다. 그의 전문가 어드바이저에는 12개 이하의 조정 가능한 계수가 포함되어 있습니다. 이 계수를 조정하는 데 사용하는 기록의 양은 우리가 사용하는 것보다 수천 배 더 많습니다. 따라서 디메온의 머릿속에 내장된 NS는 때때로 훌륭한 결과를 만들어낼 수 있습니다. 그렇기 때문에 모든 NS에 대해 분노하지 않습니다. 하지만 이 기사는 독자를 오도하고 있습니다.
반면에 우리의 멋진 핍사리안은 거래 알고리즘을 구축하는 신경 원리를 전혀 사용하지 않습니다. NS에서와 같이 가장 어리석은 덧셈과 곱셈의 원리를 사용하지 않습니다. 아마도 이것이 그의 결과와 NS 형태의 고전 사이의 현저한 차이의 이유 일 것입니다.
제 게시물은 dll을 통해 ANN을 볼트로 고정하는 방법이라는 질문에 대한 답변이었습니다. dll을 통해 Cran에서 패키지를 볼트로 고정하는 방법에 대한 답을 알고 계신다면 답장이 적절할 것입니다.
머신 러닝 도구의 상당 부분은 어디에서도 사용되지 않을 가능성이 높습니다. 즉, 품질이 양보다 우선해야 하기 때문에 Cran에 패키지가 많다는 사실은 품위를 더하지 않습니다. 이 모든 패키지에 소금을 뿌릴 건가요?
각 특정 작업에 대해 가장 적합한 도구를 선택하는 것이 좋습니다. 이를 위해 컴퓨터에 Weka를 설치하고 (그런데 명령 줄에서 R 언어를 지원합니다) 인터페이스에 내장 된 "실험자"를 사용하여 다양한 기계 학습 방법에서 교차 유효성 검사를 활성화 한 샘플을 실행할 수 있습니다. 가장 좋은 결과를 제공하는 것이 당면한 작업에 가장 적합한 것으로 판명 될 것입니다. 적어도 이것은 kaggle.com 단골들이 하는 일입니다. 결국, 이 경우 또는 저 경우에 무엇이 효과가 있을지 추측하는 것보다 가장 시간이 많이 걸리고 지능이 가장 낮은 작업을 컴퓨터에게 맡기는 것이 좋습니다.
제 게시물은 dll을 통해 ANN을 볼트로 고정하는 방법이라는 질문에 대한 답변이었습니다. dll을 통해 Cran에서 패키지를 볼트로 고정하는 방법에 대한 답변이 있으시다면, 이 답변이 적절할 것입니다.
머신 러닝 도구의 상당 부분은 어디에서도 사용되지 않을 가능성이 높습니다. 즉, 품질이 양보다 우선해야 하기 때문에 Cran에 패키지가 많다는 사실은 품위를 더하지 않습니다. 이 모든 패키지에 소금을 뿌릴 건가요?
각 특정 작업에 대해 가장 적합한 도구를 선택하는 것이 좋습니다. 이를 위해 컴퓨터에 Weka를 설치하고 (그런데 명령 줄에서 R 언어를 지원합니다) 인터페이스에 내장 된 "실험자"를 사용하여 다양한 기계 학습 방법에서 교차 유효성 검사를 활성화 한 샘플을 실행할 수 있습니다. 가장 좋은 결과를 제공하는 것이 당면한 작업에 가장 적합한 것으로 판명 될 것입니다. 적어도 이것은 kaggle.com의 단골들이 하는 일입니다. 결국, 이 경우 또는 저 경우에 무엇이 효과가 있을지 추측하는 것보다 가장 시간이 많이 걸리고 지능이 가장 낮은 작업을 컴퓨터에게 맡기는 것이 좋습니다.
1. CRAN을 망치는 데 아무런 문제가 없습니다. 2년 이상 코도베이스에서 일했습니다.
2. 2. 양은 접근 방식의 다양성과 빠른 개발을 나타냅니다. CRAN의 패키지 품질이 우수합니다.
3. WEKA는.... 거래에 사용할 수있는 기계 학습 패키지의 선택에 대해 이야기하고 있다면 캐럿. 그리고 시작을 위해 우리는 딸랑이를 가져갑니다. 처음부터 시작하면 약 15 분 안에 시작하고 실행할 수 있습니다. 위에 NS와 랜덤 포레스트를 비교한 결과를 올렸습니다. NS는 보통 이상의 결과를 제공합니다. 기사까지 작성했습니다. Rattle을 사용해 보세요. 최대 2-3 개의 패키지를 선택하면 만족할 것입니다. 그리고 NS를 영원히 버리십시오. 처음에는 다른 어태치먼트를 추천 할 수 있습니다.
2. 양은 접근 방식의 다양성과 빠른 발전을 보여줍니다. CRAN의 패키지 품질은 우수합니다.
오히려 그 반대입니다. 일부 패키지는 다른 패키지의 메서드를 단순히 복제하기 때문입니다. 예를 들어, 모든 SVM은 동일한 대만 libsvm 라이브러리의 포트일 뿐입니다. 따라서 SVM이 Cran, Weka, Encog 또는 다른 어떤 패키지에 내장되어 있든 전혀 차이가 없습니다. 동일한 설정으로 동일한 결과를 얻을 수 있습니다.
faa1947:
트레이딩에 사용할 수 있는 머신러닝 패키지의 선택에 대해 이야기하고 있다면 캐럿입니다.
다시 한 번 강조하지만, 특정 작업에 맞는 특정 도구를 선택해야 합니다. 트레이딩은 많은 주식 시장 전략과 전술의 일반화된 이름일 뿐입니다. 그렇기 때문에 모든 것을 하나의 우산 아래에서 자르는 것은 불가능합니다.
faa1947:
위에 NS와 랜덤 포레스트를 비교한 결과를 올렸습니다.
이것은 결과가 아니라 훈련 샘플에 맞게 조정 된 병원의 평균 온도와 같은 헛소리입니다.
결과는 최소한 샘플을 훈련 샘플과 테스트 샘플로 나누고 최대로 교차 검증을 적용했을 때의 결과입니다.
저는 NS를 지지할 것 같아요. 무작위 숲이 갑자기 유행했다고 해서 NS가 더 나쁘다는 의미는 아닙니다. 프로필만 다를 뿐 같은 계란입니다. 어느 정도 적절한 비교를 하려면 메쉬 위원회를 가져와서 부스팅을 켜면 동일한 무작위 숲을 얻을 수 있습니다. NS는 거의 모든 다른 알고리즘을 구현할 수 있는 것으로 알려져 있습니다.
저는 NS를 지지할 것 같아요. 랜덤 포레스트가 갑자기 유행처럼 번졌다고 해서 NS가 더 나쁘다는 의미는 아닙니다.
랜덤 포레스트는 유행이 아니라 첫 번째 시도에서 만족할 만한 결과를 얻을 수 있는 도구입니다. 이 분류기는 초보자와 숙련된 사용자 모두 사용합니다. 초보자는 방법이 매우 간단하기 때문에 기본 도구로 사용합니다. 그리고 숙련된 사용자는 더 나아가야 할 방향을 이해하기 위해 RF로 문제를 해결하기 시작합니다.
결과는 최소한 샘플을 훈련 샘플과 테스트 샘플로 나누고 기껏해야 교차 검증을 적용했을 때의 결과입니다.
저는 헛소리를 하지 않습니다.
증명.
게시된 결과는 항상 "샘플 훈련 외" 데이터를 참조합니다. 이는 Rattle에서 다음과 같이 수행됩니다:
1. 원본 세트는 세 부분으로 나뉩니다: 70-15-15%
2. 70% 부분에 대한 훈련이 수행되며, 이를 훈련이라고 합니다. 여기에는 매우 중요한 뉘앙스가 있습니다. 이 70%에서 훈련 데이터의 약 2/3가 무작위로 선택됩니다(즉, = 70% * 2/3). 이 데이터에 대해 학습이 수행됩니다. 모델 성능 정보는 훈련 샘플 데이터의 나머지 70% * 1/3에서 얻는데, 이 역시 무작위 행 집합입니다. 이 부분을 아웃 오브 백이라고 합니다. 즉, 공식적으로는 동일한 데이터 세트가 훈련과 평가에 사용되었지만 훈련과 평가를 위해 다른 행을 가져온 것입니다.
그런 다음 평가 탭으로 이동하여 나머지 두 번 15 %에 대해 훈련 된 모델을 사용하고 OOB와 비교할 수 있습니다. 결과가 동일하면 희망이 있습니다. Rattle은 아이디어를 테스트하는 도구이지만이 테스트의 품질은 논의중인 기사보다 훨씬 높습니다 (저자가 사과하도록하십시오).
그리고 개인적으로 당신의 달콤함을 위해: 내 기사와이 기사에서 얻은 결과는 모델의 과잉 훈련 (과적합)에 대한 증거가없고 내가 나열한 훈련 샘플 외부의 테스트를위한 세 세트는 그러한 증거가 아니기 때문에 신뢰할 수 없습니다. 즉, 이 변수 집합을 사용하는 모델을 위의 방식에 따라 테스트 할 수 있고 그러한 테스트 결과를 신뢰할 수 있다는 의미에서 초기 변수 집합이 충족하는 기준이 필요합니다.
일반적으로 NS가 아닌 기사 자체에 관한 것입니다. 무엇이 문제일까요? 맞출 계수의 수는 기록의 양과 비슷합니다.
계수의 수를 히스토리의 양과 같다고 가정해 봅시다. 그러면 조정이 완벽할 것 같습니다. 단 한 번의 손실 거래도 없을 것이며 역사에서 가능한 최대치를 짜낼 것입니다.
NS 구성에 임의의 수의 계수를 선택하는 것으로 접근하면 그렇게 좋은 것이 필요하지 않습니다.
여기에는 손실이 있는 정보 압축이라는 또 다른 유용성이 있습니다. 많은 역사가 있었고, 그 역사를 대략적으로 설명하는 계수가 적습니다. 반면에 손실 없이도 훨씬 더 나은 성능을 가진 압축 알고리즘이 많이 있습니다.
일반적으로 NS가 아닌 기사 자체에 관한 것입니다. 무엇이 문제일까요? 맞출 계수의 수는 기록의 양과 비슷합니다.
계수의 수를 히스토리의 양과 같다고 가정해 봅시다. 그러면 조정이 완벽할 것 같습니다. 단 한 번의 손실 거래도 없을 것이며 역사에서 가능한 최대치를 짜낼 것입니다.
NS의 구성에 임의의 수의 계수를 선택하는 것으로 접근하면 도대체 그런 좋은 것이 왜 필요합니까?
아마도 기사를 (주의 깊게) 읽지 않았을 것입니다. 입력의 수는 24개(1시간 시간대), 레이어의 뉴런 수는 20개, 레이어는 3개입니다.
기록의 예는 5,000개의 막대입니다. 10k 막대를 설정하면 계수 수는 동일하게 유지됩니다.
우리가 말하는 것을 이해하지 못한다면 정말 필요하지 않습니다.
아마도 기사를 (주의 깊게) 읽지 않았을 것입니다. 입력 수는 24개(시간별 시간대), 레이어의 뉴런은 20개, 레이어는 3개입니다.
그리고 역사의 예는 5k 막대입니다. 10k 막대를 설정하면 계수 수는 동일하게 유지됩니다.
우리가 무슨 말을하는지 이해하지 못한다면 정말 필요하지 않습니다.
원하는 만큼 자신을 속일 수 있습니다!
소스 코드를 보고 조정된 계수의 수를 세어보세요. NS에 대한 설명에서 어쩌고 저쩌고하지만 본질은 소스 코드입니다.
기록의 양을 두 배로 늘리면 비율이 무너지는 것을 지켜보세요. 그리고 각 증가와 함께 진행됩니다.
기사의 오르가즘 시뮬레이션이 표시된 결과입니다. 그리고 그것이 끔찍한 방식으로 얻어 졌다는 사실은 누구도 말하는 것이 아닙니다.
간단하게 만들어 봅시다. 수천 개의 계수가있는 어드바이저의 소스 코드를 알려 드리겠습니다. 그리고 비슷한 역사를 알려드리겠습니다. 나는 그것이 NS 또는 다른 것이라고 말하지 않을 것입니다. 그냥 소스와 역사 한 조각만 알려드릴게요.
이 캘이 NS 또는 고급 과학적 방법이라고 말하면이 캘에 대한 마음이 바뀔까요? 결론을 보세요.
유니쿰 디메온을 예로 들어 보겠습니다. 그의 전문가 어드바이저에는 12개 이하의 조정 가능한 계수가 포함되어 있습니다. 이 계수를 조정하는 데 사용하는 기록의 양은 우리가 사용하는 것보다 수천 배 더 많습니다. 따라서 디메온의 머릿속에 내장된 NS는 때때로 훌륭한 결과를 만들어낼 수 있습니다. 그렇기 때문에 모든 NS에 대해 분노하지 않습니다. 하지만 이 기사는 독자를 오도하고 있습니다.
반면에 우리의 멋진 핍사리안은 거래 알고리즘을 구축하는 신경 원리를 전혀 사용하지 않습니다. NS에서와 같이 가장 어리석은 덧셈과 곱셈의 원리를 사용하지 않습니다. 아마도 이것이 그의 결과와 NS 형태의 고전 사이의 현저한 차이의 이유 일 것입니다.
재미있는 이름: ENCOG - 머신 러닝... 뜨거워요.
여기에 나열된 도구는 머신 러닝의 일부일 뿐입니다.
이유 없이 웃는 것은 어리석음의 표시 © 대중 속담
머신러닝에 특히 재능이 있는 분들을 위한 글입니다:
이유 없는 웃음은 어리석음의 표시 © 민속 속담
특히 재능 있는 머신러닝 전문가를 위해:
1. CRAN을 망치는 데 아무런 문제가 없습니다. 2년 이상 코도베이스에서 일했습니다.
2. 2. 양은 접근 방식의 다양성과 빠른 개발을 나타냅니다. CRAN의 패키지 품질이 우수합니다.
3. WEKA는.... 거래에 사용할 수있는 기계 학습 패키지의 선택에 대해 이야기하고 있다면 캐럿. 그리고 시작을 위해 우리는 딸랑이를 가져갑니다. 처음부터 시작하면 약 15 분 안에 시작하고 실행할 수 있습니다. 위에 NS와 랜덤 포레스트를 비교한 결과를 올렸습니다. NS는 보통 이상의 결과를 제공합니다. 기사까지 작성했습니다. Rattle을 사용해 보세요. 최대 2-3 개의 패키지를 선택하면 만족할 것입니다. 그리고 NS를 영원히 버리십시오. 처음에는 다른 어태치먼트를 추천 할 수 있습니다.
2. 양은 접근 방식의 다양성과 빠른 발전을 보여줍니다. CRAN의 패키지 품질은 우수합니다.
오히려 그 반대입니다. 일부 패키지는 다른 패키지의 메서드를 단순히 복제하기 때문입니다. 예를 들어, 모든 SVM은 동일한 대만 libsvm 라이브러리의 포트일 뿐입니다. 따라서 SVM이 Cran, Weka, Encog 또는 다른 어떤 패키지에 내장되어 있든 전혀 차이가 없습니다. 동일한 설정으로 동일한 결과를 얻을 수 있습니다.
트레이딩에 사용할 수 있는 머신러닝 패키지의 선택에 대해 이야기하고 있다면 캐럿입니다.
다시 한 번 강조하지만, 특정 작업에 맞는 특정 도구를 선택해야 합니다. 트레이딩은 많은 주식 시장 전략과 전술의 일반화된 이름일 뿐입니다. 그렇기 때문에 모든 것을 하나의 우산 아래에서 자르는 것은 불가능합니다.
위에 NS와 랜덤 포레스트를 비교한 결과를 올렸습니다.
이것은 결과가 아니라 훈련 샘플에 맞게 조정 된 병원의 평균 온도와 같은 헛소리입니다.
결과는 최소한 샘플을 훈련 샘플과 테스트 샘플로 나누고 최대로 교차 검증을 적용했을 때의 결과입니다.
저는 NS를 지지할 것 같아요. 무작위 숲이 갑자기 유행했다고 해서 NS가 더 나쁘다는 의미는 아닙니다. 프로필만 다를 뿐 같은 계란입니다. 어느 정도 적절한 비교를 하려면 메쉬 위원회를 가져와서 부스팅을 켜면 동일한 무작위 숲을 얻을 수 있습니다. NS는 거의 모든 다른 알고리즘을 구현할 수 있는 것으로 알려져 있습니다.
어쨌든 성공의 99%는 도구가 아니라 데이터의 선택과 준비에 달려 있습니다.
저는 NS를 지지할 것 같아요. 랜덤 포레스트가 갑자기 유행처럼 번졌다고 해서 NS가 더 나쁘다는 의미는 아닙니다.
랜덤 포레스트는 유행이 아니라 첫 번째 시도에서 만족할 만한 결과를 얻을 수 있는 도구입니다. 이 분류기는 초보자와 숙련된 사용자 모두 사용합니다. 초보자는 방법이 매우 간단하기 때문에 기본 도구로 사용합니다. 그리고 숙련된 사용자는 더 나아가야 할 방향을 이해하기 위해 RF로 문제를 해결하기 시작합니다.
어쨌든 성공의 99 %는 도구가 아니라 데이터의 선택과 준비에 있습니다.
당신은 큰 거래에서 큰 거래를 할 수 없습니다 © 사람들의 말
이진 분류기를 사용하여 다중 회귀 문제를 어떻게 해결할 수 있는지 보는 것은 흥미로울 것입니다.
이것은 결과가 아니라 훈련 샘플에 맞춰 조정된 병원의 평균 온도와 같은 헛소리입니다.
결과는 최소한 샘플을 훈련 샘플과 테스트 샘플로 나누고 기껏해야 교차 검증을 적용했을 때의 결과입니다.
저는 헛소리를 하지 않습니다.
증명.
게시된 결과는 항상 "샘플 훈련 외" 데이터를 참조합니다. 이는 Rattle에서 다음과 같이 수행됩니다:
1. 원본 세트는 세 부분으로 나뉩니다: 70-15-15%
2. 70% 부분에 대한 훈련이 수행되며, 이를 훈련이라고 합니다. 여기에는 매우 중요한 뉘앙스가 있습니다. 이 70%에서 훈련 데이터의 약 2/3가 무작위로 선택됩니다(즉, = 70% * 2/3). 이 데이터에 대해 학습이 수행됩니다. 모델 성능 정보는 훈련 샘플 데이터의 나머지 70% * 1/3에서 얻는데, 이 역시 무작위 행 집합입니다. 이 부분을 아웃 오브 백이라고 합니다. 즉, 공식적으로는 동일한 데이터 세트가 훈련과 평가에 사용되었지만 훈련과 평가를 위해 다른 행을 가져온 것입니다.
그런 다음 평가 탭으로 이동하여 나머지 두 번 15 %에 대해 훈련 된 모델을 사용하고 OOB와 비교할 수 있습니다. 결과가 동일하면 희망이 있습니다. Rattle은 아이디어를 테스트하는 도구이지만이 테스트의 품질은 논의중인 기사보다 훨씬 높습니다 (저자가 사과하도록하십시오).
그리고 개인적으로 당신의 달콤함을 위해: 내 기사와이 기사에서 얻은 결과는 모델의 과잉 훈련 (과적합)에 대한 증거가없고 내가 나열한 훈련 샘플 외부의 테스트를위한 세 세트는 그러한 증거가 아니기 때문에 신뢰할 수 없습니다. 즉, 이 변수 집합을 사용하는 모델을 위의 방식에 따라 테스트 할 수 있고 그러한 테스트 결과를 신뢰할 수 있다는 의미에서 초기 변수 집합이 충족하는 기준이 필요합니다.