Метод сопряженных градиентов — метод нахождения локального минимума функции на основе информации о её значениях и её градиенте. В случае квадратичной функции в минимум находится за шагов. Определим терминологию: Векторы называются сопряжёнными, если: Теорема (о существовании). Существует хотя бы одна система сопряжённых направлений для...
시각 정보의 생물학적 변환에 대한 세부 사항을 더 잘 이해하려면 널리 사용되는 HMAX 객체 인식 모델("계층적 모델 및 X")을 고려하십시오. 이 모델은 90년대 후반 Tomaso Poggio가 이끄는 MIT 직원에 의해 만들어졌습니다. 설명 및 모델 코드는 여기에서 찾을 수 있습니다.
몇 가지 조정만 하면 HMAX는 기존 신경망보다 훨씬 더 나은 얼굴 인식 작업을 수행합니다. 이 그림은 모델을 아주 잘 설명합니다.
모델(S1)의 첫 번째 레이어는 4가지 다른 기울기(수직, 수평, 45도 기울기 및 135도 기울기 - 빨간색, 노란색, 녹색 및 파란색으로 표시)의 짧은 직선 필터로 구성되며 각각 16개 크기이므로 입력 이미지의 각 섹션이 4 x 16 필터로 "덮여" 있습니다. 각 필터는 이 뉴런의 입력 가중치를 곱한 이미지의 일부 영역에 있는 이미지 픽셀의 합과 동일한 출력을 갖는 뉴런입니다. 이러한 입력 가중치는 Gabor 함수로 설명됩니다. 다음은 이러한 필터(가중치)의 예입니다.
모델(C1)의 두 번째 레이어는 복잡한 뉴런으로 구성됩니다. 각 복합 뉴런은 이미지의 다른 영역과 두 개의 인접 크기에서 동일한 기울기의 세그먼트를 필터링하는 S1 뉴런의 최대 활성화(출력)를 선택합니다. 따라서 이 복잡한 뉴런은 기본 세그먼트의 위치와 크기에 대해 불변성을 가지며 이에 대해 아래에서 설명합니다.
모델의 세 번째 계층(S2)의 뉴런은 C1 뉴런에서 입력을 받습니다. 결과적으로 기본 세그먼트로 구성된 더 복잡한 그림(첫 번째 그림 P1, P2, ...로 표시)의 필터를 얻습니다. 각 그림에 대해 서로 다른 크기의 필터 4세트가 있습니다. 각 세트 내의 필터는 공간적 위치가 다릅니다(이미지의 다른 부분을 "보기").
모델의 네 번째 계층(C2)의 뉴런은 크기와 공간적 배열이 다르지만 동일한 그림을 필터링하는 S2 뉴런의 최대 활성화를 선택합니다. 결과적으로 위치와 크기가 변하지 않는 더 복잡한 그림의 필터를 얻습니다.
연결:
T. Serre "피질과 같은 메커니즘을 사용한 강력한 개체 인식", IEEE Trans. 2006년 8월 패턴에서.
이론적으로 메타따옴표 로고와 함께 (친구가) 되야 합니다.
메타 지각 ;) (지각 지각)
이 이름 아래에 로고에 대한 아이디어도 있습니다. :) - 꽃 냄새를 맡는 로봇 - Perceptive(지각, 민감)라는 단어의 모호성에 대한 연극입니다. 로봇은 특이할수록 좋습니다 :)
__________
간단하고 세련된 Neural. 또는 TheNeural :)
__________
신경망 확장(NNX).
__________
신경망 Xpert(NNXpert) :))))
__________
신경망 툴킷(NNToolkit)
__________
신경망 도구(NNTools)
저는 Neural Nets eXtension(NNX) 을 지지합니다.
특히 이 부분에서 신경망 eX 장력(NNX) 에 대한 우리는 그녀와 섹스
로 변신하는 것이 좋지 않다. NUX( Neural Universal eXtension) 거의 LINUX
질문이 저를 위한 것이라면 문헌에서 제가 설명한 네트워크를 계층적 신경망이라고 합니다.
EMNIP, 코그니트론은 비슷한 것입니다.
계속되기를 기대합니다 :)
네, 나중에 투표를 주선하거나 Metaquote에 옵션을 던져야 합니다.
서두르는 이유는 원칙적으로 제품의 이름으로 다른 신경 패키지와의 교환 가능성과 최종 단계에서 기성 고문의 생성을 고려해야합니다.
제품이 NN보다 큽니다. 그 과정에서 다른 유용한 것을 얻을 수 있습니다.
제품은 NN 이상입니다.
분명한. 그러나 그것은 NN에 묶여 있습니다. 더 묶일 것입니다.
"AWVREMGVTW NN "과 같은 것이 작동하지 않을 것 같아 두렵습니다. :) 가장 중요한 것은 본질을 전달하는 것이며 뉘앙스는 그렇게 중요하지 않습니다.
에 대한 정보가 필요합니다.
- 켤레 경사하강법
-BFGS
켤레 기울기 방법 (wiki)
- BFGS (위키)
강의 3. HMAX 모델
시각 정보의 생물학적 변환에 대한 세부 사항을 더 잘 이해하려면 널리 사용되는 HMAX 객체 인식 모델("계층적 모델 및 X")을 고려하십시오. 이 모델은 90년대 후반 Tomaso Poggio가 이끄는 MIT 직원에 의해 만들어졌습니다. 설명 및 모델 코드는 여기에서 찾을 수 있습니다.
http://riesenhuberlab.neuro.georgetown.edu/hmax.html
몇 가지 조정만 하면 HMAX는 기존 신경망보다 훨씬 더 나은 얼굴 인식 작업을 수행합니다. 이 그림은 모델을 아주 잘 설명합니다.
모델(S1)의 첫 번째 레이어는 4가지 다른 기울기(수직, 수평, 45도 기울기 및 135도 기울기 - 빨간색, 노란색, 녹색 및 파란색으로 표시)의 짧은 직선 필터로 구성되며 각각 16개 크기이므로 입력 이미지의 각 섹션이 4 x 16 필터로 "덮여" 있습니다. 각 필터는 이 뉴런의 입력 가중치를 곱한 이미지의 일부 영역에 있는 이미지 픽셀의 합과 동일한 출력을 갖는 뉴런입니다. 이러한 입력 가중치는 Gabor 함수로 설명됩니다. 다음은 이러한 필터(가중치)의 예입니다.
모델(C1)의 두 번째 레이어는 복잡한 뉴런으로 구성됩니다. 각 복합 뉴런은 이미지의 다른 영역과 두 개의 인접 크기에서 동일한 기울기의 세그먼트를 필터링하는 S1 뉴런의 최대 활성화(출력)를 선택합니다. 따라서 이 복잡한 뉴런은 기본 세그먼트의 위치와 크기에 대해 불변성을 가지며 이에 대해 아래에서 설명합니다.
모델의 세 번째 계층(S2)의 뉴런은 C1 뉴런에서 입력을 받습니다. 결과적으로 기본 세그먼트로 구성된 더 복잡한 그림(첫 번째 그림 P1, P2, ...로 표시)의 필터를 얻습니다. 각 그림에 대해 서로 다른 크기의 필터 4세트가 있습니다. 각 세트 내의 필터는 공간적 위치가 다릅니다(이미지의 다른 부분을 "보기").
모델의 네 번째 계층(C2)의 뉴런은 크기와 공간적 배열이 다르지만 동일한 그림을 필터링하는 S2 뉴런의 최대 활성화를 선택합니다. 결과적으로 위치와 크기가 변하지 않는 더 복잡한 그림의 필터를 얻습니다.
연결:
T. Serre "피질과 같은 메커니즘을 사용한 강력한 개체 인식", IEEE Trans. 2006년 8월 패턴에서.
http://cbcl.mit.edu/publications/ps/MIT-CSAIL-TR-2006-028.pdf