하이브리드 신경망. - 페이지 5

 
IlyaA >> :


확인. 기다리겠습니다 :) 빔서치 생각나네요....

아니요, 이것은 빔 검색이 아닙니다. 그리고 엄밀히 말하면 고전적인 의미의 유전 알고리즘이 아닙니다. 나는 내 알고리즘의 핵심만 설명했습니다. 그리고 그는 GA와 매우 유사합니다.

 
IlyaA писал(а) >>

멋진. 들어오는 막대 2개?

 
gumgum >> :


닫기만. Nadazhe, 그리고 자신을 꽤 잘 보여 주었지만 거기에 그네를 던진다면 상상해보십시오. 거듭 말씀드리지만, 재교육 여부는 확인하셨습니까?
 
IlyaA >> :
나는 일회성 순간의 최고의 필터를 사용하는 것이 그들의 통합이라고 제안합니다. 그리드는 반복되는 회향을 분리할 가능성이 더 높습니다.

그런 다음 작성하지만 더 자세히 설명하십시오.

노이즈 통합이란 무엇입니까?

평균화를 통해 정확히 노이즈 억제를 의미했다면 이는 좋은 생각이 아닙니다. BP의 Masha는 NN을 사용하는 가장 좋은 방법이 아니라 죽은 숫자를 외삽합니다.

네트워크가 한 번에 모든 fennecs를 찾는 것을 제한하기 위해(추상 효과라고 합시다 :) 뉴런의 수를 줄입니다. 우리는 네트워크의 일반화 능력과 퍼셉트론으로 많은 양의 자료를 학습하는 것이 불가능하다는 점에서 이득을 얻습니다. 우리는 네트워크가 데이터에서 가장 수익성이 높은 회향 하나만 검색하도록 지시할 것입니다.

뇌를 더 똑똑하게 만들기 위해 거세할 필요는 없습니다. 평균화 필터를 동시에 사용하지 않고 올바르게 훈련되어야 합니다. 근데 자르다은 무슨 뜻인가요? 나는 당신이 무엇을 넣고 있는지 전혀 모릅니다. 20개의 뉴런은 많거나 10,000개로 충분하지 않을 수 있습니다. 사실, NN이 한두 개의 "bauble"을 기억하게 만들 필요가 없습니다. 적절하게 훈련된 네트워크는 부족한 정보에서 알 수 없는 데이터를 마음대로 추출할 수 있습니다.

"책을 너무 많이 읽지 마세요" C - 누가 말했는지 기억나지 않는다.

 
joo >> :

아니요, 이것은 빔 검색이 아닙니다. 그리고 엄밀히 말하면 고전적인 의미의 유전 알고리즘이 아닙니다. 나는 내 알고리즘의 핵심만 설명했습니다. 그리고 그는 GA와 매우 유사합니다.


당신이 그것을 생각해 냈다면 당신은 위대한 발명가입니다 :) 진지한 방식으로 테스트 되었습니까?
 
IlyaA писал(а) >>

닫기만. Nadazhe, 그리고 자신을 꽤 잘 보여 주었지만 거기에 그네를 던진다면 상상해보십시오. 거듭 말씀드리지만, 재교육 여부는 확인하셨습니까?

아니요.

 
IlyaA >> :


당신이 그것을 생각해 냈다면 당신은 위대한 발명가입니다 :) 진지한 방식으로 테스트 되었습니까?

사실 3~4학년 때 생각해 냈어요. 뿌리는 언제 제거되나요? 여기, 나는 사각형, 3 차 뿌리를 추출했습니다. 사실, 상자의 노트북 시트에.

테틸. 결과는 정말 인상적입니다.

 

지표 초기화 단계에서 교육을 진행합니다. 그리고 그녀는 생각합니다...

 
gumgum >> :

지표 초기화 단계에서 교육을 진행합니다. 그리고 그녀는 생각합니다...

이 지표에 대한 전문가 자문을 작성해 보십시오. 결과가 놀라울 것이라고 생각합니다. 불쾌한...

 
joo >> :

사실 3~4학년 때 생각해 냈어요. 뿌리는 언제 제거되나요? 여기, 나는 사각형, 3 차 뿌리를 추출했습니다. 사실, 상자의 노트북 시트에.

테틸. 결과는 정말 인상적입니다.


그래서 개발에 들어갑니다. 소음을 확인하십시오.