Определение живого: живым является то, что содержит в себе систему управления! (Жданов А.А.) Основным направлением научной деятельности группы является исследование возможностей построения адаптивных систем управления на бионических основах. Концепция построения такого рода систем, выработанная сотрудниками отдела, названа нами методом...
글쎄요, 사실 제 모델의 GPU는 신경망을 계산하는 단계에서 떠올랐는데, 제가 앞서 쓴 것을 잘 읽어보면 제 유니버설 네트워크 모델에서는 처리 자체가 레이어로 나뉘는 반면 뉴런은 그렇지 않다는 것을 알 수 있습니다. 공식적으로는 계층으로 결합되지만(소속 여부에 따라) 사실(계층에는 메모리가 있지만 뉴런에는 없기 때문에 뉴런은 계층에 어디에서 왜까지 정보를 제공하는 정보 개체일 뿐입니다.) 따라서 병렬 처리는 엔진의 구조 자체에 의해 결정됩니다(계층 내부의 정보 자체가 병렬로 처리됨). 나는 이미 훈련된 GA NN을 수행했으며 가장 큰 성능 히트는 NN 계산(특히 대규모 네트워크에서)이었습니다. 뭐, 광고로 말하자면 joo 가 제안한 UGA의 경우 NS를 배우는 것은 사소한 문제라고 할 수 있습니다.
그러나 FF의 계산도 병렬화하는 것으로 판명되면(GA에 대한 NS는 FF의 일부임), 저는 모두 찬성합니다. 이게 쉬운 일이 아니라고 생각하지만 레이어에서 간단한 작업이 수행되고 FF의 계산은 다소 복잡한 시퀀스를 포함할 수 있습니다.
남아 있는 것은 모든 토폴로지에 대한 범용 엔진의 아이디어, 모든 토폴로지에 대한 범용 초기화 방법에 대한 아이디어, 이 모든 것에 대한 범용 자습서로서의 GA입니다.
지금은 거기서 멈출 수 있습니다. 임호.
표준 GA와 클라우드는 FF 계산을 병렬화하는 데 도움이 됩니다. 또한 Renat는 다음과 같이 약속했습니다.
뉴런 훈련을 미시적 수준(GA의 독립 어레이 처리 주기, 개별 네트워크 뉴런 계산 등)과 거시적 수준(전체 FF)으로 생각하면 첫 번째 문제나 문제가 없습니다. 모든 것이 완벽하게 병렬이며 GPU에서 훌륭하게 작동합니다.
그러나 매크로 수준에는 문제가 있습니다. 첫째, GPU에서 처리되는 정보량의 제한으로 인해 이것이 불가능하다고 생각합니다. 풀타임 테스터와 클라우드를 사용하여 이 문제를 해결할 수 있습니다(각 매크로 수준은 별도의 에이전트로 전송되며 호스트가 허용하는 경우 이미 미시 수준에서 처리됩니다). 그러나 외부 GA를 사용하기 위해 외부에서 테스터를 제어할 수 있는 도구가 없습니다.
따라서 우리는 미시적 수준의 가속에 자신을 제한해야 합니다. 그리드 자체와 GA가 서로 독립적인 계산으로 가득 차 있기 때문에 가속도 매우 적절할 것입니다.
UGA 자체에 관해서는 - OpenCL에서 개선 사항을 다루지 않으면 실질적으로 개선할 것이 없습니다(코드의 일부 섹션을 제외하고는 토론 참가자 덕분에 날씨가 좋지 않을 것입니다. 기사의 알고리즘 스레드). 네트워크 교육 을 위한 UGA 설정만 선택할 수 있습니다.
누구든지 이것을 알아낼 수 있다면 그것이 무엇인지 알려주십시오.
효율적인 자율 제어 시스템을 구축하기 위해 적응 제어와 결정론적 혼돈 접근 방식을 결합합니다.
자율 적응 제어 방법.
제한된 수의 입력이 있는 논리적 적응 제어 자동 장치
간단히 말해서 여기에서 http://www.aac-lab.com/rus/ 를 검색할 수 있습니다.
어떻게 시간을 가졌습니까 :)) ...
핥아주셔서 감사합니다 :)
제 시간에 어떻게 끝났습니까 :)) ...
어떻게 시간을 가졌습니까 :)) ...
핥아주셔서 감사합니다 :)
광고가 아니라 원인의 이익을 위해: https://www.mql5.com/ru/code/712 - 기본 Xml 파서
오랫동안 직접 사용해보니 오류가 모두 수정된 것 같습니다.
광고가 아니라 원인의 이익을 위해: https://www.mql5.com/ru/code/712 - 기본 Xml 파서
오랫동안 직접 사용해보니 오류가 모두 수정된 것 같습니다.
예, 예, 이미 다운로드했습니다. 방금 시작했지만 반응이 없었습니다. 나중에 알아낼 수 있도록 그대로 두었습니다.
위협 지금 당장 적응 제어 시스템에 대한 문헌 구문 분석을 마친 다음 수행하겠습니다.
내일 나는 네트워크 프로토타입 저장, 교육 작업 설정, 작업 컴퓨터에서 찾은 솔루션 저장에 대한 작업을 여기에 복사할 것입니다.
???
글쎄요, 사실 제 모델의 GPU는 신경망을 계산하는 단계에서 떠올랐는데, 제가 앞서 쓴 것을 잘 읽어보면 제 유니버설 네트워크 모델에서는 처리 자체가 레이어로 나뉘는 반면 뉴런은 그렇지 않다는 것을 알 수 있습니다. 공식적으로는 계층으로 결합되지만(소속 여부에 따라) 사실(계층에는 메모리가 있지만 뉴런에는 없기 때문에 뉴런은 계층에 어디에서 왜까지 정보를 제공하는 정보 개체일 뿐입니다.) 따라서 병렬 처리는 엔진의 구조 자체에 의해 결정됩니다(계층 내부의 정보 자체가 병렬로 처리됨). 나는 이미 훈련된 GA NN을 수행했으며 가장 큰 성능 히트는 NN 계산(특히 대규모 네트워크에서)이었습니다. 뭐, 광고로 말하자면 joo 가 제안한 UGA의 경우 NS를 배우는 것은 사소한 문제라고 할 수 있습니다.
그러나 FF의 계산도 병렬화하는 것으로 판명되면(GA에 대한 NS는 FF의 일부임), 저는 모두 찬성합니다. 이게 쉬운 일이 아니라고 생각하지만 레이어에서 간단한 작업이 수행되고 FF의 계산은 다소 복잡한 시퀀스를 포함할 수 있습니다.
지금은 거기서 멈출 수 있습니다. 임호.
표준 GA와 클라우드는 FF 계산을 병렬화하는 데 도움이 됩니다. 또한 Renat는 다음과 같이 약속했습니다.
관리자
2516
신경망 개발과 병행하여 에이전트의 기능을 확장하여 수학적 계산과 대용량 데이터(파일) 교환을 지원합니다.
그러나 그들이 말했듯이 약속 된 3 년이 기다리고 있습니다.
따라서 처음으로 특히 신경망에 대해 joo 알고리즘을 최적화할 수 있으며 더 빠르게 작동합니다. 앤드류가 신경쓰지 않기를 바랍니다.
???
a) XmlParser 구문 분석
b) https://www.mql5.com/ru/forum/4956/page32#comment_110831
질문이 생기는 대로 진행하겠습니다.
a) XmlParser 구문 분석
b) https://www.mql5.com/en/forum/4956/page32#comment_110831
질문이 생기는 대로 진행하겠습니다.
MT5에 대한 간단한 사용 예를 들어도 될까요?
뉴런 훈련을 미시적 수준(GA의 독립 어레이 처리 주기, 개별 네트워크 뉴런 계산 등)과 거시적 수준(전체 FF)으로 생각하면 첫 번째 문제나 문제가 없습니다. 모든 것이 완벽하게 병렬이며 GPU에서 훌륭하게 작동합니다.
그러나 매크로 수준에는 문제가 있습니다. 첫째, GPU에서 처리되는 정보량의 제한으로 인해 이것이 불가능하다고 생각합니다. 풀타임 테스터와 클라우드를 사용하여 이 문제를 해결할 수 있습니다(각 매크로 수준은 별도의 에이전트로 전송되며 호스트가 허용하는 경우 이미 미시 수준에서 처리됩니다). 그러나 외부 GA를 사용하기 위해 외부에서 테스터를 제어할 수 있는 도구가 없습니다.
따라서 우리는 미시적 수준의 가속에 자신을 제한해야 합니다. 그리드 자체와 GA가 서로 독립적인 계산으로 가득 차 있기 때문에 가속도 매우 적절할 것입니다.
UGA 자체에 관해서는 - OpenCL에서 개선 사항을 다루지 않으면 실질적으로 개선할 것이 없습니다(코드의 일부 섹션을 제외하고는 토론 참가자 덕분에 날씨가 좋지 않을 것입니다. 기사의 알고리즘 스레드). 네트워크 교육 을 위한 UGA 설정만 선택할 수 있습니다.