"New Neural", MetaTrader 5 platformu için bir sinir ağı motorunun Açık Kaynak projesidir. - sayfa 70

 

Bunu anlayabilecek biri varsa, bana bunun ne olduğunu söylesin.

Verimli otonom kontrol sistemleri oluşturmak için uyarlanabilir kontrol ve deterministik kaos yaklaşımlarını birleştirmek

Otonom uyarlanabilir kontrol yöntemi.

Sınırlı sayıda girişe sahip mantıksal uyarlanabilir kontrol otomatı

Kısacası, burada arama yapabilirsiniz http://www.aac-lab.com/rus/

Группа Методов адаптивного управления
Группа Методов адаптивного управления
  • www.aac-lab.com
Определение живого: живым является то, что содержит в себе систему управления! (Жданов А.А.) Основным направлением научной деятельности группы является исследование возможностей построения адаптивных систем управления на бионических основах. Концепция построения такого рода систем, выработанная сотрудниками отдела, названа нами методом...
Dosyalar:
 

Zamana nasıl sardım :)) ...

yu-sha :

yalama için teşekkürler :)

 
TheXpert :

Zamana nasıl sardım :)) ...

Henüz hepsini yayınlamadım, değerli malzemeler ararken daha eğlenceli olacak :)
 
TheXpert :

Zamana nasıl sardım :)) ...

yalama için teşekkürler :)

Reklam için değil, amacın yararına: https://www.mql5.com/ru/code/712 - yerel Xml ayrıştırıcı

Uzun zamandır kendim kullanıyorum - tüm hatalar düzeltilmiş gibi görünüyor

XML parser
XML parser
  • oylar: 7
  • 2011.11.29
  • yu-sha
  • www.mql5.com
Библиотека для парсинга XML-документов. Реализация на MQL5 без использования сторонних библиотек.
 
yu-sha :

Reklam için değil, amacın yararına: https://www.mql5.com/ru/code/712 - yerel Xml ayrıştırıcı

Uzun zamandır kendim kullanıyorum - tüm hatalar düzeltilmiş gibi görünüyor

Evet, evet, zaten indirdim, yeni başlattım, ancak herhangi bir tepki olmadı, daha sonra çözmek için bıraktım.

Tehdit Şimdi uyarlanabilir kontrol sistemleriyle ilgili literatürü ayrıştırmayı bitireceğim, sonra yapacağım.

 
yu-sha :

Yarın, ağ prototiplerini depolamak, eğitim görevlerini ayarlamak, çalışan bilgisayarımdan bulunan çözümleri depolamak konusundaki çalışmamı buraya kopyalayacağım.

???

 
Ukrayna :

Aslında modelimdeki GPU, sinir ağını hesaplama aşamasında ortaya çıktı, daha önce yazdıklarımı dikkatlice okursam, evrensel ağ modelimde, nöronların değilken işlemenin kendisinin katmanlara ayrıldığını fark ettim. biçimsel olarak katmanlar halinde birleştirilir (aidiyete göre), ama aslında (katmanın hafızası vardır, ancak nöronun yoktur, nöron yalnızca katmana nereden ve neden bilgi sağlayan bilgisel bir varlık olarak kalır). Dolayısıyla paralellik, motorun yapısı tarafından belirlenir (katmanın içindeki bilgilerin kendisi paralel olarak işlenir). Zaten eğitimli bir GA NN yaptım ve en büyük performans artışı NN hesaplamasında oldu (özellikle büyük ağlarda). Bir reklam olarak, joo tarafından önerilen UGA için NS'yi öğrenmenin önemsiz bir mesele olduğunu söyleyebilirim.

Ancak, FF'nin hesaplamalarını da paralelleştirdiği ortaya çıkarsa (ve GA için NS, FF'nin bir parçasıdır), o zaman ben buna varım. Bunun kolay bir iş olacağını düşünmesem de katmanlarda basit işlemler yapılıyor ve FF'nin hesaplanması oldukça karmaşık bir diziyi kapsayabilir.

Geriye kalan: herhangi bir topoloji için evrensel bir motor fikri, herhangi bir topoloji için evrensel bir başlatma yöntemi fikri ve tüm bunlar için evrensel bir öğretici olarak GA.

Şimdilik, orada durabilirsiniz. BENİM NACİZANE FİKRİME GÖRE.

Standart bir GA ve bir bulut, FF'nin hesaplanmasını paralel hale getirmeye yardımcı olacaktır. Ayrıca, Renat şunları vaat etti:


yönetici
2516
Renat 2011.10.18 10:50
MQL5 programlarının yürütme hızı ile işler oldukça iyi + hızda çoklu artış sağlayacak optimizasyon etkinleştirilmiş yeni bir derleyici sürümü hazırlıyoruz.

Sinir ağının gelişimine paralel olarak, matematiksel hesaplamaları ve büyük hacimli (dosya) veri alışverişini desteklemek için aracıların işlevselliğini genişleteceğiz.

Ama dedikleri gibi, vaat edilen üç yıl bekliyor.

Bu nedenle, ilk kez, joo algoritmasını özellikle sinir ağları için optimize edebilirsiniz, daha da hızlı çalışacaktır. Umarım Andrew sorun etmez.

 
onun.insan :

???

a) XmlParser'ı ayrıştırma

b) https://www.mql5.com/en/forum/4956/page32#comment_110831

Sorular ortaya çıktıkça ilerleyeceğiz.

 
yu-sha :

a) XmlParser ayrıştırma

b) https://www.mql5.com/en/forum/4956/page32#comment_110831

Sorular ortaya çıktıkça ilerleyeceğiz.

MT5 için ufak bir kullanım örneği alabilir miyim?

 

Nöronların eğitimini mikro seviyeler (GA'da bağımsız dizi işleme döngüleri, bireysel ağ nöronlarının hesaplanması, vb.) ve makro seviyeler (tüm FF) olarak düşünürsek, ilki ile ilgili herhangi bir soru veya sorun yoktur - her şey mükemmel bir şekilde paralel ve GPU'da harika çalışacak.

Ancak makro düzeyde bir sorun var. İlk olarak, GPU'da işlenen bilgi miktarındaki kısıtlamalar nedeniyle bunun mümkün olmadığından şüpheleniyorum. Tam zamanlı bir test cihazı ve bulut kullanarak bu sorunu aşmak mümkün olacaktır (her makro düzeyi ayrı aracılara iletilecektir ve zaten mikro düzeyde işlenecektir - tabii ki ana bilgisayar izin verirse). Ancak harici bir GA kullanmak için test cihazını dışarıdan kontrol etmemize izin veren araçlarımız yok.

Bu nedenle, kendimizi mikro düzeyde ivme ile sınırlamamız gerekecek. Hızlanma da çok iyi olacaktır, çünkü gridler ve GA birbirinden bağımsız hesaplamalarla doludur.

UGA'nın kendisine gelince - OpenCL altındaki iyileştirmesine dokunmazsanız , o zaman pratikte geliştirilecek hiçbir şey yoktur (belki de kodun bazı bölümleri hariç, ancak bu, tartışmaya katılanlar sayesinde hava durumunu yapmayacaktır) makaleden algoritmanın iş parçacığı). Yalnızca ağ eğitimi için özel olarak UGA ayarlarını seçmeye çalışılabilir.

Neden: