Ticarette makine öğrenimi: teori, pratik, ticaret ve daha fazlası - sayfa 493

 
Maksim Dmitrievski :

bir wolf-forward'a ihtiyacınız var, bunu böyle optimize edemezsiniz, bu durumda forvet her zaman kötü (veya rastgele) olacaktır, pazarın hangi aşamasına girdiğinize bağlı olarak, zaten bir sürü versiyonum var. İleride bozuk para gibi çalışan milyar dolarlık arka test sistemleri) buna fazla uydurma denir

İlerleme sırasında sistem parametrelerini seçmek için bir algoritma var mı?
Ayda bir ofset ile bir düzine optimizasyon aldım, her ay en iyi girdiler. parametreler diğer aylardan farklıdır. Ve iş için hangisini seçmeli?
 
elibrarius :
İlerleme sırasında sistem parametrelerini seçmek için bir algoritma var mı?
Ayda bir ofset ile bir düzine optimizasyon aldım, her ay en iyi girdiler. parametreler diğer aylardan farklıdır. Ve iş için hangisini seçmeli?

Tam olarak doğru ifade etmedim, “onun gibi bir şey” demek istedim, yani. bazı optimizasyon kriterleri ile kendi kendini optimize eden sistem ve aynı NN bir optimize edici olarak kullanılabilir

 
elibrarius :
İlerleme sırasında sistem parametrelerini seçmek için bir algoritma var mı?
Ayda bir ofset ile bir düzine optimizasyon aldım, her ay en iyi girdiler. parametreler diğer aylardan farklıdır. Ve iş için hangisini seçmeli?
Bu arada, optimizasyon ve eğitim hakkında. Ara manipülasyonları hesaba katmadan 23 saatimi alıyor. Her geçişten sonra (bunlar birkaç dönemdir), eğitim örneğini değiştiririm. Hayır karıştırmıyorum ama değişiyorum yani aynı resimleri göstermiyorum. Öğrenme sürecinde tekrarlanan örnekler yoktur.
 
Yuri Asaulenko :
Bu arada, optimizasyon ve eğitim hakkında. Ara manipülasyonları hesaba katmadan 23 saatimi alıyor. Her geçişten sonra (bunlar birkaç dönemdir), eğitim örneğini değiştiririm. Hayır karıştırmıyorum ama değişiyorum yani aynı resimleri göstermiyorum. Öğrenme sürecinde tekrarlanan örnekler yoktur.

Spesifik optimizasyon algoritması nedir? aynısını arayın ancak L-BFGS algoritması ile çok daha hızlı olacak

ve NN'niz 100 kat daha hızlı öğrenecektir, örneğin, 23 saat değil 10 dakika (tüm normal insanlar gibi) :)) sabit adımlı basit bir eğim inişiniz varsa


işte karşılaştırma:

http://docplayer.ru/42578435-Issledovanie-algoritmov-obucheniya-iskusstvennoy-neyronnoy-seti-dlya-zadach-klassifikacii.html

Исследование алгоритмов обучения искусственной нейронной сети для задач классификации - PDF
Исследование алгоритмов обучения искусственной нейронной сети для задач классификации - PDF
  • docplayer.ru
САНКТ-ПЕТЕРБУРГСКИЙ ГОСУДАРСТВЕННЫЙ УНИВЕРСИТЕТ Математико-Механический факультет Кафедра Системного Программирования Корыстов Максим Андреевич Исследование алгоритмов обучения искусственной нейронной сети для задач классификации Курсовая работа Научный руководитель: Невоструев К. Н. Санкт-Петербург 2014 г. Введение 1.1 Мотивация В последнее...
 
Maksim Dmitrievski :

Spesifik optimizasyon algoritması nedir? aynısını arayın ancak L-BFGS algoritması ile çok daha hızlı olacak

ve NN'niz 100 kat daha hızlı öğrenecektir, örneğin, 23 saat değil 10 dakika (tüm normal insanlar gibi) :)) sabit adımlı basit bir eğim inişiniz varsa

işte karşılaştırma:

http://docplayer.ru/42578435-Issledovanie-algoritmov-obucheniya-iskusstvennoy-neyronnoy-seti-dlya-zadach-klassifikacii.html

Teşekkürler, okuyacağım.

Daha çok öğrenme gibi, optimizasyon değil. Kolay değil. Zaten yazdım - manuel tavlama simülasyonu ile standart bir PSU.

Belki bazı algoritmalar daha iyidir ama ben sadece geliştirme ortamında olanı kullanıyorum. Diğerleri, harici olanlar sorunlu.

Genel olarak, hız çok kritik değildir, 3 ayda bir antrenman yaparsanız - 23 saat genellikle iyidir. Ancak 3 aylık bir testte herhangi bir bozulma fark edilmedi. Muhtemelen daha uzun süre çalışır.

 
Yuri Asaulenko :

Daha çok öğrenme gibi, optimizasyon değil. Kolay değil. Zaten yazdım - manuel tavlama simülasyonu ile standart bir PSU.

Belki bazı algoritmalar daha iyidir ama ben sadece geliştirme ortamında olanı kullanıyorum. Diğerleri, harici olanlar sorunlu.


fark yok, eğitim hedef fonksiyonun optimizasyonudur

tabi tavlama hakkında yazmışlar, daha aşina değilim, okuyacağım

 
Maksim Dmitrievski :

fark yok, eğitim hedef fonksiyonun optimizasyonudur

Eğitim sırasında nesnel bir işlevim yok, yani eğitim dizisinde ilk sınıflandırma yok.) Çarpım tablosunu gerçekten bilmeyen bir öğretmenle çarpım tablosunu öğrenmekle aynı şey. Ulusal Meclis'in kendisi oraya gitmeyi arıyor, nerede bilmiyorum. Bu nedenle, daha hızlı öğrenmenin başarılı olması olası değildir.
 
Maksim Dmitrievski :

fark etmez, eğitim hedef fonksiyonun optimizasyonudur

kesinlikle tavlama hakkında yazmışlar, buna henüz aşina değilim, okudum

Evet, N dönem sonra eğitim parametreleri değiştirilerek tavlama manuel olarak simüle edilir. Ek olarak, eğitim dizisi tamamen değiştirilir (karıştırılmaz, yani değiştirilir).
 
Yuri Asaulenko :
Evet, N dönem sonra eğitim parametreleri değiştirilerek tavlama manuel olarak simüle edilir. ek olarak, eğitim dizisi tamamen değiştirilir (karıştırılmaz, yani değiştirilir).

harika bir şey, ama böyle bir NS hakkında daha fazla bilgiyi nerede okuyabilirsiniz? onlar. öğretmensiz gibi, ama yine de çıkışa bir şey mi gönderiyorsun?

 
Maksim Dmitrievski :

harika bir şey, ama böyle bir NS hakkında daha fazla bilgiyi nerede okuyabilirsiniz? onlar. öğretmensiz gibi, ama yine de çıkışa bir şey mi gönderiyorsun?

Haykin teorisini okuyun Sinir ağları ve İngilizce Piskopos - çeviri yok, ancak hazırlanıyor gibi görünüyor.

Evet, her şey basit. Girdi rastgele işlemlerdir, çıktı ise sonuçtur. Monte Carlo yöntemi denir ve çok iyidir. kendi başına hızlı değil. Ve sistemleştirme, Ulusal Meclisin kendi meselesidir.