Makine Öğrenimi ve Sinir Ağları

 

MQL5 artık makine öğrenimi de dahil olmak üzere çeşitli hesaplama görevlerinde kullanılan matris ve vektör işlemlerini desteklemektedir. Bu forum konusunu size yararlı olabilecek materyalleri paylaşmak için oluşturduk.

Makine öğrenimi teknolojisi sinir ağlarına dayanmaktadır. Sinir ağları, insan beyninin işleyişini taklit etmeye çalışan matematiksel modellerdir. Birbirlerine sinyaller ileten ve bu sinyallere dayalı olarak kararlar alan birbirine bağlı düğümlerden oluşurlar.

Makine öğrenimi sürecinde bilgisayar, yeni veriler üzerinde sonuçları öngörebilecek modelleri eğitmek için sunulan verileri kullanır. Makine öğrenimi tıp, iş dünyası, malzeme bilimi vb. dahil olmak üzere çeşitli alanlarda uygulanmaktadır.

Derin öğrenme, veri işleme sorunlarını çözmek için çok katmanlı sinir ağlarını kullanan makine öğreniminin bir alt alanıdır. Derin öğrenme modelleri, verileri yüksek doğrulukla keşfedebilir ve geleneksel makine öğrenimi algoritmaları için genellikle zor bir görev olan karmaşık hiyerarşik yapılardan özellikleri otomatik olarak çıkarabilir.

Derin sinir ağları genellikle girdi verilerini sırayla işleyen birçok katmandan oluşur. Her katman, verileri işleyen ve sonuçları bir sonraki katmana ileten bir nöron kümesidir. Model eğitiminin ana fikri, eğitim veri kümesindeki hatayı en aza indirmek amacıyla katmanlar arasındaki sinir bağlantılarının ağırlıklarını ayarlamaktır. Derin sinir ağı eğitiminde en yaygın kullanılan yaklaşımlardan biri geri yayılımdır. Bu algoritma, modelin katmanlar arasındaki ağırlıklardaki değişikliklerin model hatasını nasıl etkilediğini belirlemesine ve bu bilgiyi gradyan inişine göre ağırlıkları ayarlamak için kullanmasına olanak tanır.

Derin öğrenme, lojistik regresyon veya karar ağaçları gibi klasik makine öğrenimi yöntemlerine kıyasla daha doğru modellerin oluşturulmasını sağlar. Ancak, eğitim için büyük miktarda veri kümesi ve kapsamlı hesaplama kaynağı gerektirir, bu da bazı alanlarda sorun oluşturabilir.

Derin öğrenme, bilgisayarlı görme, doğal dil işleme, konuşma işleme, tavsiye sistemleri vb. birçok alanda uygulanmaktadır. Son yıllarda derin öğrenme, görüntü tanıma ve doğal dil işleme problemlerinde önemli ilerlemeler kaydetmiştir.

Bu forum konusunda, bu teknolojilerin nasıl çalıştığını anlamanıza yardımcı olacak videolar paylaşacağız.


MQL5 Dokümantasyonu: Matrix and vector methods
MQL5 Dokümantasyonu: Matrix and vector methods
  • www.mql5.com
Matrix and vector methods - MQL5 Referansı - MetaTrader 5 için algoritmik/otomatik ticaret dili referansı
 

1. Derin Öğrenme Devrimi



Derin Öğrenme Devrimi

Bu kısa video, yapay zekanın (AI) insanüstü yeteneklere ulaşma, yeni malzemeler keşfetme ve kıt kaynakları korumadaki devrim niteliğindeki rolünü vurgulamaktadır.

Bu teknolojiler, görme engelli kişilerin yüzleri tanımasına ve metin okumasına olanak sağladığı gibi, görme engellilerin de çocuklarına okumasına yardımcı olur. Kendi kendine giden araçlar bize uzak bölgeleri sokak haritaları olmadan keşfetme özgürlüğü veriyor.

Video, yapay zeka teknolojisinin insanların daha iyi kararlar alma ve karmaşık sorunları çözme becerilerini güçlendirmedeki rolünü vurguluyor.

The Deep Learning Revolution
The Deep Learning Revolution
  • 2016.06.09
  • www.youtube.com
More info at: http://www.nvidia.com/deep-learning Deep learning is the fastest-growing field in artificial intelligence, helping computers make sense of infi...
 

2. Visualization of information processing processes in deep learning neural networks

A series of short videos: better watch than try to describe.












 

3. [Derin Öğrenme | video 1] Sinir Ağı "Nedir"?



Ama sinir ağı nedir? | Bölüm 1, Derin öğrenme

Bu video, izleyicileri sinir ağlarıyla tanıştırıyor ve nasıl çalıştıklarını açıklıyor. Sinir ağları, her biri önceki ve sonraki katmanların nöronlarına ağırlıklar ve önyargılarla bağlanan birkaç nöron katmanı içerir. Bir nöronun aktivasyonu, daha sonra bir sigmoid fonksiyonu tarafından sıkıştırılan önceki katman nöronlarının aktivasyonlarının ağırlıklı toplamı ile belirlenir.

  • 00:00:00 Beyinden nasıl ilham aldıklarını ve el yazısı rakamları tanımak için nasıl kullanılabileceğini anlatan sinir ağlarına giriş. Video ayrıca girdi katmanı, gizli katman ve çıktı katmanı dahil olmak üzere sinir ağının yapısını da açıklıyor.

  • 00:05:00 Bu kısım, bir sinir ağının katmanlı yapısının neden akıllıca davranmasının beklenebileceğini açıklamaktadır. Ağın orta katmanlarındaki her bir nöronun, genel görüntüyü oluşturan birkaç alt bileşenden birine karşılık geldiği belirtilmektedir. Örneğin, giriş katmanına döngülü bir görüntü girişi yapıldığında bir nöron etkinleştirilebilir. Bu, ağın bir görüntüyü oluşturan çeşitli bileşenleri bir araya getirmesine ve sonuçta görüntüde temsil edilen rakamı tanımasına olanak tanır.

  • 00:10:00 Bir sinir ağının ağırlıkları ve önyargıları davranışını belirlerken öğrenme, istenen davranışı elde etmek için bu değerleri ayarlama sürecidir. Sinir ağları, her biri bir önceki ve bir sonraki katmanın nöronlarına ağırlıklar ve önyargılarla bağlanan nöron katmanlarından oluşur. Bir nöronun aktivasyonu, daha sonra bir sigmoid fonksiyonu tarafından sıkıştırılan önceki katman nöronlarının aktivasyonlarının ağırlıklı toplamı ile belirlenir. Bu son vektör daha sonra bir sonraki katmana beslenir.

  • 00:15:00 Bu videoda yazar sinir ağının ne olduğunu ve nasıl çalıştığını açıklıyor. Ayrıca sigmoid işlevini tanıtıyor ve karşılık gelen ağırlıklı toplamı sıfır ile bir arasında sıkıştırmak için nasıl kullanıldığını açıklıyor.
But what is a neural network? | Chapter 1, Deep learning
But what is a neural network? | Chapter 1, Deep learning
  • 2017.10.05
  • www.youtube.com
What are the neurons, why are there layers, and what is the math underlying it?Help fund future projects: https://www.patreon.com/3blue1brownWritten/interact...
 

4. [Derin Öğrenme | video 2] Degrade İyi, Sinir Ağları Nasıl Öğrenir?



Gradyan iniş, sinir ağları nasıl öğrenir | Bölüm 2, Derin öğrenme

Bu video, gradyan inişin sinir ağlarının daha etkili bir şekilde öğrenmesine nasıl yardımcı olduğunu açıklıyor.

  • 00:00:00 Sinir ağlarının ve diğer birçok makine öğrenimi algoritmasının nasıl öğrendiğinin merkezinde yer alan gradyan iniş fikriyle tanışın. Ardından video, el yazısı rakam tanıma ağının bir maliyet fonksiyonu, ağırlıklar ve sapmalarla nasıl parametreleştirildiğini gösterir. Ağın performansı, örnek eğitim veri kümesi üzerinde değerlendirilir ve ağ, sayıları tanımada daha iyi hale geldikçe, maliyet işlevi giderek daha doğru hale gelir.

  • 00:05:00 Gradyan iniş, sinir ağlarını eğitmek için güçlü bir araçtır ve maliyet işlevini etkin bir şekilde en aza indirmek için düzgün bir çıktıya sahip olması gerektiğini hatırlamak önemlidir.

  • 00:10:00 Gradyan iniş algoritmasının ve yapay nöronların çalışmasının açıklanması. Gradyan iniş, yokuş aşağı küçük adımlarla hareket ederken maliyet fonksiyonunda yerel bir minimum bulmak için kullanılır. Ağ iyi bir çözüme ulaşana kadar bu işlem tekrarlanır. Ardından video, sayıları tanımak için eğitilmiş bir nöron ağı ile eylem halindeki bir gradyan iniş örneğini gösteriyor. Ağ mükemmel olmasa da etkileyici olan, daha önce görmediği görüntüleri işleyebilmesidir.

  • 00:15:00 Gradyan iniş, sinir ağlarını eğitmek için kullanılan bir tekniktir. İlk bölümde, rastgele etiketlenmiş veriler üzerinde eğitilen derin sinir ağlarının, uygun şekilde etiketlenmiş verilerle aynı doğruluğu elde ettiğini gördük. İkinci kısım, bir sinir ağının doğru etiketlere sahip bir veri kümesi üzerinde eğitilmesi durumunda, maliyet fonksiyonunun yerel minimumlarının aynı kalitede olduğunu gösterir.

  • 00:20:00 Gradyan inişin sinir ağlarında nasıl çalıştığını ve ağın daha etkili bir şekilde öğrenmesine nasıl yardımcı olabileceğini gösterme.
Gradient descent, how neural networks learn | Chapter 2, Deep learning
Gradient descent, how neural networks learn | Chapter 2, Deep learning
  • 2017.10.16
  • www.youtube.com
Enjoy these videos? Consider sharing one or two.Help fund future projects: https://www.patreon.com/3blue1brownSpecial thanks to these supporters: http://3b1...
 

5. [Derin Öğrenme | video 3] Geri yayılım gerçekten ne yapıyor?



Geri yayılım gerçekten ne yapıyor? | Bölüm 3, Derin öğrenme

Geri yayılım algoritması, sinir ağlarında öğrenmelerine yardımcı olmak için kullanılır. Algoritma, ağın ağırlıklarına ve önyargılarına bağlı olan maliyet fonksiyonunun gradyanını hesaplar. Gradyan daha sonra ağın ağırlıklarını ve sapmalarını ayarlamak için kullanılır.

  • 00:00:00 Geri yayılım sinir ağı eğitiminin merkezinde yer alır. Algoritma, ağın ağırlıklarına ve önyargılarına bağlı olan maliyet fonksiyonunun gradyanını hesaplar. Gradyan daha sonra ağın ağırlıklarını ve sapmalarını ayarlamak için kullanılır.

  • 00:05:00 Geri yayılım , bir derin öğrenme ağında nöron aktivasyonunu artırmaya yardımcı olan denetimli bir öğrenme algoritmasıdır. Algoritma, önceki katmandaki nöronların ağırlıklarını ve yanlılıklarını ayarlar, böylece bu değişiklik, ilgili ağırlıkların boyutuyla orantılı olur. Geri yayılım ayrıca, ikinci katmandaki nöronların ağırlıkları ve yanlılıklarında istenen değişikliklerin yayılmasına da yardımcı olur.

  • 00:10:00 Geri yayılım, sinir ağının ağırlıklarını ve sapmalarını ayarlamak için kullanılır. Bu, verileri rasgele mini kümeye bölen ve ağırlıkları ve sapmaları mini kümeye dayalı olarak güncelleyen stokastik bir gradyan iniş algoritmasıdır. Bu algoritma hesaplama açısından gerçek gradyan inişinden daha hızlıdır ve maliyet fonksiyonunun yerel bir minimumuna yakınsayabilir.
What is backpropagation really doing? | Chapter 3, Deep learning
What is backpropagation really doing? | Chapter 3, Deep learning
  • 2017.11.03
  • www.youtube.com
What's actually happening to a neural network as it learns?Help fund future projects: https://www.patreon.com/3blue1brownAn equally valuable form of support ...
 

6. [Derin Öğrenme | video 4] Geri Yayılım Hesabı



Geri yayılım hesabı | Bölüm 4, Derin öğrenme

Bu video, ağırlıklar ve önyargılarla tanımlanan katman başına bir nöron içeren basit bir ağ kullanan derin öğrenme için geri yayılım algoritmasının arkasındaki matematiği açıklar. Ağırlık değişikliklerinin maliyeti nasıl etkilediğini anlamak için bir zincir kuralı getirildi ve maliyetin küçük ağırlık değişikliklerine duyarlılığı, maliyet fonksiyonlarının, aktivasyon fonksiyonlarının ve ağırlıklı toplamın türevleri aracılığıyla bulundu. Duyarlılık, önceki ağırlıklara ve yanlılıklara duyarlılığı bulmak için zincir kuralının uzantısındaki önceki aktivasyonun duyarlılığı yinelemeli olarak hesaplanarak dikkate alınır. Yaklaşım, katmandaki konumunu takip etmek için her ağırlığın kendi indeksine sahip olduğu, katman başına birden fazla nöron olsa bile benzer kalır.

  • 00:00:00 İlk bölümde, derin öğrenmede geri yayılım için gerekli matematiksel aygıtlara dalıyoruz. Video, üç ağırlık ve üç önyargı ile tanımlanan katman başına bir nöron içeren basit bir ağ örneğini gösterir. Amaç, maliyet fonksiyonunun bu değişkenlere ne kadar duyarlı olduğunu ve maliyet fonksiyonunu azaltmada hangi ayarlamaların en etkili olacağını anlamaktır. Ağırlık değişkenlerindeki değişikliklerin maliyet fonksiyonunu nasıl etkilediğini anlamak için bir zincirleme kuralı getirilmiştir. Maliyet fonksiyonunun ağırlıktaki küçük değişikliklere duyarlılığı, maliyet fonksiyonunun, aktivasyon fonksiyonunun ve ağırlıklı toplamın türevleri kullanılarak hesaplanır.

  • 00:05:00 İkinci bölüm, bir sinir ağındaki ağırlıklar ve önyargılarla ilgili olarak hassasiyet kavramını tanıtıyor. Maliyet fonksiyonunun ağırlıklara ve önyargılara göre türevi, zincir kuralının genişletilmesi yoluyla bulunur ve duyarlılığın dikkate alınmasını gerektirir. Duyarlılık, birlikte ateşlenen ve birbirleriyle iletişim kuran nöronların sayısı olarak düşünülebilse de, türev, ifadenin tüm eğitim örnekleri üzerinden ortalamasının alınmasını gerektirir. Zincir kuralı uzantısındaki önceki aktivasyonun hassasiyeti hesaplanır ve önceki ağırlıklara ve yanlılıklara olan hassasiyeti yinelemeli olarak hesaplamak için kullanılır. Sinir ağındaki katmanlar birden çok nörona sahip olsa bile yaklaşım pek değişmez; ancak, katmandaki konumunu takip etmek için her ağırlığın ek endekslerle endekslenmesi gerekir.
Backpropagation calculus | Chapter 4, Deep learning
Backpropagation calculus | Chapter 4, Deep learning
  • 2017.11.03
  • www.youtube.com
Help fund future projects: https://www.patreon.com/3blue1brownAn equally valuable form of support is to simply share some of the videos.Special thanks to the...
 

Yapay Zeka Tam Kursu | Yeni Başlayanlar İçin Yapay Zeka Eğitimi | Edureka

Yukarıda, yapay sinir ağlarına giriş için size en iyi malzemeleri sunduk. Edureka'nın bu videosu, size yapay zeka kavramları hakkında pratik örneklerle kapsamlı ve ayrıntılı bilgi verecektir.


Size kolaylık sağlamak için, genel bir zaman çizelgesi ve ardından her bölüm için ayrıntılı bir zaman çizelgesi sunuyoruz. Doğrudan doğru ana gidebilir, size uygun bir modda izleyebilir ve hiçbir şeyi kaçırmazsınız.

  1. 00:00:00 - 01:00:00 1. Bölüm yapay zekaya bir giriş sağlar, tarihini, farklı alanları ve kavramları ve gerçek dünya sorunlarını çözmek için derin öğrenmenin nasıl kullanıldığını tartışır. Ayrıca, AI geliştirmek için farklı yapay zeka türleri ve popüler programlama dillerinden de bahsediyor.

  2. 01:00:00 - 02:00:00 2. Bölüm, farklı yapay zeka türlerini ve bunların farklı türdeki sorunları çözmek için nasıl kullanılabileceğini tartışıyor. Belirli bir sıcaklık aralığı için ortalama maksimum sıcaklığı tahmin etmek için doğrusal regresyonun nasıl kullanılabileceğini ve bir sonucun bir veya sıfır olma olasılığını tahmin etmek için lojistik regresyonun nasıl kullanılabileceğini açıklar. Ayrıca karar ağacı algoritmasını ve bir karar ağacı oluşturmak için nasıl kullanılabileceğini tartışır. Son olarak, daha doğru ve istikrarlı bir tahmin oluşturmak için rastgele ormanın nasıl kullanılabileceğini açıklar.

  3. 02:00:00 - 03:00:00 3. Bölümde, Edureka öğretmeni Michael Kennedy, K-means kümeleme algoritmasının nasıl çalıştığını ve devasa veri kümelerini az sayıda anlamlı değere sıkıştırmak için nasıl kullanılabileceğini açıklıyor. Ayrıca, pekiştirmeli öğrenmenin, temsilcilerin bilinmeyen bir ortamda hedeflerine ulaşmayı öğrenmelerine yardımcı olan başka bir tür makine öğrenimi olduğunu tartışıyor.

  4. 03:00:00 - 04:00:00 4. Bölümde, bir üst düğüm, bir alt düğüm ve farklı bir yol türü için bilgi kazancının nasıl hesaplanacağını öğreniyoruz. Sağ taraf için entropi hesaplanır ve sıfır çıkması belirsizlik olmadığını gösterir. Yol düz olduğunda, arabanın hızı yüksektir, bu da bu bilgide bir belirsizlik olmadığını gösterir. Yol dik olduğunda, aracın hızı yavaş veya hızlı olabilir, bu da bilgilerin belirli bir yol türüne özgü olmadığını gösterir.

  5. 04:00:00 - 04:50:00 5. Bölümde Edureka eğitmeni Kirill Eremenko, programlama, veri ve makine öğreniminin temellerini kapsayan yapay zekaya kapsamlı bir genel bakış sunuyor. Sinir ağlarının nasıl çalıştığını ve hisse senedi fiyatlarını tahmin etmek için nasıl kullanılabileceğini açıklıyor. Ayrıca, veri hazırlama, bölümleme ve ölçekleme dahil olmak üzere bir sinir ağını eğitmek için gerekli adımları açıklar. Son olarak, her gizli katmandaki nöron sayısı, yanlılık boyutu ve maliyet işlevi dahil olmak üzere bir yapay zeka sistemi için model mimarisi parametrelerini tartışıyor.


Video kursunun bölümleri için ayrıntılı zaman çizelgesi

Bölüm 1

  • 00:00:00 Edureka'dan Zulaikha, yapay zekanın tarihçesi, onunla ilgili farklı alanlar ve kavramlar, yapay zekanın nasıl ortaya çıktığı, makine öğreniminin sınırlamaları ve derin öğrenmeye ne kadar ihtiyaç duyulduğu hakkında konuşuyor. Ayrıca derin öğrenme kavramını tanıtıyor ve gerçek dünya sorunlarını çözmek için nasıl kullanılabileceğini gösteriyor. Son olarak, bir sonraki modül olan doğal dil işleme hakkında konuşuyor.

  • 00:05:00 Yapay zeka, görsel algı, konuşma tanıma, karar verme ve diller arasında çeviri gibi normalde insan zekası gerektiren görevleri yerine getirebilen akıllı makineler yaratma bilimi ve mühendisliğidir. Bilgi işlem gücü ve algoritmalardaki son gelişmeler, yapay zekayı günlük hayatımıza daha etkili bir şekilde entegre etmeyi mümkün kıldı. Üniversiteler, hükümetler, start-up'lar ve büyük teknoloji şirketleri, gelecek olduğuna inandıkları için kaynaklarını yapay zekaya aktarıyor. Yapay zeka hem çalışma alanı hem de ekonomi olarak hızla gelişiyor.

  • 00:10:00 Yapay zeka, finanstan sağlığa ve sosyal medyaya kadar çeşitli alanlarda kullanılıyor. AI o kadar önemli hale geldi ki Netflix gibi işletmeler bile onu kullanıyor.

  • 00:15:00 Yapay zeka üç aşamaya ayrılıyor ve şu anda zayıf yapay zeka aşamasındayız. Yapay genel zeka veya güçlü yapay zekaya ulaşmaktan hâlâ çok uzak, ancak bu gerçekleşirse insanlık tarihinde bir dönüm noktası olur.

  • 00:20:00 Bu bölüm, farklı yapay zeka türlerini tanıtır ve ardından yapay zeka için farklı programlama dillerini tartışır. Python, AI geliştirme için en iyi dil olarak kabul edilir ve R da popüler bir seçimdir. Diğer diller arasında Python, Lisp, Prolog, C++, MATLAB, Julia ve JavaScript bulunur.

  • 00:25:00 Python, yapay zeka alanında popülerliği artan esnek ve kullanımı kolay bir programlama dilidir. Makine öğrenimi, makinelerin tahminlerini iyileştirmek için verilerden öğrenmesine olanak tanıyan bir tekniktir.

  • 00:30:00 Makine öğrenimi, otomatik olarak öğrenmek ve deneyimle gelişmek için algoritmalar kullanan yapay zekanın bir alt kümesidir. Makine öğrenimi sürecinin ana bileşeni, makine öğrenimi algoritması kullanılarak eğitilen bir modeldir.

  • 00:35:00 Algoritma ile model arasındaki fark, bir algoritmanın, verilen bir girdiye göre modelin vermesi gereken tüm kararları eşlemesi, bir modelin ise girdiden yararlı içgörüler çıkarmak ve vermek için bir makine öğrenimi algoritması kullanmasıdır. çok doğru bir sonuç vermişsin Daha sonra, çıktıyı tahmin etmek için kullanılabilecek verilerin herhangi bir özelliği olan bir tahmin değişkenimiz var. Yani aynı örnekte, yükseklik yanıt değişkeni olacaktır. Yanıt değişkeni, hedef değişken veya çıktı değişkeni olarak da bilinir. Bu, öngörücü değişkenleri kullanarak tahmin etmeye çalıştığınız değişkendir. Bu nedenle, yanıt değişkeni, yordayıcı değişkenler kullanılarak tahmin edilmesi gereken işlev veya çıktı değişkenidir. Ardından, eğitim verileri denen şeye sahibiz. Makine öğrenimi sürecinde sıklıkla "eğitim" ve "test" verileri terimleriyle karşılaşırsınız. Eğitim verileri, makine öğrenimi modelini oluşturmak için kullanılan verilerdir. Yani makine öğrenimi sürecinde, verileri makineye yüklediğinizde iki bölüme ayrılacaktır. Verileri iki alt kümeye bölmek, veri bölme olarak da bilinir. Giriş verilerini alacak, iki bölüme ayıracaksınız.
  • 00:40:00 Veri toplama, makine öğrenimindeki en çok zaman alan adımlardan biridir ve verileri manuel olarak toplamanız gerekiyorsa, çok zaman alacaktır. Ancak neyse ki, çevrimiçi olarak kapsamlı veri kümeleri sağlayan birçok kaynak var. Tek yapmanız gereken, verileri indirmeniz gereken yerde web kazıma yapmaktır. Size anlatabileceğim bir site Cargill. Bu nedenle, makine öğreniminde yeniyseniz, veri toplama ve tüm bunlar için endişelenmeyin. Tek yapmanız gereken Cargill gibi web sitelerine gidip veri setini indirmek.

  • 00:45:00 Denetimli öğrenme, bir makinenin iyi etiketlenmiş veriler kullanılarak eğitildiği bir tekniktir. Denetimli öğrenme, öğretmenlerin öğrencilerin matematiksel kavramları anlamalarına nasıl yardım ettiğine benzer.

  • 00:50:00 Denetimli öğrenmede, eğitim veri kümesi, Tom ve Jerry'nin görüntüleri gibi nesnelerin neye benzediği hakkında bilgiler içerir. Görüntülerin nasıl tanımlanıp sınıflandırılacağını öğrenmek için bu etiketli veri kümesi üzerinde bir makine öğrenimi algoritması eğitilir. Denetimsiz öğrenmede, bir makine öğrenimi algoritması etiketli verileri almaz, bunun yerine etiketlenmemiş veriler üzerinde eğitim yapar. Takviyeli öğrenmede, bir ajan bir ortama yerleştirilir ve eylemler gerçekleştirerek ve bu eylemler için alınan ödülleri gözlemleyerek davranmayı öğrenir.

  • 00:55:00 Makine öğrenimi, üç ana öğrenim türünden oluşur: denetimli öğrenim, denetimsiz öğrenim ve takviyeli öğrenim. Denetimli öğrenme etiketli verileri öğrenmek için kullanılır, denetimsiz öğrenme etiketsiz verileri öğrenmek için kullanılır ve takviyeli öğrenme eylemleri ve ödülleri öğrenmek için kullanılır. Makine öğrenimi ile çözülebilecek üç tür problem vardır: regresyon, sınıflandırma ve kümeleme. Regresyon, sınıflandırma ve kümeleme problemlerini çözmek için kullanılabilecek birçok algoritma vardır ancak en sık kullanılanları Lineer Regresyon, Lojistik Regresyon, Destek Vektör Makinesi ve Naive Bayes'tir.


Bölüm 2

  • 01:00:00 Sınıflandırma, regresyon ve kümeleme problemlerini çözmek için yapay zeka kullanılabilir. Doğrusal regresyon gibi denetimli öğrenme algoritmaları, girdi verilerine dayalı olarak ev fiyat endeksi gibi hedef değişkenleri tahmin etmek için kullanılır.

  • 01:05:00 Doğrusal regresyon, bağımsız değişken x'in değerlerine dayalı olarak sürekli bir bağımlı değişkeni, y tahmin etmek için kullanılan denetimli bir öğrenme algoritmasıdır. Lineer regresyon, en iyi lineer uyumu kullanarak y ve x arasında bir ilişki kurarak başlar ve ardından lineer regresyon çizgisinin eğimini ve y kaymasını hesaplar.

  • 01:10:00 Edureka eğitmeni Michael Kennedy, dünyanın dört bir yanındaki farklı günlerde kaydedilen bir hava durumu veri seti üzerinde doğrusal regresyon gösteriyor. Gerekli kitaplıkların nasıl içe aktarılacağını ve verilerin nasıl okunacağını, veri noktalarının nasıl çizileceğini ve değişkenler arasında doğrusal bir ilişkinin nasıl bulunacağını gösteriyor. Ayrıca uyarı mesajını tartışıyor ve bu gösterinin asıl amacının hava tahmini olduğunu açıklıyor.

  • 01:15:00 Bu ders, belirli bir sıcaklık aralığı için ortalama maksimum sıcaklığı tahmin etmek için doğrusal regresyonun nasıl kullanılabileceğini açıklar. Model, veri setini tren ve test setlerine bölerek ve uygun lineer regresyon sınıfını içe aktararak eğitilir. Eğitimin ardından eğitmen, verilere karşılık gelen doğru için eğimin ve y kaymasının nasıl hesaplanacağını gösterir.

  • 01:20:00 Bir test veri setinin yüzde puanını tahmin etmek için regresyon algoritmasının nasıl kullanılacağının açıklanması. Video ayrıca sonuçların nasıl çizileceğini ve gerçek değerlerle nasıl karşılaştırılacağını gösterir.

  • 01:25:00 Lojistik regresyon, bağımlı değişkenin kategorik bir değişken olduğu, yani çıktının kategorik bir değişken olduğu şekilde, bağımsız değişken x verildiğinde bağımlı değişkeni, y tahmin etmek için kullanılan bir tekniktir. Lojistik regresyonun sonucu her zaman kategoriktir ve lojistik regresyonda kullanılan temel teknik lineer regresyona çok benzer.

  • 01:30:00 Lojistik regresyon, Pr(X = 1) = beta0 + beta1*X denklemini kullanarak bir sonucun 1 veya 0 olma olasılığını tahmin etmek için kullanılır. Lojistik fonksiyon veya S-eğrisi, sıfır ile bir arasındaki aralığa uyulmasını sağlar.

  • 01:35:00 Karar ağacı algoritması, anlaşılması kolay, denetimli bir öğrenme algoritmasıdır. Bir kök düğümden (ilk bölünmenin gerçekleştiği yer), iç düğümlerden (kararların verildiği yer) ve yaprak düğümlerden (sonuçların depolandığı yer) oluşur. Düğümler arasındaki dallar oklarla gösterilir ve algoritma, bir uç düğüme ulaşılana kadar verileri ağaç boyunca kat ederek çalışır.

  • 01:40:00 "ID3" algoritması, karar ağacını oluşturmak için kullanılan algoritmadır. Bu algoritmayı kullanmak için gereken adımlar şunlardır: (1) en iyi özniteliği seçin, (2) bu özniteliği kök düğüm için karar değişkeni olarak atayın, (3) karar değişkeninin her değeri için bir alt öğe oluşturun ve (4) yaprak düğümleri sınıflandırmasını etiketleyin. Veriler doğru bir şekilde sınıflandırılırsa, algoritma durur; değilse, algoritma tahmin değişkenlerinin veya kök düğümün konumunu değiştirerek ağaçta yinelemeye devam eder. En iyi özellik, verileri farklı sınıflara en etkili şekilde ayıran özelliktir. Entropi ve bilgi kazancı, hangi değişkenin verileri en iyi ayırdığını belirlemek için kullanılır. Verileri kök düğümde bölümlemek için en yüksek bilgi kazancı ölçüsü kullanılacaktır.

  • 01:45:00 Yeni başlayanlar için yapay zeka konulu bu video eğitiminde, bir üst düğüm, bir alt düğüm ve farklı bir yol türü için bilgi kazancının nasıl hesaplanacağını öğreniyoruz. Sağ taraf için entropi hesaplanır ve sıfır olur, bu da belirsizliğin olmadığını gösterir. Yol düz olduğunda aracın hızının yüksek olması bu bilgide herhangi bir belirsizliğin olmadığını göstermektedir. Yol dik olduğunda, araç hızı yavaş veya hızlı olabilir, bu da bilgilerin belirli bir yol türüne özgü olmadığını gösterir.

  • 01:50:00 Bir karar ağacında bilgi kazancını hesaplamak için entropinin nasıl kullanıldığını tartışmak. Ana düğüm için entropinin, alt düğümler için ağırlıklı ortalamanın ve her öngörücü değişken için bilgi kazancının hesaplanması. Yol tipi değişkeni için entropi sıfırdır, yani veri setinde herhangi bir belirsizlik yoktur. Yol tipi değişkeni için bilgi kazancı 0,325'tir, bu da veri setinin yol tipi değişkeni hakkında çok az bilgi içerdiği anlamına gelir. Engel değişkeni için bilgi kazancı sıfırdır, yani engel değişkeni karar ağacını etkilemez. Hız sınırı değişkeni için bilgi kazancı birdir, bu da hız sınırı değişkeninin karar ağacı üzerinde en büyük etkiye sahip olduğu anlamına gelir.

  • 01:55:00 Rastgele bir ormanda, daha doğru ve istikrarlı bir tahmin oluşturmak için daha sonra birleştirilen birkaç karar ağacı oluşturulur. Önyükleme, daha sonra karar ağaçlarını eğitmek için kullanılan küçük bir veri kümesi oluşturmak için kullanılır. Rastgele Orman, fazla uydurmayı (eğitim verilerinin ezberlenmesini) azalttığı için yeni verileri tahmin etmede Karar Ağaçlarından daha doğrudur.


Bölüm 3

  • 02:00:00 Bu video, rastgele bir orman kullanarak bir karar ağacının nasıl oluşturulacağını açıklıyor. İlk olarak, karar ağacının her bir düğümünde kullanılmak üzere rastgele iki veya üç değişken seçilir ve ardından her biri için bilgi kazancı ve entropi hesaplanır. Bu süreç daha sonra her bir sonraki dal düğümü için tekrarlanarak, seçilen öngörücü değişkenlere dayalı olarak çıktı sınıfını tahmin eden bir karar ağacı oluşturulur. Son olarak, ilk adıma dönüyoruz ve orijinal değişkenlerin bir alt kümesini temel alan yeni bir karar ağacı oluşturuyoruz. Bu süreç, her biri farklı öngörücü değişkenlere dayalı olarak çıktı sınıfını tahmin eden birden çok karar ağacı oluşturulana kadar tekrarlanır. Son olarak, modelin doğruluğu çanta dışı veri seti kullanılarak değerlendirilir.

  • 02:05:00 Bu videoda Edureka eğitmeni Michael Kennedy, Random Forest'ın nasıl çalıştığını açıklıyor. İlk olarak, doğru tahminleri sağlamak için bir önyükleme veri seti oluşturulur. Daha sonra rastgele tahmin ediciler kullanılarak bir karar ağacı oluşturulur. Model oluşturulana kadar bu işlem yüzlerce kez tekrarlanır. Model doğruluğu, torba dışı örnekleme kullanılarak hesaplanabilir.

  • 02:10:00 K en yakın komşu algoritması, komşu veri noktalarının özelliklerine bağlı olarak yeni bir veri noktasını bir hedef sınıfa veya çıktı sınıfına sınıflandıran denetimli bir öğrenme algoritmasıdır.

  • 02:15:00 KNN algoritması, yeni girdi veri noktalarının çıktısını tahmin etmek için verileri kullanan denetimli bir öğrenme algoritmasıdır. Özelliklerin komşu veri noktalarına benzerliğine dayanır ve parametrik değildir. KNN algoritması tembeldir ve diskriminant fonksiyonunu öğrenmek yerine eğitim setini hatırlayabilir.

  • 02:20:00 Edureka eğitmeni Alan C, KNN ve SVM sınıflandırma algoritmalarının temellerini açıklıyor. Her algoritmanın kendine özgü güçlü yanları vardır ve SVM, doğrusal olmayan verileri işleme yeteneği nedeniyle sınıflandırma için popüler bir seçimdir.
  • 02:25:00 Python kullanarak çeşitli sınıflandırma algoritmalarının kullanımı göz önüne alındığında. İlk olarak, veriler okunur ve etiketlerine göre meyve türlerine göre gruplandırılır. Daha sonra çeşitli algoritmalar gerçeklenir ve veriler üzerinde test edilir. Son olarak, sonuçlar gösterilir ve tartışılır.

  • 02:30:00 Makine öğreniminde görselleştirmenin önemi tartışılıyor ve kutu çizimleri, histogramlar ve ölçekleyicilerin kullanımı açıklanıyor. Ayrıca, verileri eğitim ve test kümelerine ayırmanın önemini tartışmak.

  • 02:35:00 Bu video, bir sınıflandırma probleminde lojistik regresyon, karar ağaçları ve destek vektör makinelerinin kullanımını kapsar. Lojistik regresyon sınıflandırıcı, eğitim veri setinde iyi bir sonuç verdi, ancak test veri setinde daha az doğruydu. Karar ağacı sınıflandırıcısı, eğitim veri setinde daha doğruydu, ancak test veri setinde daha kötü performans gösterdi. Destek vektör makinesi, hem eğitim hem de test veri setlerinde iyi sonuçlar verdi.

  • 02:40:00 K-means kümeleme algoritması, benzer öğeleri veya veri noktalarını kümeler halinde gruplandırmak için kullanılan denetimsiz bir makine öğrenimi algoritmasıdır. Belirli bir ürünü belirli bir kitleye tanıtmak gibi hedefli pazarlama için kullanılır.

  • 02:45:00 Dirsek yöntemi, belirli bir problem için en uygun k değerini bulmak için kullanılan basit bir yöntemdir. Dirsek yöntemi, k'nin farklı değerleri için kareleri alınmış hataların toplamını hesaplayarak ve ardından bunları görselleştirerek başlar. k arttıkça hata azalır, bu da daha fazla kümenin daha az bozulma ile sonuçlandığını gösterir. k'nin optimal değeri, grafikte hatadaki azalmanın yavaşlayarak bir "dirsek" şekli oluşturduğu noktadadır.

  • 02:50:00 Dirsek yöntemi, K-means algoritması için en uygun K değerini seçmenin basit bir yoludur. Bu yöntem, farklı K değerleri için kareleri alınmış hataların toplamını hesaplayarak ve bunları bir grafik üzerinde çizerek başlar. K arttıkça hata azalır, bu da daha fazla kümenin daha az bozulmayla sonuçlandığını gösterir. K-means için en uygun K değeri, distorsiyonun büyük ölçüde azaldığı noktadadır. Bu yöntem, standart kitaplık işlevleri kullanılarak kolayca uygulanabilir. Bu videoda dirsek yöntemini göstermek için scikit-learn veri kümesinden örnek bir görüntü kullanıyoruz.

  • 02:55:00 Bu video, K-means kümeleme algoritmasının nasıl çalıştığını ve büyük veri kümelerini az sayıda anlamlı değere sıkıştırmak için nasıl kullanılabileceğini açıklıyor. Ayrıca, pekiştirmeli öğrenmenin, temsilcilerin bilinmeyen bir ortamda hedeflerine nasıl ulaşacaklarını öğrenmelerine yardımcı olan farklı bir makine öğrenimi türü olduğunu düşünür.


4. Bölüm

  • 03:00:00 Counter Strike gibi bir video oyunundaki takviyeli bir öğrenme aracısı, mevcut durumuna ve ortamına göre en iyi eylemi gerçekleştirerek ödülünü en üst düzeye çıkarmaya çalışır. Örneğin, bir ajan bir kaplana yaklaşırsa, öldürülme olasılığını hesaba katarak beklenen ödülünü düşürebilir. Eylem, durum, ödül ve gama gibi bu kavramlar sonraki slaytlarda daha ayrıntılı olarak ele alınacaktır.

  • 03:05:00 Bu videoda Edureka eğitmeni Adriano Ferreira, keşif ve sömürü kavramlarını, Markov karar verme sürecini çözmek için matematiksel bir yaklaşımı ve en kısa yol problemini tartışıyor. Daha sonra açgözlü stratejiyi kullanarak bir sorunu çözmek için bir stratejinin nasıl seçileceğine dair bir örnek ve keşif stratejisini kullanarak bir stratejinin nasıl seçileceğine dair bir örnek göstermeye devam ediyor.

  • 03:10:00 Edureka eğitmeni, üç ana yöntem dahil olmak üzere pekiştirmeli öğrenmenin temellerini açıklıyor: politika tabanlı, değer tabanlı ve eylem tabanlı. Ardından, önemli bir takviyeli öğrenme algoritması olan Q-öğrenme algoritmasını gösterir. Q-learning'in amacı, en yüksek ödüle sahip durumu bulmaktır ve Q-learning'de kullanılan terminoloji durum ve eylemi içerir.

  • 03:15:00 Nasıl çalıştığı ve deneyimlerden öğrenebilen bir aracının nasıl oluşturulacağı da dahil olmak üzere yapay zekanın temellerinin açıklanması. Video, aracının mevcut durumunu ve gelecekteki ödüllerini belirlemek için ödül matrisinin ve tekdüze Q matrisinin nasıl kullanıldığını açıklıyor. Gama, keşif ve ajan kullanımını kontrol etmek için kullanılır.

  • 03:20:00 Video, bir aracının Q matrisinin hafızasını nasıl sakladığı ve nasıl güncelleneceği dahil olmak üzere yapay zekanın temel kavramlarını anlatıyor. Ardından NumPy ve R kitaplıklarını kullanarak Python'da aynısını nasıl yapacağınıza geçer.

  • 03:25:00 Video, yeni başlayanlara bir ödül matrisi ve bir Q matrisi oluşturmak ve gama parametresini ayarlamak için kodu nasıl kullanacaklarını öğreterek bir yapay zeka (AI) sisteminin nasıl oluşturulacağını gösterir. Video daha sonra yapay zeka sisteminin 10.000 yineleme çalıştırarak nasıl eğitileceğini ve rastgele bir durum seçip hedef duruma, yani beş numaralı odaya ulaşmaya çalışarak sistemin nasıl test edileceğini gösteriyor.

  • 03:30:00 Makine öğrenimi, bilgisayarların verilerden öğrenmesine yardımcı olan bir çalışma alanıdır. Ancak, yüksek boyutlu verileri işleyemez. Makine öğreniminin diğer bir sınırlaması, ölçüm sayısı arttıkça artan hesaplama gücü gereksinimleridir.

  • 03:35:00 Yapay zeka, görüntü tanıma için kullanım kabiliyeti sınırlıdır çünkü görüntüler çok sayıda piksel içerir ve çok fazla kibirli veri içerir. Özellik çıkarma, makine öğrenimi iş akışının önemli bir parçasıdır çünkü bir algoritmanın etkinliği, programcının verileri ne kadar derinlemesine analiz ettiğine bağlıdır. Derin öğrenme, beynimizin nasıl çalıştığını taklit eder ve programcının çok az rehberliğine ihtiyaç duyarak doğru özelliklere odaklanmayı kendi kendine öğrenebilir.

  • 03:40:00 Derin öğrenme, verilerdeki özellik hiyerarşilerini verimli bir şekilde öğrenmenizi sağlayan bir dizi makine öğrenimi tekniğidir. Derin öğrenme, tıpkı beynimiz gibi çalışan yapay nöronlardan oluşan bir sinir ağından oluşur. Katman sayısı ve her katmandaki algılayıcı sayısı tamamen göreve veya uygulamaya bağlıdır.

  • 03:45:00 Aktivasyon fonksiyonunun hesaplanmasında ağırlığın nasıl kullanıldığının açıklanması. Bu aktivasyon işlevi daha sonra belirli bir girdinin (X bir) ne kadarının bir çıktı (bir) oluşturmak için kullanıldığını belirler.

  • 03:50:00 Çok katmanlı bir algılayıcı, tek katmanlı bir algılayıcı ile aynı yapıya sahiptir, ancak bir veya daha fazla gizli katmana sahiptir. Ağırlıklar başlangıçta rastgele atanır ve hatayı en aza indirmek için ağırlıkların doğru olması gerekir. Geri yayılım, hatayı azaltmak için ağırlıkları güncellemenin bir yoludur.

  • 03:55:00 Edureka eğitmeni Emmanuel, izleyicilere geri yayılımı kullanarak bir modelin çıktısını nasıl hesaplayacaklarını anlatıyor. İlk olarak, modelin nerede yanlış olduğunu gösteren bir hata hesaplarlar. Daha sonra ağırlıkları hatayı en aza indirecek şekilde güncellemek için hata geri yayılımını kullanırlar. Hata yüksek kalırsa, ağırlıkları güncellemeyi bırakırlar ve global kaybı minimum bulurlar, sonra dururlar.


Bölüm 5

  • 04:00:00 Geri yayılım, çıktı katmanındaki hatayı azaltmak için ağ ağırlıklarını ayarlamak için kullanılan matematiksel bir tekniktir. Gradyan iniş, ağ ileri yayılma performansını optimize etmek için kullanılır. Tekrarlayan sinir ağları, bir veri dizisindeki kalıpları tanımak için kullanılabilen bir tür yapay sinir ağıdır.

  • 04:05:00 Derin sinir ağlarının nasıl çalıştığını ve bunların hisse senedi fiyatlarını tahmin etmek için nasıl kullanılabileceğini açıklıyor. İleri sinir ağlarının, çok katmanlı algılayıcıların ve tekrarlayan sinir ağlarının temellerini kapsar.

  • 04:10:00 Veri hazırlama, bölümleme ve ölçekleme dahil olmak üzere bir sinir ağını eğitmek için gereken adımları açıklar. Yer tutucuların ve başlatıcıların kullanımı da tartışılmaktadır.

  • 04:15:00 Her gizli katmandaki nöron sayısı, yanlılık boyutu ve maliyet fonksiyonu dahil olmak üzere bir yapay zeka sistemi için model mimarisi parametreleri tartışılıyor. Ardından aktivasyon fonksiyonunun gizli katmanları nasıl dönüştürdüğünü ve çıktının nasıl aktarıldığını ve maliyetlendirildiğini açıklar.

  • 04:20:00 Edureka eğitmeni Kirill Eremenko, sinir ağlarının, optimize edicilerin ve başlatıcıların rolü de dahil olmak üzere derin öğrenmenin temellerini açıklıyor. Ayrıca mini toplu eğitimin nasıl çalıştığını ve çağların bir sinir ağını eğitmek için nasıl kullanıldığını açıklar.

  • 04:25:00 Modelin tahmin edilen değerlerini y'de saklanan gerçek gözlenen hedeflerle karşılaştırarak derin öğrenmeyi gösterme. TensorFlow daha sonra ağırlık ve yanlılık faktörlerini güncellemek için kullanılır. Model daha sonra test verileri üzerinde eğitilir ve tahmini gerçek değerlerle karşılaştırılır. 10 dönem sonra modelin doğruluğunun gerçek değere çok yakın olduğu gösterilmiştir.

  • 04:30:00 Metin madenciliği veya metin analizi, doğal dil metninden anlamlı bilgiler çıkarma işlemidir. Metin madenciliği, metin madenciliği ve metin veri analizi gerçekleştirmek için NLP kullanan geniş bir alandır. NLP, makinelerin verileri sıfırlar ve birler olarak anlamalarına yardımcı olan metin madenciliğinin bir parçasıdır. Doğal dil işleme, bilgisayarların ve akıllı telefonların hem sözlü hem de yazılı dilimizi anlamak için kullandıkları şeydir. Metin madenciliği ve doğal dil işleme uygulamalarına örnek olarak spam algılama, tahmine dayalı yazma ve duyarlılık analizi dahildir.

  • 04:35:00 Doğal dil işlemede tokenizasyon, köklendirme ve lemmatizasyonun önemi tartışılır. Simgeleştirmenin bir cümleyi kelimelere böldüğünü, köklendirmenin kelimeleri temel biçimlerine indirgediğini ve lemmatizasyonun kelimeleri lemmalarına geri bağladığını açıklar. Durdurma sözcükleri, önemli sözcüklere odaklanmak için kaldırılan yaygın sözcüklerdir.

  • 04:40:00 Bu Edureka öğreticisi, bu görevi gerçekleştirmek için gerekli tüm işlevleri içeren bir kitaplık olan NaiveBayesClassifier kullanılarak doğal dil işlemenin nasıl gerçekleştirileceğini açıklar. Ardından, film incelemesi veri kümesinde bir duyarlılık analizi gerçekleştirerek süreci gösterirler. Sınıflandırıcı, hangi incelemelerin olumlu ve hangilerinin olumsuz olduğunu tespit edebildi.

  • 04:45:00 Edureka Makine Öğrenimi Mühendisi programı, Python programlama, makine öğrenimi, doğal dil işleme (NLP), grafik modelleme, derin öğrenme ve Spark'ı kapsayan 200 saatin üzerinde etkileşimli öğrenme içeren dokuz modül içerir. Müfredat, denetimli ve denetimsiz algoritmaları, istatistikleri ve zaman serilerini, derin öğrenmeyi ve Spark'ı içerir. Bir makine öğrenimi mühendisinin ortalama yıllık maaşı 134.000 doların üzerindedir.

  • 04:50:00 Programlamanın temelleri, veri işleme ve makine öğrenimi de dahil olmak üzere yapay zekaya kapsamlı bir giriş sunulur. Bu giriş modülünü tamamladıktan sonra öğrenci, bu konulardaki anlayışlarını derinleştirmeyi amaçlayan ek derslerle ilerleyebilecektir.
Artificial Intelligence Full Course | Artificial Intelligence Tutorial for Beginners | Edureka
Artificial Intelligence Full Course | Artificial Intelligence Tutorial for Beginners | Edureka
  • 2019.06.02
  • www.youtube.com
🔥 Machine Learning Engineer Masters Program (Use Code "𝐘𝐎𝐔𝐓𝐔𝐁𝐄𝟐𝟎"): https://www.edureka.co/masters-program/machine-learning-engineer-training This ...
 

MIT Derin Öğrenmeye Giriş kursu, derin öğrenmenin temel ilkelerinin hızlı ve yoğun bir şekilde öğrenilmesi için tasarlanmıştır.

MIT Derin Öğrenmeye Giriş kursu, bilgisayarla görme, doğal dil işleme, biyoloji ve diğer alanlardaki uygulamalarla derin öğrenmenin temel ilkelerinde hızlı ve yoğun bir eğitim sağlamak için tasarlanmıştır. Kurs kapsamında öğrenciler, derin öğrenme algoritmaları hakkında temel bilgiler ve TensorFlow'da sinir ağları oluşturma konusunda pratik deneyim kazanacaklar. Program, personel ve endüstri sponsorları tarafından değerlendirilen bir proje önerisi yarışmasıyla sona erer. Öğrencilerin kalkülüs (türev alabilme) ve doğrusal cebir (yani matrisleri çarpabilme) konularına aşina oldukları varsayılır, ancak diğer her şey ders ilerledikçe açıklanacaktır. Python ile çalışma deneyimi faydalıdır ancak gerekli değildir.



Anlatım 1. MIT Derin Öğrenmeye Giriş | 6.S191

Bu videoda MIT Alexander Amini, algılayıcı tartışmasıyla derin öğrenmenin temellerini tanıtıyor. TensorFlow adlı bir kitaplığı kullanarak süreci basitleştirerek sıfırdan bir sinir ağının nasıl oluşturulacağını göstermeye devam ediyor. Bir çıkış katmanıyla tek katmanlı ve iki katmanlı bir sinir ağının nasıl oluşturulacağını tartışarak videoyu bitiriyor.

  • 00:00:00 Bu bir haftalık derin öğrenmeye giriş kursunda öğrenciler, alanın temellerini öğrenir ve derin öğrenme yazılım laboratuvarlarını kullanarak uygulamalı deneyim kazanır. Kurs sahtedir, ancak video ve ses aslında derin öğrenme teknikleri kullanılarak oluşturulmuştur. Bu, eğitmenin yüksek kaliteli, gerçekçi derin öğrenme örneklerini iş başında göstermesine olanak tanır.

  • 00:05:00 Bu video, ilgili terminoloji ve kavramlar da dahil olmak üzere derin öğrenmenin temellerini tanıtır. Sınıf, yaratıcı ve yenilikçi bir fikre odaklanan son proje ile teknik dersler ve yazılım laboratuvarları arasında bölünmüştür. Video, kursun eğitmenlerine kısa bir genel bakış ve herhangi bir sorunuz varsa onlarla nasıl iletişime geçeceğinizle sona erer.

  • 00:10:00 Derin öğrenmenin temel amacı, hiyerarşik nöron katmanlarını kullanarak derin sinir ağlarını eğiterek yapılan verilerden özellikleri öğrenmektir. Bu, hiyerarşik özellikleri algılama yeteneğinin yanı sıra büyük paralelleştirmeye izin verir.

  • 00:15:00 Bu derste, sigmoid aktivasyon işlevi ve relu işlevi dahil olmak üzere derin öğrenmenin arkasındaki teknik kavramları öğreneceksiniz. Ayrıca, modern sinir ağlarında doğrusal olmayanlığı ortaya çıkarmak için aktivasyon fonksiyonlarının nasıl kullanıldığını da göreceksiniz. Son olarak, girdi veri noktalarının ağırlıklı kombinasyonunu hesaplamak için algılayıcı denklemini nasıl kullanacağınız gösterilecektir.

  • 00:20:00 Alexander Amini, algılayıcı tartışmasıyla derin öğrenmenin temellerini tanıtıyor. TensorFlow adlı bir kitaplığı kullanarak süreci basitleştirerek sıfırdan bir sinir ağının nasıl oluşturulacağını göstermeye devam ediyor. Bir çıkış katmanıyla tek katmanlı ve iki katmanlı bir sinir ağının nasıl oluşturulacağını tartışarak videoyu bitiriyor.

  • 00:25:00 Bu bölümde, derin öğrenmenin nasıl çalıştığını ve bir öğrencinin dersi geçip geçmeyeceğini tahmin etmek için bir sinir ağının nasıl kurulacağını açıklıyor. Ağ doğru şekilde eğitilmemiştir ve sonuç olarak tahmin edilen geçiş olasılığı yanlıştır.

  • 00:30:00 Bu videoda, Alexander Amini derin öğrenmenin temellerini ve kademeli iniş kullanarak bir sinir ağının nasıl optimize edileceğini tartışıyor. Derin öğrenmenin, verilere dayalı tahminlerini iyileştirmek için bir ağı eğitmeyi içerdiğini açıklıyor. Amaç, tüm veri kümelerinde ağ hatasını ortalama olarak en aza indiren ağırlıkları (w'ler) bulmaktır.

  • 00:35:00 Derin öğrenmede, geri yayılım, kaybını azaltmak için her bir ağırlığın nasıl değişmesi gerektiğini belirlemek amacıyla gradyanları bir sinir ağının girişine kadar yayma işlemidir. Uygulamada, ne çok küçük ne de çok büyük olan öğrenme oranlarının kullanılması, yerel minimumlardan kaçınır ve yine de küresel bir optimuma doğru yakınsar.

  • 00:40:00 Alexander Amini, gradyan iniş, uyarlanabilir öğrenme hızları ve gruplama kullanarak derin sinir ağlarının nasıl eğitileceğini tartışıyor. Ayrıca aşırı uyumun tehlikelerini ve bunun nasıl hafifletileceğini de tartışıyor.

  • 00:45:00 Bu derste ele alınan ana noktalar, sinir ağlarının temel yapı taşları, bulmacanın nasıl tamamlanıp eğitileceği ve bir kayıp fonksiyonunun nasıl kullanılacağıydı. Bir sonraki derste Ava, rnn'leri kullanarak derin sıralı modellemeden ve transformatör adı verilen yeni ve heyecan verici bir modelden bahsedecek.
MIT Introduction to Deep Learning (2022) | 6.S191
MIT Introduction to Deep Learning (2022) | 6.S191
  • 2022.03.11
  • www.youtube.com
MIT Introduction to Deep Learning 6.S191: Lecture 1Foundations of Deep LearningLecturer: Alexander AminiFor all lectures, slides, and lab materials: http://i...
 

MIT 6.S191 (2022): Tekrarlayan Sinir Ağları ve Transformatörler



Ders 2. MIT 6.S191 (2022): Tekrarlayan Sinir Ağları ve Transformatörler

MIT dersinin bu bölümü, sıralı verileri işlemenin önemini bir topun yörüngesini tahmin etmek gibi örneklerle açıklayarak dizi modellemeye bir giriş sağlar. RNN'lerin mevcut ve gelecekteki tahminleri bildiren önceki geçmişi yakalamak için bir dahili belleği (veya durumu) nasıl kullandığını açıklayan dersle birlikte, tekrarlayan sinir ağları (RNN'ler), dizi modellemeyi ele almanın bir yolu olarak tanıtılır. Ders ayrıca, ağırlık matrislerini daha açık hale getirmek için RNN'lerin zaman içinde nasıl açılabileceğini tartışır ve dizi modelleme için tasarım problemlerini ve kriterlerini sunar. Video ayrıca RNN'lerle ilgili, örneğin kaybolan gradyan sorunu gibi yaygın sorunları da ele alıyor ve modelin girdinin en önemli kısımlarına yineleme olmadan katılmasını sağlayan potansiyel bir çözüm olarak dikkat kavramını tanıtıyor. Ders, öz-dikkat mekanizmalarının biyoloji ve bilgisayar görüşü gibi dil işlemenin ötesindeki alanlara nasıl uygulanabileceğine dair bir tartışma ile sona erer.

  • 00:00:00 Videonun bu bölümünde ders, dizi modelleme kavramını ve bunun sıralı verileri içeren görevleri yerine getirmedeki önemini tanıtıyor. Öğretim görevlisi, bir topun yörüngesini tahmin etmenin basit bir örneğiyle başlar; burada topun önceki konum verilerinin eklenmesi, tahmini büyük ölçüde geliştirir. Sıralı veriler, ses, metin, EKG sinyalleri ve hisse senedi fiyatları gibi çeşitli biçimlerde etrafımızdadır. Öğretim görevlisi daha sonra ileri beslemeli modeller ile sıralı modeller arasındaki farkı açıklar ve sıralı modellemenin gerekli olduğu gerçek dünya uygulamalarından örnekler verir. Sekans modellemenin temel bir anlayışını oluşturmak için öğretim görevlisi, algılayıcı kavramını tekrar gözden geçirir ve sıralı verileri işlemek için onu nasıl değiştireceğini adım adım gösterir.

  • 00:05:00 Bu bölümde video, tekrarlayan sinir ağları (RNN'ler) kavramını ve sıralı verileri nasıl işlediklerini tartışıyor. Belirli bir zaman adımındaki bir RNN'nin çıktısı, yalnızca o zaman adımındaki girdiye değil, aynı zamanda önceki zaman adımındaki belleğe de bağlıdır. Bu bellek, dizide daha önce meydana gelenlerin önceki geçmişini yakalar ve önceki her adımdan ileriye aktarılır. Video, RNN'lerin bu bellek kavramını yakalamak için bir dahili belleği (veya durumu) nasıl kullandığını ve belirli bir zaman adımındaki çıktının nasıl hem mevcut girdinin hem de geçmiş belleğin bir işlevi olduğunu açıklar. Video ayrıca, bu tür nöronların nasıl tanımlanabileceğini ve bir yineleme ilişkisi olarak tasvir edilebileceğini de açıklıyor.

  • 00:10:00 Dersin bu bölümünde eğitmen, sinir ağlarında tekrarlama ilişkisi kavramını ve bunun tekrarlayan sinir ağlarının (RNN'ler) arkasındaki ana fikri nasıl oluşturduğunu açıklar. RNN, hem mevcut girdinin hem de önceki durumun bir kombinasyonu olarak işlev gören bir yineleme ilişkisi uygulayarak her zaman adımında güncellenen dahili bir durumu, h of t'yi korur. Bu işlevin parametreleri, eğitim sırasında öğrenilen bir dizi ağırlıkla temsil edilir. RNN, dizideki tüm sözcükleri ve zaman noktalarını işledikten sonra çıktıyı tahmin eder. Çıktı vektörü, y(t), iç durumun bir ağırlık matrisinden geçirilmesi ve doğrusal olmama uygulanmasıyla üretilir. Ders, RNN döngüsünün kendi kendine nasıl geri beslendiğinin ve zaman içinde nasıl çözülebileceğinin görsel bir sunumunu sağlar.

  • 00:15:00 Bu bölümde, konuşmacı, girdiye uygulanan hesaplamanın ağırlık matrislerini daha açık hale getirmek için bir RNN'nin zaman içinde nasıl açılabileceğini açıklıyor. Ağırlık matrisleri, tüm bireysel zaman adımlarında yeniden kullanılır. Konuşmacı ayrıca bir RNN'nin sıfırdan nasıl uygulanacağına dair bir örnek içerir ve RNN modelinden ileri geçişi tanımlayan çağrı işlevini tanımlar. Konuşmacı, çeşitli uygulamalarda RNN'lerin kullanışlılığını vurgular ve akılda tutulması gereken bir dizi somut tasarım kriterini motive eder.

  • 00:20:00 Bu bölümde, konuşmacı değişken uzunluklu dizileri işlemeyi, uzun vadeli bağımlılıkları izlemeyi, düzeni korumayı ve akıl yürütmeyi ve diziler arasında parametreleri paylaşmayı içeren dizi modelleme için tasarım problemlerini ve kriterlerini tartışıyor. Konuşmacı, dili bir sinir ağına beslenebilen sayısal vektörler olarak temsil etmek için yerleştirmelerin önemini açıklar; bir örnek, ikili vektörlerin bir kelimenin kimliğini gösterdiği tek sıcak yerleştirmedir. Konuşmacı ayrıca, yerleştirmeleri öğrenmek için sinir ağları gibi makine öğrenimi modellerinin kullanılmasını önerir. Genel olarak, bu kavramlar, derste daha sonra tartışılacak olan, tekrarlayan sinir ağları ve ortaya çıkan transformatör mimarisi için temel görevi görür.

  • 00:25:00 Bu bölümde, kelimelerin anlamının benzer anlamlara sahip benzer kelimelerin benzer yerleşimlere sahip olmasını sağlayan daha bilgilendirici bir kodlamayla eşleştirilmesi olan öğrenilmiş yerleştirme kavramı tanıtılmaktadır. Tekrarlayan sinir ağları (RNN'ler), değişken dizi uzunluklarını işleyebilir, uzun vadeli bağımlılıkları yakalayabilir ve modelleyebilir ve bir düzen duygusunu koruyarak onları bir cümledeki bir sonraki kelimeyi tahmin etmek gibi dizi modelleme görevleri için kullanışlı hale getirir. Zamana göre geriye yayılım algoritması, her bir zaman adımında hataların geriye yayılmasını ve potansiyel olarak hesaplama sorunlarına neden olan matris çarpımlarının gerçekleştirilmesini içeren RNN'leri eğitmek için bir araç olarak tanıtıldı.

  • 00:30:00 Bu bölümde, tekrarlayan nöral modellerde patlayan gradyanlar ve kaybolan gradyanlar sorunu tartışılıyor ve kaybolan gradyanlar sorununu azaltmak için üç çözüm sunuluyor. Kaybolan gradyan sorunu, sinirsel bir modelin kısa vadeli bağımlılıkları uzun vadeli bağımlılıklara göre önceliklendirmesine neden olarak yanlış tahminlere yol açabilir. Tartışılan üç çözüm, uygun bir aktivasyon fonksiyonu seçmek, ağırlıkları akıllıca başlatmak ve çeşitli kapılarından bilgi akışını seçici olarak kontrol edebilen uzun kısa süreli bellek ağı (LSTM) gibi daha karmaşık bir tekrarlayan birim kullanmaktır. LSTM ağı, ilgili bilgileri korumak ve ilgisiz bilgileri ortadan kaldırmak için etkileşime giren birden çok kapı kullanır.

  • 00:35:00 Videonun bu bölümünde öğretim görevlisi, kapılı yapıların önemi ve kaybolan gradyan sorununa karşı hafifletme de dahil olmak üzere, tekrarlayan sinir ağlarının (RNN'ler) ve mimarilerinin temellerini tartışıyor. Daha sonra, yeni müzik oluşturmak için bir sonraki müzik notasını tahmin etmek ve tweet duygu sınıflandırması dahil olmak üzere, RNN'lerin nasıl kullanılabileceğine dair somut örnekler sağlarlar. Öğretim görevlisi ayrıca kodlama darboğazı, verimsizlik ve kodlamada potansiyel bilgi kaybı gibi RNN'lerin sınırlamalarını vurgular.

  • 00:40:00 Bu bölümde, tekrarlayan sinir ağlarının (RNN'ler) uzun dizileri işlemedeki sınırlamaları, özellikle tekrarlama ilişkisinin neden olduğu darboğaz ele alınmaktadır. Dikkat kavramı, modelin girdinin en önemli kısımlarını belirlemesine ve bunlarla ilgilenmesine izin vererek, bu soruna olası bir çözüm olarak sunulmuştur. Dikkat, özellikle trafo mimarisi bağlamında, modern sinir ağları için ortaya çıkan ve güçlü bir mekanizma olarak açıklanmaktadır. Öz-dikkatin ardındaki sezgi, insanların bir görüntünün önemli kısımlarını belirleme ve yüksek dikkatle bu bölgelerden özellikler çıkarma yeteneği dikkate alınarak geliştirilmiştir.

  • 00:45:00 Bu bölümde, arama kavramı ve trafolar gibi sinir ağlarında öz-dikkat ile nasıl ilişkili olduğu açıklanmaktadır. Buradaki fikir, giriş dizisindeki en önemli özelliklere yinelenme olmadan, bir miktar konum kavramına sahip olan gömmelerden yararlanarak katılmaktır. Süreç, aynı konumsal yerleştirmenin üç farklı dönüşümü olan sorgu, anahtar ve değer özelliklerinin çıkarılmasını içerir. Dikkat mekanizması, sorgu ve anahtar arasındaki örtüşmeleri hesaplar ve çıkarılan değer, ağın girdinin en ilgili kısımlarını tanımlamasına ve bunlarla ilgilenmesine izin veren bu hesaplamaya dayanır.

  • 00:50:00 Videonun bu bölümünde eğitmen, sinir ağlarında dikkat mekanizmasının nasıl çalıştığını anlatıyor. Dikkat mekanizması, girdinin farklı alanlarına verilecek dikkatin ağırlığını hesaplar. Bu, bir iç çarpım kullanarak sorgu ve anahtar vektörler arasındaki benzerliği hesaplayarak ve bunu ölçeklendirerek elde edilebilir. Softmax işlevi daha sonra her değeri 0 ile 1 arasında olacak şekilde ezmek için kullanılır. Ortaya çıkan matris, girdi bileşenleri arasındaki ilişkiyi yansıtan dikkat ağırlıklandırmasıdır. Bu ağırlıklandırma matrisi, yüksek dikkatle öznitelikleri çıkarmak için kullanılır ve girdinin farklı yönleriyle ilgilenmek için çok sayıda bireysel dikkat başlığı kullanılabilir. Bu dikkat mekanizması, özellikle dil işlemede olmak üzere çeşitli uygulamalara sahip transformatör mimarilerinde kullanımıyla örneklendiği gibi güçlü bir araçtır.

  • 00:55:00 Bu bölümde konuşmacı, protein yapısı tahmini için Alpha Fold 2 sinir ağı mimarisine sahip biyoloji ve Vision Transformers ile bilgisayar görüşü gibi dil işlemenin ötesindeki alanlara kişisel dikkat mekanizmalarının nasıl uygulanabileceğini tartışıyor. . Konuşmacı ayrıca dizi modelleme görevleri ve RNN'lerin sıralı verileri işlemek için nasıl güçlü olduğu ve öz-dikkat mekanizmalarının dizileri yinelenmeye gerek kalmadan nasıl etkili bir şekilde modelleyebileceği hakkındaki önceki tartışmayı özetler. Dersin geri kalan saati, öğrencilerin laboratuvarları kurs web sitesinden indirebilecekleri ve laboratuvarları tamamlamak için kod bloklarını çalıştırabilecekleri yazılım laboratuvarı oturumlarına ayrılmıştır; sanal ve yüz yüze ofis saatleri yardım için kullanılabilir.
MIT 6.S191 (2022): Recurrent Neural Networks and Transformers
MIT 6.S191 (2022): Recurrent Neural Networks and Transformers
  • 2022.03.18
  • www.youtube.com
MIT Introduction to Deep Learning 6.S191: Lecture 2Recurrent Neural NetworksLecturer: Ava SoleimanyJanuary 2022For all lectures, slides, and lab materials: h...
 

MIT 6.S191: Konvolüsyonel Sinir Ağları



Ders 3. MIT 6.S191 (2022): Konvolüsyonel Sinir Ağları

Bu video, görüntülerdeki özellikleri algılamak için kullanılan bir tür makine öğrenimi algoritması olan evrişimli sinir ağlarını tanıtmaktadır. Video, daha az sayıda özellik kullanarak ağın görüntüleri daha doğru bir şekilde sınıflandırabileceğini açıklıyor. Video ayrıca bir görüntüdeki bir dizi nesneyi algılamak ve yerelleştirmek için bir cnn'nin nasıl kullanılabileceğini tartışıyor.

  • 00:00:00 Bu videoda, Alexander Amini derin öğrenmenin bilgisayar görüşü ve uygulamalarında nasıl devrim yarattığını ve bunun bir örneğinin veri yüz tanıma olduğunu tartışıyor.

  • 00:05:00 Bu bölümde bilgisayar görüşünün görüntüleri tanımak ve sınıflandırmak için nasıl kullanıldığını tartışıyor. Ayrıca görüntülerdeki özelliklerin nasıl algılanacağını ve özellikleri kullanarak görüntülerin nasıl sınıflandırılacağını tartışıyor.

  • 00:10:00 Bu bölüm, evrişimli sinir ağlarının görüntülerdeki özellikleri algılamak için nasıl kullanılabileceğini tartışıyor. Video, bir görüntüyü düzleştirerek uzamsal yapının kaybolduğunu ve bunun da ağın özellikleri öğrenmesini zorlaştırdığını açıklıyor. Video ayrıca, ağırlık yamaları kullanarak ağın uzamsal yapıyı koruyabileceğini ve özellikleri öğrenmesini kolaylaştırabileceğini açıklıyor.

  • 00:15:00 Evrişimli sinir ağları, görüntülerdeki özellikleri algılamak için kullanılan bir tür makine öğrenimi algoritmasıdır. Algoritma, bir görüntü üzerinde küçük bir yama kaydırarak ve yamada bulunan özellikleri tespit ederek çalışır. Yama için ağırlıklar daha sonra ağın bir dizi örnek üzerinde eğitilmesiyle belirlenir.

  • 00:20:00 Konvolüsyonel sinir ağları, görüntülerden özellik çıkarmak için kullanılabilen bir tür makine öğrenimi algoritmasıdır. Evrişimin amacı, girdi olarak iki görüntü almak ve pikseller arasındaki uzamsal ilişkiyi koruyan üçüncü bir görüntü çıkarmaktır.

  • 00:25:00 Bu videoda sunum yapan kişi, evrişimli sinir ağlarının sinir ağlarında nasıl uygulandığını ve nasıl yapılandırıldığını anlatıyor. Ayrıca bir evrişimli sinir ağındaki üç ana işlemin - evrişim, doğrusal olmama ve havuzlama - nasıl çalıştığını açıklıyor.

  • 00:30:00 Bu video, i'inci çıktıda diğer düğümlere bağlanan makine öğrenimi ardışık düzenindeki bir düğüm olan evrişimli sinir ağlarını tanıtır. Evrişimli katmanlar, bir katmanın çıktısının uzamsal düzenlemesini tanımlayan parametrelerle tanımlanır. Evrişimli katmanın amacı, bir evrişimli katmandan diğerine hiyerarşik özellikleri öğrenmektir. Bu, art arda üç adımın (özellik çıkarımı, uzamsal ölçek küçültme ve maksimum havuzlama) istiflenmesiyle yapılır. Son olarak, video ilk uçtan uca evrişimli sinir ağı için kodu gösterir.

  • 00:35:00 Alexander Amini, evrişimli sinir ağlarının görüntü sınıflandırma görevleri için nasıl kullanılabileceğini tartışıyor. Daha fazla sayıda özellik kullanarak, bir arabanın küçültülmüş görüntüsünün taksi olarak daha doğru bir şekilde sınıflandırılabileceğini açıklıyor. Ayrıca, görüntüde farklı konumlarda olsalar bile, bir görüntüdeki bir dizi nesneyi algılamak ve yerelleştirmek için bir cnn'nin nasıl kullanılabileceğini tartışıyor.

  • 00:40:00 MIT 6.S191: Konvolüsyonel Sinir Ağları kursu, diğer yöntemlerden çok daha yavaş ve kırılgan olan nesne algılama için bir buluşsal yöntemi tartışır. Bu sorunlara çözüm olarak basit bir sezgisele güvenmek yerine bölgeleri öğrenmeye çalışan daha hızlı rcnn yöntemi önerilmiştir.

  • 00:45:00 Bu videoda, Alexander Amini evrişimli sinir ağlarını, kökenlerini ve uygulamalarını tartışıyor. Ayrıca cnn'lerin çok çeşitli görevler ve alanlar üzerindeki etkisini de ele alıyor.
MIT 6.S191 (2022): Convolutional Neural Networks
MIT 6.S191 (2022): Convolutional Neural Networks
  • 2022.03.25
  • www.youtube.com
MIT Introduction to Deep Learning 6.S191: Lecture 3Convolutional Neural Networks for Computer VisionLecturer: Alexander AminiJanuary 2022For all lectures, sl...
Neden: