Makine Öğrenimi ve Sinir Ağları - sayfa 10

 

Geoffrey Hinton ve Yann LeCun, 2018 ACM AM Turing Ödülü Dersi "Derin Öğrenme Devrimi"


Geoffrey Hinton ve Yann LeCun, 2018 ACM AM Turing Ödülü Dersi "Derin Öğrenme Devrimi"

Geoffrey Hinton ve Yann LeCun, 2018 ACM AM Turing Ödülünü kazandı ve derin öğrenme devrimi üzerine bir konferans verdi.
Derste, derin öğrenmenin bilgisayar biliminde nasıl devrim yarattığını ve hayatın çeşitli yönlerine fayda sağlamak için nasıl kullanılabileceğini tartıştılar. Ayrıca derin öğrenmenin zorlukları ve alanın geleceği hakkında konuştular.
Derin öğrenmenin teorik olarak anlaşılması önemli olsa da, karmaşık durumlarda karar vermenin hala insanlara bağlı olduğunu belirttiler. Ayrıca, otonom sürüşte evrimsel hesaplama ve diğer yapay zeka biçimlerinin potansiyelini tartıştılar.

  • 00:00:00 Geoffrey Hinton ve Yann LeCun, derin öğrenme devriminden bahseden 2018 ACM AM Turing Ödülü Konferansını veriyor. Derin öğrenmenin bilgisayar biliminde nasıl devrim yarattığını ve katılımcıların ilgili konferanslara katılmaktan nasıl fayda sağlayabileceklerini tartışıyorlar.

  • 00:05:00 2018 ACM AM Turing Ödülü'nün üç alıcısı Geoffrey Hinton, Yoshua Bengio ve Yann LeCun'dur. Hinton, derin öğrenmenin gelişimi üzerine bir tarih dersi verecek, Kuhn ise derin öğrenmenin devam eden ilerlemesini tartışacak.

  • 00:10:00 Geoffrey Hinton, 2018 ACM AM Turing Ödülü Konferansında, biyolojik olarak ilham alan yapay zeka yaklaşımına dayanan derin öğrenme devrimini tartışıyor. Derin öğrenme yaklaşımı, geleneksel sembolik paradigmadan daha verimli ve etkilidir, ancak öğrenmesi de daha zordur.

  • 00:15:00 Geoffrey Hinton, 2018 ACM AM Turing Ödülü Konferansında sinir ağlarının nasıl çalıştığını tartıştı ve bunların beyindeki gerçek nöronların basitleştirilmiş bir versiyonu olduğunu açıkladı. Ayrıca, geri yayılımın takviyeli öğrenme algoritmasının verimli bir versiyonu olduğunu ve sinir ağlarını eğitme sürecini 10 kat veya daha fazla hızlandırabileceğini de açıkladı.

  • 00:20:00 Geoffrey Hinton ve Yann LeCun, ACM Turing Ödül töreninde derin öğrenme devrimi üzerine bir konferans verdi. İkili, geri yayılımı, stokastik gradyan inişini ve büyük ölçekli öğrenmede nasıl başarılı olamadığını tartışıyor.

  • 00:25:00 Bu derste Geoffrey Hinton ve Yann LeCun, daha verimli sinir ağlarının geliştirilmesini içeren derin öğrenme devrimini tartışıyorlar. Son yıllarda mevcut bilgi işlem gücündeki artışla birlikte, sinir ağları giderek daha güçlü hale geldi ve artık bilgisayarla görmenin çeşitli alanlarında her yerde bulunuyor.

  • 00:30:00 Geoffrey Hinton ve Yann LeCun, derin öğrenmenin tarihi ve mevcut durumu hakkında bir konuşma yaparak, alandaki başarıları ve zorlukları vurguladı. Ayrıca, daha iyi sonuçlar elde etmede derin öğrenmenin önemini vurgulayarak bilgisayar görüşünün geleceği hakkında konuştular.

  • 00:35:00 Geoffrey Hinton, 2018 ACM AM Turing Ödülü Konferansında derin öğrenme devrimini ve bunun yapay zeka için önemini tartışıyor. Derin öğrenmenin belirli görevleri yerine getirmede çok etkili olmasına rağmen, vizyon yapmanın en iyi yolu olmadığını belirtiyor. Hinton, beyinde çoğaltılan derin öğrenme devriminin bir yönünün, kopyalanan aparatların kullanılması olduğunu öne sürüyor. Bunu, bir katılımcının döndürülen bir küpün köşelerini işaret etmesini sağlayarak, üst arka sol köşe dikey olarak ön alt sağ köşenin üzerinde olacak şekilde gösteriyor. Hinton, derin öğrenmenin istenen bir çıktıya yaklaşmak için belirli bir ağırlık setini kullanmada etkili olmasına rağmen, nesnelerin simetrilerini korumada etkili olmadığını açıklıyor. Gelecekte sinir ağlarının, beyindeki sinapsların nasıl değiştiğine benzer olacak şekilde, farklı bir zaman ölçeği kullanarak nesneleri tanımayı öğrenebileceğini tahmin ediyor.

  • 00:40:00 Geoffrey Hinton, 2018 ACM AM Turing Ödülü Konferansında, yeni zaman ölçeklerinin öğrenme sürecine kademeli olarak dahil edilmesinden kaynaklandığına inandığı derin öğrenme devrimini tartışıyor. Geçmiş öğrenmenin hafızasının bir sinir ağının ağırlıklarında nasıl saklandığını ve bu hafızaya hızlı ağırlıklar kullanılarak nasıl erişilebileceğini tartışıyor. Hinton ayrıca büyük verilerin derin öğrenme üzerindeki etkisinden ve bilgisayar donanımı ve yazılımındaki son gelişmelerin derin öğrenmeyi araştırmacılar için nasıl daha erişilebilir hale getirdiğinden bahsediyor.

  • 00:45:00 Geoffrey Hinton ve Yann LeCun dersi, derin öğrenme devrimini, hiyerarşik temsillerin nasıl yardımcı olduğunu ve Pennebaker ebeveynlik Ağı'nın nasıl çalıştığını ele aldı.

  • 00:50:00 Geoffrey Hinton ve Yann LeCun, derin öğrenmeyi ve hayatın çeşitli yönlerinde devrim yaratma potansiyelini tartışan 2018 ACM AM Turing Ödülü dersini verdiler. Görüntü bölümlendirme ve kendi kendine giden arabalarla ilgili çalışmaları en dikkate değer olanlar arasındaydı.

  • 00:55:00 Geoffrey Hinton ve Yann LeCun, insanların ve hayvanların nasıl bu kadar hızlı verimli bir şekilde öğrenebildiklerini tartışarak derin öğrenme devrimi üzerine bir konferans verdiler. Ayrıca insanların ve hayvanların dünyayı gözlemleyerek ve tahmin ederek kavramları nasıl öğrendiğini tartıştılar.
Geoffrey Hinton and Yann LeCun, 2018 ACM A.M. Turing Award Lecture "The Deep Learning Revolution"
Geoffrey Hinton and Yann LeCun, 2018 ACM A.M. Turing Award Lecture "The Deep Learning Revolution"
  • 2019.06.23
  • www.youtube.com
We are pleased to announce that Geoffrey Hinton and Yann LeCun will deliver the Turing Lecture at FCRC. Hinton's talk, entitled, "The Deep Learning Revoluti...
 

Bu Kanadalı Dahi Modern Yapay Zekayı Yarattı



Bu Kanadalı Dahi Modern Yapay Zekayı Yarattı

Bir AI öncüsü olan Geoff Hinton, yaklaşık 40 yıldır bilgisayarların insanlar gibi öğrenmesini sağlamak için çalışıyor ve Yapay Zeka alanında devrim yarattı. Hinton, Frank Rosenblatt'ın 1950'lerde geliştirilen beyni taklit eden bir sinir ağı olan algılayıcısından ilham aldı. Hinton'un kararlılığı yapay zeka alanında bir çığır açtı. 80'lerin ortalarında Hinton ve işbirlikçileri, birçok şekilde çalışmaya başlayan çok katmanlı bir sinir ağı, derin bir sinir ağı yarattı. Ancak, yaklaşık 2006 yılına kadar, süper hızlı çipler ve internette üretilen büyük miktarda veri Hinton'un algoritmalarına sihirli bir destek verene kadar gerekli verilerden ve bilgi işlem gücünden yoksundu - bilgisayarlar bir görüntüde ne olduğunu tanımlayabilir, konuşmayı tanıyabilir ve dilleri çevirebilirdi. 2012'de Kanada bir yapay zeka süper gücü haline geldi ve sinir ağları ile makine öğrenimi New York Times'ın ön sayfasında yer aldı.

  • 00:00:00 Bu bölümde, yaklaşık 40 yıldır bilgisayarların insanlar gibi öğrenmesi için çalışan Geoff Hinton hakkında bilgi alıyoruz. Herkesin umutsuz olduğunu düşündüğü bu arayış yapay zeka alanında devrim yarattı ve Google, Amazon ve Apple gibi şirketler bunun kendi şirketlerinin geleceği olduğuna inanıyor. Hinton'un ilham kaynağı, 1950'lerde beyni taklit eden bir sinir ağı olan algılayıcıyı geliştiren Frank Rosenblatt'tan geldi. Rosenblatt'ın sinir ağı sınırlıydı ve iyi çalışmıyordu, ancak Hinton sinir ağlarının çalışabileceğine inanıyordu çünkü beyin sadece büyük bir sinir ağıydı. Hinton'un fikrinin peşinden gitme kararlılığı, yapay zeka alanında bir çığır açtı ve şirketler bunun kendi şirketlerinin geleceği olduğuna inanıyor.

  • 00:05:00 Bu bölümde video, 80'lerin ortalarında Hinton ve işbirlikçilerinin basit olanların çözemediği sorunları çözebilecek daha karmaşık sinir ağları yapma konusunda nasıl ilerlediklerini tartışıyor. Birçok şekilde çalışmaya başlayan çok katmanlı bir sinir ağı, derin bir sinir ağı yarattılar. Ancak, gerekli veri ve bilgi işlem gücünden yoksun oldukları için tavana çarptılar. 90'lar ve 2000'ler boyunca, Hinton bu teknolojiyi hâlâ takip eden bir avuç insandan biriydi ve ona bir parya muamelesi gördü. 2006 yılına kadar, süper hızlı çiplerin ve internette üretilen büyük miktarda verinin Hinton'un algoritmalarına sihirli bir destek verdiği zamana kadar - bilgisayarlar bir görüntüde ne olduğunu tanımlayabilir, konuşmayı tanıyabilir ve dilleri çevirebilirdi. 2012 yılına gelindiğinde, sinir ağları ve makine öğrenimi New York Times'ın ön sayfasında ortaya çıkıyordu ve Kanada bir yapay zeka süper gücü haline geldi.
This Canadian Genius Created Modern AI
This Canadian Genius Created Modern AI
  • 2018.06.25
  • www.youtube.com
For nearly 40 years, Geoff Hinton has been trying to get computers to learn like people do, a quest almost everyone thought was crazy or at least hopeless - ...
 

Geoffrey Hinton: Derin Öğrenmenin Temelleri




Geoffrey Hinton: Derin Öğrenmenin Temelleri

Yapay zekanın vaftiz babası Geoffrey Hinton, derin öğrenmenin temellerine genel bir bakış sunuyor. Bu konuşmada Hinton, konuşma ve nesne tanıma, görüntü bölümleme ve doğal yazılı dili okuma veya üretmeye uygulandığı şekliyle sinir ağlarının ilerlemelerini inceliyor.

Geoffrey Hinton, derin öğrenmenin temellerini, özellikle geri yayılım algoritmasını ve evrimini tartışıyor. Hinton, derin öğrenmenin erken el yazısı tanımayı nasıl etkilediğini ve sonunda 2012 ImageNet yarışmasını kazanmaya nasıl yol açtığını açıklıyor. Ayrıca girdi, çıktı ve ortada aynı sembolleri kullanan geleneksel sembolik yapay zekaya göre nöral aktivite vektörlerini kullanan derin öğrenmenin üstünlüğünü vurguluyor. Makine çevirisi sistemlerindeki gelişmeler, görüntü tanıma ve bunların doğal muhakeme için kombinasyonu, tıbbi görüntülerin yorumlanmasında derin öğrenme potansiyeli ile birlikte tartışılmaktadır. Hinton, gerçek doğal dil işlemeyi başarmak için insan beyniyle karşılaştırılabilir parametrelere sahip sinir ağlarına duyulan ihtiyacı vurgulayarak bitiriyor.

  • 00:00:00 Bu bölümde Hinton, derin öğrenmede kullanılan temel algoritma olan geri yayılım kavramını açıklamaktadır. Bir bilgisayara, içinde bir öğrenme algoritması olan bir sinir ağı aracılığıyla nasıl öğreneceğini söylemenin tercih edilen yöntemine karşı, adım adım izlenecek bir program yazarak bir bilgisayarı programlamanın geleneksel yöntemini açıklıyor. Bu yöntem, bu ağırlıkların güçlerini değiştirerek uyum sağlayan girdi çizgileri ve ağırlıkları olan yapay nöronların kullanılmasını içerir. Hinton ayrıca, ağların iyi şeyler yapana kadar kurcalanabileceği evrim fikrine benzer şekillerde çalışan basit bir algoritma kullanarak bu bağlantıları uyarlama sürecini de açıklıyor. Bu bölümü, aynı işlemi daha verimli yapmak için hesabın nasıl kullanılabileceğini özetleyerek bitiriyor.

  • 00:05:00 Bu bölümde Geoffrey Hinton, derin öğrenmenin ilk günlerinde özellikle geri yayılım algoritmasıyla yaşadığı mücadeleleri açıklıyor. İlk başta, insanlar iyi çalışmadığı için geri yayılımdan vazgeçtiler, ancak Toronto, Montreal ve New York'ta onu çok sayıda etiket verisi ve çok fazla hesaplama gücü ile katlanarak iyileştiren çok az teknik ilerleme kaydedildi. ölçeklenebilir hale getirdi. Derin öğrenmenin ilk etkilediği pratik sorunlardan biri el yazısı tanımaydı. Bir grup öğrenci, Hinton'un algoritmasını o zamanlar sadece birkaç milyon eğitim örneğine sahip olan konuşma tanımaya uygulamaya çalıştı ve bu, istatistik açısından pratik görülmedi. Bununla birlikte, hangi ses biriminin söylendiğini tahmin edebildiler ve makul ifadeleri bir araya getirebildiler ve bu tür konuşma tanıma sistemleri artık çeşitli uçtan uca sistemlerde yaygın olarak kullanılıyor.

  • 00:10:00 Bu bölümde Geoffrey Hinton, 2012'de ImageNet yarışmasını kazanmak için derin öğrenme sinir ağlarını nasıl kullandıklarını tartışıyor. Sistem, görüntülerdeki nesneleri, geleneksel bilgisayarlı görü sistemlerinin neredeyse yarısı kadar hata oranıyla tanıyabildi; yaklaşık %25 hata oranında platoya ulaşmıştı. Bu başarı, insanların görüntü tanımada derin öğrenme sinir ağlarının potansiyelini fark etmesiyle büyük bir etki yarattı. Hinton ayrıca tekrarlayan ağların konuşma gibi dizilerle başa çıkmak için nasıl kullanıldığını açıklıyor. Gizli nöronlar kendilerine bağlanarak sistemin bilgi toplamasına ve geri yayılım yoluyla öğrenmesine izin verir. Bu algoritmalar daha sonra bir dildeki bir cümleyi bir düşünceye kodlayarak ve ardından başka bir dildeki bir cümleye çevirerek makine çevirileri için kullanıldı.

  • 00:15:00 Bu bölümde Geoffrey Hinton, sembolik yapay zeka ile ilgili sorunu ve mevcut derin öğrenme biçiminin bu sorunu nasıl çözdüğünü tartışıyor. Geleneksel sembolik yapay zeka görüşü, girdi ve çıktıda kullanılan aynı türden sembollerin ortada da kullanıldığını varsayarken, derin öğrenme uzmanları verileri işlemek için sinirsel aktivite vektörlerini kullanır. Giriş metni, ağ tarafından öğrenilen özellikleri içeren bir vektöre kodlanır. Kod çözücü ağı daha sonra bu vektörü alır ve daha sonra yeni bir dile dönüştürülen düşünceyi üretir. İlginç bir şekilde, bu tür sistemler çok fazla dil bilgisine izin vermeden daha iyi çalışır. Bunun yerine Google Çeviri, bir dilin 32.000 parçasından oluşan sabit bir alfabe kullanır ve ağı, ağırlıkları tutarlı bir şekilde iyileştirmek için rastgele ağırlıklar ve veri hacmiyle başladığı geri yayılımla eğitir.

  • 00:20:00 Bu bölümde Geoffrey Hinton, dikkatin eklenmesi ve tam sözcükler yerine sözcük parçalarının kullanılması gibi makine çevirisi sistemlerinde yapılan bazı iyileştirmeleri açıklamaktadır. Ayrıca görüntü tanıma ve dil üretiminin birleşimini ve bunun makinelerde doğal akıl yürütmeye nasıl yol açabileceğini tartışıyor. Bu sistemlerin başarısına rağmen Hinton, gerçek doğal dil işlemeyi başarmak için insan beyniyle karşılaştırılabilir bir dizi parametreye sahip sinir ağlarına ihtiyacımız olacağını öne sürüyor.

  • 00:25:00 Bu bölümde Geoffrey Hinton, derin öğrenme algoritmalarının tıbbi görüntüleri yorumlamada insan performansını aşma potansiyelini tartışıyor. Cilt kanserlerini tespit etmek için bir dermatolog kadar iyi bir sistem olduğunu ve daha fazla görüntü üzerinde daha fazla eğitimle, çok daha iyi performans gösterebileceğini belirtiyor. Hinton ayrıca, doktorlar tarafından üretilen etiketler üzerinde eğitilen bir sinir ağının, doktorlar aynı fikirde olmadığında neler olup bittiğini anlayabildiğinden, bazen doktorların kendisinden daha iyi performans gösterebileceğine dikkat çekiyor. Son olarak, bir molekülün bir şeye bağlanıp bağlanmayacağını tahmin etmek için bir yarışmayı kazanan bir öğrencinin, çok katmanlı doğrultulmuş doğrusal birimler ve eğitim vakalarından çok daha fazla parametre içeren bir sinir ağı kullanarak ve bunu adını bilmeden yaptığı hakkında bir hikaye anlatıyor. çalışma alanı.
Geoffrey Hinton: The Foundations of Deep Learning
Geoffrey Hinton: The Foundations of Deep Learning
  • 2018.02.07
  • www.youtube.com
Godfather of artificial intelligence Geoffrey Hinton gives an overview of the foundations of deep learning. In this talk, Hinton breaks down the advances of ...
 

Derin Öğrenme Kahramanları: Andrew Ng, Geoffrey Hinton ile röportaj yapıyor




Derin Öğrenme Kahramanları: Andrew Ng, Geoffrey Hinton ile röportaj yapıyor

Derin öğrenmenin önde gelen isimlerinden Geoffrey Hinton, Andrew Ng ile yaptığı röportajda yolculuğunu ve alana katkılarını tartıştı. Kelime gömmelerinin kökenlerinden, sınırlı Boltzmann makinelerindeki gelişmelerden ve hızlı ağırlıklar ve kapsüller üzerine yaptığı son çalışmalardan bahsediyor. Hinton, denetimsiz öğrenmenin derin öğrenme ilerlemelerindeki önemli rolüne dikkat çekiyor ve öğrencilere geniş çapta okumalarını, büyük ölçekli projeler üzerinde çalışmalarını ve benzer ilgi alanlarına sahip danışmanlar bulmalarını tavsiye ediyor. Hinton, bilgisayarların göstererek öğrendiği bilgi işlemde önemli bir değişiklik olduğuna inanıyor ve üniversitelerin bu yeni yaklaşım için araştırmacı yetiştirmede endüstriyi yakalaması gerektiği konusunda uyarıda bulunuyor.

  • 00:00:00 Geoffrey Hinton yapay zeka ve makine öğrenimine nasıl ilgi duyduğunu anlatıyor. Lisedeyken bir arkadaşı, beynin anıları nasıl depoladığına olan ilgisini uyandıran hologramları kullanan beyin fikrini ona tanıttı. Üniversitede fizyoloji ve fizik okudu ancak beynin işleyişini açıklamada yetersiz bulunca psikolojiye geçiş yaptı. Marangoz olmak için ara verdikten sonra, o zamanlar sinir ağlarına şüpheyle yaklaşan Longer Higgins ile AI çalışmak için Edinburgh'a gitti. Hinton sonunda yapay zeka alanında doktora yaptı ve beynin nasıl çalıştığını düşünmenin olumlu bir şey olarak görüldüğü Kaliforniya'ya gitti. David Rumelhart ile 1986'da yayınladıkları Geri Yayılım Algoritması üzerinde işbirliği yaptı ve sonunda topluluğun algoritmayı kabul etmesine yardımcı oldu.

  • 00:05:00 Bu bölümde Hinton, backprop'un kelimelerin temsillerini öğrenmesine izin veren kelime gömmelerinin kökenlerini ve Stuart Sutherland'ın kelimelerin üçlüleri üzerinde bir model eğiterek programın nasıl öğrenebileceğinden etkilendiğini tartışıyor. milliyet, nesil ve daha fazlası gibi semantiğin özellikleri. Hinton, kelime gömmelerinin geliştirilmesinin iki farklı bilgi görüşünü birleştirdiğini (bir psikoloğun kavramlara özellik demetleri olarak bakışı ile kavramların diğer kavramlarla nasıl ilişkili olduğuna dair AI görüşü) birleştirdiğini ve bunun da makalenin kabul oranını artırdığını belirtiyor. 90'ların başında Bengio, geliştiricilerin benzer bir yaklaşımı verilerden kelime yerleştirmeleri elde etmek için kullanabileceklerini gösterdi ve birçok kişiyi etkiledi. Hinton daha sonra derin sinir ağlarının yeniden canlanmasında önemli bir faktör olan kısıtlı boltzmann makineleri (RBM'ler) ile yapılan geliştirmelerden bahsetti.

  • 00:10:00 Bu bölümde Geoffrey Hinton, bir katman gizli özelliklere sahip kısıtlı Boltzmann makinelerini eğitme ve bu öğrenilen özellikleri başka bir katmanı eğitmek için veri olarak kullanma konusundaki çalışmasından bahsediyor. Bu yaklaşımın, önceki yöntemlere göre önemli bir gelişme olan sigmoid inanç ağlarında çıkarım yapmanın verimli bir yolunun geliştirilmesine yol açtığını açıklıyor. Ayrıca sinir ağlarında düzeltilmiş doğrusal birimlerin (ReLU) kullanımının ardındaki matematiğin gelişimi ve varyasyonel yöntemler üzerine çalışmalarını tartışıyor. Son olarak, 2014'te Google'da ReLU kullanımı ve aşağıdaki katmandaki kalıpları kopyalayan kimlik matrisi ile başlatma hakkında bir konuşma yaptığını ve derin sinir ağlarının eğitiminde önemli gelişmeler sağladığını belirtiyor.

  • 00:15:00 Geoffrey Hinton, derin sinir ağlarının verimli bir şekilde eğitilmesine izin verecek olan kimlikle ağları başlatma fikrinin peşine düşmediği için pişmanlık duyduğunu tartışıyor. Geri yayılım ve beyin arasındaki ilişki hakkındaki düşüncelerini paylaşıyor ve geri yayılım öğrenme için iyi bir algoritmaysa, beynin onu nasıl uygulayacağını çözebileceğini belirtiyor. İlk kez lisansüstü okul günlerinde sunduğu derin öğrenmede çoklu zaman ölçekleriyle başa çıkmak için kısa süreli belleği tutan hızlı ağırlıklar kullanma fikrini öneriyor.

  • 00:20:00 Röportajın bu bölümünde, Geoffrey Hinton hızlı ağırlıklar ve özyinelemeli aramalar sırasında nöronların aktivite durumlarının hafızasını depolamak için hızlı ağırlıklar kullanmayı içeren yinelemeli aramalar üzerine daha yeni çalışmasını tartışıyor. Ayrıca, çok boyutlu varlıkları bir vektörle temsil etmeyi ve bu özelliğin çeşitli yönlerini temsil etmek için farklı nöronların aktivitelerini kullanmayı içeren kapsül fikrinden de bahsediyor. Nöronlar, özelliğin farklı koordinatlarını veya kapsül alt kümesini temsil eden küçük demetler halinde gruplandırılmıştır; her biri, geleneksel sinir ağlarında olduğu gibi tek bir skaler özellik yerine, birçok farklı özelliğe sahip bir özelliğin bir örneğini temsil edebilmektedir. Bu kapsüller daha sonra bilgileri, sinir ağlarının sınırlı verilerden daha iyi filtrelenmesine ve genelleştirilmesine izin veren anlaşmaya göre bir yönlendirme sistemi aracılığıyla yönlendirebilir. Bu fikirle ilgili gazetelerde reddedilmelere rağmen Hinton, kapsülleri takip etme konusunda iyimser ve ısrarcı olmaya devam ediyor.

  • 00:25:00 Geoffrey Hinton, yapay zeka ve derin öğrenme hakkındaki düşüncelerinin birkaç on yılda nasıl geliştiğini tartışıyor. Başlangıçta geriye yayılım ve ayrımcı öğrenmeyle nasıl ilgilendiğinden ve ardından 90'ların başında denetimsiz öğrenmeye nasıl odaklandığından bahsediyor. Hinton ayrıca denetimli öğrenmenin son on yılda nasıl inanılmaz derecede iyi çalıştığından bahsediyor, ancak yine de denetimsiz öğrenmenin daha fazla ilerleme için çok önemli olacağına inanıyor. Denetimsiz öğrenme için umut verici fikirler olarak varyasyonel otomatik kodlayıcılardan ve üretken rakip ağlardan bahseder. Hinton ayrıca derin öğrenmeye başlamak isteyenlere tavsiyelerde bulunuyor, ellerinden geldiğince çok okumalarını ve deneyim kazanmak için büyük ölçekli bir proje üzerinde çalışmayı öneriyor.

  • 00:30:00 Bu bölümde, konuşma yapay zeka ve derin öğrenme alanındaki araştırmacılara ve öğrencilere yönelik tavsiyeler etrafında döner. Hinton, yaratıcı araştırmacıların biraz literatür okumasını ve herkesin yanlış yaptığı bir şeyi aramasını ve ardından bunu nasıl doğru yapacaklarını bulmasını önerir. Ayrıca programlamayı asla bırakmamanızı ve sezgilerinize güvenmenizi tavsiye ediyor. Mezun öğrencilerini, en yararlı tavsiyeleri almaları için kendileriyle benzer inançlara ve ilgi alanlarına sahip bir danışman bulmaya teşvik eder. Bir şirkette bir doktora programına mı yoksa üst düzey bir araştırma grubuna mı katılma konusunda Hinton, şu anda derin öğrenme konusunda eğitim almış akademisyen sıkıntısı olduğunu, ancak departmanların değişen manzaraya ayak uydurması nedeniyle bunun geçici olacağını düşündüğünü belirtiyor. alan.

  • 00:35:00 Geoffrey Hinton, bilgisayarların kullanımında meydana gelen önemli bir değişiklik olduğunu açıklıyor; burada onları programlamak yerine artık onlara gösteriyoruz ve onlar da bunu çözüyor. Bilgi işleme yönelik bu yeni yaklaşım farklı ve önemlidir ve bilgisayar bilimi departmanları, bilgisayar bilimini etkilemede programlama kadar büyük gösterilen yaklaşımı tanımalı ve hoş karşılamalıdır. Büyük şirketler artık insanları bu yeni yaklaşım konusunda eğitiyor olsa da Hinton, üniversitelerin bu duruma ayak uydurmasının çok uzun sürmeyeceğine inanıyor. Hinton, AI'daki paradigma değişimini, zeka için gerekli temsillerin bazı temizlenmiş mantığın sembolik ifadeleri olduğu inancından, düşüncelerin sinirsel aktivitenin sadece büyük büyük vektörleri olduğu şeklindeki mevcut görüşe açıklamaya devam ediyor.
Heroes of Deep Learning: Andrew Ng interviews Geoffrey Hinton
Heroes of Deep Learning: Andrew Ng interviews Geoffrey Hinton
  • 2017.08.08
  • www.youtube.com
p vs np, probability, machine learning, ai, neural networks, data science, programming, statistics, math, mathematics
 

Derin Öğrenme Kahramanları: Andrew Ng, Yann LeCun ile röportaj yapıyor



Derin Öğrenme Kahramanları: Andrew Ng, Yann LeCun ile röportaj yapıyor

Andrew Ng ve Yann LeCun arasındaki bu röportajda LeCun, yapay zekaya ve sinir ağlarının keşfine olan erken ilgisinden bahsediyor. Ayrıca evrişimli sinir ağları ve CNN'lerin arkasındaki tarih üzerine yaptığı çalışmaları anlatıyor. LeCun, 90'ların ortalarında sinir ağlarına ilgi duymamasına rağmen bu alanda nasıl ısrar ettiğini ve sonunda CNN'ler üzerindeki çalışmasının bilgisayarla görme alanını devraldığını anlatıyor. Ayrıca, AlexNet ekibinin 2012 ImageNet yarışmasını kazandığında bilgisayar görüşünde belirleyici anı tartışıyor ve yapay zeka ve makine öğreniminde kariyer arayanlara açık kaynak projelerine katkıda bulunarak veya algoritmalar uygulayarak kendilerini faydalı hale getirmelerini tavsiye ediyor.

  • 00:00:00 Bu bölümde Yann LeCun, yapay zekaya olan ilk ilgisinden ve sinir ağları kavramıyla nasıl tanıştığından bahsediyor. Algılayıcı ve otomata ağları üzerine araştırma makalelerini nasıl keşfettiğini anlatıyor ve sinir ağlarını çoklu katmanlarla nasıl eğiteceğini araştırmak için ona ilham veriyor. Bu, onu Fransa'da bağımsız bir laboratuvarda aynı şeyle ilgilenen insanlarla tanışmaya ve nihayetinde Boltzmann makineleriyle çalışmasına götürdü.

  • 00:05:00 Bu bölümde LeCun, o sırada geri yayılım üzerinde çalışan Terry Zaleski ile nasıl tanıştığını ve tanışmadan önce her ikisinin de bunu bağımsız olarak nasıl icat ettiğini anlatıyor. Ayrıca AT&T Bell Laboratuarlarında geçirdiği süre boyunca katlamalı ağlar üzerinde çalışmaya nasıl başladığını ve bunları faresiyle karakter çizerek oluşturduğu küçük bir veri kümesi üzerinde nasıl test ettiğini ve bunun 5.000 eğitimli USPS veri kümesinin oluşturulmasına nasıl yol açtığını anlatıyor. örnekler. Bu veri kümesi üzerinde evrişimli bir ağ eğitti ve o sırada kullanılan diğer yöntemlerden daha iyi sonuçlar elde etti.

  • 00:10:00 Röportajın bu bölümünde Yann LeCun, evrişimli sinir ağlarının veya CNN'lerin tarihini tartışıyor. Bell Laboratuarlarında geliştirdikleri, ayrı alt örnekleme ve havuzlama katmanları olmayan ilk ticari ağ versiyonundan ve hesaplama süresini azaltmak için ağda nasıl önemli iyileştirmeler yapmaları gerektiğinden bahsediyor. LeCun ayrıca CNN'lerde bir konuşma yapmakla ilgili ilginç bir hikaye paylaşıyor, burada Geoff Hinton ona "tüm mantıklı şeyleri yaparsan, gerçekten işe yarıyor" dedi. Bununla birlikte, umut verici sonuçlara rağmen, internet, standartlaştırılmış yazılım ve donanım platformlarının eksikliği nedeniyle CNN'ler AT&T dışında geniş çapta benimsenmedi.

  • 00:15:00 Bu bölümde, Yann LeCun, karakter tanıma konusundaki çalışmalarını ve taranan belgeleri internet paylaşımı için dijital olarak depolamak ve sıkıştırmak üzere "Digital Djvu" projesini başlatmasının onu nasıl yönlendirdiğini tartışıyor. Ayrıca, özellikle bilgisayarların artan gücüyle derin öğrenme tekniklerinin eninde sonunda faydalı olacağına nasıl her zaman inandığını, ancak 90'ların ortalarındaki ilgi eksikliği nedeniyle kimsenin sinir ağlarını araştırmadığı yaklaşık 7 yıl olduğunu anlatıyor. . Bu gerilemeye rağmen, LeCun bu alanda ısrar etmeye devam etti ve evrişimli sinir ağları üzerindeki çalışması bilgisayarla görme alanını devraldı ve diğer alanlara önemli ölçüde girmeye başladı.

  • 00:20:00 Videonun bu bölümünde, Yann LeCun, AlexNet ekibinin 2012 ImageNet yarışmasını büyük bir farkla kazanarak topluluğun çoğunu şaşırttığı bilgisayarla görme topluluğundaki belirleyici anı anlatıyor. LeCun, kurumsal araştırmanın nasıl yapılması gerektiğine dair benzersiz bakış açısını tartışmaya devam ediyor ve Facebook AI Research'ü (FAIR) en uygun olduğunu düşündüğü şekilde, açık araştırmaya vurgu yaparak kurması için kendisine çok fazla özgürlük verildiğini açıklıyor. ve üniversitelerle işbirliği. Hatta son dört yıldaki yayınlarının büyük çoğunluğunun NYU'daki öğrencileriyle birlikte olduğundan bahsediyor.

  • 00:25:00 Bu bölümde Yann LeCun, yapay zeka ve makine öğreniminde kariyer arayanlara, açık kaynaklı bir projeye katkıda bulunarak veya bir algoritma uygulayarak ve bunu başkalarının kullanımına sunarak kendilerini faydalı hale getirmelerini tavsiye ediyor. Şu anda mevcut olan araç ve kaynakların, insanların, hatta lise öğrencilerinin bile bir düzeyde dahil olmasını kolaylaştırdığına inanıyor. Bireyler ilginç ve yararlı katkılarda bulunarak fark edilebilir ve potansiyel olarak arzu edilen bir şirkette iş bulabilir veya bir doktora programına kabul edilebilir.
Heroes of Deep Learning: Andrew Ng interviews Yann LeCun
Heroes of Deep Learning: Andrew Ng interviews Yann LeCun
  • 2018.04.07
  • www.youtube.com
As part of the course https://www.coursera.org/learn/convolutional-neural-networks
 

Derin Öğrenme Kahramanları: Andrew Ng, Ian Goodfellow ile röportaj yapıyor




Derin Öğrenme Kahramanları: Andrew Ng, Ian Goodfellow ile röportaj yapıyor

Andrew Ng ile yaptığı bir röportajda Ian Goodfellow, derin öğrenmeye olan tutkusundan ve Stanford'da okurken bu alana nasıl ilgi duymaya başladığından bahsediyor. Goodfellow, üretken çekişmeli ağları (GAN'lar) icadından ve bunların derin öğrenmedeki potansiyelinden bahsederken aynı zamanda GAN'ları daha güvenilir hale getirme ihtiyacını vurguluyor. Yapay zeka ve derin öğrenme hakkındaki düşüncesinin, teknolojiyi yalnızca yapay zeka ile ilgili görevlerde çalıştırmaktan derin öğrenme modellerinin tüm potansiyelini keşfetmeye kadar yıllar içinde nasıl geliştiğini yansıtıyor. Goodfellow ayrıca yapay zekaya dahil olmak isteyenler için tavsiyelerde bulunarak, iyi kod yazmanın ve makine öğrenimi algoritmalarına baştan itibaren güvenlik oluşturmanın çok önemli olduğunu belirtiyor.

  • 00:00:00 Bu bölümde Ian Goodfellow, Stanford'daki lisans danışmanı ve Andrew Ng'nin internet AI sınıfı sayesinde yapay zeka ve derin öğrenme alanına nasıl ilgi duymaya başladığını tartışıyor. Kendisinin ve bir arkadaşının Stanford'daki ilk GPU CUDA tabanlı makinelerden birini nasıl yaptıklarını ve bunun gelecekte gitmenin yolunun derin öğrenme olduğuna dair güçlü sezgisine nasıl yol açtığını açıklıyor. Goodfellow, GAN'ları icadı ve üretken modelleri incelerken konsepti nasıl bulduğu hakkında konuşmaya devam ediyor. Son olarak, yapay zeka araştırmasına olan bağlılığını yeniden doğrulayan kişisel bir deneyimi üzerine düşünüyor.

  • 00:05:00 Bu bölümde Ian Goodfellow, üretken rakip ağların (GAN'lar) potansiyelini ve derin öğrenmedeki geleceğini tartışıyor. GAN'ların şu anda çeşitli görevler için kullanılsa da, genellikle güvenilmez olabildiklerini ve onları stabilize etmenin araştırmasının ana odak noktası olduğunu açıklıyor. Goodfellow, GAN'ların şu anda önemli olmasına rağmen, daha güvenilir hale getirilmezlerse eninde sonunda diğer üretken modellerle değiştirileceklerine inanıyor. Ayrıca, derin öğrenme üzerine ilk ders kitabının ortak yazarı olma deneyimini tartışıyor ve bu alanda uzmanlaşmanın altında yatan matematik ilkelerini anlamanın önemini vurguluyor. Son olarak Goodfellow, yapay zeka ve derin öğrenme hakkındaki düşüncesinin, teknolojiyi yalnızca yapay zeka ile ilgili görevlerde çalıştırmaktan derin öğrenme modellerinin tüm potansiyelini keşfetmeye kadar yıllar içinde nasıl geliştiğini yansıtıyor.

  • 00:10:00 Bu bölümde Ian Goodfellow, derin öğrenmenin evrimini ve yapay zekada var olan çok sayıda yolu tartışıyor. İyi kod yazmanın ve bunu GitHub'a koymanın dikkat çekebileceğini ve kitap okumanın yanında bir proje üzerinde çalışmanın faydalı olabileceğini belirterek, yapay zekaya dahil olmak isteyenler için tavsiyeler paylaşıyor. Ayrıca, güvenliği daha sonra eklemek yerine makine öğrenimi algoritmalarına en baştan eklemenin öneminden bahsediyor. Bu önlemler, algoritmaların güvenli olmasını sağlayacak ve daha sonra ortaya çıkacak güvenlik endişelerini önleyecektir.
Heroes of Deep Learning: Andrew Ng interviews Ian Goodfellow
Heroes of Deep Learning: Andrew Ng interviews Ian Goodfellow
  • 2017.08.08
  • www.youtube.com
p vs np, probability, machine learning, ai, neural networks, data science, programming, statistics, math, mathematics
 

Derin Öğrenme Kahramanları: Andrew Ng, Andrej Karpathy ile röportaj yapıyor




Derin Öğrenme Kahramanları: Andrew Ng, Andrej Karpathy ile röportaj yapıyor

Andrew Ng ile yaptığı bir röportajda Andrej Karpathy, Geoff Hinton ile bir sınıf aracılığıyla derin öğrenmeye girişini ve ImageNet görüntü sınıflandırma yarışmasında nasıl insan ölçütü haline geldiğini tartışıyor. Yazılım derin ağları performansını aştığında ve çevrimiçi bir kurs oluşturarak başkalarına bunu öğretmeye karar verdiğinde şaşırtıcı sonuçlardan bahsediyor. Karpathy ayrıca yapay zekanın geleceğini ve alanın muhtemelen nasıl iki yörüngeye ayrılacağını tartışıyor: uygulamalı yapay zeka ve AGI. Derin öğrenme alanına girmek isteyenlere, her şeyi sıfırdan uygulayarak tüm yığını tam olarak anlamalarını tavsiye ediyor.

  • 00:00:00 Bu bölümde Andrej Karpathy, Toronto Üniversitesi'nde lisans eğitimi sırasında Geoff Hinton'dan ders alırken derin öğrenmeye nasıl ilgi duyduğunu anlatıyor. Ayrıca, ImageNet görüntü sınıflandırma yarışması için nasıl insan kriteri haline geldiğini ve kıyaslamanın insan yetenekleriyle nasıl karşılaştırıldığını anlamak için bir Javascript arayüzü yarattığını tartışıyor. Bin kategoriden görüntüleri kategorize etmenin zorluğunu ve ImageNet veri setinin üçte birinin köpekler olduğunun şaşırtıcı bir şekilde anlaşılmasını, bunun da köpek türleri üzerinde alışılmadık derecede uzun bir eğitim süresi harcamasına yol açtığını anlatıyor.

  • 00:05:00 Bu bölümde Andrej Karpathy, yazılım derin ağları belirli görevlerdeki performansını geçtiğinde şaşırdığından bahsediyor. Teknolojinin nasıl dönüştürücü olduğunu tartışıyor ve çevrimiçi bir kurs oluşturarak başkalarına bunu öğretmeye karar verdi. Teknolojiyi anlama yeteneği ve her gün değişmeye devam etmesi öğrencileri heyecanlandıran şeydi. Karpathy ayrıca derin öğrenme alanının nasıl hızla geliştiğinden ve teknolojinin ne kadar genelleştiğinden de bahsediyor. Sadece ImageNet için değil, ince ayar ve transfer öğrenimi için de ne kadar iyi çalıştığına şaşırıyor. Ayrıca denetimsiz öğrenmenin birçok araştırmacının umduğu vaadi hala yerine getirememiş olmasına da şaşırıyor.

  • 00:10:00 Bu bölümde Karpathy, yapay zekanın geleceğini tartışıyor ve alanın muhtemelen iki yörüngeye ayrılacağını belirtiyor. Birincisi, denetimli ve muhtemelen denetimsiz öğrenme için sinir ağlarının kullanılmasını içeren uygulamalı yapay zeka, diğeri ise tam bir dinamik sistem olan tek bir sinir ağı oluşturmaya odaklanan AGI'dir. Yapay zekayı çeşitli parçalara ayırmanın ve sonra bunları bir araya getirmenin yanlış olduğunu düşünüyor ve bunun yerine, ağırlıkları optimize edebilen ve akıllı davranış elde edebilen hedefler oluşturmak için tek bir sinir ağını bütün bir ajan olarak kullanmayı savunuyor. Derin öğrenme alanına girmek isteyenler için tavsiye sorulduğunda Karpathy, TensorFlow gibi bir çerçeveyle çalışmak yerine her şeyi sıfırdan uygulayarak tüm yığının tam olarak anlaşılmasını teşvik ediyor.
Heroes of Deep Learning: Andrew Ng interviews Andrej Karpathy
Heroes of Deep Learning: Andrew Ng interviews Andrej Karpathy
  • 2017.08.08
  • www.youtube.com
p vs np, probability, machine learning, ai, neural networks, data science, programming, statistics, math, mathematics
 

Derin Öğrenme Kahramanları: Andrew Ng, Apple Yapay Zeka Araştırma Direktörü Ruslan Salakhutdinov ile röportaj yapıyor




Derin Öğrenme Kahramanları: Andrew Ng, Apple Yapay Zeka Araştırma Direktörü Ruslan Salakhutdinov ile röportaj yapıyor

Apple'da Yapay Zeka Araştırma Direktörü Ruslan Salakhutdinov, derin öğrenmenin evrimini, üretken modellerin ve denetimsiz öğrenmenin eğitimindeki zorlukları ve derin öğrenme araştırmasındaki heyecan verici sınırları tartışıyor. Ayrıca araştırmacıları farklı yöntemler keşfetmeye ve yenilik yapmaktan korkmamaya teşvik ediyor.
Salakhutdinov, diyaloga dayalı sistemler ve metni akıllıca okuyabilen sistemler oluşturmanın önemini ve daha insan benzeri öğrenme becerilerine ulaşmanın nihai hedefini vurguluyor.

  • 00:00:00 Bu bölümde Ruslan Salakhutdinov, kendisine kısıtlayıcı Boltzmann makinelerini kullanma ve denetimli eğitim kavramını tanıtan Jeff Hinton ile şans eseri yaptığı bir toplantıyla başlayarak derin öğrenmeye nasıl başladığını tartışıyor. Salakhutdinov, Hinton'un yardımı ve rehberliğiyle, sinir ağlarının ve derin öğrenmenin yeniden dirilişini hızlı bir şekilde başlatmaya yardımcı olan kısıtlı Boltzmann makineleriyle ilgili ilk makalelerden birinin ortak yazarlığını yapabildi. Ancak bilgi işlem gücü geliştikçe, araştırmacılar kısıtlayıcı Boltzmann makinelerini kullanarak ön eğitime gerek olmadığını fark ettiler ve derin modelleri doğrudan geleneksel optimizasyon tekniklerini kullanarak eğitebildiler.

  • 00:05:00 Bu bölümde, Ruslan Salakhutdinov derin öğrenmenin evrimini ve bilgisayarların daha yavaş olduğu ilk günlerde ön eğitimin önemini tartışıyor. Ayrıca, denetimli öğrenmeye kıyasla üretici modelleri ve denetimsiz öğrenmeyi eğitmenin zorluğundan da bahsediyor. Varyasyonel otomatik kodlayıcılar ve kendi laboratuvarındakiler gibi enerji modelleri gibi tekniklerle üretken modellemede ilerleme kaydedilmiş olsa da, denetimsiz modelleri eğitmenin daha verimli ve ölçeklenebilir yollarının bulunması gerektiğine inanıyor. Bunun derin öğrenmeye ilgi duyanlar için keşfetmesi gereken önemli bir alan olduğunu vurguluyor.

  • 00:10:00 Bu bölümde, Apple Yapay Zeka Araştırma Direktörü Ruslan Salakhutdinov, makine öğreniminde büyük miktarda etiketlenmemiş veriden yararlanmanın zorluklarını ve bu alana girmek isteyenler için tavsiyeleri tartışıyor. Kendisinin ve ekibinin sinir ağlarında oldukça dışbükey olmayan sistemleri optimize etme gibi zor bir sorunun üstesinden nasıl geldiğine dair bir örnek vererek, araştırmacıları farklı yöntemler denemeye ve yenilik yapmaktan korkmamaya teşvik ediyor. Salakhutdinov ayrıca, derin öğrenme alanında bir şirkete katılmak yerine doktora yapmanın artılarını ve eksilerini tartışıyor ve hem akademi hem de endüstrinin araştırma ve geliştirme için heyecan verici fırsatlar sunduğunu vurguluyor.

  • 00:15:00 Bu bölümde Ruslan Salakhutdinov, özellikle derin takviyeli öğrenme, muhakeme ve doğal dili anlama ve daha az örnekten öğrenebilme gibi alanlarda derin öğrenme araştırmasındaki heyecan verici sınırları tartışıyor. Yapay zekayı sanal dünyalarda eğitme konusunda çok ilerleme kaydedildiğini ve artık zorluğun bu sistemleri ölçeklendirmek, yeni algoritmalar geliştirmek ve yapay zeka ajanlarının birbirleriyle iletişim kurmasını sağlamak olduğunu belirtiyor. Ek olarak, diyalog tabanlı ve metni akıllıca okuyabilen sistemler oluşturmanın önemini vurguluyor. Son olarak, daha fazla insana benzer öğrenme becerileri elde etme hedefinden bahseder.
Heroes of Deep Learning: Andrew Ng interviews Director of AI Research at Apple, Ruslan Salakhutdinov
Heroes of Deep Learning: Andrew Ng interviews Director of AI Research at Apple, Ruslan Salakhutdinov
  • 2017.08.08
  • www.youtube.com
probability, machine learning, neural networks, data science, programming, statistics, math, mathematics, number theory, pi
 

Derin Öğrenme Kahramanları: Andrew Ng, Yoshua Bengio ile röportaj yapıyor




Derin Öğrenme Kahramanları: Andrew Ng, Yoshua Bengio ile röportaj yapıyor

Andrew Ng, Yoshua Bengio ile röportaj yapıyor ve derin öğrenmeyle ilgili çeşitli konuları tartışıyorlar. Bengio, derin öğrenmeye nasıl başladığını ve sinir ağları hakkındaki düşüncesinin nasıl geliştiğini anlatıyor. Ayrıca, kelime dizileri için kelime yerleştirmeleri geliştirmeye ve otomatik kodlayıcı yığınlarıyla derin öğrenmeye yaptığı katkıları tartışıyor. Ek olarak Bengio, denetimsiz öğrenmenin önemini ve derin öğrenme ile beyin arasındaki ilişkiyi anlamaya olan ilgisini vurguluyor.
Bengio, büyük zorlukların üstesinden gelmek için derin öğrenme bilimini ve uygun araştırmayı anlama ihtiyacını vurguluyor. Son olarak, derin öğrenmede bir kariyer için güçlü bir temel matematik bilgisi ihtiyacına ve sürekli eğitimin önemine odaklanırlar.

  • 00:00:00 Bu bölümde Yoshua Bengio, 1985 yılında bilimkurgu sevgisi ve yüksek lisans çalışmaları ile başlayarak derin öğrenmeye nasıl adım attığını anlatıyor. yapay zeka ile bağlantı kurabilir. Bengio ayrıca sinir ağları hakkındaki düşüncesinin, ilk deneylerden gelişen teorilere ve backprop ve derinlik gibi belirli tekniklerin neden bu kadar iyi çalıştığına dair sağlam gerekçelere kadar nasıl geliştiğini yansıtıyor. Ek olarak, ReLU işlevinin, başlangıçta gerekli olduğunu düşündüğü geleneksel düz doğrusal olmama durumlarından daha iyi çalışmasına şaşırdığından bahsediyor. Bengio, birçok nöronun aktivasyonu boyunca dağıtılmış bilginin önemini ve bunun onu sinir ağları konusunda heyecanlandıran ilk içgörülerle nasıl bağlantılı olduğunu vurguluyor.

  • 00:05:00 Bu bölümde Yoshua Bengio, boyutsallığın lanetiyle mücadele etmek ve birçok rasgele değişken üzerinde verimli ortak dağılımlar oluşturmak için sinir ağlarını kullanma konusundaki ilk çalışmalarını tartışıyor. Ayrıca, benzer semantik anlamlara sahip kelimeler arasında genellemeye izin veren kelime dizileri için kelime yerleştirmeleri yaratma konusundaki çalışmasından da bahsediyor. Bengio, otomatik kodlayıcı yığınlarıyla derin öğrenmenin geliştirilmesi ve nöral makine çevirisinde dikkatin kullanılması da dahil olmak üzere, araştırma grubundaki diğer bazı önemli icatlardan veya fikirlerden bahsetmeye devam ediyor. Ayrıca, derin öğrenme ile beyin arasındaki ilişkiyi anlamaya olan ilgisini ve beyin tarafından uygulanabilecek geri yayılıma benzer bir sistem geliştirme konusundaki çalışmalarını tartışıyor.

  • 00:10:00 Bu bölümde Yoshua Bengio, Geoff Hinton'ın beynin nasıl çalıştığına ve zamansal kodun bunun için potansiyel kullanımına ilişkin düşüncelerinden ilham aldığını anlatıyor. Etiketli veriler olmadan dünyayı açıklayan zihinsel modellerin oluşturulmasına izin verdiği için denetimsiz öğrenmenin ne kadar gerekli olduğunu tartışıyor. Ayrıca, şeyleri keşfederek ve kontrol etmeye çalışarak birbirinden çözülen temel kavramları daha iyi anlamak için denetimsiz öğrenme ve takviyeli öğrenme kombinasyonundan bahsediyor. Denetimsiz öğrenme araştırmasının sorunu, bu soruna saldırmanın pek çok farklı yolunun olması ve bir sistemin iyi çalışıp çalışmadığını ölçmek için neyin iyi bir amaç işlevi oluşturduğuna dair iyi bir tanımın olmamasıdır. Son olarak Yoshua, derin öğrenmenin mevcut durumunun hala olmasını istediği yerden çok uzak olduğunu ve onu bir sonraki seviyeye taşıma konusunda iddialı olduğunu ifade ediyor.

  • 00:15:00 Bu bölümde Yoshua Bengio, bilgisayarların nasıl çalıştığını keşfetmek için dünyayı nasıl gözlemleyebilecekleri ve onunla nasıl etkileşim kurabileceklerine ilişkin temel ilkelere odaklanan araştırma konusundaki heyecanından bahsediyor. Bu tür araştırmaların dünyanın nasıl çalıştığının daha iyi anlaşılmasına nasıl yol açacağını tartışıyor ve transfer öğrenimi ve ortak ulus sorunları gibi büyük zorlukların üstesinden gelmeye yardımcı olacağını umuyor. Bengio, daha küçük problemler üzerinde deney yapmanın daha hızlı araştırma döngülerine ve daha iyi anlaşılmaya yol açabileceğini ve bunun da sonunda ölçeklenebileceğini belirtiyor. Derin öğrenmede neler olup bittiğini anlamanın önemini ve derin öğrenme bilimi üzerine düşünceleri paylaşmanın gerekliliğini vurguluyor.

  • 00:20:00 Bu bölümde, derin öğrenmede ünlü bir figür olan Yoshua Bengio, yalnızca kıyaslamaları veya rakipleri geçmeye çalışmak yerine ilgilenilen olguyu anlamanın ve uygun araştırma yürütmenin önemini tartıştı. Alana girmek isteyen bireyler için okuma, kodlama ve deney yapma dahil uygulama ihtiyacını vurguladı. Bengio, bilgisayar bilimi ve matematikte güçlü bir altyapının yararlı olduğunu, ancak daha önce makine öğrenimi bilgisi olmayan kişilerin yine de öğrenebileceğini ve birkaç ay içinde yetkin hale gelebileceğini belirtti.

  • 00:25:00 Bu alıntıda Andrew Ng ve Yoshua Bengio, derin öğrenme alanında bir kariyer peşinde koşarken cebir, optimizasyon ve matematik gibi güçlü bir temel matematik bilgisine sahip olmanın önemini tartışıyorlar. Bengio, sahada güncel kalmak için sürekli eğitim ve sürekli öğrenme ihtiyacını vurgular. Her ikisi de içgörülerini ve bilgilerini başkalarıyla paylaşma fırsatı için şükranlarını ifade eder.
Heroes of Deep Learning: Andrew Ng interviews Yoshua Bengio
Heroes of Deep Learning: Andrew Ng interviews Yoshua Bengio
  • 2017.08.08
  • www.youtube.com
p vs np, probability, machine learning, ai, neural networks, data science, programming, statistics, math, mathematics
 

Derin Öğrenme Kahramanları: Andrew Ng, Pieter Abbeel ile röportaj yapıyor



Derin Öğrenme Kahramanları: Andrew Ng, Pieter Abbeel ile röportaj yapıyor

Pieter Abbeel, Andrew Ng ile yaptığı bu röportajda derin pekiştirmeli öğrenmenin zorluklarını ve potansiyelini tartışıyor. Keşif, kredi tahsisi ve olumsuz örnekler üretme konusunda daha fazla çalışmaya ihtiyaç olduğunu belirtiyor. Abbeel, robotlara otonom yaşamayı öğretirken güvenlik endişelerini ve güvenli öğrenme verileri toplamanın önemini de vurguluyor. Bireylere popüler çerçevelerle uygulamalı uygulama yapmalarını tavsiye ediyor ve deneyimli profesyonellerden mentorluk almanın faydalarını öneriyor. Ek olarak, makinelere başarı hedefleri vermede takviyeli öğrenmeye ihtiyaç olduğunu öne sürüyor ve takviyeli öğrenme bileşenini eklemeden önce davranışsal klonlamanın ve denetimli öğrenmenin önemine dikkat çekiyor.

  • 00:00:00 Bu bölümde Pieter Abbeel, matematik ve fiziğe olan ilgisinden dolayı mühendisliğe nasıl ilgi duymaya başladığını ve bunun sonunda onu makine öğrenimine ve derin pekiştirmeli öğrenmeye nasıl yönlendirdiğini anlatıyor. Keşif ve kredi atama gibi derin pekiştirmeli öğrenmede hala var olan zorluklardan ve bu sistemleri geliştirmek için olumsuz örneklerin oluşturulmasına hala ihtiyaç olduğundan bahsediyor. Ayrıca, derin takviyeli öğrenmenin başarılarının esas olarak kısa zaman ufuklarında olduğunu ve sistemlerin daha uzun zaman dilimlerinde akıl yürütmesini sağlamak için bu alanda yapılacak çok iş olduğunu da belirtiyor.

  • 00:05:00 Röportajın bu bölümünde Pieter Abbeel, bir robota veya yazılım aracısına otonom bir yaşam sürmeyi öğretmenin zorluklarını tartışıyor ve güvenliğin, güvenli öğrenme verilerinin toplanması da dahil olmak üzere bir dizi sorun oluşturduğuna işaret ediyor. Gelecekte insan tasarımının yerini alabilecek daha verimli mekanizmalar bulmak için öğrenme algoritmalarını aktif olarak keşfetme ve güçlendirme konusundaki heyecanını da paylaşıyor. Son olarak, yapay zeka alanında kariyer peşinde koşanlara tavsiyelerde bulunuyor, bu alanın geniş iş fırsatları sunduğunun altını çiziyor ve başlamaları için Andrew Ng ve Berkeley'in derin öğrenme kursları gibi çevrimiçi öğrenme materyallerini öneriyor.

  • 00:10:00 Bu bölümde Pieter Abbeel, TensorFlow ve PyTorch gibi popüler çerçevelerle uygulamalı uygulama ve deneme yapmanın önemini vurgulayarak derin öğrenme ve makine öğrenimi hakkında öğrenmeye nasıl başlanacağını tartışıyor. Ayrıca, büyük bir şirkette iş bulmaya karşı doktora yapmanın artılarını ve eksilerini tartışıyor ve deneyimli profesyonellerden mentorluk almanın avantajlarını vurguluyor. Abbeel daha sonra, bir robotun klasik Atari oyunlarını sıfırdan çalıştırmayı veya oynamayı öğrenmesi gibi derin pekiştirmeli öğrenmenin bazı başarılarını açıklamaya devam ediyor, ancak bir sonraki adımın bu öğrenilen bilgiyi gelecekteki görevler için nasıl yeniden kullanacağını bulmak olduğunu belirtiyor. Ayrıca, birçok işletmenin yakın gelecekte insan destekli denetimli öğrenmeye güveneceğini tahmin ediyor.

  • 00:15:00 Bu bölümde Pieter Abbeel, yalnızca insan eylemlerini eşleştirmek yerine makinelere başarı hedefleri vermede takviyeli öğrenmenin kullanılmasını öneriyor. Makine, takviyeli öğrenme bileşeni eklenmeden önce davranışsal klonlama veya denetimli öğrenme kullanılarak eğitilecektir. Bu yaklaşım zaman alıcıdır ancak belirlenen hedeflere ulaşabilen makineler geliştirmede etkilidir. Takviyeli öğrenme tek başına tehlikeli ve zaman alıcı olabilir.
Heroes of Deep Learning: Andrew Ng interviews Pieter Abbeel
Heroes of Deep Learning: Andrew Ng interviews Pieter Abbeel
  • 2017.08.08
  • www.youtube.com
p vs np, probability, machine learning, ai, neural networks, data science, programming, statistics, math, mathematics
Neden: