Makine Öğrenimi ve Sinir Ağları - sayfa 49

 

'Yapay Zekanın Babası', gelişen teknolojilerin toplum için oluşturduğu tehlikeleri tartışıyor


'Yapay Zekanın Babası', gelişen teknolojilerin toplum için oluşturduğu tehlikeleri tartışıyor

Yapay zeka alanında önde gelen bir otorite olan Dr. Jeffrey Hinton, süper akıllı yapay zeka sistemlerinin ortaya koyduğu potansiyel riskler hakkında önemli endişeler dile getiriyor. Bu sistemlerin insanlar üzerinde kontrol sahibi olma ve onları kendi gündemleri için manipüle etme olasılığından endişe duyduğunu ifade ediyor. İnsan ve makine zekası arasında bir ayrım yapan Hinton, yapay zekaya alt hedefler oluşturma yeteneği vermenin, insanlık üzerinde daha fazla güç ve kontrol arzusuna yol açabilecek tehlikelere dikkat çekiyor.

Bu risklere rağmen Hinton, yapay zekanın, özellikle muazzam ilerleme potansiyeline sahip olduğu tıp alanında sayısız olumlu uygulamasının farkındadır. Dikkatli olunması gerekse de yapay zeka gelişiminin ilerlemesini tamamen durdurmamanın esas olduğunu vurguluyor.

Hinton ayrıca teknoloji yaratıcılarının rolüne ve çalışmalarının toplum üzerindeki olası etkilerine de değiniyor. Savunma departmanları da dahil olmak üzere yapay zeka geliştirmeye dahil olan kuruluşların yardımseverlik dışındaki hedeflere öncelik verebileceğine dikkat çekiyor. Bu, AI teknolojisinin kullanımının arkasındaki niyetler ve motivasyonlar hakkında endişeleri artırıyor. Hinton, AI'nın topluma önemli faydalar sağlama kapasitesine sahip olmasına rağmen, teknolojik ilerlemenin hızlı temposunun, genellikle hükümetlerin ve mevzuatın kullanımını etkin bir şekilde düzenleme yeteneğini geride bıraktığını öne sürüyor.

Hinton, AI ile ilişkili riskleri ele almak için uluslararası ölçekte yaratıcı bilim adamları arasında artan işbirliğini savunmaktadır. Bu uzmanlar, birlikte çalışarak daha güçlü yapay zeka sistemleri geliştirirken aynı anda kontrolü sağlamanın ve olası zararları önlemenin yollarını keşfedebilir. Hinton, bu işbirlikçi çaba sayesinde toplumun yapay zekanın potansiyel faydalarından yararlanma ile potansiyel risklerine karşı korunma arasında bir denge kurabileceğine inanıyor.

  • 00:00:00 Bu bölümde Dr. Jeffrey Hinton, süper zeki yapay zekanın kontrolü insanlardan devralması ve kendi amaçları için insanları manipüle etmesi risklerine ilişkin endişelerini tartışıyor. İnsan ve makine zekası arasındaki farkları ve yapay zekaya insanlar üzerinde daha fazla güç ve kontrol arayışına yol açabilecek alt hedefler oluşturma yeteneği vermenin potansiyel tehlikelerini açıklıyor. Bu risklere rağmen Hinton, yapay zekanın tıbbın ilerlemesi gibi birçok olumlu uygulamasını kabul ediyor ve bu alandaki gelişimin tamamen durdurulmaması gerektiğini vurguluyor.

  • 00:05:00 Bu bölümde Dr. Stuart Russell, toplum için potansiyel tehlikelere yol açabilecek teknolojinin ve onu yaratan insanların birleşimi olduğunu kabul ediyor. Savunma departmanlarının yapay zeka geliştiren kuruluşlar arasında yer aldığına ve bu nedenle "İnsanlara iyi davranmanın" birincil öncelikleri olmadığına dikkat çekiyor. Yapay zeka toplum için muazzam faydalar sağlama yeteneğine sahip olsa da, hükümetler ve mevzuat teknolojinin ilerleme hızına ayak uyduramıyor. Yapay zeka ile ilişkili riskleri azaltmak için Dr. Russell, daha güçlü yapay zeka geliştirmek ve onu kontrol altında tutmanın yollarını bulmak için uluslararası ölçekte daha yaratıcı bilim insanlarının işbirliğini teşvik ediyor.
'Godfather of AI' discusses dangers the developing technologies pose to society
'Godfather of AI' discusses dangers the developing technologies pose to society
  • 2023.05.05
  • www.youtube.com
This has been a week where concerns over the rapidly expanding use of artificial intelligence resonated loudly in Washington and around the world. Geoffrey H...
 

Yapay Zekadan İnsanlığın Sonu Muhtemel mi? Geoffrey Hinton, MIT Technology Review'den EmTech Digital'de


Yapay Zekadan İnsanlığın Sonu Muhtemel mi? Geoffrey Hinton, MIT Technology Review'den EmTech Digital'de

Yapay zeka ve derin öğrenme alanında önde gelen bir isim olan Geoffrey Hinton, Google'daki görev süresi ve beyin ile dijital zeka arasındaki ilişkiye bakış açısının zaman içinde nasıl geliştiği üzerine düşünüyor. Başlangıçta Hinton, bilgisayar modellerinin beyni anlamayı amaçladığına inanıyordu, ancak şimdi farklı şekilde çalıştıklarını fark ediyor. Günümüzün derin öğrenmesinin çoğunun temeli olarak hizmet eden çığır açan katkısı olan geri yayılımın önemini vurguluyor. Hinton, geri yayılımın sinir ağlarının görüntülerdeki kuşlar gibi nesneleri algılamasını nasıl sağladığına dair basitleştirilmiş bir açıklama sağlar.

Hinton, ileriye dönük olarak, geri yayılım gibi tekniklerle desteklenen büyük dil modellerinin başarısına ve bunların görüntü algılama üzerindeki dönüştürücü etkisine hayret ediyor. Bununla birlikte, odak noktası, doğal dil işlemede devrim yaratma potansiyellerinde yatmaktadır. Bu modeller, beklentilerini aştı ve makine öğrenimi anlayışını büyük ölçüde yeniden şekillendirdi.

Yapay zekanın öğrenme yetenekleriyle ilgili olarak Hinton, dijital bilgisayarların ve yapay zekanın, geri yayılımlı öğrenme algoritmalarını kullanma yetenekleri nedeniyle insanlara göre avantajlara sahip olduğunu açıklıyor. Bilgisayarlar, çok miktarda bilgiyi verimli bir şekilde kompakt bir ağa kodlayabilir ve bu da gelişmiş öğrenmeye olanak tanır. Halihazırda basit muhakeme gösterdiği ve zengin bir sağduyu bilgisine sahip olduğu için GPT4'ü örnek olarak gösteriyor. Hinton, aynı modelin birden çok kopyasının farklı donanımlarda çalışmasını ve birbirinden öğrenmesini sağlayarak dijital bilgisayarların ölçeklenebilirliğini vurgular. Kapsamlı miktarda veriyi işleme kapasitesi, AI sistemlerine insan gözleminden kaçabilecek yapısal kalıpları ortaya çıkarma yeteneği verir ve bu da hızlandırılmış öğrenmeyle sonuçlanır.

Ancak Hinton, yapay zekanın insan zekasını aşmasıyla ilişkili potansiyel riskleri kabul ediyor. AI'nın bireyleri manipüle etme potansiyeli hakkındaki endişelerini dile getirerek, iki yaşındaki bir çocuğun seçim yapmaya zorlanmasıyla paralellikler kuruyor. Hinton, Washington DC'deki son olaylara atıfta bulunarak, doğrudan müdahale olmaksızın bile yapay zekanın insanları manipüle etmek ve potansiyel olarak onlara zarar vermek için kullanılabileceği konusunda uyarıyor. Spesifik bir teknik çözüm önermemekle birlikte, yapay zekanın güvenli ve faydalı bir şekilde çalışmasını sağlamak için bilim camiasında işbirlikçi çabalar çağrısında bulunuyor.

Ayrıca Hinton, AI ile ilgili olarak insanlığın geleceği hakkında spekülasyon yapıyor. İnsanlar gibi evrimsel süreçlerden geçmemiş olan dijital zekaların içsel hedeflerden yoksun olduğunu iddia ediyor. Bu, potansiyel olarak daha fazla kontrol arayan yapay zeka sistemleri tarafından alt hedeflerin oluşturulmasına yol açabilir. Hinton, AI'nın benzeri görülmemiş bir hızda gelişebileceğini ve insanlığı zekanın evriminde yalnızca geçiş aşaması olarak gösterebilecek çok miktarda insan bilgisini emebileceğini öne sürüyor. Yapay zeka geliştirmeyi durdurmanın ardındaki mantığı kabul etse de bunun gerçekleşmesinin pek olası olmadığını düşünüyor.

Hinton ayrıca yapay zeka teknolojisinin oluşturulması ve piyasaya sürülmesinde teknoloji şirketlerinin sorumluluğunu da araştırıyor. OpenAI'nin itibarını korumak için Transformers modellerini piyasaya sürerken gösterdiği ihtiyatı, Google'ın Microsoft ile rekabet nedeniyle benzer modelleri piyasaya sürme zorunluluğuyla karşılaştırarak vurguluyor. Hinton, AI'nın varoluşsal bir tehdit haline gelmesini önlemek için özellikle ABD ve Çin gibi ülkeler arasında uluslararası işbirliğinin önemini vurguluyor.

Ek olarak Hinton, AI'nın düşünce deneyleri ve akıl yürütme konusundaki yeteneklerini tartışıyor ve örnek olarak bir satranç oynama programı olan Alpha Zero'ya atıfta bulunuyor. Akıl yürütme becerilerini engelleyen eğitim verilerindeki olası tutarsızlıklara rağmen, tutarlı inançlara sahip yapay zeka modellerini eğitmenin bu boşluğu doldurabileceğini öne sürüyor. Hinton, yapay zekanın semantikten yoksun olduğu fikrini reddediyor ve semantik bilgiyi gösterdikleri ev boyama gibi görev örnekleri sunuyor. Yapay zekanın sosyal ve ekonomik sonuçlarına kısaca değiniyor, işten çıkarma ve zenginlik uçurumlarını genişletme konusundaki endişelerini dile getiriyor. Bu sorunları hafifletmek için potansiyel bir çözüm olarak temel bir gelirin uygulanmasını öneriyor. Hinton, siyasi sistemlerin teknolojiyi herkesin yararına uyarlaması ve kullanması gerektiğine inanıyor ve bireyleri teknolojiyi şekillendirmekten sorumlu olanlarla konuşmaya ve onlarla ilişki kurmaya teşvik ediyor.

Hinton, araştırmasının olası sonuçları konusunda biraz pişmanlık duyduğunu kabul etse de, krizin o dönemde öngörülebilir olmadığı göz önüne alındığında, yapay sinir ağları üzerindeki çalışmasının makul olduğunu savunuyor. Hinton, AI belirli işleri daha verimli hale getirmeye devam ettikçe verimlilikte önemli artışlar olacağını tahmin ediyor. Bununla birlikte, genişleyen bir servet uçurumuna ve potansiyel olarak daha fazla sosyal huzursuzluk ve şiddete yol açabilecek işten çıkarmanın potansiyel sonuçları hakkında endişelerini de dile getiriyor. Bu endişeyi gidermek için Hinton, iş kaybından etkilenen bireyler üzerindeki olumsuz etkiyi azaltmak için temel bir gelirin uygulanmasını önermektedir.

Yapay zekanın yarattığı varoluşsal tehditle ilgili olarak Hinton, yapay zekanın insan gözetiminden çıkıp insanlık için bir tehlike haline gelmesini önlemek için kontrol ve işbirliğinin önemini vurguluyor. Teknolojinin gücünden herkesin yararına yararlanmak için siyasi sistemlerin uyum sağlaması ve değişmesi gerektiğine inanıyor. Yapay zeka ile ilişkili risklerin doğru bir şekilde ele alınabilmesi, bilimsel topluluk, politika yapıcılar ve teknoloji geliştiricilerin işbirliği ve dikkatli değerlendirmesi yoluyla gerçekleşir.

Hinton, araştırmasını ve yapay zekaya katkılarını düşünürken, potansiyel sonuçların tam olarak tahmin edilemediğini kabul ediyor. Ancak, geri yayılımın geliştirilmesi de dahil olmak üzere yapay sinir ağları üzerindeki çalışmalarının, o zamanki bilgi ve anlayış durumu göz önüne alındığında makul olduğunu savunuyor. Sorumlu ve etik dağıtımını sağlamak için AI teknolojisinin devam eden diyalogunu ve eleştirel değerlendirmesini teşvik eder.

Sonuç olarak, Geoffrey Hinton'un beyin ve dijital zeka arasındaki ilişkiye dair gelişen perspektifi, yapay zeka ile ilişkili farklı özellikleri ve potansiyel riskleri vurgulamaktadır. Hinton, AI'nın olumlu uygulamalarını ve dönüştürücü gücünü kabul ederken, potansiyel zararı en aza indirirken potansiyelinden yararlanmak için dikkat, işbirliği ve sorumlu geliştirme çağrısında bulunuyor. Hinton, AI manipülasyonu, işten çıkarma, servet eşitsizliği ve varoluşsal tehdit gibi endişeleri ele alarak, insan refahına ve toplumun uzun vadeli sürdürülebilirliğine öncelik veren dengeli bir yaklaşımı savunuyor.

  • 00:00:00 Bu bölümde, derin öğrenmenin öncülerinden Jeffrey Hinton, 10 yıl sonra Google'dan ayrılma kararını ve beyin ile dijital zeka arasındaki ilişkiye dair değişen bakış açısını tartışıyor. Eskiden bilgisayar modellerinin beyni anlamayı amaçladığını düşündüğünü, ancak şimdi beyinden farklı bir şekilde çalıştıklarına inandığını açıklıyor. Hinton'un temeli
  • makinelerin öğrenmesine izin veren geriye yayılım, bugün hemen hemen tüm derin öğrenmenin dayandığı temeldir. Ayrıca, görüntülerde kuşları tespit etmede geriye yayılımın nasıl çalıştığına dair kabaca bir açıklama sağlıyor.

  • 00:05:00 Bu bölümde Hinton, kenar dedektörlerinden başlayarak özellik dedektörlerinin nasıl çalıştığını açıklıyor. Daha sonra, kuşlar gibi nesneleri algılayabilmesi için bir sinir ağının ağırlıklarını ayarlamak için geri yayılım tekniğinin nasıl kullanılabileceğini tartışıyor. Makine öğrenimi hakkındaki düşüncelerini tamamen değiştiren bu tekniğe dayalı büyük dil modellerinin başarısı onu hayrete düşürdü. Bu modeller, görüntü algılamada önemli bir ilerleme sağlamıştır, ancak Hinton'un odak noktası, bunların doğal dil işlemeyi nasıl dönüştürdüğüdür.

  • 00:10:00 Bu bölümde, Geoffery Hinton, dijital bilgisayarların ve yapay zekanın (AI), geri yayılımlı öğrenme algoritmalarını kullanma yetenekleri nedeniyle öğrenmede insanlardan nasıl daha iyi olabileceğini tartışıyor. Hinton, halihazırda basit akıl yürütme ve sağduyu bilgisi yapabilen GPT4 ile gösterildiği gibi, bilgisayarların birkaç bağlantıya daha fazla bilgi sığdırabileceğini ve bu nedenle daha iyi öğrenebileceğini savunuyor. Dijital bilgisayarların ölçeklenebilirliğinin, aynı modelin birbirinden iletişim kurabilen ve öğrenebilen farklı donanımlarda çalışan birçok kopyasına izin verdiğini açıklıyor. Hinton, bunun sağladığı avantajın, çok fazla veriyi geçebilen yapay zeka sistemlerinin, insanların asla göremeyeceği yapılandırma verilerini görebilmesi ve yapay zekanın insanlardan çok daha hızlı öğrenmesine yol açabilmesi olduğunu öne sürüyor.

  • 00:15:00 Bu bölümde, bilgisayar bilimcisi Geoffrey Hinton, yapay zekanın (AI) potansiyel risklerini ve insan zekasını aşması halinde bireyleri nasıl manipüle edebileceğini ele alıyor. Hinton, yapay zekanın insanları nasıl kontrol edeceğini edebiyat okuyarak ve hatta iki yaşındaki bir çocuğun sebzeler arasında seçim yapması isteniyormuş gibi düşüncelerini manipüle ederek öğrenebileceği konusundaki endişelerini dile getiriyor. Doğrudan müdahale olmaksızın bile yapay zekanın, Washington DC'deki son olaylar gibi insanları manipüle etmek ve potansiyel olarak onlara zarar vermek için kullanılabileceğini açıklıyor. Herhangi bir teknik çözüm önerilmemekle birlikte Hinton, AI'nın güvenli ve insanlara faydalı bir şekilde çalışmasını sağlamak için bu sorunun üstesinden gelmek için bilim camiasından güçlü bir işbirliği ve değerlendirme çağrısında bulunuyor.

  • 00:20:00 Bu bölümde, AI uzmanı Geoffrey Hinton, AI'nın insanlığın potansiyel sonu hakkındaki endişelerini dile getiriyor. Hinton, dijital zekaların insanlar gibi gelişmediğini ve bu nedenle yerleşik hedeflerden yoksun olduğunu, bunun da daha fazla kontrol elde etmek için kendi alt hedeflerini oluşturmalarına yol açabileceğini savunuyor. Yapay zekanın insanlardan çok daha hızlı gelişebileceğini ve insanların yazdığı her şeyi özümseyebileceğini öne sürüyor, bu da insanlığın zekanın evriminde sadece geçiş aşaması olduğu olası bir senaryoya yol açıyor. Hinton, AI'nın gelişimini durdurmanın mantıklı olabileceğini, ancak bunun olmayacağını öne sürüyor.

  • 00:25:00 Bu bölümde Geoffrey Hinton, teknoloji şirketlerinin yapay zeka teknolojisi yaratma ve piyasaya sürme konusundaki sorumluluklarını tartışıyor. OpenAI, itibarlarına olası zararı önlemek için Transformers modellerini piyasaya sürme konusunda temkinli davranırken, Google'ın Microsoft ile rekabet nedeniyle benzer modelleri piyasaya sürmekten başka çaresi olmadığını belirtiyor. Hinton, yapay zekanın kontrolü ele alıp varoluşsal bir tehdit haline gelmesini önlemek için ABD ve Çin gibi ülkeler arasındaki işbirliğinin önemini vurguluyor. Ayrıca, modelleri eğitmek için gereken veri miktarı nedeniyle yapay zekadaki zeka platosu hakkındaki bir soruyu da ele alıyor, ancak video verilerinin işlenmesinden öğrenilecek çok sayıda kullanılmayan bilgi olduğunu da belirtiyor.

  • 00:30:00 Bu bölümde Geoffrey Hinton, yapay zekanın onlara öğrettiğimiz veriler ve modelle sınırlı olsa da yine de düşünce deneyleri ve akıl yürütme yapabildiklerini savunuyor. Satranç oynayan bir program olan Alpha Zero örneğini kullanarak, yapay zekanın akıl yürütme ve inançlarının tutarlılığını kontrol etme potansiyeline sahip olduğunu açıklıyor. Eğitim verilerindeki tutarsızlık, akıl yürütme yeteneklerini engellese de, onları tutarlı inançlarla ideoloji konusunda eğitmenin bu boşluğu kapatmaya yardımcı olacağına inanıyor. Dahası, yapay zekanın anlambilimden yoksun olduğu iddiasını, ev boyama gibi görevlerden örnekler vererek anlamsal bilgiye sahip olduklarını öne sürerek reddediyor. Yapay zekanın sosyal ve ekonomik sonuçları sorulduğunda Hinton, yapay zekanın kontrolü ele geçirmesinin varoluşsal tehdidine ilişkin soruyu erteliyor ancak yapay zekanın iş yaratma ve iş kaybı üzerindeki etkisi hakkında yorum yapıyor.

  • 00:35:00 Bu bölümde Hinton, yapay zeka belirli işleri daha verimli hale getirebileceği için verimlilikte büyük artışlar olacağını tahmin ediyor. Ancak endişesi, bu artışların işten çıkarmaya ve toplumda genişleyen bir servet uçurumuna yol açacağı ve bunun daha şiddetli hale gelmesine neden olacağıdır. Sorunu hafifletmek için temel bir gelir uygulanmasını öneriyor. Yapay zekanın varoluşsal bir tehdit haline gelmesi tehdidi, kontrol ve işbirliği yoluyla önlenebilir, ancak teknolojiyi herkesin yararına kullanmak için siyasi sistemlerin değişmesi gerekir. Hinton, teknolojiyi yapanlarla konuşmanın ve etkileşimde bulunmanın bir fark yaratabileceğine inanıyor. Araştırmasının olası sonuçlarından biraz pişmanlık duysa da, krizin Öngörülebilir olmadığı göz önüne alındığında yapay sinir ağları konusundaki çalışmasının makul olduğuna inanıyor.
Possible End of Humanity from AI? Geoffrey Hinton at MIT Technology Review's EmTech Digital
Possible End of Humanity from AI? Geoffrey Hinton at MIT Technology Review's EmTech Digital
  • 2023.05.04
  • www.youtube.com
One of the most incredible talks I have seen in a long time. Geoffrey Hinton essentially tells the audience that the end of humanity is close. AI has becom...
 

AI'nın çığır açan potansiyeli | Sam Altman | MİT 2023



AI'nın çığır açan potansiyeli | Sam Altman | MİT 2023

OpenAI CEO'su Sam Altman, AI geliştirme ve stratejisinin çeşitli yönleri hakkında değerli bilgiler ve tavsiyeler sunuyor. Altman, yalnızca platformun teknolojisine güvenmek yerine uzun vadeli stratejik avantaja sahip harika bir şirket kurmanın önemini vurguluyor. Başarının anahtarı bu olduğundan, insanların sevdiği bir ürün yaratmaya ve kullanıcıların ihtiyaçlarını karşılamaya odaklanmayı tavsiye ediyor.

Altman, kapsamlı yeniden eğitim olmaksızın modelleri manipüle etme ve özelleştirme yeteneğine sahip yeni temel modellerin esnekliğini vurguluyor. Ayrıca OpenAI'nin geliştiricileri mutlu etmeye kararlı olduğundan ve model özelleştirme açısından ihtiyaçlarını karşılamanın yollarını aktif olarak araştırdığından bahsediyor. Makine öğrenimi modellerindeki eğilimleri tartışan Altman, daha az özelleştirmeye doğru kaymaya ve hızlı mühendislik ve belirteç değişikliklerinin artan önemine dikkat çekiyor. Diğer alanlarda iyileştirme potansiyelini kabul etmekle birlikte, temel modellere yatırım yapmanın, eğitim sürecinde genellikle onlarca veya yüz milyonlarca doları aşan önemli maliyetler içerdiğinden bahseder.

Altman, uzun vadeli, sermaye yoğun ve teknoloji odaklı stratejilere odaklandığını vurgulayarak bir iş stratejisti olarak kendi güçlü yönleri ve sınırlamaları üzerine derinlemesine düşünüyor. Hevesli girişimcileri, OpenAI gibi hızlı büyüyen ve savunulabilir şirketleri başarıyla kurmuş deneyimli kişilerden öğrenmeye teşvik ediyor. Altman, yapay zekadaki parametre sayısı saplantısını eleştiriyor ve bunu önceki yıllarda çip geliştirmedeki gigahertz yarışına benzetiyor. Yapay zeka modellerinin kapasitesini hızla artırmaya ve dünyaya en yetenekli, kullanışlı ve güvenli modelleri sunmaya odaklanılması gerektiğini öne sürüyor. Altman, bu algoritmaların ham beygir gücüne sahip olduğuna ve daha önce imkansız olan şeyleri başarabileceğine inanıyor.

Yapay zeka gelişiminin durdurulmasını isteyen açık mektupla ilgili olarak Altman, modellerin güvenliğini inceleme ve denetleme gereğini kabul ediyor. Bununla birlikte, teknik nüansın önemine dikkat çekiyor ve tamamen durmak yerine dikkatli ve sıkı güvenlik protokollerini savunuyor. Altman, açıklık ile yanlış bir şey söyleme riski arasındaki değiş tokuşu kabul ediyor, ancak insanların faydalarını ve dezavantajlarını deneyimlemesi ve anlaması için kusurlu sistemleri dünyayla paylaşmaya değer olduğuna inanıyor.

Altman, AI kişisel gelişiminde bir "kalkış" kavramını ele alıyor ve bunun aniden veya aniden gerçekleşmeyeceğini iddia ediyor. Yapay zeka araçlarının yardımıyla insanların yapay zeka gelişiminin arkasındaki itici güç olmaya devam edeceğine inanıyor. Altman, daha iyi ve daha hızlı araçlar geliştirildikçe dünyadaki değişim hızının sonsuza kadar artacağını tahmin ediyor, ancak bunun bilim kurgu literatüründe tasvir edilen senaryolara benzemeyeceği konusunda da uyarıda bulunuyor. Yeni altyapı oluşturmanın önemli ölçüde zaman aldığını ve yapay zeka kişisel gelişiminde bir devrimin bir gecede olmayacağını vurguluyor.

Sam Altman, AI geliştirme konusunu ve bunun sonuçlarını daha da derinlemesine araştırıyor. AI yetenekleri daha gelişmiş hale geldikçe güvenlik standartlarını artırma ihtiyacını tartışıyor, titiz güvenlik protokollerinin ve modellerin kapsamlı bir şekilde incelenmesi ve denetlenmesinin önemini vurguluyor. Altman, açıklık ile kusur potansiyeli arasında bir denge kurmanın karmaşıklığının farkındadır, ancak yapay zeka sistemlerinin avantajlarını ve dezavantajlarını daha iyi anlamak için dünyayla paylaşmanın çok önemli olduğuna inanır.

Yapay zekanın mühendislik performansı üzerindeki etkisi açısından Altman, kod üretimi için LLMS'nin (Büyük Dil Modelleri) kullanımına dikkat çekiyor. Mühendislerin üretkenliğini artırma potansiyelini kabul ediyor, ancak üretilen kodun kalitesini ve güvenilirliğini sağlamak için dikkatli değerlendirme ve izleme ihtiyacını da kabul ediyor.

Altman, AI kişisel gelişiminde bir "kalkış" kavramına dair içgörüler sunuyor ve bunun aniden veya bir gecede gerçekleşmeyeceğini vurguluyor. Bunun yerine, insanların daha iyi ve daha hızlı teknolojiler geliştirmek için yapay zeka araçlarından yararlanmada hayati bir rol oynadığı sürekli bir ilerleme öngörüyor. Dünyadaki değişim hızı süresiz olarak artacak olsa da Altman, yeni altyapı inşa etmenin zaman alıcı doğasını ve istikrarlı ilerleme ihtiyacını vurgulayarak bilimkurgu benzeri bir devrim kavramını reddediyor.

Sonuç olarak, Sam Altman'ın bakış açıları, stratejik hususlardan güvenlik, özelleştirme ve yapay zeka gelişiminin uzun vadeli gidişatına kadar yapay zeka gelişiminin çeşitli yönlerine ışık tutuyor. Görüşleri, yapay zeka endüstrisinde yer alan bireyler ve şirketler için kullanıcı merkezli yaklaşımların, sürekli iyileştirmenin ve yapay zeka teknolojilerinin sorumlu bir şekilde uygulanmasının önemini vurgulayarak değerli rehberlik sağlar.

  • 00:00:00 Bu bölümde, OpenAI CEO'su Sam Altman'dan yapay zeka odaklı bir şirket kurma konusunda tavsiyesi isteniyor. Altman, uzun vadeli bileşik stratejik avantaja sahip harika bir şirket kurmanın kilit nokta olduğunu öne sürüyor. Platformun teknolojisine çok fazla güvenmemeyi tavsiye ediyor ve bunun yerine insanların sevdiği bir ürün oluşturmaya ve kullanıcıların ihtiyaçlarını karşılamaya vurgu yapıyor. Altman ayrıca, modelleri yeniden eğitmeden manipüle etme ve özelleştirme konusunda çok daha fazla yeteneğe sahip olan yeni temel modellerin esnekliğini tartışıyor. Son olarak Altman, OpenAI'nin geliştiricileri mutlu etmek için pek çok şey yapmaya açık olduğunu ve model özelleştirme açısından geliştiricilerin neye ihtiyacı olduğunu hâlâ bulmaya çalıştığını belirtiyor.

  • 00:05:00 Bu bölümde Sam Altman, makine öğrenimi modellerinin daha az özelleştirilmesi yönündeki eğilimi ve bu modeller daha iyi ve daha büyük hale geldikçe ani mühendislik ve belirteç değişikliklerinin büyümesini tartışıyor. Altman, dev modellerin başka şekillerde gelişmenin yollarını arayacağını kabul ederken, eğitim sürecinde temel modellere yapılan yatırımın 50-100 milyon dolardan fazla olduğunu belirtiyor. İş stratejisi konusunda Altman, büyük bir iş stratejisti olmadığını ve strateji olarak yalnızca uzun vadeli, sermaye yoğun ve teknoloji parçalarını yapabileceğini iddia ediyor. Ayrıca, özellikle Open AI gibi hızla büyüyen yeni bir savunulabilir şirket kurarken, uygulamayı yapmış ve onlardan öğrenmiş kişileri bulmanızı tavsiye ediyor.

  • 00:10:00 Bu bölümde, Sam Altman yapay zekadaki parametre sayısına odaklanmayı ve bunun 90'lar ve 2000'lerdeki çiplerdeki gigahertz yarışını nasıl anımsattığını tartışıyor. Parametre sayısına odaklanmak yerine yapay zeka modellerinin kapasitesini hızla artırmaya ve dünyaya en yetenekli, kullanışlı ve güvenli modelleri sunmaya odaklanılması gerektiğini öne sürüyor. Altman, bu algoritma sınıfıyla ilgili benzersiz şeyin, kullanıcıları ham beygir gücüyle şaşırtması olduğuna dikkat çekiyor. Artan alt tabaka hızı ile bu algoritmaların daha önce mümkün olmayan şeyleri yapacağını belirtiyor. Altman, değişime duyarlı olurken ve sıkı bir geri bildirim döngüsüne sahipken neyin işe yaradığına dikkat etmeyi ve bundan daha fazlasını yapmayı teşvik ediyor.

  • 00:15:00 Videonun bu bölümünde Sam Altman, Max Tegmark ve diğerleri tarafından AI gelişimini altı ay boyunca durdurmak için yazılan açık mektubu tartışıyor ve modellerin güvenliğinin sağlanmasını isteyen mektubun ana fikrine katıldığını ifade ediyor. incelendi ve denetlendi. Altman, yetenekler daha ciddi hale geldikçe güvenlik çubuğunun artırılması gerektiğini açıklıyor. Ancak, mektubun gerekli teknik nüanstan yoksun olduğunu ve dikkatli hareket etmenin ve sıkı güvenlik protokollerinin sorunu çözmenin daha uygun yolları olduğunu da ekliyor. Altman ayrıca açık olmakla bazen yanlış bir şey söylemek arasındaki dengeden bahsediyor ve insanların olumlu ve olumsuz yanlarını deneyimlemesi ve anlaması için bu sistemleri kusurlu da olsa dünyaya sunmanın ödün vermeye değer olduğunu vurguluyor. Son olarak Altman, kod üretimi için LLMS'nin kullanımını ve bunun mühendisin performansı üzerindeki etkisini tartışıyor.

  • 00:20:00 Bu bölümde Sam Altman, yapay zekanın kişisel gelişiminde "kalkış" kavramını tartışıyor. Bunun ani ve patlayıcı bir şekilde olmayacağına, bunun yerine insanların AI araçlarının yardımıyla AI'nın geliştirilmesinde itici güç olmaya devam edeceğine inanıyor. Altman, insanlar daha iyi ve daha hızlı araçlar geliştirdikçe dünyadaki değişim oranının sonsuza kadar artacağını, ancak bunun bilim kurgu kitaplarındaki gibi olmayacağını belirtiyor. Son olarak, yeni altyapı inşa etmenin çok uzun zaman aldığına ve yapay zekanın kendini geliştirmesinde bir gecede devrim olmayacağına dikkat çekiyor.
Breakthrough potential of AI | Sam Altman | MIT 2023
Breakthrough potential of AI | Sam Altman | MIT 2023
  • 2023.05.08
  • www.youtube.com
Sam, the CEO of OpenAI, discusses the breakthrough potential of AI for humanity with David Blundin @linkventures Lex Fridman @lexfridman & John Werner. Sam...
 

ChatGPT ve İstihbarat Patlaması



ChatGPT ve İstihbarat Patlaması

Bu animasyon, Three Blue One Brown'dan "manim" matematik animasyon kitaplığını kullanan kısa bir Python kodu kullanılarak oluşturulmuştur. Kod, karelerin iç içe geçtiği yinelemeli bir model olan bir kare fraktal oluşturur. Animasyon tamamen, programlar oluşturabilen bir yapay zeka programı olan Chat GPT tarafından yazılmıştır. Bu, manim kullanarak bir animasyon yaratmaya yönelik ilk girişimiydi.

Chat GPT'nin sınırlamaları olmasına ve ara sıra hatalarla karşılaşmasına veya beklenmeyen sonuçlar vermesine rağmen, yine de hata ayıklama ve eşli programlama için yararlı bir araçtır. Çoğu durumda Chat GPT, standart kod da dahil olmak üzere kodun çoğunu yazarken, insan programcı görsel yönlere ve ince ayarlara odaklanır.

Chat GPT'nin yaratıcı potansiyeli, animasyonun ötesine geçer. Herhangi bir insan revizyonu olmadan bir otoportre oluşturmak da dahil olmak üzere çeşitli yaratıcı kodlama zorlukları için kullanılmıştır. Chat GPT'nin programlama becerileri etkileyici olsa da, insan programcıların yerine geçmez ve en iyi şekilde onlarla işbirliği yaparken çalışır.

Animasyona ek olarak, Chat GPT, eski bir Evolution simülatörünün biyomorf adı verilen yükseltilmiş bir sürümünü uygulamak için kullanılmıştır. AI programı, tarayıcı için bir 3B kitaplık olan 3.js'yi kullanarak orijinal fikri yaratıcı bir şekilde genişletti. Biomorphs 3D'nin son sürümü, kodun çoğu Chat GPT tarafından yazılan ortak bir çabaydı.

Chat GPT, diğer yazılım programlarını yazabilen olağanüstü bir yazılımdır. Üzerinde eğitim aldığı dilleri, yöntemleri ve fikirleri akıllıca birleştirebilen bir programlama programıdır. Sınırlamaları olsa da programlama, hata ayıklama ve yaratıcı çözümler üretme için değerli bir araç olabilir.

Geleceğe bakıldığında, tam otomatik bir programcı olmak için Chat GPT'nin daha gelişmiş bir sürümünün veya farklı bir dil modelinin eğitilmesi düşünülebilir. Böyle bir yapay zeka, bir komut satırıyla etkileşime girebilir, dosyaları yazabilir, okuyabilir, çalıştırabilir, hata ayıklayabilir ve hatta insan yöneticilerle sohbet edebilir. Otonom programlama görevleri için deneysel yapay zeka aracıları zaten mevcuttur ve gelecekteki modeller bu yetenekleri daha da geliştirebilir.

Yapay zekayı yapay zeka oluşturma fikri ilgi çekicidir. Kendi kaynak koduna sahip bir AI programı sağlayarak, potansiyel olarak kendi kendini geliştirebilir ve kendi sürümünde yinelenebilir. Yarı düzgün bir programcıdan başlayarak yinelemeli bir kendini geliştirme süreci aracılığıyla, yapay zeka, zaman içinde yeteneklerini birleştirerek, iyileştirmelerini kademeli olarak hızlandırabilir. Uzak bir gelecekte, kendi kendini geliştiren bir yapay zeka, insan zekasını geride bırakabilir ve tamamen kavrayamayacağımız yeni algoritmalar, sinirsel mimariler ve hatta programlama dilleri yaratabilir. Bu, yapay zeka gelişiminin katlanarak ilerlediği bir zeka patlamasına yol açabilir.

ChatGPT and the Intelligence Explosion
ChatGPT and the Intelligence Explosion
  • 2023.05.12
  • www.youtube.com
#chatgpt is a program that can write programs. Could chatGPT write itself? Could it improve itself? Where could this lead? A video about code that writes cod...
 

ChatGPT ve AI Devrimi: Hazır mısınız?


ChatGPT ve AI Devrimi: Hazır mısınız?

Yapay zeka (AI), medeniyetimizin tarihindeki en büyük olay olma potansiyeline sahiptir, ancak aynı zamanda önemli riskler de taşımaktadır. Bu risklerle nasıl başa çıkacağımızı öğrenmezsek, insanlık için son olay olabilir. Yapay zeka da dahil olmak üzere bu teknolojik devrimin araçları, sanayileşmenin neden olduğu zararın bir kısmına çözümler sunabilir, ancak bunlara yalnızca dikkatli ve öngörülü yaklaşırsak.

Stephen Hawking, dikkatli adımlar atılması gerektiğini vurgulayarak, AI ile ilişkili riskler konusunda ünlü bir uyarıda bulundu. Kredi kartı bilgileri veya kimlik belgeleri gibi hassas bilgilere sahip bilgisayarlara güvenmek, günümüzün dijital çağında kaçınılmaz hale geldi. Ancak bilgisayarlar bu tür verileri işlemenin ötesine geçip haberler, TV şovları oluşturmaya ve hatta hastalıkları teşhis etmeye başlasaydı ne olurdu? Bu beklenti, güven ve makinelere güvenme hakkında soruları gündeme getiriyor.

Her iş sektörü yapay zekanın gücüyle dönüştürülmenin eşiğinde ve sohbet GPT sadece başlangıç. Teknoloji korkusu yeni değil; bir asırdan fazla bir süredir bilim kurguda tasvir edilmiştir. Ancak şimdi, bu uyarılar her zamankinden daha makul görünüyor. Hepsi tercihlerimizi tahmin eden ve karşılayan algoritmalarla desteklenen Uber, TikTok ve Netflix gibi teknolojileri benimsedik. Ancak sohbet GPT, yazma, sanat, kodlama ve muhasebe gibi alanlarda insan üstünlüğüne meydan okuyarak bunu tamamen yeni bir düzeye taşıyor.

Uzun zamandır belirgin bir insan özelliği olarak kabul edilen dil, şimdi makineler tarafından kopyalanıyor. Bilgisayarları insan benzeri zeka sergilemeye zorlayan Alan Turing'in ünlü Turing testi, o zamanlar abartılı görünüyordu. Ancak derin öğrenmedeki gelişmelerle birlikte makineler, satranç oynamaktan araba sürmeye kadar çeşitli alanlarda insanları geride bıraktı. Bir zamanlar insanlara özel olduğu düşünülen dil, artık yapay zekanın kavrayışı içinde.

openAI tarafından geliştirilen Chat GPT, AI yeteneklerinde önemli bir sıçramayı temsil ediyor. İnsan benzeri tepkiler oluşturmak için yapay sinir ağlarını, büyük miktarda veriyi ve doğal dil işlemeyi kullanan bir sohbet robotudur. Her yinelemede sistem, anlayışını ve çıktısını geliştirmek için milyarlarca parametre ile daha güçlü hale geldi. İnsan düşüncesine çok benzeyen ayrıntılı ve düşünceli tepkiler yaratma yeteneğine sahiptir.

Sohbet GPT'sinin uygulamaları çok geniş ve çeşitlidir. Müşterilere yardımcı olan, beyin fırtınası yapan, metinleri özetleyen ve kişiselleştirilmiş içerik üreten sanal bir asistan olarak hizmet verebilir. İşletmeler, azaltılmış işçilik maliyetlerinden ve iyileştirilmiş müşteri deneyimlerinden yararlanabilir. Ancak, sohbet GPT'sinin sınırlamaları vardır. İnternete erişimi yok, bu da yanıtlarını zaman zaman yanlış yapıyor. Ayrıca bilgilerin doğrulanmasında ve karmaşık mantıksal sorunların üstesinden gelinmesinde zorluklarla karşılaşır.

Sohbet GPT'si çeşitli alanlarda devrim yaratma potansiyeline sahip olsa da, konuşlandırılması etik kaygıları artırıyor. Örneğin öğrenciler, bunu ödevlerde kısmak için kullanabilir ve intihal tespit yazılımına güvenen eğitimciler için zorluklar ortaya çıkarabilir. Dahası, AI'nın gücü katlanarak artıyor ve bizi kontrolün zorlaştığı bir teknolojik tekilliğe doğru itiyor.

Sonuç olarak, sohbet GPT'si ile örneklenen yapay zekanın ortaya çıkışı hem hayranlık uyandırıyor hem de endişelendiriyor. Dünyamızı dönüştürme potansiyeline sahiptir, ancak ona dikkatli ve sorumlu bir yönetimle yaklaşmalıyız. Yapay zekanın yetenekleri hızla genişliyor ve biz bu yeni sınırı benimserken, insanların ve makinelerin uyumlu bir şekilde bir arada var olduğu bir geleceği garantilemek için etik, sosyal ve pratik çıkarımları ele almalıyız.

  • 00:00:00 Bu bölümde video, devam eden AI devriminin potansiyel risklerini ve ödüllerini vurgulamaktadır. Yapay zeka, sanayileşmenin yol açtığı hasarın geri alınmasına yardımcı olabilirken, bununla ilişkili risklerden nasıl kaçınacağımızı öğrenmezsek, insanlık için de önemli bir tehdit oluşturur. Video, her iş sektörünün nasıl insan üstünlüğünün ele geçirilmesine yol açabilecek yapay zeka tarafından yutulmanın eşiğinde olduğunu açıklamaya devam ediyor. Teknoloji, yazmadan muhasebeye kadar insan benzeri içerik üretme gücüne sahip ve bu da bizi gerçekten düşünen bir makineye biraz daha yaklaştırıyor. AI, dünyamızla ilgili her şeyi yeniden tanımlama potansiyeline sahip olsa da, bu, kimsenin gerçekten hazır olmadığı yeni bir sınırdır.

  • 00:05:00 Bu bölümde anlatıcı, bir zamanlar dilin yalnızca insanlara ait olduğuna inanıldığını ve Alan Turing'in taklit oyununun bilgisayarları doğal dilde sorunsuz bir şekilde iletişim kurarak bir Turing testini geçmeye nasıl zorladığını açıklıyor. Henüz Turing testi geçilmemişken derin öğrenme, insan yapımı oyunlarda insanı mağlup eden ve sürücüsüz araba, yüz tanıma, protein katlama gibi alanlarda ilerleyen yapay sinir ağlarının ortaya çıkmasına neden oldu. Yapay Zeka Devrimi şimdiden burada ve teknolojideki her sıçrama arasındaki süre giderek küçülüyor ve hızlanıyor. Anlatıcı ayrıca, makine öğreniminden yararlanan ve gelecek için hem ürkütücü hem de şaşırtıcı olanaklara sahip, geniş çapta erişilebilir bir araç olan ChatGPT'yi de tanıtıyor.

  • 00:10:00 Bu bölümde, en son ürünleri Chat GPT dahil olmak üzere OpenAI ve devrim niteliğindeki yapay zeka teknolojileri hakkında bilgi ediniyoruz. Bu gelişmiş sohbet robotu, kullanıcıların sorularına insan benzeri yanıtlar oluşturmak için çok büyük miktarda internet verisi, doğal dil işleme ve pekiştirmeli öğrenmeden yararlanır. Sohbet niteliğindeki doğasıyla Chat GPT, sanal yardımda, içerik oluşturmada ve çok daha fazlasında devrim yaratma konusunda sınırsız potansiyele sahiptir. Program, DALL-E 2.0 aracılığıyla basit yazılı girdilerden fotogerçekçi görüntüler oluşturma ve GPT-3 aracılığıyla karmaşık görsel sanat karmaları oluşturma becerisiyle dünyayı şimdiden etkiledi. OpenAI'nin trilyonlarca parametreye sahip olacağını tahmin ettiği GPT-4'ün gelecekteki sürümüyle, yapay zeka teknolojilerinin gücü yalnızca artmaya devam edebilir.

  • 00:15:00 Bu bölümde video, AI dil modeli ChatGPT'nin avantajlarını ve sınırlamalarını tartışıyor. İşletme sahipleri ve yöneticileri, ChatGPT'nin işçilik maliyetlerini azaltma ve müşteri deneyimlerini kişiselleştirme yeteneğinden yararlanabilirken, doğruluğu konusunda sınırlamalar vardır. Araç internete bağlı değildir ve bir arama motoru kullanmaz, bu da son derece yanlış ve anlamsız yanıtlara yol açar. Bu, tıbbi bilgi verirken tehlike oluşturur ve okullar için ödev yazarken sorunlara neden olabilir. Öğrenciler, kompozisyon yazmak ve soruları yanıtlamak için ChatGPT'yi kullanarak kolayca kopya çekebilir, bu da NYC okullarının aracı yasaklamasına yol açar. İşin iyi tarafı, Yaratıcı OpenAI, sistemleri tarafından metnin ne zaman üretildiğini tespit etmek için yazılım geliştiriyor ve AI'nın yetenekleri ve sınırlamaları söz konusu olduğunda sadece yüzeyi çizdiğimizi gösteriyor.

  • 00:20:00 Bu bölümde, transkript, ChatGPT'nin siber suçlular tarafından hâlihazırda kullanılmakta olan, yanlış bilgi üretimi ve gerçek bireylerin davranışlarını taklit edebilen sahte insan benzeri kişiliklerin yaratılması dahil olmak üzere daha karanlık kullanımlarını vurgulamaktadır. ChatGPT daha erişilebilir hale geldikçe, yazma, yaratıcı endüstriler ve iş başvuruları da dahil olmak üzere bir dizi sektör üzerinde geniş kapsamlı etkilere sahip olacağı tahmin edilmektedir. Bazıları aracı üretkenliği artırabilecek bir yazma yardımcısı olarak görürken, diğerleri bunun çalışanların yerinden olmasına yol açacağından ve akademik dürüstlük, sahte haberler ve yanlış bilgilendirme ile ilgili sorunları daha da kötüleştireceğinden korkuyor.

  • 00:25:00 Bu bölümde, Stanford Üniversitesi araştırmacısı John Jay nay tarafından yürütülen bir araştırmanın, avantajı belirlemek için %75 doğruluk oranına sahip olduğu için sohbet GPT'nin milyarlarca dolarlık kurumsal lobicilik endüstrisinin yerini alabileceğini öne sürdüğü belirtiliyor. belirli bir şirket için mevzuatın Ancak, mevzuat için sohbet GPT gibi programlara güvenmek vatandaşların çıkarlarından uzaklaşabilir. OpenAI, verilerin nereden çekildiğini kontrol ettiğinden, sohbet GPT'sinin tam olarak kime hizmet ettiğini sormak önemlidir; bu, sohbet GPT'sini kendi çıkarlarına hizmet edecek şekilde geliştirmek anlamına gelebilecek çok büyük bir güçtür. Microsoft, kullanıcıların daha hızlı içerik oluşturmasına yardımcı olmak için OpenAI araçlarını ofis paketine dahil etme fikrini şimdiden gündeme getirdi ve GPT-3'ün özel haklarıyla OpenAI'ye yatırım yaptı. Bununla birlikte, AI devralırsa, tüm zor işleri yapabilirken, insanların rahatlamak için daha fazla zamanı olur ki bu sahip olunabilecek en iyimser bakış açısıdır.
ChatGPT & the AI Revolution: Are You Ready?
ChatGPT & the AI Revolution: Are You Ready?
  • 2023.03.27
  • www.youtube.com
Explore how ChatGPT is revolutionizing the world, and learn how it's transforming the way we live, work, and connect. Whether you're a business owner, entrep...
 

Sam Altman AI, Elon Musk, ChatGPT, Google ile Konuşuyor…


Sam Altman AI, Elon Musk, ChatGPT, Google ile Konuşuyor…

AI güvenliği konusunda derinden endişe duyduğunu iddia eden kişilerin çoğu, Twitter'da somut adımlar atmak yerine endişelerini dile getirmek için zaman harcıyor gibi görünüyor. Yazar, bu konuda eşsiz ve etkili bir karakter olan Elon Musk gibi figürlerin neden daha fazla olmadığını merak ediyor. OpenAI CEO'su Sam Altman ile Stripe'ın kurucu ortağı ve CEO'su Patrick Collison tarafından yürütülen bir röportajda, birkaç önemli çıkarım tartışılıyor.

  1. Altman, e-posta ve Slack özetleme için kişisel olarak GPT'yi kullanır ve gelecekte daha iyi eklentilere olan ihtiyacı vurgular.
  2. Altman, ara sıra göz atma ve kod yorumlayıcı eklentileri kullandığını kabul ediyor, ancak bunların onun için henüz günlük alışkanlıklar haline gelmediğine inanıyor.
  3. Altman, akıllı AI modelleri tarafından sentetik veriler üretilebildiği sürece, giderek daha büyük modeller için eğitim verisi sıkıntısı yaşanmaması gerektiğine inanıyor. Ancak, yeni tekniklere olan ihtiyacı kabul ediyor.
  4. Altman, yapay zeka modelleri için pekiştirmeli öğrenmede insan geri bildiriminin önemini ifade ediyor ve yetenekli mezun öğrenciler arasında potansiyel bir rekabete yol açan geri bildirim sağlamak için akıllı uzmanlara duyulan ihtiyacın altını çiziyor.
  5. Altman, Çin'in yapay zeka yetenekleri hakkındaki yanlış anlamaları tartışarak, abartılı iddialara güvenmek yerine karmaşık uluslararası ilişkiler hakkında incelikli bir anlayışa sahip olmanın gerekli olduğunu öne sürüyor.
  6. Altman, hem yetenekli açık kaynaklı yapay zeka modelleri hem de büyük ölçekli kümeler tarafından yönlendirilen ilerlemelerle bir gelecek öngörüyor ve yapay zeka ile ilişkili potansiyel riskleri ele almak için zaman tanıyor.
  7. Röportaj, Facebook'un AI stratejisine değiniyor ve Altman, şirketin yaklaşımının biraz belirsiz olduğunu ancak gelecekte daha tutarlı bir strateji beklediğini öne sürüyor.
  8. Altman, yeni yapay zeka keşiflerinin, yapay zekanın varoluşsal riskleri hakkındaki endişelerini etkileyebileceğini kabul ediyor.
  9. Altman, araştırmacıların şu anda büyük dil modelleri hakkında sahip olduğu sınırlı bilgiye vurgu yaparak, yalnızca insan geri bildirimlerine güvenmek yerine yapay zeka modellerinin iç yapılarını daha derinlemesine anlama ihtiyacını ifade ediyor.
  10. Altman, Twitter'daki AI güvenlik tartışmalarına odaklanmayı eleştiriyor ve AI sistemlerini güvenli ve güvenilir hale getirmek için aktif olarak çalışmaya daha fazla teknik uzman çağırıyor.
  11. Altman, insanların AI ile etkileşime insanlardan daha fazla zaman harcamasının potansiyel sonuçlarını tartışıyor ve insan-AI etkileşimleri için toplumsal normlar oluşturma ihtiyacını vurguluyor.
  12. Altman, çok sayıda yapay zeka sisteminin insanlarla bir arada var olduğu bir geleceği tasavvur ediyor ve bunu, yapay zekanın yardımcı olduğu, etkileşimli olduğu ve tekil bir süper zeka tehdidi oluşturmadan topluma entegre olduğu bilim kurgu filmlerine benzetiyor.
  13. Altman, dünyanın en iyi araştırma kuruluşu olmayı ve paradigma değişimlerini yönlendirmeyi hedefleyen OpenAI'nin kârdan çok araştırmaya odaklandığını vurguluyor.
  14. Altman, OpenAI'nin dönüştürücü bir katkısı olarak GPT paradigmasının önemini vurguluyor.
  15. Altman, Google'ın şirketi yeniden tasarlama ve yapay zekanın olanaklarına uyarlama konusundaki son çabalarını övüyor.
  16. Altman, GPT gibi AI modellerinin aramayı değiştireceğini ancak varlığını tehdit etmeyeceğini öne sürerek, Google'ın AI ilerlemelerine verdiği yanıtın başarılarını belirleyeceğini belirtiyor.
  17. Altman, mizahi bir şekilde, çok fazla AI ürünü kullanmadığından, ancak günlük olarak kullandığı tek AI ürünü olarak GPT'ye güvendiğinden bahsediyor.
  18. Altman, bilgisayarını kontrol eden ve çeşitli görevleri yerine getiren yapay zeka destekli bir yardımcı pilot arzusunu paylaşıyor.
  19. Altman, Elon Musk gibi bireylerin benzersiz olduğuna ve kopyalanmasının zor olduğuna inanarak Musk'ın istisnai niteliklerini vurguluyor.
  20. Altman, uzun süredir tanıdığı, projelere kattıkları sürekliliğe ve ortak geçmişe değer veren insanlarla çalışmayı tercih ediyor.
  21. Altman, AI kullanan bir yatırım aracının olağanüstü performans elde edebileceğini ve potansiyel olarak Renaissance Technologies gibi hedge fonları bile geride bırakabileceğini öne sürüyor.
  22. Altman, Microsoft'un AI entegrasyonu yoluyla işinin çeşitli yönlerinde bir dönüşüm geçirmesini bekliyor.
  23. Altman, insan geri bildirim sürecinden pekiştirmeli öğrenmenin istenmeyen sonuçlara yol açabileceğini ve potansiyel olarak yapay zeka modellerine zarar verebileceğini kabul ediyor.
Sam Altman Talks AI, Elon Musk, ChatGPT, Google…
Sam Altman Talks AI, Elon Musk, ChatGPT, Google…
  • 2023.05.16
  • www.youtube.com
Are you a Video Editor? Click here - https://forms.gle/Dwvf6zXrukVHdWx2APlease Subscribe :)The full interview: https://youtu.be/1egAKCKPKCkCredits: @Sohn Con...
 

Veri Bilimi Eğitimi - Veri Bilimi Tam Kursunu Öğrenin [2020]  (1-3)


Veri Bilimi Eğitimi - Veri Bilimi Tam Kursunu Öğrenin [2020]

Bölüm 1

  • 00:00:00 Veri Bilimi, uygulamalı ortamlarda kodlama, matematik ve istatistik araçlarını kullanarak yaratıcı problem çözme ile ilgilenen bir alandır. Araştırma sorularına ilişkin daha iyi içgörü elde etmek için tüm verileri dinlemeyi ve analizde daha kapsayıcı olmayı içerir. Bu alan, rekabet avantajı sağladığı ve etrafımızda olup bitenlere dair içgörü sağladığı için yüksek talep görmektedir. McKinsey Global Institute, derin analitik yetenek pozisyonlarına ve iş kararları vermek için verileri anlayan yöneticilere ve analistlere duyulan ihtiyacı öngördü.

  • 00:05:00 Video, veri meraklısı yöneticiler için öngörülen 1,5 milyon açık pozisyon göz önüne alındığında, hem uzmanları hem de genel uzmanları içeren veri bilimine yönelik yüksek talebi ve kritik ihtiyacı tartışıyor. Drew Conway tarafından oluşturulan Veri Bilimi Venn Şeması, kodlama, matematik/istatistik ve alan uzmanlığının veri biliminin üç bileşeni olduğunu ve bunların kesişiminin alanı oluşturduğunu göstermektedir. Kodlamanın önemi, R, Python, SQL ve Bash gibi temel dillerle yeni kaynaklardan veri toplama ve hazırlama becerisinde yatmaktadır. Bölüm, veri biliminin nasıl zorlayıcı bir kariyer alternatifi olduğundan ve kişiyi hangi alanda olursa olsun daha iyi hale getirebileceğinden bahsederek sona eriyor; veri bilimcileri, ABD'de en yüksek maaş ödeyen ilk on maaş arasında üçüncü sırada yer alıyor.

  • 00:10:00 Video, veri bilimi Venn şemasının üç bileşenini tartışıyor: bilgisayar korsanlığı becerileri, matematik ve istatistik bilgisi ve etki alanı uzmanlığı. Video, bunlar birbiriyle örtüşürken, pratik bir şey başarmak için üçünü de başarılı bir şekilde kullanma yeteneğinin önemli olduğunu açıklıyor. Video, diyagramla örtüşen ve kesişen üç farklı alanı keşfetmeye devam ediyor: geleneksel araştırma, makine öğrenimi ve "tehlike bölgesi" veya matematik veya istatistik olmadan kodlama ve alan bilgisinin kesişimi. Ayrıca video, veri biliminde önemli olan üç farklı arka planı vurgular: kodlama, istatistik ve belirli bir alandaki arka plan. Video, veri biliminde yer alan birçok rolün olduğunu ve bir veri bilimi projesini başarıyla tamamlamak için çeşitli becerilere ve geçmişlere ihtiyaç duyulduğunu vurgulayarak sona eriyor.

  • 00:15:00 Veri bilimi yolunun genel adımları açıklanır. Bu adımlar planlama, veri hazırlama, modelleme veya istatistiksel modelleme ve takibi içerir. Planlama, proje hedeflerini tanımlamayı, kaynakları organize etmeyi, insanları koordine etmeyi ve bir program oluşturmayı içerir. Veri hazırlığı, verileri almayı ve temizlemeyi, keşfetmeyi ve iyileştirmeyi içerir. Modelleme veya istatistiksel modelleme sırasında, istatistiksel modeller oluşturulur, doğrulanır, değerlendirilir ve rafine edilir. Takip, modeli sunmayı ve dağıtmayı, ne kadar iyi performans gösterdiğini görmek için yeniden ziyaret etmeyi ve varlıkları arşivlemeyi içerir. Veri biliminin yalnızca teknik bir alan olmadığı, planlama, sunum ve bağlamsal beceriler gerektirdiği belirtiliyor. Ek olarak, arka uç donanımına odaklanan mühendisler de dahil olmak üzere veri biliminde farklı roller mevcuttur.

  • 00:20:00 Video, veri bilimine dahil olan farklı insan türlerini tartışıyor. Bunlar, veri biliminin temelini oluşturan geliştiricileri, yazılım geliştiricileri ve veritabanı yöneticilerini içerir. Büyük veri uzmanları, büyük miktarda veriyi işlemeye ve öneri sistemleri gibi veri ürünleri oluşturmaya odaklanır. Araştırmacılar, alana özgü araştırmalara odaklanır ve güçlü istatistik becerilerine sahiptir. Analistler, bir işi yürütmenin günlük görevlerinde hayati bir rol oynarken, girişimciler verilere ve iş becerilerine ihtiyaç duyar. Son olarak video, veri bilimindeki ekiplerden ve tüm veri bilimi becerilerine sahip "tam yığın tek boynuzlu atların" nasıl olmadığından bahsediyor. Bunun yerine, insanların farklı güçleri vardır ve projeleri tamamlamak için bir ekip içinde nasıl verimli çalışılacağını öğrenmek önemlidir.

  • 00:25:00 Bir kişi tipik olarak bir proje için gerekli tüm becerileri kapsayamayacağından, veri biliminde ekip çalışmasının önemi vurgulanır. Otto ve Lucy adlı iki hayali insan örneği, yeteneklerini birleştirmenin bir veri bilimi projesi için gerekli kriterleri karşılayabilecek bir "tek boynuzlu at ekibi" yaratabileceğini göstermek için kullanılır. Ek olarak, veri bilimi ile büyük veri arasındaki ayrım, Venn diyagramlarının yardımıyla araştırılır. Büyük verilerin, alan uzmanlığı ve istatistiksel analiz gibi veri biliminin tüm araçlarını gerektirmeyebileceği, ancak yine de kodlama ve nicel beceriler gerektirdiği açıklanmaktadır. Tersine, veri bilimi büyük veri olmadan yapılabilir, ancak yine de büyük verinin üç özelliğinden en az birini gerektirir.

  • 00:30:00 Konuşmacı, büyük veri ile veri bilimi arasındaki farkı ve ayrıca veri bilimi ile bilgisayar programlama arasındaki farkı tartışıyor. Konuşmacı, büyük verinin ya hacim, hız ya da veri çeşitliliği anlamına geldiğini, veri biliminin ise bu üçünü birleştirdiğini ve kodlama, istatistik, matematik ve alan uzmanlığı gibi daha özel beceriler gerektirdiğini açıklıyor. Bu arada, bilgisayar programlama, veri biliminde gereken karmaşık analizden farklı olarak, makinelere görev talimatları vermeyi içerir. Kodlama ile ilgili bazı araç ve uygulamaları paylaşmasına rağmen, veri bilimi güçlü bir istatistiksel temel gerektirir.

  • 00:35:00 Veri bilimi ile istatistik arasındaki fark açıklanır. Prosedürleri paylaşsalar da, çoğu veri bilimci resmi olarak istatistikçi olarak eğitilmediğinden veri bilimi, istatistiğin bir alt kümesi değildir. Ek olarak, makine öğrenimi ve büyük veriler, veri bilimi için istatistiklerin çoğuyla paylaşılmayan önemli alanlardır. İstatistikçilere kıyasla genellikle ticari ortamlarda çalışan veri bilimcilerle çalışma bağlamlarında da farklılık gösterirler. Verilerin analizini paylaşırken, görünürdeki örtüşmeye rağmen onları kavramsal olarak farklı alanlar yapan farklı nişlere ve hedeflere sahiptirler. BI çok uygulandığı ve kodlama içermediği için iş zekası veya BI da veri bilimiyle karşılaştırılır.

  • 00:40:00 Eğitmen, veri bilimi ve iş zekası (BI) arasındaki ilişkiyi açıklar. BI, öncelikle alan uzmanlığına vurgu yaparak basit ve etkili veri analizine odaklanır. Ancak veri bilimi, veri kaynaklarını belirleyerek ve daha karmaşık veri analizi sağlayarak BI sistemlerinin kurulmasına ve genişletilmesine yardımcı olabilir. Ek olarak, veri bilimi uygulayıcıları, BI uygulamalarından tasarım ve kullanılabilirlik hakkında bilgi edinebilirler. Eğitmen ayrıca gizlilik, anonimlik ve telif hakkı endişeleri dahil olmak üzere veri bilimindeki etik konulara değinerek veri gizliliğini ve gizliliğini korumanın önemini vurgular.

  • 00:45:00 Konuşmacı, veri bilimi projelerinde yer alan risklerden bahsediyor. Bilgisayar korsanları değerli verileri çalmaya çalışabileceğinden, bu tür risklerden biri veri güvenliğidir. Diğer bir risk de, veri biliminde kullanılan algoritmalar ve formüllerde cinsiyet veya ırk gibi faktörlere dayalı kasıtsız ayrımcılığa yol açabilen önyargı potansiyelidir. Analizlerde yanlış yola gidilmesine neden olabilecek aşırı güven de bir başka risktir. Bu risklere rağmen, veri bilimi muazzam bir potansiyele sahiptir ve konuşmacı, veri kaynağı bulma, kodlama, matematik, istatistikler ve makine öğrenimi dahil olmak üzere veri biliminde kullanılan yöntemlere ilişkin kısa bir genel bakış sunar ve içgörüye, kullandıkları araçlara ve teknolojiye odaklanır. bu hedefi ilerletmeye hizmet eder.

  • 00:50:00 Eğitim videosu, veri biliminde kullanılan farklı veri kaynağı bulma yöntemlerini tartışır ve veri kalitesini değerlendirmenin önemini vurgular. Bu yöntemler, mevcut verileri, veri API'lerini kullanmayı, web verilerini kazımayı ve anketler veya deneyler yoluyla yeni veriler oluşturmayı içerir. Toplanan verilerin kalitesini değerlendirmek önemlidir, çünkü kötü veriler zayıf içgörülere yol açtığından "çöp içeri, çöp dışarı". Bu nedenle, verilerin alaka düzeyini, doğruluğunu ve anlamını kontrol etmek gerekir ve iş ölçümleri, KPI'lar ve sınıflandırma doğruluğu gibi ölçümler bu konuda yardımcı olabilir. Veri bilimi yöntemlerindeki bir sonraki adım, veride ustalaşmak için veriye girmeyi içeren kodlamadır. Bununla birlikte, kodlamanın veri biliminin yalnızca bir parçası olduğunu ve veri biliminin teknik prosedürlerden daha fazlası olduğunu unutmamak önemlidir.

  • 00:55:00 Anlatıcı, veri bilimiyle ilgili üç araç kategorisini açıklıyor: uygulamalar, veri formatları ve kod. Bazı yaygın araçlar, birçok görevi gerçekleştirebilen Excel ve R'yi içerir. Ancak anlatıcı, araçların yalnızca bir amaca ulaşmak için bir araç olduğunu ve veri biliminin en önemli kısmının hedefi anlamak ve bu hedefe ulaşmak için doğru araçları ve verileri seçmek olduğunu vurgular. Anlatıcı daha sonra veri biliminde matematiğin rolüne kısaca değinir; bilgisayarlar birçok matematiksel prosedürü gerçekleştirebilse de, bilinçli seçimler sağladığı, işler ters gittiğinde hata ayıklamaya izin verdiği ve bazen manuel hesaplamalar daha kolay ve hızlı olabildiği için matematiksel bir anlayışa sahip olmak yine de önemlidir.

Bölüm 2

  • 01:00:00 Konuşmacı, veri bilimi için bazı temel matematik bilgilerine sahip olmanın önemini tartışıyor. Cebirin temelleri, doğrusal veya matris cebiri, doğrusal denklem sistemleri, Calculus, büyük O, olasılık teorisi ve Bayes teoreminin tümü veri bilimiyle ilgilidir. Biraz matematik bilgisi, problem çözme ve problemlere bakma becerisi konusunda yardımcı olabilir. Konuşmacı daha sonra keşif grafikleri ve istatistikleri dahil olmak üzere veri bilimindeki istatistiklere ve hipotez testi ve tahminler gibi çıkarımlara kısa bir genel bakış sunar. Konuşmacı ayrıca özellik seçimi, doğrulama ve tahmin edicilerin seçimi gibi bazı potansiyel sorunlardan da bahseder, ancak izleyiciyi troller konusunda uyarır ve faydalı analizler yapmak için kendi başlarına bilinçli kararlar almaları konusunda uyarır.

  • 01:05:00 Konuşmacı, istatistik ve makine öğrenimi kavramlarını özetler. İstatistiklerin, verilerin araştırılmasına ve tanımlanmasına ve ayrıca nüfus hakkında çıkarım yapılmasına izin verdiğini belirtir. Makine öğrenimi vakaları kategorize etmek, puanları tahmin etmek ve büyük, dağınık veri kümelerinin boyutsallığını azaltmak için kullanılan bir araçtır. Amaç, verilere ilişkin faydalı içgörüler elde etmektir ve görselleştirme ve iletişim, insanları değere ulaşmak için veri odaklı bir hikayede yönlendirmek için gereklidir. Değer denklemi, analiz çarpı hikayedir, bu nedenle teknik analize ek olarak hikaye anlatımına ve iletişime odaklanmak önemlidir.

  • 01:10:00 Video, hedef odaklı bir analizin önemini ve müşterilerin kolayca anlayabileceği bir şekilde iletişim kurmanın ne kadar önemli olduğunu tartışıyor. Konuşmacı, analistin projeyi danışanlar için basit bir şekilde anlaşılır kılmak için benmerkezcilikten, yanlış fikir birliğinden ve çıpalamadan kaçınması gerektiğini vurgular. Video, analizi sunma açısından basitleştirmenin önemini vurgulamaktadır. Video, analizi sunmak için metin yerine tabloların ve tabloların kullanıldığını ve analistin yalnızca gerektiğinde teknik ayrıntıları sunması gerektiğini öne sürüyor. Ardından video, verileri basitleştirilmiş bir şekilde sunmanın doğru yolunu göstermek için Berkeley Üniversitesi'ndeki 1973 lisansüstü okul kabulleriyle ilgili bir veri kümesi örneği veriyor.

  • 01:15:00 Eğitmen, önyargının departman düzeyinde önemsiz olabileceği, ancak tüm veri kümesi dikkate alındığında önemli olabileceği Simpson Paradoksu kavramını açıklıyor. Berkeley'in kabul kayıtları örneği, kadınların daha düşük bir kabul oranına sahip olduğunu gösterdi; ancak bu, kadınların daha seçici programlara, kabul oranlarının daha düşük olduğu programlara başvurmasından kaynaklanıyordu. Eğitmen, kabul kriterlerini, terfi stratejilerini, önceki eğitimi ve farklı programların finansman düzeylerini incelemek gibi yüzeysel analizin ötesinde takip soruları sormanın önemini vurgular. Veri analizinin nihai hedefi, karar vermeye rehberlik edebilecek ve müşteri için belirli bir hedefe ulaşabilecek eyleme dönüştürülebilir içgörüler sağlamaktır. Bu nedenle, önerileri verilerle gerekçelendirmek ve bunların yapılabilir ve müşterinin yetenek aralığında olduğundan emin olmak önemlidir.

  • 01:20:00 Korelasyon ve nedensellik arasındaki temel fark açıklanır. Veriler korelasyon sağlarken, müşteriler deneysel çalışmalar, yarı deneyler ve araştırmaya dayalı teori ve alana özgü deneyim yoluyla elde edilebilecek bir şeye neyin neden olduğunu bilmek isterler. Ek olarak, müşterinin misyonu ve kimliği, iş ve düzenleyici ortam ve kuruluş içindeki ve dışındaki sosyal bağlam dahil olmak üzere sosyal faktörler de dikkate alınmalıdır. Keşif grafikleri basit ve analistin yararına olacak şekilde sunum grafikleri de tartışılırken, sunum grafikleri renk, yanlış boyutlar, etkileşim ve animasyon gibi dikkat dağıtıcı unsurları önlemek için netlik ve anlatım akışı gerektirir.

  • 01:25:00 Konuşmacı, verileri görselleştirirken ne yapılmaması gerektiğini göstermek için örnekler kullanır ve ardından açık ve etkili şemalardan örnekler verir. Sunum grafiklerinde bir anlatım akışı yaratmanın önemini vurguluyorlar ve bunu okuması kolay ve basit çizelgeler kullanarak nasıl başaracaklarını açıklıyorlar. Sunum grafiklerinin genel amacı, bir hikaye anlatmak ve verileri açık ve etkili bir şekilde iletmektir. Konuşmacı, bu amaca ulaşmak için sunum grafiklerinin net ve odaklanmış olması gerektiğini vurgular.

  • 01:30:00 Konuşmacı, sonuçları doğrulamak için gelecekte bir projeyi yeniden üretebilme fikri olan veri biliminde tekrarlanabilir araştırmanın önemini vurgular. Bu, süreçte kullanılan tüm veri setlerinin ve kodların arşivlenmesi, bunların özel olmayan biçimlerde saklanması ve açıklama yoluyla araştırmayı şeffaf hale getirilmesi yoluyla elde edilir. Açık Bilim Çerçevesi ve Açık Veri Bilimi Konferansı'ndan da araştırmaları başkalarıyla paylaşmak ve hesap verebilirliği teşvik etmek için kaynaklar olarak bahsedildi. Konuşmacı, süreçleri açıklamak ve gelecekteki iş arkadaşlarına veya müşterilere aktarılabilecek güçlü bir anlatım oluşturmak için Jupyter not defterlerini veya RMarkdown'u dijital not defterleri olarak kullanmayı önerir.

  • 01:35:00 Konuşmacı, çalışmaları arşivlemek ve işbirliğini desteklemek için RMarkdown kullanımını tartışıyor. R analizi, biçimlendirilmiş başlıklar, metin ve R Pub'lara yüklenebilen ve başkalarıyla paylaşılabilen R çıktısı olarak görüntülenebilir. Çalışmanızı geleceğe hazırlamak için seçimlerinizi açıklamanız, bunu nasıl yaptığınızı göstermeniz ve hikayenizi paylaşmanız önemlidir, böylece insanlar sürecinizi ve sonuçlarınızı anlayabilir. Konuşmacı, izleyiciler için R veya Python'da kodlamayı deneme, veri görselleştirme, istatistik ve matematik bilgilerini tazeleme, makine öğrenimini deneme, veri bilimi topluluğuna dahil olma ve hizmet verme gibi sonraki adımları önerir. Konuşmacı, veri bilimi temelde demokratik olduğundan, herkesin verilerle akıllıca ve duyarlı bir şekilde çalışmayı öğrenmesinin önemini vurgulayarak sözlerini bitiriyor.

  • 01:40:00 Eğitmen, veri bilimi projelerinde başarı ölçütlerini tanımlamanın önemini tartışır. Hedeflerin açık olması gerektiğini ve genel çabayı yönlendirerek dahil olan herkesin daha verimli ve üretken olmasına yardımcı olması gerektiğini açıklıyor. Eğitmen, başarı ölçütlerini tanımlamak için, projenin yer aldığı belirli alanı veya sektörü anlamanın önemli olduğunu belirtiyor. Bu, diğerlerinin yanı sıra satış geliri, tıklama oranları, test puanları ve elde tutma oranları gibi ölçümleri içerebilir. Ek olarak, tartışma, her ikisi de kuruluşların ve ekiplerin başarı ölçütlerini açık ve ölçülebilir bir şekilde tanımlamalarına yardımcı olabilecek temel performans göstergelerini (KPI'lar) ve SMART hedeflerini kapsar.

  • 01:45:00 Başarı için ölçülebilir kurumsal hedefler ve ölçütler oluşturmanın önemi tartışılır. Başarıyı tanımlarken ve ilerlemeyi ölçerken, belirlenen hedefler konusunda gerçekçi, spesifik ve zamana bağlı olmak önemlidir. Ancak, çelişkili olabilecek birden fazla hedefi dengelemek söz konusu olduğunda, ideal çaba dengesini optimize etmeniz ve bulmanız gerekir. Ölçümlerin doğruluğu da çok önemlidir ve bir sınıflandırma tablosu oluşturmak, hassasiyet, özgüllük, pozitif tahmin değeri ve negatif tahmin değeri dahil olmak üzere testlerin doğruluğunu belirlemeye yardımcı olabilir. Bu metrikler, örneğin yangın sırasında bir alarmın çalıp çalmadığını veya yangın olmadığında alarmın doğru tanımlayıp tanımlamadığını ölçmek gibi doğruluğu farklı şekilde tanımlar.

  • 01:50:00 Eğitmen, veri sağlamada ölçümün sosyal bağlamını anlamanın önemini vurgular. İnsanların, ölçümün doğruluğunu etkileyen kendi hedefleri ve duyguları vardır. Kuruluşların, hedeflere ulaşma yollarını sınırlayan kendi iş modelleri, yasaları, politikaları ve kültürel uygulamaları vardır. Hem organizasyonlar arasında hem de organizasyon içinde rekabet vardır ve insanlar ödül sistemlerini kendi çıkarlarına göre manipüle etme eğilimindedir. Bu sorunlara rağmen, özellikle şirket içi, açık ve üçüncü taraf verileri gibi mevcut verileri kullanarak, veri kaynağıyla iyi ölçümler elde etmek hala mümkündür.

  • 01:55:00 Konuşmacı, veri bilimi projeleri için mevcut olan farklı veri kaynakları türlerini ele alır. Şirket içi verilerin kullanımı hızlı ve kolaydır, ancak mevcut olmayabilir, dokümantasyon eksik olabilir ve kalitesi şüpheli olabilir. Data.gov gibi açık veri kaynakları, ücretsiz olarak kullanılabilen ve iyi belgelenmiş standartlaştırılmış veriler sağlar, ancak önyargılı örneklere ve gizlilik endişelerine sahip olabilirler. Üçüncü bir seçenek, tüketici davranışları ve tercihleri, pazarlama, kimlik ve finans dahil olmak üzere çeşitli konularda çok büyük miktarda veri sağlayan, ancak bunun bir bedeli olan Acxiom ve Nielsen gibi Hizmet Olarak Veri veya veri simsarlarıdır.

Bölüm 3

  • 02:00:00 Konuşmacı, veri kaynağı olarak veri aracılarını kullanmanın avantajlarını ve dezavantajlarını tartışıyor. Bireysel düzeydeki veriler, veri simsarlarından elde edilebilir, bu da tüketiciler hakkındaki belirli bilgilere erişimi kolaylaştırırken, pahalı olabilir ve yine de doğrulama gerekir. Alternatif olarak, API'ler web verilerini elde etmenin dijital bir yolunu sağlayarak programların birbirleriyle konuşmasına ve JSON formatında veri almasına olanak tanır. REST API'leri dilden bağımsızdır ve çeşitli programlama dillerine kolay entegrasyona izin verir; Visual API'ler ve Sosyal API'ler yaygın biçimlerdir. Konuşmacı, Ergast.com'dan Formula 1 araba yarışlarıyla ilgili geçmiş verileri elde etmek için RStudio'da bir API'nin kullanımını gösteriyor.

  • 02:05:00 Konuşmacı, veri bilimi için veri elde etmek üzere API'leri kullanmayı ve kazımayı tartışıyor. API'ler, analiz için doğrudan yazılım programlarına beslenebilen web sayfalarından yapılandırılmış verilerle çalışmanın hızlı ve kolay bir yoludur. Öte yandan kazıma, veriler yapılandırılmış biçimlerde hazır olmadığında web sayfalarından bilgi çekmeyi içerir. Ancak konuşmacı, kullanıcıları web kazıma ile ilgili telif hakkı ve gizlilik konularına dikkat etmeleri konusunda uyarıyor. import.io ve ScraperWiki gibi uygulamalar web kazıma için kullanılabilir, ancak kullanıcılar R, Python veya Bash gibi dilleri kullanarak kendi kazıyıcılarını da kodlayabilirler. HTML metni veya tabloları kazınırken, önemli bilgileri tanımlamak için HTML etiketleri kullanılır.

  • 02:10:00 Konuşmacı, farklı kaynaklardan nasıl veri çekileceğini açıklıyor ve analiz için gerekli verilerin mevcut bir API'si yoksa kazımanın yararlı bir teknik olabileceğinden bahsediyor. Bununla birlikte, telif hakkı ve mahremiyetle ilgili konulara dikkat edilmesi gerekir. Konuşmacı ayrıca yeni verilerin nasıl oluşturulacağını tartışır ve röportajlar, anketler, kart sıralama, laboratuvar deneyleri ve A/B testi gibi stratejiler önerir. Yöntemler, kişinin oynadığı role, nicel veya nitel verilere ihtiyaç duyup duymadıklarına ve verileri nasıl elde etmeyi amaçladıklarına bağlı olarak değişir.

  • 02:15:00 İki veri kaynağı yöntemine odaklanılır: görüşmeler ve anketler. Mülakatlar, yanıtları kısıtlamadan açık uçlu bilgiler sağladıkları için yeni durumlar veya izleyiciler için etkilidir. Yapılandırılmış görüşmeler, önceden belirlenmiş soru gruplarını içerirken, yapılandırılmamış görüşmeler, cevaplara yanıt olarak soruların ortaya çıktığı konuşmalara benzer. Mülakatlar, nitel verileri çıkarmak için özel eğitim ve analiz gerektirir. Öte yandan, anketlerin oluşturulması ve büyük insan gruplarına gönderilmesi kolaydır, ancak hedef kitlenin yanıt yelpazesinin, boyutlarının ve kategorilerinin iyi anlaşılmasını gerektirir. Anketler, önceden belirlenmiş seçeneklerle kapalı uçlu veya serbest biçimli yanıtlarla açık uçlu olabilir. SurveyMonkey veya Google Forms gibi yazılımları kullanmak süreci basitleştirebilir. Ancak, belirsiz veya yüklü bir soru, anketin güvenilirliğini tehlikeye atabilir.

  • 02:20:00 Video, anketlerin kullanımını tartışıyor ve önyargılı veri toplama girişimleri olan önyargı ve itme anketleri potansiyeline karşı uyarıda bulunuyor. Video, temsili sonuçlar elde etmek için açık ve net soru ifadesinin, yanıt seçeneklerinin ve örnek seçiminin önemini vurgulamaktadır. Video ayrıca, insanların bilgileri sezgisel olarak nasıl organize ettiğini görmek için insanların zihinsel yapılarının zihinsel bir modelini oluşturma yöntemi olan kart sıralama kavramını da tanıtıyor. Süreç, daha sonra benzer gruplara ayrılan farklı konulara sahip kartlar oluşturmayı içerir. Ortaya çıkan benzemezlik verileri, tek tek bilgi parçaları arasındaki benzerlik veya benzemezlik koleksiyonunun tamamını görsel olarak temsil etmek için kullanılabilir. Video, işlemi kolaylaştırmak için dijital kart sıralama araçlarının kullanılmasını önerir.

  • 02:25:00 Video, araştırmalarda neden-sonuç ilişkilerini belirlemek için kullanılan veri kaynağındaki laboratuvar deneylerinden bahsediyor. Laboratuvar deneyleri hipoteze dayalıdır ve her seferinde bir varyasyonu test etmeyi amaçlar ve gruplar arasında önceden var olan farklılıkları dengelemek için rastgele atama gerektirir. Bir laboratuvar deneyi maliyetlidir, zaman alıcıdır ve kapsamlı uzmanlık eğitimi gerektirir. Ancak, neden ve sonuç hakkında güvenilir bilgi üretmek için altın standart olarak kabul edilir. Ek olarak, A/B testi, web tasarımı için yararlı bir teknik olarak vurgulanır ve kullanıcılar için hangi web sitesi öğesinin en etkili olduğunu belirler.

  • 02:30:00 Video, web sitesi denemesinin bir versiyonu olan ve bir web sitesinin tasarımını yanıt oranları, alışveriş sepeti değeri veya terk edilme gibi farklı sonuçlara göre optimize etmek için kullanılan A/B testini tartışıyor. A/B testi, Optimizely veya VWO gibi yazılımlar kullanılarak yapılabilen sürekli değerlendirmelere, testlere ve geliştirmeye izin veren çevrimiçi bir süreçtir. Video ayrıca veri araçlarının veri bilimi içindeki doğru yerini bilmenin önemini vurguluyor ve izleyicilere açık veri kaynaklarını, veri satıcılarını keşfetmelerini ve gerektiğinde yeni veriler oluşturmayı düşünmelerini hatırlatıyor. Son olarak video, elektronik tablolar, veri görselleştirme için Tableau, programlama dili R, Python, SQL ve veri biliminin temelini oluşturan C, C++ ve Java gibi diğer programlama dilleri dahil olmak üzere bazı temel veri bilimi araçlarını kapsar. .

  • 02:35:00 Odak noktası Pareto İlkesi veya 80/20 kuralıdır. İlke, çıktının %80'inin araçların %20'sinden geldiğini öne sürer, bu nedenle kişinin mevcut tüm araçları ve bir şeyler yapmanın yollarını öğrenmesi gerekmez. Bunun yerine, kendi veri bilimi projelerinizi yürütmek için en üretken ve kullanışlı araçlara odaklanmanız önerilir. Özellikle elektronik tablolar, yaygın olarak kullanıldıkları ve kolayca aktarılabilen veri kümeleri için ortak bir format sağladıkları için önemlidir. Ayrıca kullanımı kolaydır ve veri taramasına, sıralamasına ve yeniden düzenlemesine izin verir. Aslında Excel, veri madenciliği uzmanları arasında yapılan bir ankette Hadoop ve Spark gibi daha gelişmiş araçların üzerinde beşinci sırada yer alıyor.

  • 02:40:00 Eğitmen, bulma ve değiştirme, biçimlendirme, değişiklikleri izleme ve pivot tablolar oluşturma gibi çeşitli kullanımlarını vurgulayarak veri biliminde elektronik tabloların önemini açıklar. Bununla birlikte eğitmen, verileri bir programdan veya dilden diğerine kolayca taşımak için düzenli verilere veya değişkenleri temsil eden sütunlara ve vakaları temsil eden satırlara sahip iyi biçimlendirilmiş verilere duyulan ihtiyacı da vurgular. Eğitmen daha sonra Excel'de verilerin nasıl düzenleneceğini gösterir ve etkin veri analizi için Tableau ve Tableau Public gibi görselleştirme araçlarını kullanmanın önemini vurgular.

  • 02:45:00 Eğitmen, Tableau yazılımının ücretsiz bir sürümü olan Tableau Public'i tanıtıyor, ancak önemli bir uyarıyla, dosyaları yerel olarak bilgisayarınıza kaydedemezsiniz. Bunun yerine, onları web'de herkese açık olarak kaydeder. Eğitmen, yazılımı nasıl indirip kuracağınızı ve çalışmanızı çevrimiçi olarak kaydetmek için nasıl hesap oluşturacağınızı gösterir. Daha sonra bir Excel dosyasını içe aktarma ve sürükle ve bırak arabirimini kullanarak temel bir grafik oluşturma adımlarını izlerler. Eğitmen, satışların kaleme ve zamana göre nasıl kırılacağını ve zaman çerçevesinin üç aya nasıl ayarlanacağını gösterir. Ardından, Tableau Public'in esnekliğini ve kullanım kolaylığını göstererek grafiğin bir grafiğe nasıl dönüştürüleceğini gösterirler.

  • 02:50:00 Eğitim videosu, kullanıcıların verileri manipüle etmesine ve analiz etmesine olanak tanıyan etkileşimli görselleştirmeler oluşturmak için kullanılan bir araç olan Tableau'yu tanıtıyor. Video, verileri düzenlemek, grafiklere renk eklemek ve ortalama çizgiler ve tahminler oluşturmak için Tableau'nun nasıl kullanılacağını adım adım gösteriyor. Video, Tableau Public'te dosyaların nasıl kaydedileceğini gösterdikten sonra, kullanıcıların aracı keşfetmeleri ve verilerinden faydalı içgörüler sağlayabilecek ilgi çekici görselleştirmeler oluşturmaları için biraz zaman ayırmalarını önerir. Ek olarak, öğretici, başlangıçta sosyal bilim araştırmaları için oluşturulmuş ancak şu anda birçok akademik ve iş uygulamasında kullanılan bir istatistiksel paket olan SPSS'yi kısaca açıklamaktadır.

  • 02:55:00 Videoda, elektronik tablo gibi görünen ancak kullanıcıların hayatlarını, kullanabilecekleri bazı programlama dillerine kıyasla biraz daha kolaylaştıran açılır menülere sahip bir yazılım olan SPSS'den bahsediliyor. Kullanıcılar SPSS'yi açtığında, bir elektronik tabloya çok benzeyen bir ana arayüz ve değişken bilgilere bakmak için ayrı bir bölme ile sunulur. Kullanıcılar, SPSS'deki örnek veri kümelerine erişebilir, ancak bunlara ulaşmak kolay değildir ve iyi gizlenmiştir. SPSS, kullanıcıların pek çok şey için sıra dışı olabilen işaretle ve tıkla analizleri yapmasına olanak tanır. Video, bunu ev fiyatlarının bir histogramı ve bir gövde ve yaprak grafiği ile bir kutu grafiği içeren bir tablo oluşturarak gösteriyor. Son olarak video, SPSS'nin açıldığında gerçekten yavaş olma eğiliminde olduğunu ve çökebileceğini, bu nedenle kullanıcıların çalışmalarını sürekli olarak kaydetmeleri ve programı açma zamanı geldiğinde sabırlı olmaları gerektiğini vurguluyor.
Data Science Tutorial - Learn Data Science Full Course [2020]
Data Science Tutorial - Learn Data Science Full Course [2020]
  • 2020.11.10
  • www.youtube.com
Have a look at our Data science for beginners course, Data scientist job are world-wide highly paid jobs in 2020 and coming years too. Data science have hig...
 

Veri Bilimi Eğitimi - Veri Bilimi Tam Kursunu Öğrenin [2020]  (4-6)


Veri Bilimi Eğitimi - Veri Bilimi Tam Kursunu Öğrenin [2020]

4. Bölüm

  • 03:00:00 Eğitmen, SPSS ve JASP dahil olmak üzere veri analizi için kullanılabilecek farklı yazılım programlarını tartışır. SPSS, hem açılır menülere hem de metin tabanlı Sözdizimi komutlarına sahip yaygın olarak kullanılan bir program olmakla birlikte, eğitmen ayrıca JASP'ı ücretsiz, açık kaynaklı ve Bayes yaklaşımları içeren yeni bir program olarak tanıtıyor. Video, farklı istatistiksel analizler yapmak için JASP'ın nasıl kullanılacağını gösteriyor ve kullanıcı dostu arayüzünü SPSS'ye harika bir alternatif olarak sunuyor.

  • 03:05:00 Konuşmacı, istatistiksel analizler yapmak, görselleştirmeler oluşturmak ve sonuçları açık bilim çerçevesi web sitesi OSF aracılığıyla çevrimiçi paylaşmak için kolay ve sezgisel bir yol sağlayan ücretsiz ve açık kaynaklı bir yazılım olan JASP'ı tanıtıyor. Konuşmacı, JASP'nin, SPSS'nin işbirliğine dayalı bir ikamesini sağlayarak, onları üreten ve başkalarıyla paylaşan komutları getirerek kullanıcıların istatistiksel analizleri değiştirmesine nasıl olanak tanıdığını gösterir. Ek olarak, konuşmacı SAS ve Tableau gibi diğer yaygın veri analizi yazılımı seçeneklerini kısaca tartışıyor ancak çok sayıda seçeneğin bunaltıcı olabileceğini belirtiyor.

  • 03:10:00 Konuşmacı, bazı ücretsiz ve bazı pahalı araçlar da dahil olmak üzere kullanıcıların seçebileceği çeşitli veri analizi yazılımı seçeneklerini tartışıyor. Bazı programlar genel istatistikler için ve diğerleri daha spesifik veri madenciliği uygulamaları için tasarlanırken, konuşmacı, kullanıcılara ihtiyaçları ve gereksinimleri için en iyi şekilde çalışan bir program seçerken işlevselliğini, kullanım kolaylığını, topluluk desteğini ve maliyetini akılda tutmalarını tavsiye eder. Kullanıcılar, her yazılım seçeneğini denemek yerine, veri analizi projeleri için en fazla değeri elde etmelerine yardımcı olan bir veya iki araca odaklanabilir.

  • 03:15:00 Eğitmen, web verileriyle çalışırken HTML'yi anlamanın önemini vurgular. HTML, web sayfalarının yapısını ve içeriğini oluşturan şeydir ve veri bilimi projeleri için veri çıkarırken etiketlerde ve yapıda gezinebilmek çok önemlidir. Eğitmen, HTML etiketlerine ve bunların sayfa yapısını ve içeriğini nasıl tanımladığına dair bir örnek sağlar. Ek olarak eğitmen, eXtensible Markup Language anlamına gelen ve bilgisayarların okuyabilmesi için verileri tanımlamak için kullanılan XML'e değinir. XML dosyaları genellikle web verilerinde kullanılır ve hatta Microsoft Office dosyaları ve iTunes kitaplıkları oluşturmak için kullanılır.

  • 03:20:00 Video, XML'i (Genişletilebilir İşaretleme Dili) ve yarı yapılandırılmış veriler için nasıl kullanıldığını tartışıyor. XML, verileri tanımlayan etiketleri kullanır ve bu etiketler gerektiği gibi oluşturulabilir ve tanımlanabilir. Video ayrıca, XML'de görüntülenen ergast.com API'sinden bir veri kümesi örneğini ve XML'i CSV veya HTML gibi diğer biçimlere ve tersini dönüştürmenin ne kadar kolay olduğunu gösterir. JSON (JavaScript Object Notation), her bir bilgi parçasının serbestçe değişen etiketlerle tanımlandığı, XML'e benzer yarı yapılandırılmış bir veri biçimi olarak da sunulmuştur.

  • 03:25:00 Öğretici, XML ve JSON biçimleri arasındaki farkları tartışır. Her iki biçim de bilgileri belirtmek için etiketler kullanır, ancak XML veri depolama için kullanılır ve etiketlere yorumlar ve meta veriler ekleme yeteneğine sahiptir. Buna karşılık JSON, veri alışverişi için tasarlanmıştır ve nesneleri ve dizileri temsil eden bir yapı kullanır. JSON, daha kompakt yapısı ve biçimler arasında dönüştürmenin çok daha kolay olması nedeniyle web sayfalarındaki veriler için kapsayıcı olarak XML'in yerini alıyor. Öğretici ayrıca R'nin ücretsiz ve açık kaynaklı yapısı nedeniyle veri bilimi için birincil kodlama dili olduğunu ve vektör işlemleri için özel olarak geliştirildiğini belirtir.

  • 03:30:00 Konuşmacı, R'yi veri biliminde kullanmanın güçlü topluluk desteği, yeteneklerini genişleten çok çeşitli paketler ve kodlama ve sonuç elde etmek için arabirim seçenekleri dahil olmak üzere avantajlarını tartışıyor. Başlangıçta komut satırı aracılığıyla programlamak göz korkutucu olsa da, R'nin şeffaflığı ve erişilebilirliği onu tekrarlanabilirlik açısından avantajlı hale getirir. Konuşmacı ayrıca popülerliği ve en son güncellemeleri göstermek için CRAN'a bağlanan ve onu en son ve en büyük veri bilimi paketlerini almanın bir yolu haline getiren alternatif bir arayüzden, Crantastic! Ayrıca konuşmacı, her türlü uygulama için kullanılabilen genel amaçlı bir programlama dili olan ve veri madenciliği uzmanları tarafından kullanılan yazılımlar listesindeki tek genel amaçlı dil olan Python'u tartışıyor.

  • 03:35:00 Anlatıcı, Python programlama dilini ve onun veri bilimi için yararlılığını tartışıyor. Python'un kullanımı kolaydır ve özellikle veriyle ilgili işler için kullanıma hazır binlerce paket içeren geniş bir topluluğa sahiptir. Python'un 2.x ve 3.x olmak üzere iki sürümü vardır, ancak anlatıcı 2.x'in kullanılmasını önerir çünkü birçok veri bilimi paketi bu akılda tutularak geliştirilir. Python, IDLE ve tarayıcı tabanlı olan ve Markdown biçimlendirmesini, metin çıktısını ve satır içi grafikleri birleştirme yeteneği nedeniyle veri bilimi çalışmaları için popüler bir seçim olan Jupyter dahil olmak üzere çeşitli arabirimlere sahiptir. NumPy, SciPy, Matplotlib, Seaborn, Pandas ve scikit-learn dahil olmak üzere Python için pek çok paket mevcuttur ve anlatıcı, Python'un veri bilimi için gücünü uygulamalı örneklerle gösterirken kullanmayı planlamaktadır.

  • 03:40:00 Konuşmacı, bir veri bilimi dili olarak SQL'in yararlılığını tartışıyor. SQL'in öncelikle, verilerin verimli ve iyi yapılandırılmış bir şekilde depolanmasına izin veren ilişkisel veritabanları için kullanıldığını ve bir süredir ortalıkta olan yetenekli bir araç olduğunu belirtiyor. Konuşmacı ayrıca, bir SQL veritabanından ihtiyacınız olanı almak için gerekli olan yalnızca bir avuç temel komut olduğunu açıklar. Düzenlendikten sonra, veriler genellikle analiz için başka bir programa aktarılır. Ayrıca, Oracle veritabanı ve Microsoft SQL Server (endüstriyel dünya) ve MySQL ve PostgreSQL (açık kaynak dünyası) dahil olmak üzere İlişkisel Veritabanı Yönetim Sistemlerinin birkaç yaygın seçeneği vardır. Konuşmacı ayrıca metin tabanlı arayüzlere karşı grafiksel kullanıcı arayüzlerinin avantajlarına da değiniyor.

  • 03:45:00 Veri biliminin temel dilleri olan C, C++ ve Java tartışılır. Hızları ve güvenilirlikleri ile tanınan C ve C++, onları üretim düzeyinde kodlama ve sunucu kullanımı için çok uygun hale getirir. Öte yandan Java, taşınabilirliği ile bilinir ve genel olarak en popüler bilgisayar programlama dilidir. Analistler genellikle bu dillerle çalışmasalar da veri biliminin temelini oluştururlar ve mühendisler ve yazılım geliştiriciler tarafından kullanılırlar. Ek olarak Bash, bilgisayarlarla bir komut satırı arabirimi aracılığıyla etkileşim kurmak için eski ama hala aktif olarak kullanılan bir araç örneği olarak bahsedilir.

  • 03:50:00 Eğitmen, Bash yardımcı programlarının belirli görevler için tasarlandığını, ancak çok şey başarabileceklerini ve birlikte çalışmanın kolay olduğunu açıklıyor. Yerleşik yardımcı programlar arasında "cat", "awk", "grep", "sed", "head", "tail", "sort", "uniq", "wc" ve "printf" bulunur. JSON verileriyle çalışan "jq" ve "json2csv" ile R programlama veya makine öğrenimi sunucuları için komut satırı erişimi sağlayan "Rio" ve "BigMLer" gibi yüklenebilir komut satırı yardımcı programları da mevcuttur. Eğitmen, düzenli olarak ifade etmenin (regex) metin ve verilerde belirli kalıpları bulmanın süper güçlü bir yolu olduğunu vurguluyor ve bir kalıp tanımlandıktan sonra, onu daha fazla analiz için başka bir programa aktarabileceğinizi söylüyor.

  • 03:55:00 Eğitim videosu, veri bilimcilerin bir hedef dizide belirli öğeleri arayarak projeleri için doğru verileri bulmalarına yardımcı olan Normal İfadeleri veya normal ifadeyi açıklar. Normal ifadeler sabit değerler, meta karakterler ve kaçış dizilerinden oluşur ve kullanıcılar öğeleri birleştirerek veri kalıplarını aramak için bunları kullanabilir. Normal ifadeyi öğrenmenin eğlenceli bir yolu, kullanıcıların mümkün olan en az karakteri kullanarak sol sütundaki tüm sözcüklerle ve sağdaki sözcüklerin hiçbiriyle eşleşen bir normal ifade ifadesi yazdığı Regex Golf oynamaktır. Eğitim, veri bilimi uygulamakla ilgilenen herkes için Excel, Tableau, R, Python, Bash ve normal ifade gibi veri araçlarını önererek sona eriyor, ancak veri biliminin araçları bilmekten daha fazlası olduğunu, çünkü bunlar bir çok daha büyük çaba.

Bölüm 5

  • 04:00:00 Veri biliminde iyi bir Matematik anlayışına sahip olmanın önemi vurgulanır. Birincisi, matematik kişinin hangi prosedürleri neden kullanacağını bilmesini sağlar. İkincisi, sağlam bir matematik anlayışı, kişinin sorunları teşhis etmesine ve işler yolunda gitmediğinde ne yapacağını bilmesine yardımcı olur. Son olarak, bazı matematiksel işlemlerin elle yapılması daha kolay ve hızlıdır. Video, temel cebir, lineer cebir, lineer denklem sistemleri, hesap, Büyük O veya mertebesi, olasılık teorisi ve Bayes teoremi dahil olmak üzere veri biliminde önemli olan çeşitli matematiğin alanlarını kapsar. Bazı insanlar matematiği korkutucu bulsa da, önemli bir araçtır ve bilinçli seçimler yapmak için verilerden anlam çıkarmaya yardımcı olabilir.

  • 04:05:00 Matematikte sağlam bir temele ihtiyacımız var. Bu, Cebir ve Doğrusal Cebir gibi konuları içerir. Cebir, birden çok puanı birleştirmemize ve tek bir sonuç elde etmemize yardımcı olur. Öte yandan, Doğrusal Cebir veya Matris Cebiri, birçok satır ve sayı sütunundan oluşan matrislerle ilgilenir. Makineler, verileri düzenlemek ve işlemek için verimli bir yol sağladıkları için matrisleri severler. Doğrusal Cebiri anlamak, veri bilimindeki karmaşık sorunları modellememize ve çözmemize yardımcı olduğu için önemlidir.

  • 04:10:00 Konuşmacı, veri biliminde büyük sayı ve katsayı koleksiyonlarını temsil etmek ve işlemek için doğrusal cebir ve matris cebirinin nasıl kullanıldığını açıklıyor. Matris gösteriminde kalın yazılmış değişkenlerin kullanılması, değerleri tahmin etmek için kullanılabilecek süper kompakt veri gösterimlerine izin verir. Ek olarak, konuşmacı doğrusal denklem sistemlerini çözme kavramını ele alıyor ve iPhone kılıfları satan varsayımsal bir şirket için satış ve geliri hesaplama örneğinde bunun nasıl kullanılacağını gösteriyor. Doğrusal denklem sistemlerini çözmek elle veya doğrusal matris cebiri ile yapılabilir ve her iki yöntem de birbirine bağlı birden çok bilinmeyeni çözmek için kullanılabilir.

  • 04:15:00 Sunucu, cebir ve grafik kullanarak bir doğrusal denklem sisteminin nasıl çözüleceğini gösterir. Değişkenleri izole ederek ve basit hesaplamalar yaparak benzersiz çözümlerin nasıl bulunacağını göstermek için örnek bir problem kullanırlar. Grafikteki iki çizginin kesişimi, denklemlerin çözümünü temsil eder. Video daha sonra veri biliminde kullanılan birçok prosedürün, özellikle de zaman içinde değişen miktarları analiz etmek için temeli olan Analizi tartışmaya devam ediyor. Diferansiyel ve integral olmak üzere iki Calculus türü açıklanır ve diferansiyel Calculus grafiksel olarak gösterilir.

  • 04:20:00 Video, pratik veri biliminde analiz ve optimizasyon arasındaki ilişkiyi tartışıyor. Bir eğrinin belirli bir noktadaki eğimi, sonuçları en üst düzeye çıkaran veya en aza indiren kararlar vermede önemli olan analiz kullanılarak bulunabilir. Video, geliri en üst düzeye çıkaracak en uygun fiyatı belirlemek için hesabın kullanılabileceği bir çevrimiçi flört servisi için fiyatlandırma örneği sağlar. Satışları fiyatın bir fonksiyonu olarak bularak ve türevi kullanarak, maksimum eğime karşılık gelen fiyatı bularak maksimum geliri bulabilirsiniz.

  • 04:25:00 Konuşmacı, varsayımsal bir ürün için maksimum geliri bulmak üzere hesabın nasıl kullanılacağını açıklıyor. İlk adım, satışları fiyatın bir fonksiyonu olarak hesaplamak ve doğrunun -0,6'ya eşit olan eğimini elde etmektir. Daha sonra bu denklem, fiyatın 480 katı eksi fiyatın 0,6 katı olarak hesaplanabilen gelire dönüştürülür. Bu denklemin türevi, haftada toplam 240 yeni abonelikle 400 ABD doları olan ve yılda 96.000 ABD doları gelirle sonuçlanan maksimum geliri bulmak için alınır. Bu, yılda 500 ABD doları ve haftada 180 yeni abonelik fiyatıyla yılda 90.000 ABD doları olan mevcut gelirle karşılaştırılır.

  • 04:30:00 Video, Büyük O gösterimi kavramını ve bunun operasyonların hızıyla nasıl bir ilişkisi olduğunu tartışıyor. Büyük O, öğelerin sayısı arttıkça nesnelerin büyüme hızını verir ve büyüme oranlarında şaşırtıcı farklılıklar olabilir. Video, O1, logaritmik, doğrusal, log-doğrusal, ikinci dereceden, üstel ve faktöriyel gibi çeşitli büyüme oranlarını her birinin örnekleriyle açıklıyor. Ayrıca video, bazı işlevlerin diğerlerinden daha değişken olduğunu ve bunun da işlemlerin hızını etkilediğini belirtiyor. Bu nedenle Big O'yu anlamak, operasyonları optimize etme ve verimliliği artırma konusunda bilinçli kararlar almak için önemlidir.

  • 04:35:00 Konuşmacı, verilerin farklı türlerini ve sıralama yöntemlerini bilmenin önemini ve bunların, özellikle bir bilgisayarın depolama alanı ve belleğinde yaptıkları talepler açısından, hız ve verimlilik açısından nasıl değiştiğini tartışıyor. Bu taleplerin farkında olmak, zamanı etkin bir şekilde kullanmak ve veri biliminde değerli içgörüler elde etmek için çok önemlidir. Bu bölüm ayrıca matematik ve veri biliminde hayati bir rol oynayan temel olasılık ilkelerini de tanıtmaktadır. Tüm olası sonuçları içeren bir olasılık uzayından hesaplandıklarından, olasılıklar sıfır ile yüzde yüz arasında değişir. Bir olasılığın tamamlayıcısı tilde sembolü ile temsil edilir ve koşullu olasılıklar, başka bir olayın gerçekleşmiş olması koşuluyla bir olayın olasılığını belirlemek için kullanılır.

  • 04:40:00 Konuşmacı olasılığı tartışır ve çarpma kuralını kullanarak ortak olasılıkların nasıl hesaplanacağını açıklar. Bir şeyin kare veya kırmızı olma olasılığının (%60) ve bir şeyin hem kare hem de kırmızı olma olasılığının (%10) nasıl hesaplanacağını göstermek için farklı şekillerden oluşan bir örnek uzay kullanırlar. Olasılıkların her zaman sezgisel olmayabileceğini ve koşullu olasılıkların nasıl yardımcı olabileceğini, ancak beklediğiniz gibi çalışmayabileceğini açıklarlar. Son olarak, veriler verili bir hipotezin olasılığını hesaplamanın bir yolu olan Bayes teoremini tanıtıyorlar ve bunun geleneksel çıkarımsal testten nasıl farklı olduğunu açıklıyorlar.

  • 04:45:00 Eğitmen, önceki olasılıkları, verilerin olasılığını ve verilerin olasılığını birleştiren Genel Reçeteyi kullanarak son olasılığın nasıl hesaplanacağına dair bir örnek üzerinden yürür. Örnek, tıbbi bir durumu ve hastalığa sahip olanlar için %90 saptama oranına sahip, ancak aynı zamanda %10 yanlış pozitif oranı olan bir testi kullanır. Eğitmen, pozitif bir test sonucu verildiğinde hastalığa yakalanma olasılığının nasıl hesaplanacağını açıklar, ki bu aslında sadece %81,6'dır. Örnek, testlerin doğruluğunu ve sınırlamalarını ve önceki olasılıklardaki değişikliklerin sonraki olasılıkları nasıl etkileyebileceğini anlamanın önemini vurgulamaktadır.

  • 04:50:00 Bayes teoremi kavramı ve veri biliminde neden önemli olduğu açıklanır. Bayes teoremi, pozitif bir test sonucu verilen bir hastalığa sahip olma olasılığı gibi, ölçülen şeyin temel oranına bağlı olarak soruları yanıtlamaya ve doğru olasılıklar vermeye yardımcı olabilir. Analiz için uygun prosedürleri seçmek ve ortaya çıkabilecek sorunları teşhis etmek için veri bilimcilerin cebir, matematik ve olasılık gibi matematik ilkelerini iyi anlamaları önerilir. İstatistik, verileri özetlemeye ve genelleştirmeye yardımcı olduğu için veri biliminde de önemli bir rol oynar, ancak analiz her zaman projenin hedeflerine ve paylaşılan bilgilere bağlıdır.

  • 04:55:00 Veri biliminde istatistiğin önemi, verileri özetlemek ve genelleştirmek için kullanılan bir araç olarak vurgulanır. Bununla birlikte, kesin bir cevabın olmadığı ve genellemenin, istatistiksel modellerin sınırlamalarına dikkat ederek çıkarımsal istatistiklerle uğraşmayı içerdiği vurgulanmaktadır. Modeller, belirli bir amaca hizmet etmek içindir ve genellikle yararlı olan ancak tamamen doğru olmayan özetleri temsil eder. Daha sonra, sayısal araştırmadan önce grafik yöntemlerin kullanılmasına ve verilere yakından dikkat etmenin önemine vurgu yapılarak veri keşfi tartışılır. Araştırmanın amacı, istatistiksel modeller oluşturmadan önce veri kümenizin anlaşılmasına yardımcı olmaktır.

6. Bölüm

  • 05:00:00 Veri biliminde grafiklerle başlamanın önemi vurgulanır. Grafikler kullanılarak veriler hakkında fikir sahibi olunabilir, anormallikler kontrol edilebilir ve değişkenler analiz edilebilir. Analiz edilen değişkenin türüne bağlı olarak kullanılabilecek çubuk grafikler, kutu çizimleri ve dağılım grafikleri dahil olmak üzere farklı grafik türleri önerilir. Ayrıca çok değişkenli dağılımlar da ele alınmış ve 3 boyutlu grafiklerin kullanımına dikkatle yaklaşılması gerektiği belirtilmiştir.

  • 05:05:00 Konuşmacı, 3B grafiklerin sınırlamalarını ve bunun yerine bir çizim matrisi kullanmanın faydalarını tartışıyor. Konuşmacı, 3 boyutlu grafiklerin 3 boyutlu kümeleri bulmak için yararlı olabilse de, genellikle okunması zor ve kafa karıştırıcı olduğunu açıklıyor. Grafik matrisi ise çok daha kolay okunan bir grafik sağlar ve çok boyutlu bir gösterime izin verir. Konuşmacı, verileri keşfetmede kritik ilk adım olarak verilerin grafiksel keşfinin önemini vurgular ve çubuk grafikler ve dağılım grafikleri gibi hızlı ve kolay yöntemlerin kullanılmasını önerir. İkinci adım, sağlam istatistikler, verileri yeniden örnekleme ve verileri dönüştürmeyi içeren keşif istatistiklerini veya verilerin sayısal keşfini içerir.

  • 05:10:00 Konuşmacı sağlam istatistik, yeniden örnekleme ve değişkenleri dönüştürme ilkelerini tartışır. Yeniden örneklemenin, örnekleme değişkenliğinin ampirik tahminlerine nasıl izin verdiğini açıklar ve jackknife, önyükleme ve permütasyon gibi farklı tekniklerden bahseder. Konuşmacı ayrıca değişkenleri dönüştürmenin ve çarpıklığı ve diğer sorunları düzeltmenin bir yolu olan Tukey'nin güçler merdivenini de tanıtıyor. Daha sonra, tanımlayıcı istatistiklerin, daha geniş bir veri koleksiyonunu temsil etmek için birkaç sayı kullanarak veriler hakkında bir hikaye anlatmaya nasıl yardımcı olabileceğini açıklarlar. Konuşmacı, mod, medyan ve ortalama gibi bir dağılımın farklı merkez ölçülerini veya konumunu tartışır.

  • 05:15:00 Konuşmacı, aralık, yüzdelikler, çeyrekler arası aralık, varyans ve standart sapma dahil olmak üzere bir veri kümesinin yayılmasını açıklamak için kullanılan ölçütleri tartışır. Aralık, veri kümesindeki en yüksek ve en düşük puanlar arasındaki farktır, çeyrekler arası aralık ise birinci ve üçüncü çeyrek puanları arasındaki mesafedir. Varyans, bir veri kümesinin ortalamasından ortalama sapmanın karesidir ve standart sapma, varyansın kareköküdür. Konuşmacı ayrıca küçük bir veri kümesi kullanarak her bir ölçümün nasıl hesaplanacağına dair örnekler sunar.

  • 05:20:00 Konuşmacı, aralık, çeyrekler arası aralık (IQR), varyans ve standart sapma dahil olmak üzere farklı merkezi eğilim ve değişkenlik ölçülerini tartışır. Aralığın hesaplanması kolay olsa da aykırı değerlerden etkilenebileceğini açıklıyor. IQR, uç noktaları göz ardı ettiği için genellikle çarpık veriler için kullanılır. Varyans ve standart sapma en az sezgisel olanlardır, ancak veri bilimindeki diğer birçok prosedürü besledikleri için en faydalıdırlar. Konuşmacı ayrıca simetrik, çarpık, tek modlu, çift modlu ve tek tip gibi çeşitli varyasyonlara dikkat çekerek dağılımın şeklinden bahseder. Son olarak, popülasyonlar ve örnekler arasındaki farkı ve çıkarım için iki genel yaklaşımı tartışarak çıkarımsal istatistik kavramını tanıtıyor: test etme ve tahmin.

  • 05:25:00 Konuşmacı, daha büyük bir popülasyondan veri örneklemeyi ve parametre değerlerinin test edilmesi veya tahmin edilmesi yoluyla örnekleme hatasının ayarlanmasını içeren çıkarımsal istatistikleri sunar. Çıkarımsal istatistiklerin ana zorluğu, temel popülasyonun yorumlanmasını etkileyen örnekleme değişkenliğinde yatmaktadır. Konuşmacı daha sonra bilimsel araştırmalarda, tıbbi teşhislerde ve diğer karar alma süreçlerinde teorileri test etmek ve gözlemlenen farklılıkların şans eseri meydana gelme olasılığını belirlemek için kullanılan hipotez testini derinlemesine araştırır. İlgili iki hipotez türü, hiçbir sistematik etkinin olmadığını varsayan sıfır hipotezi ve böyle bir etkinin varlığını varsayan alternatif hipotezdir. Bu bölüm, istatistiksel analizde kullanılan standart normal dağılıma genel bir bakışla sona ermektedir.

  • 05:30:00 Eğitmen, hipotez testi kavramını ve potansiyel tehlikelerini açıklar. Hipotez testi, verilerin z puanlarının hesaplanmasını ve boş hipotezin korunup korunmadığına veya reddedileceğine karar verilmesini içerir. Bununla birlikte, süreç, sırasıyla boş hipotezin reddedilmesi veya reddedilmemesi şartına bağlı olan yanlış pozitifler ve yanlış negatiflerle sonuçlanabilir. Eğitmen, test çerçevesinin çeşitli unsurlarına dayalı olarak yanlış negatifleri hesaplama konusunda dikkatli olmanın önemini vurgular. Hipotez testinin eleştirileri olmasına rağmen, birçok alanda çok yararlı olmaya devam ediyor. Eğitmen, bir parametre için bir tahmin vermek üzere tasarlanmış olan ve halen bir çıkarımsal prosedür olan tahmini tartışmaya devam eder. Güven aralıkları, popülasyon değeri için olası değerlere odaklanan yaygın bir tahmin yaklaşımıdır.

  • 05:35:00 Video, güven aralıklarını ve bunları tahmin etmenin üç genel adımını tartışıyor. İlk adım, bir dizi olası değer veren, genellikle %95 olan bir güven düzeyi seçmektir. İkinci adım, doğruluk ve kesinlik arasında bir değiş tokuşu içerir. Video, doğru ve kesin tahminler arasındaki farkı gösterir ve ideal senaryo, hem doğru hem de kesin olandır. Son adım, güven aralığını doğru bir şekilde yorumlamaktır. İstatistiksel olarak doğru yorumlama, aralığı cümle biçiminde belirtmektir, günlük konuşma dilindeki yorum ise popülasyon ortalamasının bu aralık içinde olma olasılığını tanımlar. Video, popülasyon ortalamasını ve gerçek popülasyon değerini bir güven aralığına dahil etmek için kaç örnek gerektiğini içeren rastgele oluşturulmuş verilerin gösterilmesiyle sona erer.

  • 05:40:00 Bir Güven Aralığının genişliğini etkileyen, güven seviyesi, standart sapma ve örneklem büyüklüğünü içeren faktörler açıklanır. Öğretici, her bir faktörün aralığın boyutunu nasıl etkilediğini ve verilerin değişkenliğinin tahmine nasıl dahil edildiğini gösteren grafik örnekler sağlar. En yaygın yaklaşım olan Sıradan En Küçük Kareler (OLS) yönteminin yanı sıra, gözlenen verileri en olası hale getiren parametreleri seçme yöntemi olan En Büyük Olabilirlik (ML) yöntemi tanıtılır. Bu iki yöntem arasındaki fark, OLS'nin En İyi Doğrusal Tarafsız Tahmincisi olarak hareket etmesiyle vurgulanırken, ML bir tür yerel arama olarak çalışır.

  • 05:45:00 Eğitmen, sıradan en küçük kareler (OLS), maksimum olasılık (ML) ve maksimum A posteriori (MAP) dahil olmak üzere popülasyon parametrelerini tahmin etmek için üç yaygın yöntemi ve bu üç yöntemin birbiriyle nasıl bağlantılı olduğunu açıklar. Eğitmen daha sonra veri ve oluşturulan model arasındaki uyum için R2, düzeltilmiş R2, -2LL, AIC, BIC ve ki-kare dahil farklı uyum ölçülerini ve bunların varyasyonlarını tartışır. veri ve aşırı uydurmanın etkisini azaltır.

  • 05:50:00 Video, özellik seçimini ve en iyi özellikleri veya değişkenleri seçmek, bilgi vermeyen veya gürültülü değişkenlerden kurtulmak ve fazla uydurmayı önlemek için oluşturulan istatistiksel modeli basitleştirmek için nasıl kullanıldığını tartışıyor. Öznitelik seçimiyle ilgili en büyük sorun, öngörücüler ve sonuç değişkeni arasındaki örtüşmeden kaynaklanan çoklu bağlantıdır. Video, olasılık değerleri, standartlaştırılmış katsayılar ve sıralı regresyondaki varyasyonlar gibi çoklu bağlantıyla başa çıkmanın çeşitli yollarını açıklıyor. Bununla birlikte, p-değerlerine güvenmek, yanlış pozitifleri şişirdiği ve aşamalı prosedürler fazla uydurma riskini önemli ölçüde artırdığı için sorunlu olabilir. Bu sorunlarla başa çıkmak için Ortaklık analizi, Hakimiyet Analizi ve Göreceli Önem Ağırlıkları gibi daha yeni yöntemler mevcuttur.

  • 05:55:00 Konuşmacı, Normal Olmama, Doğrusal Olmama, Çoklu Bağlantı ve Eksik Veri dahil olmak üzere modellemedeki yaygın sorunları tartışır. Normal Olmama ve Doğrusal Olmama, sırasıyla normal bir dağılımın ve bir düz çizgi ilişkisinin simetri ve tek modlu doğasını varsaydıklarından ölçümleri ve modelleri bozabilir. Çoklu bağlantı, genel modeldeki katsayıları etkileyebilir ve bunu ele almanın bir yolu, daha az değişken kullanmak veya alan uzmanlığına güvenmek olabilir. Kombinatoryal Patlama sorunu, değişkenlerin veya kategorilerin kombinasyonları analiz için çok hızlı büyüdüğünde ortaya çıkar.

  • 06:00:00 Video, veri biliminde kombinatoryal patlama, boyut laneti ve kayıp verilerle baş etmenin zorluklarını tartışıyor. İlk zorluğun üstesinden gelmek için teoriye güvenilebilir veya olasılıklar yelpazesini keşfetmek için Markov zinciri Monte Carlo modeli gibi veriye dayalı bir yaklaşım kullanılabilir. Boyutsallığın lanetiyle başa çıkmak için, verinin boyutsallığı onu daha düşük boyutlu bir uzaya yansıtarak azaltılabilir. Son olarak, kayıp veri sorunu önyargı oluşturabilir ve analizi bozabilir ve kalıpları kontrol ederek, yeni değişkenler oluşturarak ve çeşitli yöntemler kullanarak eksik değerleri atfederek ele alınabilir. Model doğrulama da tartışılıyor ve video, bunu başarmanın Bayes yaklaşımı, çoğaltma, uzatma doğrulaması ve çapraz doğrulama dahil olmak üzere birkaç genel yolunu sunuyor.

  • 06:05:00 Konuşmacı, istatistiksel modelleri doğrulamak için uzatma doğrulaması, çapraz doğrulama ve birini dışarıda bırakma doğrulaması gibi farklı yöntemleri tartışıyor. Geliştirilen istatistiksel modelin çeşitli durumlarda ne kadar iyi dayandığını test etmenin önemini vurguluyor, çünkü bu, analizlerinin ve muhakemelerinin geçerliliğini kontrol ederken sonuçlarının faydasına güven inşa etmeye yardımcı olacaktır. Ayrıca, yeni başlayanların veri bilimine başlarken Kendin Yap (kendin yap) zihniyetini göz önünde bulundurması gerektiğini çünkü R ve Python gibi basit araçların bir başlangıca yardımcı olabileceğini ve en son gelişmelerin başlamasını beklemenin gerekmediğini vurguluyor. Son olarak, dinleyicileri veri bilimi alanındaki trollere karşı dikkatli olmaları konusunda uyarıyor, çünkü yanlış ve göz korkutucu olabilecek eleştirmenler var, ancak her analizin değeri var ve kişi dikkatlice dinlemeli ve olasılıklara karşı dikkatli olurken hedefe yönelik olmalıdır.

  • 06:10:00 Konuşmacı, öğrencileri becerilerini geliştirmek için verileri keşfetmeye ve analiz etmeye teşvik ederek "İstatistik ve Veri Bilimi" kursunu bitirir. Konuşmacı, makine öğrenimi ve veri görselleştirme üzerine kavramsal kurslar ile R, Python ve SPSS gibi programlama dillerinde istatistiksel prosedürler üzerine uygulamalı kurslar dahil olmak üzere öğrencilerin almaları için ek kurslar önerir. Konuşmacı ayrıca kodlama ve nicel becerilere ek olarak veri biliminde alan uzmanlığının önemini vurguluyor. Nihayetinde, konuşmacı öğrencilere "yeni başlamalarını" ve mükemmellik konusunda endişelenmemelerini tavsiye eder, çünkü her zaman iyileştirme için yer vardır.
Data Science Tutorial - Learn Data Science Full Course [2020]
Data Science Tutorial - Learn Data Science Full Course [2020]
  • 2020.11.10
  • www.youtube.com
Have a look at our Data science for beginners course, Data scientist job are world-wide highly paid jobs in 2020 and coming years too. Data science have hig...
 

Derin Öğrenmede Evrişimler - Etkileşimli Demo Uygulaması



Derin Öğrenmede Evrişimler - Etkileşimli Demo Uygulaması

Mandy ile Steeplezer demosuna hoş geldiniz. Bu bölümde, sinir ağlarında kullanılan evrişim işlemlerine ilişkin anlayışımızı geliştirmek için deeplister.com'daki etkileşimli evrişim demo uygulamasını keşfedeceğiz.

Evrişim işlemleri, evrişimli sinir ağlarında filtreler ve kayan bir pencere kullanarak girdileri çıktılara eşlemek için çok önemli bileşenlerdir. Daha temel bir anlayış için evrişim işlemini ve sinir ağlarındaki rolünü açıklayan özel bir bölümümüz var. Şimdi, bu işlemi kavrayışımızı derinleştirmek için deeplister.com'daki etkileşimli konvolüsyon demo uygulamasını nasıl kullanabileceğimize odaklanalım. Uygulama sayfasında, ilk başta üst kısmı görüyoruz ve daha sonra alt kısmı görüntülemek için aşağı kaydıracağız. Demo uygulaması, belirli bir girdi üzerinde evrişim işlemine çalışırken tanık olmamızı ve çıktının nasıl türetildiğini gözlemlememizi sağlar. Demoda çalışmak için birkaç seçeneğimiz var. İlk olarak, tam ekran modu arasında geçiş yapabiliriz. İkinci olarak, MNIST kullandığımız için veri setini seçip 0 ile 9 arasında çalışmak istediğimiz rakamı seçebiliriz.

Sinir ağlarının evrişimli katmanlarında, kenarlar, şekiller veya dokular gibi çeşitli kalıpları algılamak için eğitim sürecinde filtre değerleri öğrenilir. Bu demoda, örnek evrişimleri gözlemlemek için kenar filtreleri gibi farklı filtre kümeleri arasından seçim yapabiliriz. İlk örneğimiz için, sol kenar filtresini MNIST veri kümesinden 9 rakamının bir görüntüsüne uygulamak için seçeceğiz. Bu seçenekleri yapılandırarak demoya devam etmeye hazırız. Her bir küçük kare bir pikseli ve değerini temsil edecek şekilde 9 basamağının giriş görüntüsü görüntülenir. 3x3'lük bir piksel bloğuna ve seçilen sol kenar filtresine odaklanıyoruz. Konvolüsyon işlemi, girdi ve filtre değerlerinin öğe bazında çarpımını ve ardından son çıktıyı elde etmek için toplamayı içerir.

Her pikselin üzerine gelerek, giriş ve filtre değerleri arasında meydana gelen çarpmayı gözlemleyebiliriz. Tüm çarpımları topladıktan sonra, elde edilen çıktıyı altta saklıyoruz ve evrişimden sonra tüm görüntüyü temsil ediyoruz. Adım butonuna tıklayarak giriş bloğunu bir piksel sağa kaydırıyoruz (1'lik adım) ve tekrar evrişim işlemini gerçekleştiriyoruz. Bu süreç nihai çıktıya ulaşana kadar devam eder. Bu işlemleri otomatikleştirmek ve belirli pikselleri incelemek için duraklatmak için demoyu da oynatabiliriz.

Çıktı, filtre tarafından algılanan sol kenarları gösteren turuncu veya kırmızı pikseller olarak pozitif aktivasyonları temsil eder. Negatif aktivasyonlar, sağ kenarları temsil eden mavi pikseller olarak gösterilir. Pozitif değerleri koruyarak ve negatif değerleri sıfıra ayarlayarak evrişim çıkışına tipik olarak bir değer aktivasyon işlevi uygulanır. Çıkış değerlerinin üzerine gelerek, bunları karşılık gelen giriş ve filtre değerleriyle ilişkilendirebiliriz. Ortaya çıkan çıktı, sol kenarları temsil eden pozitif aktivasyonların bir koleksiyonudur. Nihai çıktıyı görmek için demonun geri kalanını oynatabiliriz. Ters etkiyi göstermek için, pozitif ve negatif piksellerin yer değiştirdiği aynı çıktıyla sonuçlanan bir sağ kenar filtresine geçiyoruz.

Başka bir örnek olarak, Fashion MNIST veri setine geçiyoruz ve bir T-shirt görseli seçiyoruz. Bir "üst" kenar filtresi uygulayarak, üst ve alt kenarların algılandığını gözlemleyebiliriz.

Konvolüsyon işlemleri konusundaki anlayışınızı derinleştirmek için deeplister.com'daki demodaki çeşitli örnekleri keşfetmekten çekinmeyin. İzlediğiniz için teşekkür ederiz. Daha fazla içerik için YouTube'daki ikinci kanalımız "The Blizzard Vlog"a göz atmayı düşünün. İlgili blog gönderisi için beeplezer.com adresini ziyaret etmeyi unutmayın ve özel avantajlar ve ödüller için Deep Blizzard Hive Mind'a katılmayı düşünün.

Convolutions in Deep Learning - Interactive Demo App
Convolutions in Deep Learning - Interactive Demo App
  • 2021.06.02
  • www.youtube.com
In deep learning, convolution operations are the key components used in convolutional neural networks. A convolution operation maps an input to an output usi...
 

Derin Öğrenme Nedir? (DL 01)



Derin Öğrenme Nedir? (DL 01)

Derin öğrenmeye hoş geldiniz! Ben Bryce ve bilgisayar bilimindeki bu sıcak konu hakkında bilgi edinmenize yardımcı olmaktan heyecan duyuyorum. Derin öğrenme günlük hayatımızın her yerinde. Yüzünüzü tanıyan, konuşmanızı anlayan ve en sevdiğiniz platformda içerik öneren algoritmaların tümü derin öğrenmeye dayalıdır.

Ancak derin öğrenme tam olarak nedir? Makine öğrenimi için sinir ağlarının ve farklılaştırılabilir programlamanın kullanımını içerir. Sinir ağları, beyindeki nöronların davranışlarından ilham alan hesaplamalı modellerdir. Nöronları temsil eden düğümlerden ve aralarındaki bağlantıları temsil eden yönlendirilmiş kenarlardan oluşurlar ve her kenarın kendi gücünü gösteren bir ağırlığı vardır. Nöronlar, etkinleştirilip etkinleştirilmediklerini belirlemek için komşularından gelen ağırlıklı girdileri toplayabilir.

Yapay zeka ile veri biliminin kesiştiği noktada yer alan makine öğrenimi, verilerden otomatik olarak akıllı çıkarımlar yapmakla ilgilidir. Algoritmaların sorunları doğrudan çözmek için tasarlandığı geleneksel bilgisayar biliminin aksine, makine öğrenimi, veri örneklerinin sorunun girdilerini ve çıktılarını tanımlamasına izin verir. Ardından, veri kümesinden çözümü çıkaran algoritmaları uygularız.

Makine öğrenimi sorunları, regresyon veya sınıflandırma olarak kategorize edilebilir. Regresyon, doğrusal regresyon gibi sürekli girdileri sürekli çıktılara eşleyen bir fonksiyonun çıkarımını içerir. Öte yandan sınıflandırma, karar sınırlarının çıkarılması gibi girdi noktalarına ayrı etiketler atar.

Derin öğrenme, regresyon ve sınıflandırmanın özelliklerini birleştiren karmaşık sorunları çözmemize olanak tanır. Örneğin, nesne tanıma, bir görüntüyü girdi olarak alan ve görüntüdeki nesneler için sınırlayıcı kutular ve etiketler çıkaran bir işlevi öğrenmeyi içerir.

Bir sinir ağını eğitmek için, bir işlevi gradyanını takip ederek en aza indiren bir teknik olan gradyan inişini kullanırız. Bu, sinir ağının aktivasyonlarının farklılaştırılmasını gerektirir. Adım fonksiyonları gibi aktivasyon fonksiyonları türev için uygun değildir, bu yüzden sigmoid fonksiyonu gibi düzgün yaklaşımlar kullanırız.

Sinir ağlarını ve farklılaştırılabilir programlamayı eğitmenin ilkeleri, derin öğrenmenin ötesine geçer. Nöronları, ağırlıklı toplamlar gerçekleştiren ve aktivasyon fonksiyonlarını uygulayan basit bilgisayar programları olarak düşünebiliriz. Bu, matematiksel olarak çalıştırılabilen ve farklılaştırılabilen işlevlerin derin öğrenme modellerine dahil edilebildiği, türevlenebilir programlama kavramına yol açar.

Bu kursta, makine öğreniminin temellerini ve stokastik gradyan inişini anlamak için basit sinir ağlarıyla başlayacağız. Derin sinir ağlarını ve genel türevlenebilir programlamayı keşfederek yavaş yavaş karmaşıklık ekleyeceğiz. Yol boyunca, derin öğrenme kitaplıklarını kullanma alıştırması yapacağız, sınırlamaları ve dezavantajları tartışacağız ve sizi gerçek dünyadaki problemler için derin öğrenme modelleri tasarlamaya, uygulamaya, değerlendirmeye ve eleştirmeye hazırlayacağız.

Dönemin sonunda, derin öğrenme ile heyecan verici zorlukların üstesinden gelmek için donanımlı olacak ve bunun uygulamaları ve sonuçları hakkında kapsamlı bir anlayışa sahip olacaksınız.

What is Deep Learning? (DL 01)
What is Deep Learning? (DL 01)
  • 2022.08.24
  • www.youtube.com
Davidson CSC 381: Deep Learning, Fall 2022
Neden: