Apprendimento automatico e Reti Neurali - pagina 6

 

La storia dell'intelligenza artificiale [Documentario]



La storia dell'intelligenza artificiale [Documentario]

Il documentario History of Artificial Intelligence ci porta attraverso i primi giorni del concetto di "macchina pensante", generato dagli scrittori di fantascienza e dall'industria cinematografica, fino ai progressi odierni nell'IA e nei processi di deep learning. Il documentario mostra i progressi compiuti nell'intelligenza artificiale, la capacità delle macchine di apprendere come gli umani e i principi alla base del funzionamento dei computer. Il video esplora i limiti dei computer, il potenziale per il loro sviluppo e il possibile futuro dell'intelligenza artificiale (AI). Gli scienziati discutono della possibilità che le macchine siano in grado di pensare e produrre nuove idee, e l'obiettivo è creare un sistema informatico più generale in grado di apprendere dall'esperienza, formulare concetti ed eseguire la logica. I primi passi verso l'intelligenza artificiale possono essere visti in una piccola macchina informatica che può imparare dall'esperienza, come mostrato nell'esempio di un topo controllato elettricamente che risolve un labirinto.

La seconda parte esplora i limiti e le potenzialità dei computer in termini di pensiero, sentimento e creatività. Mentre i computer eccellono nelle operazioni logiche e nei calcoli matematici, hanno difficoltà con il riconoscimento, il riconoscimento di modelli e la generalizzazione, il riconoscimento di blocchi, la traduzione di lingue e l'esecuzione di compiti semplici. Nonostante i risultati deludenti iniziali, sistemi e programmi esperti come SHRDLU e TENDRIL hanno mostrato come i computer potrebbero utilizzare la conoscenza per risolvere l'ambiguità e l'apprendimento delle lingue. Tuttavia, rimane la sfida di insegnare la conoscenza del senso comune, che include sia la conoscenza fattuale che le esperienze che le persone acquisiscono nel tempo. Le reti neurali, sebbene inizialmente attraenti, hanno dei limiti e sono in grado di affrontare solo piccoli compiti. I ricercatori devono addestrare i computer a capire come la natura costruisce e coordina molte micro-macchine all'interno del cervello prima che possa essere costruita una versione completamente artificiale.

La terza parte copre una vasta gamma di argomenti relativi alla storia e al futuro dell'intelligenza artificiale. Discute gli sforzi in corso per ottenere un'intelligenza generica basata sul buon senso, incluso il progetto Cyc e il potenziale per la comprensione generale del linguaggio naturale nell'IA. Vengono anche esplorate le sfide nel raggiungere un'intelligenza simile a quella umana, inclusa la necessità di modelli formali di intelligenza e il ruolo della psicologia. Gli intervistati discutono dell'impatto dei computer nel campo della psicologia, nonché delle sfide poste dal ragionamento non monotono e della necessità di scoperte concettuali. Nonostante le critiche, gli intervistati vedono l'obiettivo dell'IA come un progetto nobile che può aiutarci meglio a capire noi stessi.

  • 00:00:00 In questa sezione, veniamo trasportati indietro agli anni '50, dove l'idea di una "macchina pensante" era ancora un sogno, posseduto solo dagli scrittori di fantascienza e dall'industria cinematografica. Il film "The Thinking Machine" ha seguito una discussione sul fatto che le macchine possano davvero pensare, un concetto che all'epoca era ancora troppo inverosimile, poiché il campo dell'intelligenza artificiale era solo nelle sue fasi iniziali e i ricercatori non avevano ancora capito come fare in modo che le macchine producano idee veramente nuove. Oggi il documentario ci ricorda i progressi compiuti nell'IA e i processi di deep learning che hanno contribuito a progressi tecnologici che a volte diamo per scontati.

  • 00:05:00 In questa sezione della trascrizione, a un bambino viene insegnato l'alfabeto e uno psicologo si chiede come il cervello riconosca i modelli. La conversazione si sposta quindi sul potenziale dei computer di imitare lo stesso processo di apprendimento di un bambino mostrando l'alfabeto per la prima volta. Il computer è testato e, sebbene non sia perfetto, può identificare accuratamente le lettere con una precisione crescente man mano che vengono presentate più informazioni. Viene esplorata la possibilità che le macchine siano in grado di apprendere come gli umani, ma i processi di pensiero specifici delle macchine non sono ancora chiari e si sta scoprendo l'intera gamma dell'utilità dei computer.

  • 00:10:00 In questa sezione, viene mostrato un gruppo di professori della Carnegie Tech di nome Simon e Newell mentre tentano di comprendere problemi logici come l'enigma dei missionari e dei cannibali. Rappresentano il loro progresso affrontando il problema di far attraversare il fiume a tutti e tre i missionari e i cannibali su una barca che può contenere solo due persone alla volta senza che i cannibali siano più numerosi dei missionari. Una conversazione tra professori rivela che uno dei loro studenti di nome Barbara ha escogitato una soluzione al problema che il computer ha ora riprodotto. Inoltre, i professori mostrano una dimostrazione di un uomo che gioca a dama contro un computer che attira l'attenzione sulla capacità di un computer di apprendere sulla base delle probabilità o della ragionevolezza che sono state programmate al suo interno.

  • 00:15:00 In questa sezione, il video esplora la questione di come funzionano i computer, spiegando che prendono input, li elaborano usando operazioni matematiche e producono risultati attraverso la programmazione. Mentre ci sono somiglianze tra computer e sistemi nervosi viventi, i neurofisiologi ritengono che ci siano molte più differenze che somiglianze. Il video tocca anche l'idea che gli esseri umani siano programmati sia ereditariamente che per esperienza, offrendo un esperimento in cui gli anatroccoli allevati in isolamento non sono riusciti a riconoscere la sagoma di un'oca. Nel complesso, la sezione fornisce una breve spiegazione dei principi alla base del funzionamento dei computer e approfondisce alcune idee sulla programmazione sia nelle macchine che negli esseri viventi.

  • 00:20:00 In questa sezione, due uomini discutono il concetto di programmazione rispetto all'istinto negli animali. Mentre uno sostiene che la capacità dell'anatra di distinguere tra un'oca e un falco è un esempio di istinto, l'altro suggerisce che alcuni animali nascono con una conoscenza più incorporata di quanto si pensasse in precedenza. Analizzano la ricerca condotta sulle rane e suggeriscono che le fibre nell'occhio di una rana segnalano solo cose specifiche al cervello che sono correlate alla sopravvivenza della rana, come il movimento e la potenziale preda. Questa teoria, sebbene non ancora ampiamente accettata, potrebbe spiegare l'esistenza dell'istinto.

  • 00:25:00 In questa sezione vediamo un ricercatore che conduce un esperimento con un bambino di cinque anni per dimostrare che gli esseri umani nascono con determinate abilità innate. Al bambino viene chiesto di riempire il suo bicchiere di latte allo stesso livello del bicchiere del ricercatore, ma lui lo riempie fino all'orlo, pensando che sia la stessa quantità. Ciò suggerisce che alcune nozioni sul mondo che ci circonda sono preconcette nelle nostre menti e ci affidiamo ai nostri occhi per formare i nostri concetti del mondo che ci circonda. Il video prosegue dimostrando che ciò che vediamo con i nostri occhi non è sempre accurato e le illusioni possono giocare brutti scherzi al nostro cervello.

  • 00:30:00 In questa sezione, un professore parla a un altro uomo di come gli esseri umani sono programmati per reagire sulla base di credenze e regole preconcette. L'uomo si chiede se un computer possa fare qualcosa di originale e il professore gli mostra un'opera teatrale scritta da un computer con l'assistenza di un programmatore di nome Harrison Morse. Il pubblico è stupito dalla stampa dello spettacolo e il professore spiega che non è magia, ma piuttosto il risultato di un programma ben progettato.

  • 00:35:00 In questa sezione, il membro dello staff del MIT, Doug Ross, spiega come hanno usato un programma per scrivere un playlet che illustra le regole che costituiscono un comportamento intelligente. Sottolineano che il comportamento intelligente è un comportamento che obbedisce alle regole e mostrano come è possibile creare un computer per svolgere un lavoro creativo. Menzionano le regole che il computer utilizza per determinare un comportamento ragionevole e hanno persino programmato un fattore di ebbrezza che influenza il comportamento del rapinatore. Sottolineano che non c'è magia nera nel fare queste cose sulle macchine e mostrano che il computer scrive ogni volta una commedia diversa, dimostrando la sua creatività.

  • 00:40:00 In questa sezione, il video esplora i limiti dei computer e il potenziale per il loro sviluppo. L'animazione evidenzia il processo di prova ed errore coinvolto nella programmazione di un computer e la possibilità di errori. Il video mostra quindi un esperimento in cui un computer viene utilizzato per studiare i segnali nel cervello umano, evidenziando il potenziale dei computer per migliorare la nostra comprensione dei processi di apprendimento. Il video mostra quindi agli spettatori il Lincoln Laboratory e il suo computer TX2, che è uno dei computer più grandi e versatili al mondo. Il video suggerisce che computer come il TX2 vengono utilizzati per studiare i processi di apprendimento e che i computer vengono sviluppati a livello globale per scopi scientifici.

  • 00:45:00 In questa sezione, gli scienziati discutono della possibilità che le macchine siano in grado di pensare e produrre nuove idee. Mentre alcuni credono che le macchine ei programmi per computer saranno in grado di comportarsi in modo intelligente e aiutare gli esseri umani ad alleviare il peso del lavoro intellettuale, altri dubitano che le macchine saranno mai capaci di un vero pensiero creativo. Si prevede che il futuro dei computer avrà effetti sia diretti che indiretti, come far funzionare le macchine in vari modi e imparare cose nuove mentre gli esseri umani lavorano con i computer. La seconda rivoluzione industriale dovrebbe essere l'era dell'assistenza della mente umana da parte del computer, e le possibilità di ciò che le macchine possono fare con l'aiuto umano sono difficili da immaginare.

  • 00:50:00 In questa sezione, l'attenzione è rivolta al potenziale dell'intelligenza artificiale (AI) e al suo possibile sviluppo in futuro. L'obiettivo è creare un sistema informatico più generale in grado di apprendere dall'esperienza, formare concetti e fare logica. Consisterà in organi di senso, un grande programma informatico flessibile per uso generico e dispositivi di output. Mentre si stanno facendo progressi, c'è preoccupazione per la gestione dell'impatto della tecnologia. Tuttavia, uno scienziato ritiene che se lo gestiamo correttamente, possiamo creare un mondo molto migliore. I primi passi verso l'intelligenza artificiale possono essere visti in una piccola macchina informatica che può imparare dall'esperienza, come mostrato nell'esempio di un topo controllato elettricamente che risolve un labirinto.

  • 00:55:00 In questa sezione, vediamo una dimostrazione di un topo che naviga in un labirinto, controllato da un sistema di relè telefonici e interruttori Reed. Il mouse è in grado di aggiungere nuove informazioni e di adattarsi ai cambiamenti. La dimostrazione mostra il mouse che sostituisce le informazioni vecchie e obsolete con ciò che sta imparando sulla nuova configurazione del labirinto. Mentre è la macchina sotto il pavimento del labirinto che effettivamente muove il mouse, la dimostrazione offre uno sguardo al tipo di comportamento intelligente che si può ottenere.

  • 01:00:00 In questa sezione, il video esplora la definizione di "pensare" e il suo rapporto con i computer. Mentre i computer eccellono nell'immagazzinare e richiamare informazioni, questo da solo non comprende il vero pensiero. Tuttavia, i computer possono eseguire operazioni logiche, come giocare a scacchi, in cui analizzano i dati e determinano la mossa migliore. Questa visualizzazione delle funzioni logiche di base ha assegnato ad alcuni computer il primo posto nei tornei di scacchi amatoriali.

  • 01:05:00 In questa sezione, il video esplora come i computer sono in grado di eseguire operazioni logiche, anche prendendo milioni di decisioni logiche ogni giorno, ma sono limitati in termini di capacità di visualizzazione e riconoscimento. Sebbene i computer possano produrre immagini e simulare progetti, hanno difficoltà a riconoscere modelli e generalizzare. Il video rileva anche la difficoltà nell'insegnare a un computer a tradurre le lingue a causa della mancanza di corrispondenza biunivoca tra parole di lingue diverse. In definitiva, i computer non hanno la capacità di pensare, sentire o avere considerazione per qualsiasi cosa.

  • 01:10:00 In questa sezione, il video discute le capacità dei computer in termini di emozioni e creatività. Sebbene i computer non possano effettivamente provare emozioni, possono essere programmati per simularle. Allo stesso modo, mentre la creatività è spesso considerata una capacità esclusivamente umana, i computer sono in grado di produrre film d'animazione e persino musica. L'utilità e l'efficienza dei computer, compresi i miliardi di operazioni matematiche che possono eseguire senza commettere errori, è innegabile, ma la questione se abbiano la capacità di "pensare" veramente è ancora in discussione.

  • 01:15:00 che i computer potessero giocare a dama e risolvere problemi complessi ha portato alla nascita dell'intelligenza artificiale (AI). Questa divenne una frontiera per l'esplorazione da parte di un gruppo di matematici, guidati da Marvin Minsky e John McCarthy, che istituirono un dipartimento al MIT per esplorare le possibilità dell'IA. Studenti come Jim Slagle hanno sviluppato programmi per risolvere problemi di calcolo e nel 1960 un computer è stato in grado di ottenere una A in un esame del MIT, ottenendo prestazioni pari a quelle di uno studente medio. Ciò ha dimostrato che i computer potrebbero avere intelligenza e ha sollevato speranze per un futuro in cui le macchine potrebbero pensare.

  • 01:20:00 In questa sezione, il documentario esplora i primi giorni dell'intelligenza artificiale e come i pionieri nel campo non si occupassero della costruzione fisica del cervello. Consideravano la mente come un'entità di elaborazione simbolica, mentre il cervello era semplicemente l'hardware su cui gira la mente. Il documentario sostiene che copiare ciecamente il modo di fare le cose della natura non è sempre una buona idea e che i tentativi di volo artificiale basati sul modo in cui volano gli uccelli sono stati un disastro. Il documentario evidenzia le difficoltà sorte quando gli scienziati del MIT hanno tentato di costruire una mente computerizzata che potesse interagire con il mondo e impilare blocchi. Si dice che sebbene possa sembrare un compito semplice, riconoscere i blocchi sia in realtà molto complicato, e il programma aveva delle strane idee su cosa succede ai blocchi quando li lasci andare.

  • 01:25:00 In questa sezione, il documentario esplora le sfide dell'insegnare ai computer a vedere ea muoversi come esseri umani. I ricercatori hanno scoperto che i problemi computazionali della visione erano così immensi che molti hanno deciso di concentrarsi su una forma di intelligenza disincarnata, nota come test di Turing, che misura la capacità di una macchina di usare il linguaggio in modo intelligente. Uno dei primi programmi per computer creati a questo scopo fu il programma "Eliza", che utilizzava una serie di trucchi per simulare la conversazione ma non poteva assolutamente superare il test di Turing. Il documentario evidenzia come la complessità della comprensione del linguaggio umano abbia reso difficile lo sviluppo di modelli linguistici di intelligenza artificiale in grado di comprendere il significato e il contesto come gli umani.

  • 01:30:00 In questa sezione, il video discute i primi tentativi di utilizzare i computer per tradurre le lingue, che hanno incontrato grossi problemi a causa di problemi di ambiguità e contesto. Nonostante le affermazioni secondo cui i computer potrebbero sostituire i traduttori umani, la complessità del linguaggio e la necessità di una conoscenza e comprensione umana comune hanno reso questo compito molto più difficile del previsto. L'incapacità dei computer di riconoscere i volti, imparare la lingua ed eseguire compiti semplici come indossare vestiti dimostra che le cose che le persone pensano siano facili sono in realtà molto difficili da realizzare per l'intelligenza artificiale. I fallimenti dell'IA hanno portato a un calo dei finanziamenti ea prospettive cupe per il settore.

  • 01:35:00 In questa sezione, vediamo che nonostante i risultati deludenti iniziali, il programma SHRDLU di Terry Winograd ha mostrato che i computer possono usare la conoscenza per risolvere l'ambiguità e l'apprendimento delle lingue. Tuttavia, era limitato a un micro-mondo simulato di blocchi. Edward Feigenbaum ei suoi colleghi hanno quindi sviluppato un sistema chiamato TENDRIL che ha catturato le regole che gli esperti in campi ristretti usano per prendere decisioni. Hanno scoperto che il comportamento esperto in aree ristrette richiede solo poche centinaia di conoscenze. Ciò ha portato allo sviluppo di sistemi esperti che si sono rivelati fragili e privi della flessibilità necessaria per operare al di fuori dei loro campi di conoscenza.

  • 01:40:00 In questa sezione, il documentario copre le sfide affrontate dai ricercatori linguistici negli anni '70 che cercavano di convincere i computer a seguire storie semplici come fanno i bambini. Hanno scoperto che il problema non era quello che diceva la storia, ma l'enorme numero di cose che non erano state dette perché erano troppo ovvie per valere la pena di affermarle. I ricercatori hanno sviluppato l'idea di costruire frame o script per diverse situazioni che il computer potrebbe incontrare, come una festa di compleanno, che conterrebbe tutte le cose che di solito accadono alle feste di compleanno. Tuttavia, la sfida era come includere le conoscenze di base generali, che non erano specifiche della situazione o del contesto. Questa conoscenza generale ha creato un problema di conoscenza del senso comune, rendendo difficile insegnare ai computer a interpretare storie semplici.

  • 01:45:00 In questa sezione, l'estratto discute la conoscenza del senso comune e la difficoltà di insegnarla alle macchine. La conoscenza del senso comune è la conoscenza intuitiva che tutti condividono, come sapere che gli oggetti cadono quando vengono rilasciati. Tuttavia, non si tratta solo di conoscenze fattuali, ma anche di competenze ed esperienze che le persone acquisiscono nel tempo. Gli scienziati sono stati a lungo interessati a insegnare alle macchine come apprendere e acquisire conoscenze come gli umani, ma i computer hanno iniziato con livelli di apprendimento così bassi che l'apprendimento automatico non è stato efficace fino a quando non hanno ricevuto grandi quantità di conoscenza basata sul buon senso. Il progetto PYSCH è stato creato in Texas nel 1984 per inserire la conoscenza del buon senso ed è stato il test definitivo dell'IA. Tuttavia, i critici sostenevano che il vero buon senso dipendesse dall'avere un corpo umano, e che la conoscenza del buon senso non è fatta solo di fatti, ma anche di esperienze e abilità che i bambini acquisiscono nel tempo.

  • 01:50:00 In questa sezione, il video esplora l'idea della conoscenza del senso comune e di come viene acquisita attraverso le esperienze del mondo, ma presenta anche il caso di un paziente senza esperienze fisiche che ha comunque acquisito il senso comune attraverso il linguaggio. Il video approfondisce quindi l'argomento secondo cui per costruire una mente artificiale, bisogna prima costruire un cervello artificiale. La complessità del cervello umano, costituito da miliardi di neuroni collegati in migliaia di modi, ha ispirato gli scienziati negli anni '50 a perseguire l'idea di costruire un cervello artificiale, portando allo sviluppo di percettroni che successivamente si sono evoluti in reti neurali. Il moderno modello di percezione delle reti neurali è un movimento in crescita chiamato connessionisti e si concentra sull'apprendimento automatico attraverso il cervello piuttosto che la mente.

  • 01:55:00 tentativi ed errori, in questa sezione il documentario si concentra sulle reti neurali e sui loro limiti. Sebbene inizialmente le reti neurali fossero attraenti, sono in grado di svolgere solo compiti di portata ridotta e i ricercatori non comprendono ancora appieno come apprendono. L'esempio di una rete neurale che impara a distinguere tra immagini con carri armati e senza di essi evidenzia il potenziale per le reti di giungere a conclusioni errate. Sebbene la possibilità che minuscole reti neurali catturino qualcosa di elaborato come il buon senso sia intrigante, i ricercatori ammettono che questo obiettivo a lungo termine è ancora lontano dall'essere raggiungibile con la tecnologia odierna. Inoltre, i tentativi di creare reti neurali più grandi di poche centinaia di neuroni spesso si ritorcono contro a causa del lungo tempo di addestramento richiesto. Pertanto, i ricercatori devono capire come la natura costruisce e coordina molte micro-macchine all'interno del cervello prima che possa essere costruita una versione completamente artificiale.

  • 02:00:00 In questa sezione, la trascrizione discute di come le applicazioni pratiche dell'intelligenza artificiale si siano appropriate del termine, ma sono lontane dalla ricerca originale di raggiungere un'intelligenza generica basata sul buon senso. Tuttavia, la ricerca dell'IA non è stata abbandonata e il progetto Cyc, avviato da Doug Leonard nel 1984, è ancora in corso. Il progetto mira a costruire una mente che sappia abbastanza per comprendere il linguaggio e apprendere tutto ciò che gli esseri umani sanno. Nonostante sia un software senza corpo o esperienza diretta del mondo, Psyche, l'entità AI nel progetto Cyc, analizza le incoerenze nel suo database e fa nuove interessanti scoperte, dimostrando di vedere il mondo in un modo unico.

  • 02:05:00 In questa sezione, la discussione si concentra sul potenziale di comprensione generale del linguaggio naturale nell'intelligenza artificiale e sulla necessità di raggiungere questo obiettivo per prevenire la scomparsa dell'IA simbolica. Il progetto Psyche è menzionato come un progetto ad alto rischio con un alto potenziale di guadagno se riesce a superare il test di Turing per la comprensione generale del linguaggio naturale. Tale successo potrebbe portare allo sviluppo di programmi di apprendimento automatico per apprendere cose sconosciute, amplificando così l'intelligenza in modi attualmente inimmaginabili. Il dottor John McCarthy, uno dei fondatori dell'intelligenza artificiale, riflette sulla storia della disciplina e ha previsto l'impatto che avrebbe avuto sulla società.

  • 02:10:00 In questa sezione, il video discute le difficoltà nel realizzare programmi per computer intelligenti quanto gli umani. Nonostante alcuni primi progressi con problemi difficili come la risoluzione di teoremi matematici, compiti di buon senso come il riconoscimento del parlato si sono dimostrati difficili per l'intelligenza informatica. Il relatore ei suoi colleghi hanno lavorato per sviluppare modelli formali di intelligenza equivalenti all'intelligenza umana, ma ci sono diversi approcci per raggiungere questo obiettivo. Anche il campo della psicologia ha avuto un ruolo da svolgere in questo, con l'informatica che li ha aiutati ad allontanarsi dal comportamentismo e ad acquisire intuizioni sulla cognizione.

  • 02:15:00 In questa sezione, gli esperti discutono dell'impatto dei computer nel campo della psicologia e di come il concetto di coscienza sia stato affrontato in entrambi i campi. Sebbene i computer abbiano offerto grandi intuizioni sul funzionamento della mente, la questione se i computer possano mai essere veramente autocoscienti rimane oggetto di dibattito filosofico. Inoltre, l'idea che la coscienza sia semplicemente la somma delle sue parti, come una macchina, non è del tutto esatta, poiché la mente è un sistema complesso di parti specializzate che interagiscono in modi specifici.

  • 02:20:00 In questa sezione, l'intervistato discute il ritiro dell'idea che gli esseri umani abbiano qualcosa che trascende gli aspetti meccanicistici del nostro essere, poiché è stato scoperto di più sulla fisiologia e psicologia umana. Nonostante ciò, ci sono ancora aspetti della coscienza umana che non sono stati realizzati nelle macchine nei programmi per computer. L'intervistato, che è ottimista sull'IA, parla della raccolta di problemi su cui può essere applicata la forza bruta del computer, che è piuttosto limitata, e che il problema centrale dell'intelligenza artificiale consiste nell'esprimere la conoscenza del mondo necessaria per un comportamento intelligente. La logica matematica è stata perseguita come strumento per questo, e alla fine degli anni '70, diverse persone hanno scoperto modi per formalizzare ciò che chiamano ragionamento non monotono, estendendo notevolmente il potere della logica matematica nell'area del senso comune.

  • 02:25:00 In questa sezione, l'intervistato discute il ragionamento non monotono e come pone una sfida al pensiero umano nei computer. La logica ordinaria funziona aggiungendo più premesse per trarre più conclusioni, mentre il ragionamento umano non ha sempre questa proprietà. Ad esempio, il termine "uccello" ha il presupposto incorporato che possa volare e un contesto aggiuntivo può modificare le conclusioni tratte da ciò. Il ragionamento non monotono può essere utilizzato come strumento matematico per formalizzare questo tipo di pensiero e introdurre la consapevolezza del contesto nei computer. Tuttavia, la sfida con il contesto è che ci sono sempre eccezioni che non possono essere spiegate, quindi è necessario un sistema in cui viene fatta un'ipotesi a meno che non ci siano prove del contrario.

  • 02:30:00 In questa sezione, John McCarthy, un pioniere dell'intelligenza artificiale, discute la storia dell'IA e spiega perché gli esseri umani hanno impiegato così tanto tempo a sviluppare l'intelligenza artificiale. Spiega che la nostra limitata capacità di osservare i nostri processi mentali ha ostacolato il nostro progresso, come si è visto con l'incapacità di Leibniz di inventare il calcolo proposizionale che fu invece inventato da Boule 150 anni dopo. Riconosce inoltre che sono necessarie scoperte concettuali per il futuro dell'IA e che potrebbero essere necessari da pochi decenni a diverse centinaia di anni per ottenere una vera intelligenza simile a quella umana nelle macchine. Nonostante le critiche sull'impossibilità di replicare l'intelligenza umana, McCarthy vede l'obiettivo dell'IA come un nobile progetto per comprendere meglio noi stessi.
The History of Artificial Intelligence [Documentary]
The History of Artificial Intelligence [Documentary]
  • 2020.03.26
  • www.youtube.com
Visit Our Parent Company EarthOne For Sustainable Living Made Simple ➤https://earthone.io/ This video is the culmination of documentaries that cover the hist...
 

La nascita dell'Intelligenza Artificiale



La nascita dell'Intelligenza Artificiale

Il video discute la nascita della moderna intelligenza artificiale (AI) e l'ottimismo che ne è derivato durante gli "anni d'oro" dell'IA negli anni '60 e all'inizio degli anni '70. Tuttavia, il campo ha affrontato sfide significative, incluso il primo inverno AI a metà degli anni '70 a causa della difficoltà dei problemi che hanno dovuto affrontare e delle limitate prestazioni computazionali.

I sistemi esperti hanno segnato un punto di svolta nel settore, spostando l'attenzione dallo sviluppo dell'intelligenza generale a un'intelligenza artificiale ristretta specifica del dominio e hanno contribuito ad aumentare l'efficienza aziendale. Tuttavia, il clamore che circonda i sistemi esperti ha portato a una diminuzione dei finanziamenti, in particolare dopo il crollo del mercato del 1987. Il video riconosce le sfide della comprensione e della definizione dell'IA, raccomandando Brilliant come risorsa per le persone per conoscere l'IA dagli elementi costitutivi fondamentali alle architetture più avanzate.

  • 00:00:00 In questa sezione apprendiamo la nascita ufficiale dell'intelligenza artificiale moderna al progetto di ricerca estivo di Dartmouth nel 1956, dove fu coniato per la prima volta il termine "intelligenza artificiale". La conferenza mirava a simulare l'apprendimento umano descrivendo ogni caratteristica dell'intelligenza che le macchine potrebbero simulare. I sette aspetti includevano la programmazione dei computer per utilizzare il linguaggio, le reti neurali, l'astrazione, l'auto-miglioramento, la casualità e la creatività. Il periodo successivo alla conferenza era noto come gli "anni d'oro" dell'IA, in cui iniziarono ad essere implementate teorie e algoritmi informatici e di intelligenza artificiale, inclusi ragionamenti come ricerca, reti semantiche e micro-mondi. Questi algoritmi erano rivoluzionari e hanno infuso ottimismo nel campo, inducendo persone come Marvin Minsky a credere che la creazione di intelligenza artificiale potesse essere risolta sostanzialmente entro una generazione.

  • 00:05:00 In questa sezione, il video esplora la nascita dell'intelligenza artificiale e come ha generato molto ottimismo e clamore negli anni '60 e nei primi anni '70. Ciò ha portato a enormi quantità di finanziamenti principalmente dal governo per la ricerca e l'implementazione dell'IA, portando molti istituti di ricerca all'avanguardia nella ricerca sull'IA oggi. Tuttavia, a metà degli anni '70, iniziò il primo inverno dell'IA a causa dell'incapacità di apprezzare la difficoltà dei problemi che dovevano affrontare, unita al fatto che il campo dell'informatica era ancora in fase di definizione durante questo periodo. Sono stati elencati cinque problemi, incluso il fatto che le scoperte sono state fatte con prestazioni computazionali limitate e il paradosso di Moravec, una teoria postulata dal ricercatore di intelligenza artificiale e robotica Hans Moravec alla Carnegie Mellon.

  • 00:10:00 In questa sezione, apprendiamo come i sistemi esperti hanno segnato un importante punto di svolta nel campo dell'IA, spostando l'attenzione dallo sviluppo dell'intelligenza generale all'IA ristretta e specifica del dominio. I sistemi esperti, basati sulla conoscenza di esperti in un dominio specifico, hanno avuto impatti tangibili nel mondo reale e hanno aiutato le aziende ad aumentare la loro efficienza, come si è visto con il sistema esperto di logistica XCON, che ha consentito alla società di apparecchiature digitali di risparmiare quasi 40 milioni di dollari all'anno. Inoltre, l'ascesa dei sistemi esperti ha contribuito a far rivivere il connessionismo, che è emerso come un modo praticabile per apprendere ed elaborare le informazioni. La rete Hopfield e la backpropagation, metodi per l'addestramento dell'IA, sono stati resi popolari e perfezionati durante questo periodo di tempo, aprendo la strada al deep learning. Tuttavia, quando le aspettative per i sistemi esperti sono andate fuori controllo e hanno iniziato a comparire crepe nei loro fragili sistemi basati sulla logica condizionale, i finanziamenti per l'IA sono diminuiti di nuovo a causa, in parte, del crollo del 1987 nei mercati mondiali.

  • 00:15:00 In questa sezione, la trascrizione discute le sfide della definizione e comprensione dell'intelligenza artificiale (AI), in particolare a causa dei cicli di pubblicità che si sono succeduti nel secolo scorso. Il video riconosce la confusione che è sorta con l'ascesa e la caduta delle parole d'ordine dell'IA, dal deep learning all'intelligenza umana artificiale. La speranza è di separare l'hype dalle attuali applicazioni pratiche dell'IA, come le competenze specifiche del dominio nei sistemi di deep learning. Il video consiglia Brilliant come risorsa per le persone per mantenere il cervello acuto e conoscere l'intelligenza artificiale dai suoi elementi costitutivi fondamentali alle architetture più avanzate.
The Birth of Artificial Intelligence
The Birth of Artificial Intelligence
  • 2020.04.23
  • www.youtube.com
This video was made possible by Brilliant. Be one of the first 200 people to sign up with this link and get 20% off your premium subscription with Brilliant....
 

Spiegazione dell'apprendimento automatico supervisionato




Spiegazione dell'apprendimento automatico supervisionato

Il video spiega che l'apprendimento supervisionato coinvolge un set di dati etichettato, con l'obiettivo di apprendere una funzione di mappatura dalle variabili di input alle variabili di output. Il set di dati etichettato è suddiviso in un set di addestramento e un set di test, con il modello che viene addestrato sul set di addestramento e valutato sul set di test per misurarne l'accuratezza.
Il video rileva che l'overfitting può verificarsi se il modello è troppo complesso e si adatta troppo strettamente al training set, con conseguenti scarse prestazioni sui nuovi dati, mentre l'underfitting si verifica se il modello è troppo semplice e non è in grado di catturare la complessità dei dati. Il video fornisce l'esempio del set di dati dell'iride e illustra il processo di addestramento di un modello per prevedere le specie di un nuovo fiore di iris in base alle sue misurazioni, utilizzando l'algoritmo dell'albero delle decisioni.

  • 00:00:00 In questa sezione, il video spiega la definizione e gli scopi dell'apprendimento automatico, che può essere utilizzato per fare previsioni basate su dati passati. Il video fornisce l'esempio della regressione, che misura le relazioni tra le variabili, crea una linea di miglior adattamento e utilizza quella linea per prevedere nuovi dati. Il video espande quindi questa idea per spiegare i problemi di classificazione, che comporta l'aggiunta di dati di etichetta e la creazione di limiti decisionali per classificare l'etichetta di output di nuovi dati. Il video esamina l'accuratezza di questo modello e spiega che gli algoritmi di machine learning cercano di massimizzare l'accuratezza del modello. Il video rileva che gli alberi decisionali sono un tipo di algoritmo di apprendimento automatico che utilizza un approccio basato su istruzioni condizionali, simile ai sistemi esperti.

  • 00:05:00 In questa sezione, il video approfondisce i diversi tipi di algoritmi che possono essere utilizzati per l'apprendimento automatico, comprese le macchine vettoriali di supporto e come è possibile aggiungere ulteriori variabili per spazi dimensionali superiori. Il video tocca anche l'intersezione tra intelligenza artificiale, big data e scienza dei dati, con scienza dei dati e statistica considerate la stessa cosa per semplicità. Il video prosegue poi spiegando l'apprendimento supervisionato, che comprende due modalità principali di modelli di apprendimento, regressione e classificazione, e come si tratti essenzialmente di matematica statistica per problemi di riconoscimento di schemi, ribattezzati come apprendimento automatico. Il video si conclude con una menzione dell'apprendimento non supervisionato e del deep learning, che saranno trattati in video futuri, e una raccomandazione di Brilliant.org per coloro che sono interessati a saperne di più sulla matematica e la scienza alla base di questi concetti.
Supervised Machine Learning Explained
Supervised Machine Learning Explained
  • 2020.05.07
  • www.youtube.com
This video was made possible by Brilliant. Be one of the first 200 people to sign up with this link and get 20% off your premium subscription with Brilliant....
 

Spiegazione dell'apprendimento automatico senza supervisione



Spiegazione dell'apprendimento automatico senza supervisione

Il video spiega l'apprendimento automatico non supervisionato, che si occupa di dati non etichettati e non strutturati e viene utilizzato principalmente per derivare la struttura da dati non strutturati. È diviso in due tipi: associazione e clustering, in cui il clustering implica l'utilizzo di algoritmi come K-means clustering per dividere lo spazio decisionale in categorie o cluster discreti.

I problemi di associazione identificano le correlazioni tra le caratteristiche del set di dati e per estrarre associazioni significative, la complessità delle colonne deve essere ridotta attraverso la riduzione della dimensionalità. Questo processo comporta la riduzione al minimo del numero di funzionalità necessarie per rappresentare un punto dati e ottenere risultati e associazioni significativi, evitando al contempo l'underfitting o l'overfitting. Il segmento finale del video ha introdotto il concetto di apprendimento della matematica e delle scienze su Brilliant, una piattaforma che offre un apprendimento piacevole e interconnesso di matematica e scienze e offre uno sconto del 20% sugli abbonamenti premium per la visualizzazione di contenuti di futurologia. Il video ha anche sollecitato il supporto per il canale su Patreon o l'abbonamento a YouTube e ha accolto con favore suggerimenti per argomenti futuri nei commenti.

  • 00:00:00 In questa sezione, apprendiamo l'apprendimento automatico non supervisionato, che riguarda i dati non etichettati e non strutturati. È rappresentativo della maggior parte dei problemi del mondo reale e si svolge nel crossover tra i big data e il campo dell'intelligenza artificiale. L'apprendimento non supervisionato viene utilizzato principalmente per derivare la struttura da dati non strutturati. Questo tipo di apprendimento è suddiviso in due tipi principali: associazione e clustering. Il clustering implica l'uso di algoritmi come il clustering K-means, in cui l'obiettivo è dividere uno spazio decisionale con un numero di punti dati in un numero specificato di categorie o cluster discreti. Questo viene fatto aggiungendo prima i centroidi e quindi riassegnando in modo iterativo i punti dati ai loro nuovi cluster durante l'aggiornamento dei centroidi.

  • 00:05:00 In questa sezione, l'attenzione si sposta dal clustering all'associazione nell'apprendimento non supervisionato. I problemi di associazione identificano le correlazioni tra le caratteristiche di un set di dati, a differenza del clustering, che raggruppa insieme punti di dati simili. Per estrarre associazioni significative, la complessità delle colonne nel set di dati deve essere ridotta attraverso la riduzione della dimensionalità, in cui il numero di funzionalità per rappresentare in modo univoco un punto dati è ridotto al minimo. L'estrazione delle funzionalità può essere eseguita selezionando un numero ottimale di funzionalità per evitare l'underfitting o l'overfitting del set di dati. La riduzione della dimensionalità si ottiene attraverso l'apprendimento multiplo, in cui i dati ad alta dimensione possono essere rappresentati da varietà a bassa dimensione. La rappresentazione a bassa dimensione del set di dati contiene il set di funzionalità ridotto necessario per rappresentare il problema e produrre comunque risultati e associazioni significativi. L'ingegneria delle funzionalità è un sottocampo dell'apprendimento automatico che include la riduzione della dimensionalità, la selezione delle funzionalità e l'estrazione.

  • 00:10:00 Questa parte finale del video introduce il concetto di apprendimento della matematica e delle scienze per acquisire una comprensione più profonda dei concetti discussi nel canale. Brilliant, una piattaforma che rende l'apprendimento di matematica e scienze entusiasmante, interconnesso e offre apprendimento offline. Inoltre, gli utenti possono conoscere la futurologia e ottenere uno sconto del 20% sugli abbonamenti premium visitando il link fornito. Infine, gli spettatori sono incoraggiati a supportare il canale su Patreon o sull'abbonamento YouTube e a lasciare suggerimenti per argomenti futuri nei commenti.
Unsupervised Machine Learning Explained
Unsupervised Machine Learning Explained
  • 2020.05.14
  • www.youtube.com
This video was made possible by Brilliant. Be one of the first 200 people to sign up with this link and get 20% off your premium subscription with Brilliant....
 

Che cos'è l'apprendimento automatico (spiegazione dell'apprendimento automatico)



Che cos'è l'apprendimento automatico (spiegazione dell'apprendimento automatico)

L'apprendimento automatico è un campo di studio che consente ai computer di apprendere senza essere esplicitamente programmati. Implica l'utilizzo di algoritmi per formare limiti decisionali sullo spazio decisionale di un set di dati. Questa comprensione dell'apprendimento automatico è la seconda più utilizzata e stabilita dal Dr. Tom Mitchell.

L'apprendimento automatico può essere attribuito all'aumento della potenza di calcolo e dell'archiviazione che ha consentito dati più grandi e migliori e all'ascesa del deep learning. Sebbene sia classificata come intelligenza artificiale debole poiché i compiti che svolge sono spesso isolati e specifici del dominio. L'apprendimento automatico comprende molti approcci e modelli diversi e, sebbene non possano mai essere accurati al 100% nel prevedere gli output nei problemi del mondo reale a causa di astrazioni e semplificazioni, possono comunque essere utili in un'ampia gamma di applicazioni. Brilliant è menzionato come una delle risorse per l'apprendimento dell'apprendimento automatico e di altri argomenti STEM.

  • 00:00:00 In questa sezione, l'attenzione è rivolta al significato e alla definizione dell'apprendimento automatico e al suo rapporto con l'intelligenza artificiale. L'apprendimento automatico è un campo di studio che offre ai computer la capacità di apprendere senza essere esplicitamente programmati. Implica l'uso di algoritmi per formare limiti decisionali sullo spazio decisionale di un set di dati. Il processo di formazione del modello è noto come addestramento e, una volta che un modello addestrato mostra una buona accuratezza sui dati di addestramento, può essere utilizzato per l'inferenza per prevedere nuovi output di dati. Questo processo definisce la seconda definizione più diffusa di apprendimento automatico stabilita dal Dr. Tom Mitchell della Carnegie Mellon University.

  • 00:05:00 In questa sezione, il video esplora l'ascesa dell'apprendimento automatico e dell'intelligenza artificiale evidenziando le cinque principali tribù dell'apprendimento automatico: simbolisti, connessionisti, evoluzionisti, bayesiani e analogizzatori. Continua spiegando come lo sviluppo dell'IA sia passato dal tentativo di creare un'IA più generale e forte nei primi giorni dell'IA, a concentrarsi sull'acquisizione di competenze specifiche del dominio in vari campi. L'ascesa dell'apprendimento automatico può essere attribuita all'aumento della potenza di calcolo e dell'archiviazione che ha consentito dati più grandi e migliori e all'ascesa del deep learning. Inoltre, il video tocca quante scoperte AI sono state rese possibili a causa dei dati che rappresentano un enorme collo di bottiglia nel settore.

  • 00:10:00 Questa sezione spiega che mentre l'apprendimento automatico è una forma di intelligenza artificiale, è classificato come AI debole perché le attività che esegue sono spesso isolate e specifiche del dominio. L'apprendimento automatico comprende molti approcci diversi, da regole complesse e alberi decisionali ad approcci basati sull'evoluzione e altro ancora, tutti con l'obiettivo di modellare le complessità della vita proprio come il nostro cervello cerca di fare. Sebbene sia riconosciuto che i modelli non possono mai essere accurati al 100% nel prevedere gli output nei problemi del mondo reale a causa di astrazioni e semplificazioni, i modelli di machine learning possono comunque essere utili in un'ampia gamma di applicazioni. Il video incoraggia gli spettatori a cercare risorse aggiuntive per saperne di più, tra cui Brilliant, una piattaforma che offre corsi e sfide quotidiane che coprono una varietà di argomenti STEM.
What Is Machine Learning (Machine Learning Explained)
What Is Machine Learning (Machine Learning Explained)
  • 2020.05.30
  • www.youtube.com
This video was made possible by Brilliant. Be one of the first 200 people to sign up with this link and get 20% off your premium subscription with Brilliant....
 

Spiegazione del deep learning (e perché il deep learning è così popolare)



Spiegazione del deep learning (e perché il deep learning è così popolare)

Il video spiega che la popolarità del deep learning deriva dal fatto che può apprendere le funzionalità direttamente dai dati e utilizza le reti neurali per apprendere le funzionalità sottostanti in un set di dati. L'ascesa del deep learning può essere attribuita ai big data, alla maggiore potenza di elaborazione e alle interfacce software semplificate.

  • 00:00:00 In questa sezione, il video spiega che il deep learning è un sottocampo dell'intelligenza artificiale che è diventato popolare grazie al successo della tribù connessionista del machine learning. I sistemi di deep learning possono apprendere le funzionalità direttamente dai dati e utilizzare le reti neurali per apprendere le funzionalità sottostanti in un set di dati. L'elemento chiave del deep learning è che i livelli di funzionalità vengono appresi dai dati utilizzando una procedura di apprendimento generico, invece di essere ingegnerizzati manualmente. Il video offre anche un esempio di una rete neurale che rileva un volto in un'immagine di input, partendo da caratteristiche di basso livello, individuando caratteristiche di medio livello e infine scoprendo caratteristiche di alto livello per identificare varie strutture facciali. Il video infine rileva che la vera nascita del deep learning è avvenuta nel 2012 con il concorso ImageNet, dove l'algoritmo vincente aveva un tasso di errore del 16%, quasi il 10% in più rispetto al suo concorrente più vicino.

  • 00:05:00 In questa sezione, il video illustra come l'ascesa del deep learning possa essere attribuita a fattori quali la pervasività dei big data, l'aumento della potenza di calcolo, le interfacce software semplificate come TensorFlow e la capacità del deep learning di elaborare dati non strutturati. Il video tocca anche lo sviluppo storico delle reti neurali, dalle reti perceptron a strato singolo degli anni '60 alle moderne reti profonde con decine o centinaia di strati. Inoltre, il video consiglia Brilliant.org come un'ottima risorsa di apprendimento per coloro che sono interessati a immergersi più a fondo nel campo del deep learning.
Deep Learning Explained (& Why Deep Learning Is So Popular)
Deep Learning Explained (& Why Deep Learning Is So Popular)
  • 2020.08.01
  • www.youtube.com
This video was made possible by Brilliant. Be one of the first 200 people to sign up with this link and get 20% off your premium subscription with Brilliant....
 

Dal cervello all'intelligenza artificiale (cosa sono le reti neurali)




Dal cervello all'intelligenza artificiale (cosa sono le reti neurali)

Il video discute i componenti di un neurone artificiale, che è l'elemento principale di una rete neurale artificiale, e come si basa sulla struttura di un neurone biologico.

Spiega anche come le reti neurali derivano la rappresentazione da grandi quantità di dati in un processo strato per strato che può essere applicato a qualsiasi tipo di input. Il video consiglia di andare su brillante.org per saperne di più sugli elementi costitutivi fondamentali degli algoritmi di deep learning.

  • 00:00:00 In questa sezione, il video spiega le basi di un neurone artificiale, il componente principale di una rete neurale artificiale. La struttura di un neurone artificiale è simile a un neurone biologico, con tre componenti principali: il soma o il nucleo, i dendriti o le braccia che si connettono ad altri neuroni, e l'assone o la lunga coda che trasmette le informazioni da e verso la cellula corpo. Il video mostra come la struttura di base di un'architettura di rete neurale di deep learning sia stata derivata dal primo disegno di un neurone di Santiago Ramon y Cajal, che rappresenta i dendriti come input, il soma come centro di elaborazione e l'assone come output. Inoltre, sono state modellate le connessioni o sinapsi tra i neuroni e la forza della connessione è stata collegata allo spessore della linea.

  • 00:05:00 In questa sezione, il video illustra come funzionano le reti neurali nel derivare la rappresentazione da grandi quantità di dati. Continua spiegando come ciò avvenga in un processo strato per strato che può tradursi in qualsiasi tipo di input, dai valori dei pixel di un riconoscimento dell'immagine alle frequenze audio del parlato per il riconoscimento vocale o all'anamnesi di un paziente per prevedere il probabilità di cancro. Il video menziona anche che per saperne di più sul campo, si dovrebbe prendere in considerazione la possibilità di visitare brillante.org, una piattaforma per mantenere il proprio cervello acuto e creativo e comprendere gli elementi costitutivi fondamentali degli algoritmi di deep learning.
From The Brain To AI (What Are Neural Networks)
From The Brain To AI (What Are Neural Networks)
  • 2020.08.30
  • www.youtube.com
This video was made possible by Brilliant. Be one of the first 200 people to sign up with this link and get 20% off your premium subscription with Brilliant....
 

Come creare una rete neurale | Spiegazione delle reti neurali



Come creare una rete neurale | Spiegazione delle reti neurali

Il video spiega come le reti neurali formano capacità di riconoscimento di modelli discutendo la struttura e la matematica coinvolta. Utilizza un'immagine come esempio e discute il livello di input, i nodi del livello di output e introduce l'idea dei livelli nascosti.

Il video approfondisce quindi le funzioni di attivazione e il modo in cui convertono i segnali di ingresso in segnali di uscita. Vengono discussi la funzione di tangente iperbolica e lo strato di unità lineare rettificato e viene rivelato che la rete neurale costruita richiede una significativa ingegneria umana per garantire valori non ambigui. Il video consiglia Brilliant.org per saperne di più.

  • 00:00:00 In questa sezione, il video continua da dove si era interrotto l'ultimo, discutendo ulteriormente la struttura e la matematica delle reti neurali per vedere come formano le capacità di riconoscimento dei modelli. Per comprendere meglio questo argomento complesso, verrà utilizzata un'immagine come esempio intuitivo. Il livello di input è definito come i pixel che compongono l'immagine ei nodi del livello di output sono impostati arbitrariamente per quattro diversi tipi di strutture. Il video introduce quindi l'idea dei livelli nascosti, a cui possono essere applicate funzioni di attivazione per rimappare il valore di input e aggiungere limiti al valore del nodo non elaborato. I pesi sono anche incorporati per mostrare come l'input al nostro nodo di livello nascosto viene influenzato da immagini di input casuali.

  • 00:05:00 In questa sezione, il video illustra come funzionano le funzioni di attivazione per convertire i segnali di ingresso in un segnale di uscita che può essere compreso dai seguenti livelli in una rete neurale. La funzione di tangente iperbolica viene utilizzata come esempio, che associa tutti i valori sull'asse X a un valore Y compreso tra meno uno e uno. Aggiungendo più nodi, i campi ricettivi diventano più complicati e, ad esempio, nel terzo strato nascosto, la rete inizia a riconoscere schemi come una croce rovesciata. Infine, viene introdotto lo strato di unità lineare rettificato, che rettifica i valori negativi e mantiene uguali quelli positivi, portando a una rete neurale completa pronta per il test.

  • 00:10:00 In questa sezione, la rete neurale creata nella sezione precedente viene analizzata in profondità per capire come identifica i modelli in un'immagine di input. Viene rivelato che la rete costruita non è perfetta e richiede una significativa ingegneria umana per garantire valori non ambigui. Il prossimo video della serie riguarderà la discesa del gradiente e la retropropagazione, i metodi che mettono l'apprendimento nel deep learning e come consentono alla rete di costruire la propria rappresentazione.
How To Make A Neural Network | Neural Networks Explained
How To Make A Neural Network | Neural Networks Explained
  • 2020.09.26
  • www.youtube.com
This video was made possible by Brilliant. Be one of the first 200 people to sign up with this link and get 20% off your premium subscription with Brilliant....
 

Come imparano i computer | Spiegazione delle reti neurali (discendente del gradiente e retropropagazione)



Come imparano i computer | Spiegazione delle reti neurali (discendente del gradiente e retropropagazione)

Questo video spiega come le reti neurali apprendono modificando i pesi nei livelli nascosti per consentire alla rete di determinarli. Il concetto di funzione di costo viene introdotto per minimizzare il tasso di errore della rete neurale e la retropropagazione viene spiegata come il processo essenziale per regolare i parametri della rete.

I tre componenti principali dell'apprendimento automatico, tra cui rappresentazione, valutazione e ottimizzazione, sono trattati nella tribù del connessionismo. Il video rileva inoltre che la rete non sempre si dispone perfettamente in strati di astrazione. L'obiettivo del deep learning è che la rete impari e metta a punto i pesi da sola.

  • 00:00:00 In questa sezione, l'attenzione si concentra sul modo in cui le reti neurali apprendono effettivamente. Il primo passo è modificare la rete modificando i pesi nei livelli nascosti, che abbiamo precedentemente impostato manualmente, per consentire alla rete stessa di determinarli. Con 181 pesi potenziali, diventa un compito arduo visualizzare l'effetto di ciascuno sullo spazio decisionale dell'output. Per semplificare le cose, viene utilizzato un numero semplice con 12 pesi e le equazioni del nodo di output vengono tracciate con limiti decisionali, dove P è maggiore di Q in rosso e minore di Q in blu. La modifica dei valori ponderati nella rete altera la pendenza del confine decisionale. Si osserva che tutte le modifiche risultanti dalla modifica del peso si traducono in output lineari con linee rette fino a quando non viene applicata una funzione di attivazione come la funzione sigmoide per aggiungere non linearità. Per raggiungere il deep learning, l'obiettivo è che il processo di apprendimento e la messa a punto del peso vengano eseguiti dalla rete stessa.

  • 00:05:00 In questa sezione, il video spiega il concetto di funzione di costo e come aiuta a ridurre al minimo il tasso di errore della rete neurale. Il video spiega anche il processo di backpropagation che è essenziale per regolare i valori dei parametri della rete neurale. La discesa del gradiente è il metodo per determinare in quale direzione muoversi e la retropropagazione regola effettivamente i parametri su quel valore, consentendo alla rete di produrre i risultati desiderati. L'obiettivo è avvicinare i valori ponderati alla verità fondamentale per ridurre al minimo il valore della funzione di costo. Il processo si ripete durante l'addestramento della rete finché i pesi non raggiungono un punto in cui producono i risultati che ci aspettiamo di vedere.

  • 00:10:00 In questa sezione, apprendiamo le tre componenti principali dell'apprendimento automatico nella tribù del connessionismo, che includono rappresentazione, valutazione e ottimizzazione. La rappresentazione è ottenuta utilizzando una funzione di rete neurale, che definisce uno spazio di rappresentazione, e la valutazione viene effettuata calcolando l'errore al quadrato dei nodi in uscita, che viene utilizzato per ottenere una funzione di costo o di utilità. Infine, l'ottimizzazione si ottiene ricercando lo spazio dei moduli di rappresentazione, e ciò si ottiene attraverso la discesa del gradiente e la retropropagazione. Sebbene abbiamo fatto molte generalizzazioni su come dovrebbero funzionare le reti neurali artificiali, ci sono ancora molte cose che non abbiamo trattato. Una cosa del genere è che la rete non si dispone sempre in perfetti strati di astrazione.
How Computers Learn | Neural Networks Explained (Gradient Descent & Backpropagation)
How Computers Learn | Neural Networks Explained (Gradient Descent & Backpropagation)
  • 2020.10.25
  • www.youtube.com
This video was made possible by Surfshark. Sign up with this link and enter the promo code 'Futurology' to get 83% off and an extra month free of your VPN pl...
 

Come funzionano le reti neurali | Spiegazione delle reti neurali



Come funzionano le reti neurali | Spiegazione delle reti neurali

Il video spiega il parametro bias nelle reti neurali, che avvia i nodi da attivare quando viene raggiunta una determinata soglia, nonché la differenza tra parametri e iperparametri, con gli iperparametri che necessitano di messa a punto tramite tecniche di ottimizzazione.

Viene anche discusso il tasso di apprendimento e vengono evidenziate le sfide per trovare il tasso ottimale evitando l'overfitting o l'underfitting. L'ingegneria delle funzionalità è un altro sottocampo che si trova nelle reti neurali, in cui gli analisti devono determinare le funzionalità di input che descrivono accuratamente un problema. Il video osserva che mentre le reti neurali artificiali teoriche implicano livelli di astrazione perfetti, in realtà è molto più casuale a causa del tipo di rete utilizzata, che viene scelta selezionando gli iperparametri più importanti.

  • 00:00:00 In questa sezione, il video discute alcuni dei concetti che non erano trattati nei video precedenti sul deep learning. Viene spiegato il parametro bias nelle reti neurali, che è un altro parametro che deve essere ottimizzato per apprendere la rappresentazione. Lo scopo del parametro bias è di far ripartire i nodi in modo che si attivino fortemente quando viene raggiunta una determinata soglia. Il video spiega che il bias è un'intercetta Y di un'equazione lineare, dove il peso è la pendenza. Viene inoltre discusso il concetto di parametri contro iperparametri, in cui gli iperparametri sono configurazioni esterne al modello e il cui valore non può essere stimato dai dati. La discussione evidenzia che l'ottimizzazione e l'ottimizzazione degli iperparametri è un intero sottocampo del deep learning e sono necessarie tecniche diverse per trovare i valori migliori per parametri diversi. Viene spiegato anche il tasso di apprendimento, che è un iperparametro, e il valore del tasso di apprendimento ha enormi implicazioni per la rappresentazione che costruirà una rete neurale.

  • 00:05:00 In questa sezione, il video spiega le sfide per trovare il tasso di apprendimento ideale e l'ingegneria delle caratteristiche nelle reti neurali. Per trovare il tasso di apprendimento ottimale, ci vuole molto lavoro per garantire che la rete neurale funzioni correttamente. Un tasso di apprendimento inappropriato può portare a overfitting o underfitting che potrebbero causare un aumento della potenza di calcolo e del consumo di tempo. L'ingegneria delle caratteristiche, d'altra parte, è il sottocampo in cui un analista deve determinare le caratteristiche di input che descrivono accuratamente il problema che sta cercando di risolvere. È essenziale catturare le caratteristiche che rafforzano il segnale e rimuovono il rumore, poiché l'underfitting può verificarsi quando ci sono poche funzionalità, mentre l'overfitting è quando il modello è troppo specializzato e fragile per rispondere a nuovi dati.

  • 00:10:00 In questa sezione, il video spiega che mentre il concetto teorico di reti neurali artificiali implica livelli perfetti di astrazione, in realtà è molto più casuale. Il tipo di rete utilizzato per un particolare problema, che viene scelto selezionando gli iperparametri più importanti, è un motivo importante per cui ciò accade. Una rete neurale feed-forward viene in genere scelta per l'apprendimento del deep learning perché è facile da capire. Tuttavia, da allora sono nati molti tipi di reti neurali che sarebbero molto più adatte a vari problemi, comprese le reti convoluzionali e le reti ricorrenti. Il video si conclude esortando le persone a mantenere il cervello acuto e pensare a soluzioni creative a problemi multidisciplinari.
How Neural Networks Work | Neural Networks Explained
How Neural Networks Work | Neural Networks Explained
  • 2020.11.21
  • www.youtube.com
This video was made possible by Brilliant. Be one of the first 200 people to sign up with this link and get 20% off your premium subscription with Brilliant....
Motivazione: