Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
Verso la singolarità - Neuroscience Inspiring AI
Verso la singolarità - Neuroscience Inspiring AIQuesto video discute il potenziale dell'intelligenza artificiale per raggiungere un punto di intelligenza generale e le varie sfide che dovranno essere superate lungo il percorso.
Discute anche del potenziale per i robot da considerare come una specie e dei vantaggi e degli svantaggi di questo approccio.
sei limitato alla quantità di informazioni che puoi trasferire tra i due. E questo è un fattore molto limitante nella potenza complessiva del computer standard. Al contrario, il cervello lavora massicciamente in modo massicciamente parallelo, ogni singolo neurone fa sempre il meglio che può. Anche l'attuale migliore intelligenza artificiale che abbiamo è ancora molto, molto diversa dal cervello. È... si potrebbe dire che è ispirato dal cervello, ma non copia il cervello. Nel cervello ci sono enormi quantità di connessioni di feedback. Quindi ovviamente, quando elaboriamo l'input sensoriale, e questo arriva nelle regioni superiori del cervello, e viene ulteriormente elaborato e astratto dall'input originale che vediamo. Ma c'è anche un'enorme quantità di feedback che arriva da quelle regioni superiori alle aree percettive. E questo feedback dirige dove guardiamo e
Stanford CS230: Apprendimento approfondito | Autunno 2018 | Lezione 1 - Introduzione alla classe e logistica, Andrew Ng
Stanford CS230: Apprendimento approfondito | Autunno 2018 | Lezione 1 - Introduzione alla classe e logistica, Andrew Ng
Andrew Ng, l'istruttore del corso CS230 Deep Learning di Stanford, introduce il corso e spiega il formato della classe capovolta. Sottolinea l'improvvisa popolarità del deep learning a causa dell'aumento dei record digitali, consentendo sistemi di deep learning più efficaci. Gli obiettivi primari del corso sono che gli studenti diventino esperti in algoritmi di deep learning e capiscano come applicarli per risolvere problemi del mondo reale. Ng sottolinea l'importanza della conoscenza pratica nella costruzione di sistemi di apprendimento automatico efficienti ed efficaci e spera di insegnare e derivare sistematicamente algoritmi di apprendimento automatico implementandoli in modo efficace con i processi giusti. Il corso coprirà le reti neurali di convoluzione e i modelli di sequenza attraverso video su Coursera e compiti di programmazione su notebook Jupyter.
La prima lezione del corso CS230 Deep Learning di Stanford introduce la varietà di applicazioni del mondo reale che verranno sviluppate attraverso compiti di programmazione e progetti degli studenti, che possono essere personalizzati e progettati per soddisfare gli interessi di uno studente. Esempi di progetti studenteschi passati vanno dalla previsione del prezzo delle biciclette al rilevamento del segnale del terremoto. Il progetto finale è enfatizzato come l'aspetto più importante del corso e il tutoraggio personalizzato è disponibile attraverso il team di AT e gli istruttori. Viene discussa anche la logistica del corso, inclusa la formazione di team per progetti di gruppo, la risposta a quiz su Coursera e la combinazione del corso con altre classi.
Lezione 2 - L'intuizione dell'apprendimento profondo
Stanford CS230: Apprendimento approfondito | Autunno 2018 | Lezione 2 - L'intuizione dell'apprendimento profondo
La prima parte della lezione si concentra su varie applicazioni del deep learning, tra cui la classificazione delle immagini, il riconoscimento facciale e il trasferimento dello stile delle immagini. L'istruttore spiega l'importanza di vari fattori come la dimensione del set di dati, la risoluzione dell'immagine e la funzione di perdita nello sviluppo di un modello di deep learning. Viene anche discusso il concetto di codifica delle immagini utilizzando reti profonde per creare rappresentazioni utili, con enfasi sulla funzione di perdita di triplette utilizzata nel riconoscimento facciale. Inoltre, il docente spiega il clustering utilizzando l'algoritmo K-Means per la classificazione delle immagini e l'estrazione di stile e contenuto dalle immagini. Nel complesso, la sezione introduce gli studenti alle varie tecniche e considerazioni coinvolte nello sviluppo di modelli di deep learning di successo.
La seconda parte del video copre una varietà di argomenti di deep learning, come la generazione di immagini, il riconoscimento vocale e il rilevamento di oggetti. Il relatore sottolinea l'importanza di consultare esperti quando si incontrano problemi e gli elementi critici di un progetto di deep learning di successo: una pipeline strategica di acquisizione dati e ricerca di architetture e messa a punto di iperparametri. Il video illustra anche diverse funzioni di perdita utilizzate nel deep learning, inclusa la funzione di perdita di rilevamento degli oggetti, che include una radice quadrata per penalizzare gli errori su scatole più piccole in modo più pesante rispetto a scatole più grandi. Il video si conclude con un riepilogo dei moduli e degli incarichi imminenti, comprese le sessioni obbligatorie di tutoraggio del progetto TA e le sezioni TA del venerdì incentrate sul trasferimento dello stile neurale e sulla compilazione di un modulo AWS per potenziali crediti GPU.
Lezione 3 - Progetti di Deep Learning a ciclo completo
Stanford CS230: Apprendimento approfondito | Autunno 2018 | Lezione 3 - Progetti di Deep Learning a ciclo completoIn questa lezione sui progetti di deep learning a ciclo completo, l'istruttore sottolinea l'importanza di considerare tutti gli aspetti della creazione di un'applicazione di machine learning di successo, tra cui la selezione dei problemi, la raccolta dei dati, la progettazione del modello, il test, l'implementazione e la manutenzione. Attraverso l'esempio della costruzione di un dispositivo ad attivazione vocale, l'istruttore discute i componenti chiave coinvolti nei progetti di deep learning e incoraggia gli studenti a concentrarsi su progetti fattibili con potenziale impatto positivo e contributi unici nei rispettivi campi. L'istruttore sottolinea inoltre l'importanza di raccogliere rapidamente dati, prendere appunti durante tutto il processo e iterare durante lo sviluppo, discutendo anche approcci specifici all'attivazione vocale e al rilevamento dell'attività vocale.
La seconda parte della lezione si concentra sull'importanza del monitoraggio e della manutenzione nei progetti di machine learning, in particolare sulla necessità di monitorare e aggiornare continuamente i modelli per garantire che funzionino bene nel mondo reale. Il docente affronta il problema della modifica dei dati, che può causare la perdita di accuratezza dei modelli di apprendimento automatico, e sottolinea la necessità di monitoraggio costante, raccolta dei dati e riprogettazione del modello per garantire che i modelli continuino a funzionare in modo efficace. La conferenza discute anche l'impatto dell'utilizzo di un sistema non ML rispetto a una rete neurale addestrata in un sistema di rilevamento dell'attività vocale e suggerisce che le regole codificate a mano sono generalmente più robuste alla modifica dei dati. Il docente conclude sulla necessità di prestare molta attenzione alla riservatezza dei dati e di ottenere il consenso dell'utente durante la raccolta dei dati per la riqualificazione dei modelli.
affrontare questa sfida, viene utilizzato un algoritmo più semplice per rilevare se qualcuno sta parlando prima di passare la clip audio alla rete neurale più grande per la classificazione. Questo algoritmo più semplice è noto come rilevamento dell'attività vocale (VAD) ed è un componente standard in molti sistemi di riconoscimento vocale, compresi quelli utilizzati nei cellulari.
Lezione 4 - Adversarial Attacks / GANs
Stanford CS230: Apprendimento approfondito | Autunno 2018 | Lezione 4 - Adversarial Attacks / GANs
Questa lezione introduce il concetto di esempi contraddittori, che sono input che sono stati leggermente modificati per ingannare una rete neurale pre-addestrata. La conferenza spiega le basi teoriche di come funzionano questi attacchi e discute le applicazioni dannose dell'utilizzo di esempi contraddittori nel deep learning. La lezione introduce anche le Generative Adversarial Networks (GAN) come un modo per addestrare un modello in grado di generare immagini che sembrano reali, e la lezione discute la funzione di costo per il generatore in un modello GAN. La lezione si conclude spiegando il grafico logaritmico dell'output di D quando viene fornito un esempio generato.
La conferenza copre vari argomenti relativi alle reti generative avversarie (GAN), inclusi suggerimenti e trucchi per addestrare i GAN e le loro applicazioni nella traduzione da immagine a immagine e reti generative avversarie non accoppiate utilizzando l'architettura CycleGAN. Viene discussa anche la valutazione dei GAN, con metodi come l'annotazione umana, le reti di classificazione e il punteggio di inizio e la distanza di inizio di Frechet che sono metodi popolari per verificare il realismo delle immagini generate.
Lezione 5 - AI + Sanità
Stanford CS230: Apprendimento approfondito | Autunno 2018 | Lezione 5 - AI + Sanità
La conferenza fornisce una panoramica delle applicazioni AI nel settore sanitario in questa conferenza. Analizza i tipi di domande a cui l'IA può rispondere, come descrittive, diagnostiche, predittive e prescrittive. L'autore presenta quindi tre casi di studio del suo laboratorio che dimostrano l'applicazione dell'IA a diversi problemi sanitari. Un esempio è il rilevamento di gravi aritmie cardiache, che gli esperti potrebbero aver diagnosticato erroneamente ma potrebbero essere rilevate da una macchina. Un altro esempio è l'utilizzo di reti neurali convoluzionali per identificare le anomalie degli esami RM del ginocchio, identificando specificamente la probabilità di una lesione del LCA e di una lesione del menisco. Infine, il relatore discute le questioni relative alla distribuzione dei dati e all'aumento dei dati nell'IA sanitaria.
La seconda parte copre vari argomenti relativi all'implementazione del deep learning nelle applicazioni sanitarie. Viene discussa l'importanza dell'aumento dei dati, come dimostrato dalla soluzione di un'azienda ai problemi di riconoscimento vocale nelle auto a guida autonoma causati da persone che parlano con l'assistente virtuale guardando indietro. Vengono discussi anche gli iperparametri coinvolti nel trasferimento dell'apprendimento per le applicazioni sanitarie, come decidere quanti livelli aggiungere e quali bloccare. La lezione passa quindi all'analisi delle immagini, in cui viene evidenziata l'importanza di aggiungere confini ai set di dati etichettati. Vengono discussi i vantaggi e le differenze tra il rilevamento di oggetti e la segmentazione nell'analisi delle immagini mediche e viene introdotto l'argomento della classificazione binaria per le immagini mediche etichettate con zero o uno. La conferenza si conclude discutendo l'importanza dei dati nel deep learning e le prossime valutazioni per il corso.
Lezione 6 - Strategia del progetto Deep Learning
Stanford CS230: Apprendimento approfondito | Autunno 2018 | Lezione 6 - Strategia del progetto Deep Learning
In questo video, il relatore discute l'importanza di scegliere una buona metrica per misurare il successo di un progetto di machine learning. La metrica scelta dovrebbe riflettere il problema in questione e il risultato desiderato. Il relatore fornisce esempi di accuratezza, precisione, richiamo e punteggio F1 e spiega quando ciascuno dovrebbe essere utilizzato. Discutono anche della differenza tra il set di convalida e il set di test e spiegano perché è importante utilizzarli entrambi. Inoltre, il relatore sottolinea la necessità di un modello di base come punto di confronto per misurare l'efficacia dell'algoritmo di apprendimento. Infine, il relatore rivolge alcune domande del pubblico sulla scelta della soglia per la classificazione binaria e su come affrontare lo squilibrio di classe.
Lezione 7 - Interpretabilità delle Reti Neurali
Stanford CS230: Apprendimento approfondito | Autunno 2018 | Lezione 7 - Interpretabilità delle Reti NeuraliIn questa lezione, il docente introduce diversi metodi per interpretare e visualizzare le reti neurali, come mappe di salienza, sensibilità all'occlusione e mappe di attivazione di classe. Le mappe di attivazione della classe vengono utilizzate per interpretare i livelli intermedi di una rete neurale mappando l'output nello spazio di input per visualizzare quali parti dell'input sono state più discriminanti nel processo decisionale. Il professore discute anche il raggruppamento medio globale come un modo per mantenere le informazioni spaziali in una rete neurale convoluzionale e la deconvoluzione come un modo per sovracampionare l'altezza e la larghezza delle immagini per compiti come la segmentazione delle immagini. Inoltre, la conferenza esplora il presupposto dell'ortogonalità nei filtri convoluzionali e come la convoluzione sub-pixel può essere utilizzata per la ricostruzione nelle applicazioni di visualizzazione.
La conferenza copre vari metodi per interpretare e visualizzare le reti neurali, tra cui la convoluzione sub-pixel, la deconvoluzione 2D, l'upsampling, l'unpooling e l'uso di strumenti come il toolbox DeepViz e l'algoritmo Deep Dream. Il relatore spiega come visualizzare i filtri nel primo strato di una rete può facilitare l'interpretazione, ma man mano che andiamo più in profondità, la rete diventa più difficile da capire. Esaminando le attivazioni in diversi strati, il relatore mostra come alcuni neuroni rispondono a caratteristiche specifiche. Sebbene esistano limitazioni nell'interpretazione delle reti neurali, le tecniche di visualizzazione possono fornire approfondimenti e potenziali applicazioni come la segmentazione, la ricostruzione e la generazione di reti contraddittorie.
Lezione 8 - Consigli di carriera / Lettura di documenti di ricerca
Stanford CS230: Apprendimento approfondito | Autunno 2018 | Lezione 8 - Consigli di carriera / Lettura di documenti di ricercaIn questa conferenza, il professor Andrew Ng fornisce consigli su come leggere in modo efficiente i documenti di ricerca e tenere il passo con il campo in rapida evoluzione del deep learning. Sottolinea l'importanza di riassumere il lavoro nelle sezioni introduttive e conclusive, oltre a prestare attenzione alle figure e alle tabelle. Ng condivide anche consigli sulla carriera, raccomandando che i candidati al lavoro abbiano una conoscenza ampia e approfondita in più aree di intelligenza artificiale e apprendimento automatico e di concentrarsi sul lavoro con individui piuttosto che con grandi marchi al fine di massimizzare le opportunità di crescita. Suggerisce coerenza nella lettura di documenti e nello sviluppo di competenze sia orizzontali che verticali attraverso corsi e progetti per una solida base nell'apprendimento automatico.
Lezione 9 - Deep Reinforcement Learning
Stanford CS230: Apprendimento approfondito | Autunno 2018 | Lezione 9 - Deep Reinforcement Learning
La lezione introduce l'apprendimento per rinforzo profondo, che combina l'apprendimento profondo e l'apprendimento per rinforzo. L'apprendimento per rinforzo viene utilizzato per prendere buone sequenze di decisioni in situazioni con etichette ritardate e viene applicato in diversi campi come robotica, giochi e pubblicità. L'apprendimento per rinforzo profondo sostituisce la tabella Q con una funzione Q che è una rete neurale. Il docente discute le sfide dell'applicazione dell'apprendimento per rinforzo profondo, ma descrive una tecnica per creare un valore target per i punteggi Q basati sull'equazione di Bellman per addestrare la rete. La conferenza discute anche l'importanza della riproduzione dell'esperienza nell'addestramento dell'apprendimento per rinforzo profondo e il compromesso tra sfruttamento ed esplorazione negli algoritmi RL. Viene discussa anche l'applicazione pratica dell'apprendimento per rinforzo profondo al gioco Breakout.
La conferenza discute vari argomenti relativi all'apprendimento per rinforzo profondo (DRL). Viene discusso il compromesso esplorazione-sfruttamento in DRL e viene proposta una soluzione che utilizza un iperparametro che decide la probabilità di esplorazione. Viene esplorata l'importanza della conoscenza umana nel DRL e come può aumentare i processi decisionali algoritmici. La conferenza copre anche i gradienti delle politiche, i diversi metodi per la loro attuazione e la prevenzione dell'overfitting. Inoltre, vengono evidenziate le sfide in ambienti con ricompense sparse e viene discussa brevemente una soluzione tratta da un recente documento intitolato "Unificazione dei metas basati sul conteggio per l'esplorazione". Infine, la conferenza menziona brevemente i documenti YOLO e YOLO v2 di Redmon et al. per quanto riguarda il rilevamento di oggetti.