Apprendimento automatico e Reti Neurali - pagina 2

 

MIT 6.S191: modellazione generativa profonda



Lezione 4. MIT 6.S191: Deep Generative Modeling

Questo video illustra come utilizzare la modellazione generativa profonda per apprendere una rappresentazione più fluida e completa dei dati di input, che possono quindi essere utilizzati per generare nuove immagini. La chiave per DGM sta introducendo una distribuzione di probabilità per ogni variabile latente, che consente alla rete di campionare da quella distribuzione latente per generare nuovi dati.

  • 00:00:00 In questa conferenza, Ava spiega in che modo i modelli generativi profondi possono essere utilizzati per apprendere le distribuzioni di probabilità alla base dei set di dati. Mostra come funzionano nella pratica due metodi, la stima della densità e la generazione del campione.

  • 00:05:00 In questo video, il presentatore spiega come utilizzare i modelli generativi per apprendere le caratteristiche alla base di un set di dati. Questo può essere utile in applicazioni come il rilevamento dei volti o il rilevamento dei valori anomali.

  • 00:10:00 L'autoencoder è un potente algoritmo di apprendimento automatico che consente la compressione di dati di input ad alta dimensione in uno spazio latente di dimensione inferiore. Questo spazio latente può quindi essere utilizzato per codificare i dati per la successiva ricostruzione. Con un codificatore automatico variazionale, lo spazio latente è probabilistico, consentendo ricostruzioni più realistiche e accurate dei dati di input.

  • 00:15:00 Il video illustra come utilizzare la modellazione generativa profonda (DGM) per apprendere una rappresentazione più fluida e completa dei dati di input, che possono quindi essere utilizzati per generare nuove immagini. La chiave per DGM sta introducendo una distribuzione di probabilità per ogni variabile latente, che consente alla rete di campionare da quella distribuzione latente per generare nuovi dati. La perdita della rete è ora composta dal termine di ricostruzione e dal termine di regolarizzazione, che impone una struttura alla distribuzione di probabilità delle variabili latenti. La rete viene addestrata per ottimizzare la perdita rispetto ai pesi della rete e i pesi vengono aggiornati in modo iterativo durante l'allenamento.

  • 00:20:00 Il video discute di come un termine di regolarizzazione, d, aiuti a ridurre al minimo la distanza tra la distribuzione latente dedotta e un precedente. Mostra anche come il normale precedente può aiutare a raggiungere questo obiettivo.

  • 00:25:00 Il video illustra come viene utilizzata la modellazione generativa profonda per ricostruire un input da una serie di punti dati. Il metodo prevede l'imposizione di una regolarizzazione a base normale sullo spazio latente, che aiuta a levigarlo e completarlo. Ciò a sua volta consente la retropropagazione dei gradienti attraverso lo strato di campionamento, che risolve il problema della stocasticità impedendo la propagazione diretta dei gradienti attraverso la rete.

  • 00:30:00 Questo video spiega come i modelli di variabili latenti (come Variational Autoencoders o Beta Vaes) possono essere utilizzati per codificare caratteristiche importanti in un set di dati. Ciò consente modelli di apprendimento automatico più imparziali, poiché le funzionalità importanti vengono codificate automaticamente.

  • 00:35:00 I GAN utilizzano una rete di generazione per generare campioni simili a dati reali, mentre una rete avversaria cerca di distinguere i campioni falsi da quelli reali. Dopo l'addestramento, il generatore e il discriminatore sono in grado di separare i dati falsi dai dati reali con una precisione quasi perfetta.

  • 00:40:00 Il video discute la funzione di perdita per i modelli generativi profondi, che si riduce ai concetti che sono stati introdotti nelle lezioni precedenti. L'obiettivo della rete del discriminatore è identificare i dati falsi e l'obiettivo della rete del generatore è generare dati il più vicino possibile alla vera distribuzione dei dati. La rete del generatore di treni sintetizza nuove istanze di dati basate su una distribuzione di rumore gaussiano completamente casuale. Se consideriamo un punto in questa distribuzione del rumore, un punto nella vera distribuzione dei dati e un punto nella distribuzione dei dati di destinazione, possiamo vedere che il generatore sta imparando a generare dati che cadono da qualche parte tra questi punti. Questa idea di trasformazione e attraversamento del dominio in molteplici varietà di dati complessi viene discussa in maggior dettaglio e viene mostrato come i gan siano un'architettura potente per generare esempi di dati realistici.

  • 00:45:00 Il video discute alcuni recenti progressi nella modellazione generativa profonda, inclusi miglioramenti all'architettura e al trasferimento di stile. Prosegue descrivendo il modello cyclegan, che consente la traduzione tra domini con dati completamente non accoppiati.

  • 00:50:00 In questa parte Ava discute i due principali modelli generativi utilizzati nel deep learning, codificatori automatici variazionali e codificatori automatici, e spiega come funzionano. Cita anche il cycle gan, un potente trasformatore di distribuzione che può essere utilizzato insieme a questi modelli. L'autore conclude la lezione invitando i partecipanti a frequentare la parte di laboratorio del corso, che seguirà subito dopo.
MIT 6.S191 (2022): Deep Generative Modeling
MIT 6.S191 (2022): Deep Generative Modeling
  • 2022.04.01
  • www.youtube.com
MIT Introduction to Deep Learning 6.S191: Lecture 4Deep Generative ModelingLecturer: Ava SoleimanyJanuary 2022For all lectures, slides, and lab materials: ht...
 

MIT 6.S191: Apprendimento per rinforzo



Lezione 5. MIT 6.S191: Apprendimento per rinforzo

In questo video, Alexander Amini discute il concetto di apprendimento per rinforzo e come può essere utilizzato per addestrare una rete neurale. Inizia spiegando come funziona l'apprendimento per rinforzo e come può essere utilizzato negli scenari del mondo reale. Quindi passa a discutere su come addestrare una rete di gradienti di policy. Infine, conclude il video discutendo su come aggiornare il gradiente di policy a ogni iterazione del ciclo di addestramento.

  • 00:00:00 In questo video, apprendiamo l'apprendimento per rinforzo, un tipo di apprendimento automatico in cui un modello di apprendimento profondo viene addestrato senza avere una conoscenza preliminare dei dati di input. Nell'apprendimento per rinforzo, il modello di deep learning è collocato in un ambiente dinamico e ha il compito di apprendere come svolgere un compito senza alcuna guida umana. Ciò ha enormi implicazioni in una varietà di campi, come la robotica, il gameplay e le auto a guida autonoma.

  • 00:05:00 Nell'apprendimento per rinforzo, l'agente è l'entità che agisce nell'ambiente e l'ambiente è il mondo in cui l'agente esiste e compie azioni. L'agente può inviare comandi all'ambiente sotto forma di azioni, e uno stato è una situazione concreta e immediata in cui l'agente si trova in questo momento. L'agente può anche ottenere ricompense dall'ambiente.

  • 00:10:00 Questa parte della lezione sull'apprendimento per rinforzo descrive i concetti di ricompensa, gamma e funzione q. La funzione q prende come input lo stato e l'azione correnti e restituisce la somma totale futura prevista delle ricompense che un agente può ricevere dopo quell'azione. La funzione q può essere utilizzata per determinare l'azione migliore da intraprendere in un dato stato, dati lo stato e l'azione correnti.

  • 00:15:00 In questa parte Alexander Amini introduce il gioco Atari breakout e la sua funzione q associata. Continua discutendo gli algoritmi di apprendimento del valore, che si basano sul tentativo di trovare una funzione q che massimizzi le ricompense future. Presenta quindi un algoritmo di apprendimento delle politiche, che è un modo più diretto di modellare il problema dell'apprendimento per rinforzo. Sia l'apprendimento del valore che l'apprendimento delle politiche vengono discussi brevemente e vengono mostrati i risultati di uno studio sull'apprendimento del valore.

  • 00:20:00 Il video discute l'apprendimento per rinforzo, o il processo di apprendimento per ottimizzare una decisione sperimentando una varietà di possibili azioni e risultati. Il video mostra due esempi di come potrebbe comportarsi un agente, uno in cui l'agente è molto prudente e l'altro in cui l'agente è più aggressivo. Il video passa quindi a discutere su come addestrare una rete neurale per apprendere la funzione q, che è l'azione ottimale da intraprendere dato uno stato e un'azione.

  • 00:25:00 Questa parte discute come addestrare un agente di apprendimento per rinforzo del valore q. Il valore q è una misura dell'importanza relativa dei diversi risultati e viene utilizzato per strutturare la rete neurale. Viene calcolato il rendimento atteso per ogni possibile azione e l'azione migliore viene determinata massimizzando questo rendimento atteso. La funzione di perdita del valore q viene utilizzata per addestrare la rete neurale e il valore target viene determinato osservando i premi ricevuti per ogni azione.

  • 00:30:00 Nell'apprendimento per rinforzo, il comportamento di un agente viene modificato utilizzando il feedback di un ambiente per massimizzare una ricompensa. I metodi del gradiente politico sono una nuova classe di algoritmi di apprendimento per rinforzo che sono più flessibili ed efficienti degli algoritmi di apprendimento del valore.

  • 00:35:00 In questa parte, Alexander Amini introduce l'apprendimento per rinforzo, un metodo per imparare ad agire in presenza di premi e punizioni. Nell'apprendimento per rinforzo, la politica di un agente è definita come una funzione che prende uno stato (l'ambiente in cui si trova l'agente) e genera una probabilità di intraprendere un'azione specifica in quello stato. Questa probabilità viene quindi utilizzata per addestrare una rete neurale a prevedere la prossima azione dell'agente, in base allo stato attuale e alle ricompense e punizioni passate. I vantaggi di questo approccio all'apprendimento sono che può gestire spazi di azione continui e che i metodi del gradiente politico possono essere utilizzati per modellare azioni continue con elevata precisione.

  • 00:40:00 In questo video, Alexander Amini illustra come utilizzare i gradienti di policy per migliorare le prestazioni degli algoritmi di apprendimento per rinforzo. Inizia descrivendo uno spazio continuo e come gli integrali possono essere usati al posto delle somme discrete. Quindi passa a discutere di come funzionano i gradienti di politica in un esempio concreto e discute come addestrare una rete di gradienti di politica. Conclude il video discutendo su come aggiornare il gradiente della politica a ogni iterazione del ciclo di addestramento.

  • 00:45:00 Questa parte presenta un metodo per addestrare una rete neurale utilizzando l'apprendimento per rinforzo. Il video spiega come funziona l'apprendimento per rinforzo e come può essere utilizzato in scenari reali.

  • 00:50:00 In questo video, Alexander Amini discute alcuni dei recenti progressi nell'apprendimento per rinforzo, in particolare nell'area del Go. Alpha Zero, un progetto Google DeepMind, è stato in grado di superare i migliori giocatori umani del mondo. Nella prossima conferenza, Nielsen discuterà della letteratura sul deep learning e dei suoi limiti. Si spera che ciò motiverà gli studenti a continuare ad apprendere e ad avanzare nel campo.
MIT 6.S191 (2022): Reinforcement Learning
MIT 6.S191 (2022): Reinforcement Learning
  • 2022.04.08
  • www.youtube.com
MIT Introduction to Deep Learning 6.S191: Lecture 5Deep Reinforcement LearningLecturer: Alexander AminiJanuary 2022For all lectures, slides, and lab material...
 

MIT 6.S191 (2022): Nuove frontiere dell'apprendimento profondo



Lezione 6. MIT 6.S191 (2022): Deep Learning New Frontiers

La conferenza "Deep Learning New Frontiers" del MIT 6.S191 copre una vasta gamma di argomenti. La docente Ava Soleimany spiega le varie scadenze del corso, introduce le lezioni degli ospiti e discute le attuali frontiere della ricerca. Vengono affrontate anche le limitazioni delle reti neurali profonde relative al teorema di approssimazione universale, alla generalizzazione, alla qualità dei dati, all'incertezza e agli attacchi contraddittori. Inoltre, vengono discusse le reti neurali a convoluzione del grafico e le loro potenziali applicazioni in diversi domini, come la scoperta di farmaci, la mobilità urbana e la previsione di COVID-19. Infine, la conferenza esplora l'argomento dell'apprendimento automatico automatico (autoML) e come può aiutare nella progettazione di modelli di machine learning e deep learning ad alte prestazioni. Il docente conclude sottolineando il significato della connessione e della distinzione tra modelli di apprendimento umano, intelligenza e deep learning.

  • 00:00:00 In questa sezione, Ava fornisce alcune informazioni logistiche riguardanti le magliette di classe e le prossime scadenze per i laboratori e i progetti finali. Introducono anche le restanti conferenze degli ospiti e toccano le nuove frontiere della ricerca che saranno coperte. Il laboratorio di apprendimento per rinforzo è stato rilasciato e la data di scadenza per tutti e tre i laboratori è domani sera, ma non è necessario inviarli per ricevere un voto positivo. L'invio di una revisione del documento di deep learning o di una presentazione finale del progetto è richiesto per il credito nel corso. Il concorso per la proposta di progetto finale richiede l'invio dei nomi dei gruppi entro la mezzanotte di stasera e vengono riepilogate le istruzioni per il rapporto del documento sul deep learning.

  • 00:05:00 In questa sezione, il relatore discute l'incredibile programma di conferenze per gli ospiti in programma per le prossime sessioni del corso. I relatori ospiti includono rappresentanti dell'emergente azienda automobilistica a guida autonoma Innoviz, Google Research e Google Brain, Nvidia e Caltech e Rev AI. Il relatore sottolinea l'importanza di assistere alle lezioni in modo sincrono per garantire il pieno accesso al contenuto. Il relatore riassume anche i contenuti trattati finora nel corso, sottolineando il potere degli algoritmi di deep learning e il loro potenziale per rivoluzionare una vasta gamma di campi. Il relatore sottolinea anche il ruolo delle reti neurali come potenti approssimatori di funzioni, mappando dai dati alla decisione o viceversa.

  • 00:10:00 In questa sezione, il relatore discute il teorema di approssimazione universale, che afferma che una rete neurale feed-forward a strato singolo è sufficiente per approssimare qualsiasi funzione continua arbitraria con una certa precisione. Sebbene questa sia un'affermazione potente, il teorema presenta alcuni avvertimenti, tra cui la mancanza di affermazioni o garanzie sul numero di neuroni necessari e su come trovare pesi che potrebbero risolvere il problema. Inoltre, il teorema non fa affermazioni sulla generalizzabilità della rete neurale oltre l'impostazione su cui è stata addestrata. Il relatore sottolinea l'importanza di prestare attenzione a come questi algoritmi vengono commercializzati e pubblicizzati a causa delle potenziali preoccupazioni che potrebbero sorgere. La sezione approfondisce anche i limiti delle moderne architetture di deep learning, a partire dal problema della generalizzazione e un documento che ha esplorato questo problema con le immagini del famoso set di dati ImageNet.

  • 00:15:00 In questa sezione, il video discute i limiti delle reti neurali profonde e la loro capacità di adattarsi perfettamente a dati completamente casuali. Sebbene le reti neurali siano eccellenti approssimatori di funzioni che possono adattarsi a una funzione arbitraria anche se ha etichette randomizzate, sono limitate nella loro capacità di generalizzare a regioni fuori distribuzione dove non ci sono garanzie su come potrebbe comportarsi la funzione. Ciò evidenzia la necessità di stabilire garanzie sui limiti di generalizzazione delle reti neurali e di utilizzare queste informazioni per informare i processi di formazione, apprendimento e distribuzione. Il video mette anche in guardia contro la credenza popolare che il deep learning sia una soluzione magica a qualsiasi problema e sottolinea l'importanza di comprendere i limiti e i presupposti di questi modelli.

  • 00:20:00 In questa sezione viene sottolineata l'importanza della qualità dei dati utilizzati per addestrare modelli di deep learning. Una modalità di errore delle reti neurali è delineata attraverso un esempio in cui un'immagine in bianco e nero di un cane è stata fatta passare attraverso un'architettura di rete neurale convoluzionale per la colorazione. La rete ha predetto una regione rosa sotto il naso del cane, che avrebbe dovuto essere il pelo, a causa della natura dei dati su cui è stato addestrato, che includeva molte immagini di cani che tiravano fuori la lingua. L'esempio evidenzia la potenza dei modelli di deep learning per costruire rappresentazioni basate sui dati che hanno visto durante l'addestramento. La sezione discute quindi le conseguenze dell'incontro con esempi del mondo reale che sono fuori dalla distribuzione della formazione, come visto in un tragico incidente che coinvolge un veicolo Tesla autonomo che non è riuscito a reagire efficacemente a un incidente, provocando infine la morte del conducente. Viene sottolineata l'importanza di comprendere i limiti delle previsioni dei modelli di deep learning, specialmente nelle applicazioni critiche per la sicurezza.

  • 00:25:00 In questa sezione, il relatore discute la nozione di incertezza nell'apprendimento profondo, che è cruciale per la costruzione di modelli neurali in grado di gestire set di dati sparsi, rumorosi o limitati, comprese le caratteristiche sbilanciate. Esistono due tipi di incertezze nei modelli neurali profondi; incertezza aleatoria e incertezza epistemica, che possono derivare dal rumore dei dati, dalla variabilità o dal test di un esempio fuori dominio. Queste incertezze rappresentano la fiducia del modello nelle sue previsioni e possono influire sulla sua efficacia durante la gestione di diversi tipi di dati. Inoltre, gli esempi contraddittori, che sono istanze sintetiche create per fuorviare i modelli di deep learning, presentano una terza modalità di fallimento che deve essere considerata. La conferenza di Jasper su questo argomento è altamente raccomandata per esplorare il dibattito sul fatto che questi due tipi di incertezze catturino tutte le possibilità e per discutere i recenti progressi della ricerca in questo campo.

  • 00:30:00 In questa sezione del video, il docente discute il concetto di attacchi contraddittori, in cui viene applicata una perturbazione a un'immagine che è impercettibile agli occhi umani ma ha un impatto significativo sulla decisione di una rete neurale, con conseguente errata classificazione dell'immagine. La perturbazione è costruita in modo intelligente per funzionare efficacemente come avversario e le reti neurali possono essere addestrate per apprendere questa perturbazione. Il docente tocca anche brevemente la questione del pregiudizio algoritmico, in cui i modelli di rete neurale e i sistemi di intelligenza artificiale possono essere soggetti a pregiudizi che possono avere conseguenze sociali reali e dannose, e nel secondo laboratorio sono state esplorate strategie per mitigare il pregiudizio algoritmico. Queste limitazioni sono solo la punta dell'iceberg e ci sono altre limitazioni da considerare.

  • 00:35:00 In questa sezione, il relatore discute l'uso delle strutture grafiche come modalità di dati per il deep learning e come può ispirare un nuovo tipo di architettura di rete correlata alle reti neurali convoluzionali ma diversa. Le strutture grafiche possono rappresentare un'ampia varietà di tipi di dati, dai social network alle proteine e alle molecole biologiche. Le reti neurali convoluzionali a grafo operano prendendo come input un insieme di nodi e spigoli invece di una matrice 2D e attraversando il grafo con un kernel di peso per estrarre caratteristiche che preservano le informazioni sulla relazione dei nodi tra loro. Questo campo emergente nel deep learning consente di acquisire geometrie di dati e strutture di dati più complicate oltre le codifiche standard.

  • 00:40:00 In questa sezione, il relatore discute le reti convoluzionali a grafo e le loro applicazioni in vari domini, tra cui chimica e scoperta di farmaci, mobilità urbana e previsione di COVID-19. Le reti convoluzionali di grafi consentono l'estrazione di caratteristiche sulla connettività locale e sulla struttura di un grafo, consentendo al processo di apprendimento di raccogliere pesi che possono estrarre informazioni sui modelli di connettività. Inoltre, il relatore spiega come le reti neurali convoluzionali a grafo possono essere estese a set di dati di nuvole di punti, imponendo una struttura a grafo sulla varietà di nuvole di punti 3D.

  • 00:45:00 In questa sezione, il relatore discute la nuova frontiera del machine learning automatizzato e dell'imparare a imparare. L'obiettivo è costruire un algoritmo di apprendimento in grado di risolvere il problema di progettazione delle architetture di reti neurali e prevedere il modello più efficace per risolvere un determinato problema. Il framework automl originale utilizzava una configurazione di apprendimento per rinforzo con una rete neurale del controller e un ciclo di feedback per migliorare in modo iterativo le proposte di architettura del modello. Recentemente, automl è stato esteso alla ricerca dell'architettura neurale, dove l'obiettivo è cercare progetti e iperparametri ottimali. Questo nuovo campo di ricerca potrebbe rivoluzionare il modo in cui progettiamo modelli di machine learning e ottimizziamo le loro prestazioni.

  • 00:50:00 In questa sezione, il docente discute il concetto di automl (automatic machine learning) e la sua capacità di progettare modelli di machine learning e deep learning ad alte prestazioni. L'idea di automl ha guadagnato popolarità nelle moderne pipeline di progettazione di machine learning e deep learning, in particolare nelle applicazioni industriali in cui i suoi algoritmi hanno avuto successo nella creazione di architetture che funzionano molto bene. Il docente presenta un esempio di come le architetture proposte da un algoritmo automl abbiano raggiunto una precisione superiore in un'attività di riconoscimento di immagini con meno parametri rispetto a quelle progettate dagli esseri umani. Automl è stato esteso al concetto più ampio di intelligenza artificiale automatica, in cui intere pipeline di elaborazione dei dati e previsione dell'apprendimento sono progettate e ottimizzate da algoritmi di intelligenza artificiale. Il docente conclude incoraggiando il pubblico a riflettere sulle implicazioni della progettazione di IA in grado di generare nuovi modelli altamente performanti su compiti di interesse e le connessioni e le distinzioni tra modelli di apprendimento umano, intelligenza e deep learning.
MIT 6.S191 (2022): Deep Learning New Frontiers
MIT 6.S191 (2022): Deep Learning New Frontiers
  • 2022.04.15
  • www.youtube.com
MIT Introduction to Deep Learning 6.S191: Lecture 6Deep Learning Limitations and New FrontiersLecturer: Ava SoleimanyJanuary 2022For all lectures, slides, an...
 

MIT 6.S191: LiDAR per la guida autonoma



Lezione 7. MIT 6.S191: LiDAR per la guida autonoma

Il video "MIT 6.S191: LiDAR for Autonomous Driving" presenta lo sviluppo della tecnologia LiDAR per veicoli autonomi da parte di Innoviz, evidenziando i vantaggi e l'importanza delle capacità di visibilità e previsione del sistema. Il relatore spiega i vari fattori che influenzano il rapporto segnale-rumore del sistema LiDAR, l'importanza della ridondanza nell'utilizzo del sensore e la necessità di alta risoluzione ed efficienza computazionale nel rilevamento di oggetti rilevanti per la collisione. Discutono anche delle sfide delle reti di deep learning nel rilevamento e nella classificazione di oggetti, diverse rappresentazioni di dati LiDAR e la fusione di approcci di clustering e deep learning per il rilevamento di oggetti e la precisione del boundary box. Inoltre, il video tocca i compromessi tra FMCW e LiDAR a tempo di volo. Nel complesso, la discussione sottolinea il ruolo fondamentale del LiDAR nel migliorare la sicurezza e il futuro della guida autonoma.

  • 00:00:00 In questa sezione il relatore introduce Innoviz e il loro sviluppo di Lidar per veicoli autonomi, concentrandosi in particolare su come stanno aiutando le case automobilistiche a raggiungere i loro obiettivi nello sviluppo di veicoli autonomi. Il relatore discute lo stato attuale della guida autonoma e le questioni di responsabilità derivanti da incidenti che si verificano a causa della mancata assunzione della piena responsabilità da parte della casa automobilistica. Spiegano anche l'uso della tecnologia Lidar, che utilizza un raggio laser per scansionare la scena e raccogliere fotoni dagli oggetti. Il relatore sottolinea l'importanza di avere una buona visibilità e una previsione di ciò che sta accadendo sulla strada per una guida autonoma di successo.

  • 00:05:00 In questa sezione, il relatore spiega come funziona LiDAR nella guida autonoma e i vari fattori che influenzano il rapporto segnale/rumore. Il sistema LiDAR utilizza fotoni che rimbalzano per determinare la distanza degli oggetti e il rapporto segnale-rumore è determinato dall'emissione, dall'apertura, dall'efficienza di rilevamento dei fotoni, dal rumore del rivelatore e dal rumore solare. Il relatore spiega anche come Innoviz 2, un sistema LiDAR di seconda generazione, sia significativamente migliore di qualsiasi altro sistema disponibile sul mercato perché può coprire un campo visivo e una distanza più ampi con una risoluzione più elevata. Il relatore discute anche i diversi requisiti per le applicazioni di guida autonoma come le autostrade e come LiDAR può supportare queste applicazioni.

  • 00:10:00 In questa sezione, il relatore spiega perché la ridondanza è importante nella guida autonoma, soprattutto quando si ha a che fare con i limiti di sensori come le telecamere, che possono essere ostruiti dall'acqua o dalla luce solare diretta. Un buon sistema di guida autonoma non solo fornisce sicurezza, ma guida anche in modo fluido per evitare che i passeggeri si stanchino. I requisiti di livello tre implicano la capacità di vedere la parte anteriore del veicolo per eseguire accelerazioni, frenate e manovre fluide. Il relatore tocca brevemente requisiti come il campo visivo e la proiezione della traiettoria di un oggetto, osservando che una risoluzione più elevata consente al sensore di identificare meglio gli oggetti. Infine, l'altoparlante fornisce un caso d'uso per la frenata di emergenza a 80 miglia all'ora.

  • 00:15:00 In questa sezione, il relatore discute l'importanza della risoluzione verticale del LiDAR e come influisce sul processo decisionale nei veicoli autonomi. Spiegano che avere due pixel per identificare un oggetto alto è necessario per chiarezza e che anche se LiDAR avesse il doppio della portata, non aiuterebbe necessariamente nel processo decisionale se c'è un solo pixel. Discutono inoltre dell'impatto di frame rate più elevati e della doppia risoluzione verticale, che potrebbero identificare ostacoli a una distanza maggiore, e sottolineano che questi parametri sono fondamentali per la sicurezza dei veicoli autonomi. Il relatore discute anche brevemente gli sforzi dell'azienda per sviluppare un sistema LiDAR a 360 gradi ad alta risoluzione e conveniente. Infine, la sezione si conclude con una discussione su un semplice algoritmo in grado di rilevare i punti rilevanti per la collisione in una nuvola di punti.

  • 00:20:00 In questa sezione, il relatore spiega un semplice algoritmo per rilevare oggetti rilevanti per la collisione utilizzando la tecnologia LiDAR. Misurando la differenza di altezza tra coppie di punti in una nuvola di punti, è possibile rilevare facilmente oggetti che si trovano a 40 centimetri o più dal suolo. L'algoritmo può rilevare oggetti che potrebbero non essere rappresentati in un set di addestramento, come camion dei pompieri o oggetti in diverse regioni del mondo. L'oratore mostra esempi di come questo algoritmo può rilevare a distanza camion ribaltati e piccoli oggetti come pneumatici. Tuttavia, mentre il rilevamento di oggetti statici è importante, è anche importante comprendere le dinamiche degli oggetti in movimento per prevedere come si muoveranno in futuro.

  • 00:25:00 In questa sezione, l'attenzione si concentra sulle sfide del rilevamento e della classificazione di oggetti come i pedoni utilizzando reti di deep learning, in particolare in scenari in cui l'aspetto di oggetti come gambe e busto non è evidente o gli oggetti sono troppo distanti. Lidar è una tecnologia utile in questi scenari in quanto può ancora classificare e raggruppare oggetti in quanto non è fondamentale vederne l'aspetto. Questo algoritmo di clustering può essere applicato in ambienti di scenari reali come la guida, ma la sua instabilità e ambiguità evidenziate dall'esempio di un oggetto che può essere classificato come due oggetti diversi, rendono più difficile costruire un sistema che sia robusto e utile per il pila di veicoli autonomi di livello superiore. Pertanto, l'analisi semantica rimane fondamentale per l'intero sistema. Anche la comprensione della natura non strutturata e della scarsità dei dati delle nuvole di punti è essenziale durante l'elaborazione dei dati.

  • 00:30:00 In questa sezione, il relatore discute diverse rappresentazioni dei dati LiDAR che possono essere utilizzati per la guida autonoma, comprese rappresentazioni strutturate che assomigliano a immagini e voxelization in cui i dati sono suddivisi in volumi più piccoli. La sfida con le rappresentazioni strutturate è che può essere difficile sfruttare le caratteristiche di misurazione 3D delle nuvole di punti, mentre con la voxelizzazione è possibile comprendere le informazioni sull'occlusione, che possono essere aggiunte come ulteriore livello nella rete per un'elaborazione efficiente. Il relatore sottolinea l'importanza dell'efficienza computazionale nella guida autonoma e nell'elaborazione al limite, dove l'efficienza può definire la soluzione.

  • 00:35:00 In questa sezione, il relatore discute gli elementi chiave del sistema Lidar per la guida autonoma, utilizzando l'esempio del rilevamento di una motocicletta nella corsia del veicolo. Per rilevare e tracciare con precisione la motocicletta, è fondamentale disporre di un riquadro di delimitazione stretto attorno ad essa che sia semanticamente accurato ed efficiente dal punto di vista computazionale. La soluzione è una fusione tra approcci di deep learning e clustering, combinando il meglio di entrambi i metodi per creare un elenco di oggetti solido e interpretabile per l'output dello stack, che è importante per i sistemi critici per la sicurezza. L'output fuso fornisce riquadri di delimitazione accurati con classi, risultando in un'integrazione più fluida di Lidar e del software di percezione nell'unità di elaborazione di un'auto.

  • 00:40:00 In questa sezione, il relatore discute l'uso del LiDAR per la guida autonoma e come può contribuire a migliorare la sicurezza fornendo informazioni ridondanti sui sensori. Spiegano che le condizioni meteorologiche come la pioggia hanno un impatto minimo sulle prestazioni del LiDAR, mentre la nebbia può causare una certa attenuazione della luce. Il relatore affronta anche domande sui falsi positivi e su cosa rende il loro LiDAR più adatto a questa applicazione, evidenziando i compromessi tra i diversi parametri e l'elevato SNR complessivo del loro sistema. Proseguono discutendo le sfide della formazione dei classificatori per la guida autonoma e l'importanza dell'apprendimento attivo per garantire un'annotazione efficace dei dati.

  • 00:45:00 In questa sezione, il relatore discute i diversi campi nello spazio LiDAR come la lunghezza d'onda, la modulazione laser e il meccanismo di scansione. Quindi approfondiscono la questione dell'FMCW rispetto al tempo di volo, affermando che l'FMCW è vantaggioso per misurare direttamente la velocità, ma è limitato dalla necessità di utilizzare 1550 e dal forte accoppiamento tra frame rate e campo visivo. D'altra parte, il tempo di volo può calcolare bene la velocità con alta risoluzione e frame rate elevato, ma il compromesso tra parametri come risoluzione, portata, campo visivo e frame rate viene prima del requisito della velocità. I relatori menzionano anche che vendono i loro sensori a case automobilistiche e non solo, tra cui università, società di costruzioni, città intelligenti e sorveglianza.
MIT 6.S191: LiDAR for Autonomous Driving
MIT 6.S191: LiDAR for Autonomous Driving
  • 2022.04.22
  • www.youtube.com
MIT Introduction to Deep Learning 6.S191: Lecture 7Deep Learning for Autonomous DrivingLecturer: Omer Keilaf (CEO) and Amir Day (Head of CV & DL)Innoviz Tech...
 

MIT 6.S191: Riconoscimento vocale automatico



Lezione 8. MIT 6.S191: Riconoscimento vocale automatico

In questo video, il co-fondatore di Rev spiega la missione dell'azienda di mettere in contatto le persone che trascrivono, sottotitolano o sottotitolano i media con i clienti che necessitano di servizi di trascrizione. Rev utilizza ASR per alimentare il suo mercato, trascrivendo oltre 15.000 ore di dati multimediali a settimana e offre la sua API ai clienti per creare le proprie applicazioni vocali. Il nuovo modello ASR di deep learning end-to-end sviluppato da Rev raggiunge un significativo miglioramento delle prestazioni rispetto al suo predecessore, ma c'è ancora spazio per miglioramenti poiché l'ASR non è un problema completamente risolto nemmeno in inglese. Il relatore discute diverse tecniche per gestire i bias nei set di dati, preparare i dati audio per l'addestramento e gli approcci per affrontare i problemi con il modello end-to-end.

  • 00:00:00 In questa sezione, Miguel, il co-fondatore di Rev, descrive la storia e la missione dell'azienda, ovvero creare posti di lavoro da casa per le persone alimentate dall'intelligenza artificiale. Rev è un mercato a doppia faccia che collega le persone che trascrivono, sottotitolano o sottotitolano i media con i clienti che necessitano di servizi di trascrizione. Con oltre 170.000 clienti e più di 60.000 lavoratori, Rev trascrive più di 15.000 ore di dati multimediali a settimana, rendendolo una fonte significativa di dati di addestramento per i modelli di riconoscimento vocale automatico (ASR). Rev utilizza ASR per potenziare il suo mercato e offre la sua API ai clienti per creare le proprie applicazioni vocali. Jenny, che guida lo sviluppo del progetto ASR di deep learning presso Rev, spiega le prestazioni del modello ASR di deep learning end-to-end e le scelte di modellazione che hanno portato al suo sviluppo.

  • 00:05:00 In questa sezione, il relatore discute lo sviluppo di un sistema ASR (Automatic Speech Recognition) end-to-end e il rilascio della versione due da Rev. Hanno confrontato il loro nuovo modello con la versione uno del loro ibrido architettura, così come a diversi concorrenti. I modelli sono stati valutati con un set di dati di riferimento di chiamate sugli utili che sono state trascritte da trascrittori umani, con il tasso di errore delle parole come metrica principale. I risultati mostrano che il nuovo modello ottiene miglioramenti significativi nelle prestazioni, in particolare nel riconoscimento dei nomi delle organizzazioni e delle persone. Tuttavia, c'è ancora spazio per miglioramenti poiché l'ASR non è un problema completamente risolto nemmeno in inglese e il tasso di errore è ancora piuttosto elevato nel complesso. Il relatore presenta anche i risultati di un set di dati open source che esamina la distorsione dei sistemi ASR in diverse nazionalità.

  • 00:10:00 In questa sezione, il relatore sottolinea l'importanza dei dati nello sviluppo e nel miglioramento dei modelli di riconoscimento vocale automatico (ASR). Sebbene l'azienda abbia accesso a una grande quantità di dati provenienti da vari paesi di lingua inglese, il team deve anche affrontare la sfida di gestire i pregiudizi nei modelli, come ottenere buoni risultati con accenti scozzesi ma scarsi con accenti irlandesi. Il relatore prosegue spiegando il processo di sviluppo di un modello ASR end-to-end per il riconoscimento vocale, evidenziando la difficoltà di dover apprendere quali informazioni nel segnale audio sono rilevanti per l'attività. L'obiettivo dell'azienda è produrre un modello in grado di gestire qualsiasi audio inviato a rev.com, rendendolo un problema più grande e più impegnativo di quello che si vede tipicamente nel mondo accademico. Viene discussa anche la decisione del team di utilizzare solo trascrizioni letterali per l'addestramento, poiché è fondamentale per l'accuratezza del modello.

  • 00:15:00 In questa sezione, il relatore discute su come preparare i dati audio per l'addestramento di un modello di riconoscimento vocale. I file lunghi di audio e trascrizioni vengono suddivisi in singole frasi o segmentati arbitrariamente con il rilevamento dell'attività vocale. L'audio viene quindi elaborato in uno spettrogramma con vettori, trasformandolo in un segnale unidimensionale che può essere inviato a una rete neurale per apprenderne le caratteristiche. Il modello deve anche decidere come suddividere i dati di testo e il campo ha optato per l'utilizzo di unità di parole secondarie o unità di parole. Infine, il relatore menziona brevemente l'uso della scala mel, una tecnica utilizzata per modellare meglio la percezione dell'udito umano di diverse bande di frequenza.

  • 00:20:00 In questa sezione, il relatore discute l'uso della scala Mel nel riconoscimento vocale, che imita il modo in cui l'orecchio umano elabora l'audio. Sebbene esistano modelli di reti neurali in grado di apprendere questi filtri, è più semplice per il loro team gestirli attraverso l'elaborazione del segnale piuttosto che includerli nella rete. Il relatore spiega anche con attenzione il modello encoder-decoder, che produce in uscita un'unità alla volta ed è condizionato dagli embedding dell'audio in ingresso. Il modello esegue il campionamento all'inizio e utilizza reti neurali ricorrenti o trasformatori come livello effettivo.

  • 00:25:00 In questa sezione, il relatore discute l'uso del "conformer" nei modelli di riconoscimento vocale automatico (ASR), che è un approccio più efficiente rispetto al tradizionale modello di trasformatore. Sebbene i modelli ASR basati sull'attenzione abbiano dimostrato un'accuratezza impressionante, non sono pratici per le applicazioni commerciali a causa dei compromessi tra velocità e costi di calcolo. Invece, il relatore consiglia di utilizzare l'algoritmo chiamato classificazione temporale connessionista (CTC) per ASR, che è il migliore quando l'allineamento tra input e output è monotono e la sequenza di output è della stessa lunghezza o più corta della sequenza di input. CTC è una funzione di perdita e un algoritmo di decodifica che si trova in cima a un modello di deep learning e richiede un livello di output softmax. Le uscite vengono generate tutte in una volta, rendendolo più veloce rispetto al tradizionale modello di codificatore-decodificatore con attenzione.

  • 00:30:00 In questa sezione del video, il relatore discute il concetto di Connectionist Temporal Classification (CTC), che è un metodo utilizzato per il riconoscimento vocale. Il metodo CTC prevede la somma delle probabilità logaritmiche negli output softmax per ogni fase temporale e quindi il calcolo della probabilità di una sequenza di etichette più breve da quelle più lunghe. Il metodo CTC viene fornito con un efficiente algoritmo di programmazione dinamica che viene utilizzato per calcolare la probabilità di una sequenza. Sebbene CTC possa non essere potente come altri modelli, può essere più veloce ed è migliore in determinate condizioni. Per migliorare la precisione, è possibile aggiungere un modello linguistico addestrato esternamente, ma questo non è più un modello end-to-end.

  • 00:35:00 In questa sezione, il relatore discute il compromesso tra accuratezza e velocità o costo di calcolo nell'ottenere probabilità dai modelli linguistici. Spiegano la possibilità di aggiungere un modello linguistico come parte di un modello di rete neurale profonda, chiamato trasduttore, che può rientrare nel budget di calcolo di un sistema di produzione assumendo che la previsione e la rete congiunta siano relativamente piccole e non troppo costose. Il relatore parla anche del modello congiunto CTC e attenzione utilizzato da REV, che ha dimostrato di essere una delle architetture ASR più performanti. Toccano anche la questione del pregiudizio nei set di dati e menzionano le strategie che stanno esplorando, come fare un uso maggiore di trascrittori umani per aiutare a bilanciare i dati di addestramento.

  • 00:40:00 In questa sezione, i relatori discutono le potenziali strategie per affrontare i problemi con il modello end-to-end, comprese le fasi di post-elaborazione e l'estrazione dei dati per il ribilanciamento. Citano anche tecniche come l'apprendimento curriculare che possono esplorare nella loro ricerca. Inoltre, chiariscono che stanno attualmente utilizzando CTC con un modello di linguaggio n-grammo come primo passaggio e un modello conforme come codificatore sia per CTC che per gli incorporamenti inviati al decodificatore dell'attenzione. Forniscono i loro indirizzi e-mail a chiunque desideri contattarli con domande o per discutere di ASR in generale.
MIT 6.S191: Automatic Speech Recognition
MIT 6.S191: Automatic Speech Recognition
  • 2022.05.02
  • www.youtube.com
MIT Introduction to Deep Learning 6.S191: Lecture 8How Rev.com harnesses human-in-the-loop and deep learning to build the world's best English speech recogni...
 

MIT 6.S191: AI per la scienza



Conferenza 9. MIT 6.S191: AI per la scienza

Il video MIT 6.S191: AI for Science esplora le sfide dell'utilizzo di metodi informatici tradizionali per risolvere problemi scientifici complessi e la necessità dell'apprendimento automatico per accelerare le simulazioni. Il relatore discute la necessità di sviluppare nuovi metodi ML in grado di catturare fenomeni su scala fine senza overfitting su punti discreti e descrive vari approcci alla risoluzione di equazioni alle derivate parziali (PDE) utilizzando operatori neurali e trasformate di Fourier. Affrontano anche l'importanza di mantenere le informazioni di fase e ampiezza nel dominio della frequenza e di aggiungere leggi fisiche come funzioni di perdita quando si risolvono problemi inversi con PDE. Inoltre, vengono toccate la possibilità di utilizzare l'intelligenza artificiale per apprendere equazioni simboliche e scoprire nuove leggi o leggi fisiche, l'importanza della quantificazione dell'incertezza, della scalabilità e considerazioni tecniche per l'aumento delle applicazioni di intelligenza artificiale. Il video si conclude incoraggiando le persone a perseguire progetti interessanti con l'IA.

  • 00:00:00 Il relatore discute il ruolo della progettazione principale degli algoritmi di IA in domini impegnativi, con particolare attenzione all'IA per la scienza. È necessario costruire un linguaggio e una base comuni tra gli esperti di dominio e gli esperti di intelligenza artificiale e la necessità di sviluppare nuovi algoritmi per l'IA per la scienza. La sfida principale è la necessità di estrapolazione o generalizzazione zero-shot, il che significa fare previsioni su campioni che sembrano molto diversi dai dati di addestramento. Ciò richiede di tenere conto dei precedenti di dominio, dei vincoli e delle leggi fisiche e non può essere puramente basato sui dati. La necessità di informatica sta crescendo in modo esponenziale nell'informatica scientifica e l'intelligenza artificiale può essere utile per aiutare ad affrontare il cambiamento climatico e modellare il mondo reale su scala fine.

  • 00:05:00 In questa sezione del video, il relatore discute le sfide dell'utilizzo di metodi informatici tradizionali per risolvere complessi problemi scientifici come la simulazione di molecole o la previsione del cambiamento climatico. Anche con i supercomputer, ci vorrebbe molto più tempo dell'età dell'universo per calcolare l'equazione di Schrödinger per una molecola contenente 100 atomi. Pertanto, è necessario che l'apprendimento automatico acceleri queste simulazioni e le renda guidate dai dati. Tuttavia, gli attuali metodi di deep learning hanno dei limiti, come l'eccessiva sicurezza quando si fanno previsioni sbagliate, che possono portare a decisioni errate e potenzialmente costose. Il relatore sottolinea la necessità di sviluppare nuovi metodi di apprendimento automatico in grado di catturare fenomeni su scala ridotta senza adattarsi eccessivamente a punti discreti.

  • 00:10:00 Questa parte discute le sfide dello sviluppo di modelli di intelligenza artificiale in grado di catturare fenomeni continui e modellazione molecolare in modo invariante di risoluzione e rispettoso della simmetria. Notano che i grandi modelli di intelligenza artificiale possono aiutare a catturare fenomeni complessi, come il clima terrestre, e la maggiore disponibilità di dati e supercomputer più grandi contribuiscono alla loro efficacia. Il relatore discute anche le sfide della progettazione algoritmica durante la risoluzione di equazioni alle derivate parziali e che le reti neurali standard non possono essere utilizzate in modo diretto, specialmente quando si risolvono una famiglia di equazioni alle derivate parziali, come il flusso del fluido in cui il modello deve apprendere cosa accade in condizioni iniziali diverse.

  • 00:15:00 In questa sezione, il relatore discute il problema della risoluzione di equazioni alle derivate parziali (PDE) e come differisce dall'apprendimento supervisionato standard. La sfida è che le soluzioni PDE non sono fissate a una risoluzione, quindi è necessario un framework in grado di risolvere qualsiasi risoluzione. Il relatore spiega come la risoluzione delle PDE richieda la ricerca della soluzione con determinate condizioni iniziali e al contorno e illustra come ciò possa essere fatto prendendo spunto dalla risoluzione delle PDE lineari, in particolare dall'esempio della fonte di calore. Il principio dell'operatore lineare viene utilizzato componendolo con non linearità per impostare una rete neurale per l'apprendimento automatico. Tuttavia, l'input è a dimensione infinita e continuo, quindi è necessaria una soluzione pratica, e il relatore propone di progettare gli operatori lineari ispirati alla risoluzione di equazioni alle derivate parziali lineari.

  • 00:20:00 In questa sezione, il relatore discute il concetto di utilizzo di un operatore neurale per risolvere equazioni alle derivate parziali (PDE), sia lineari che non lineari. L'idea prevede l'apprendimento di come eseguire l'integrazione su più livelli per creare un operatore neurale in grado di apprendere in dimensioni infinite. L'architettura pratica necessaria per raggiungere questo obiettivo è sviluppata attraverso una convoluzione globale tramite trasformate di Fourier, che consente di catturare correlazioni globali. L'architettura funziona trasformando il segnale nello spazio di Fourier e apprendendo i pesi su come modificare i pesi di frequenza. Questo offre una formulazione molto semplice che è stabile e fornisce espressività. Inoltre, il relatore osserva che l'approccio si basa su distorsioni induttive specifiche del dominio, consentendo un calcolo efficiente in campi come i flussi di fluido.

  • 00:25:00 Il relatore spiega che l'utilizzo delle trasformate di Fourier consente l'elaborazione a qualsiasi risoluzione e migliora la generalizzazione su diverse risoluzioni rispetto ai filtri convoluzionali che apprendono solo a una risoluzione. Discutono anche di come i principi di questo approccio, che implicano la risoluzione della convoluzione globale attraverso trasformazioni non lineari insieme, si traducano in un modello espressivo. Rispondono ad alcune domande del pubblico sulla generalizzabilità dell'implementazione e sui vantaggi dell'addestramento di un modello che è invariante alla risoluzione. Il relatore mostra i risultati dell'implementazione di questo approccio sui dati di Navier-Stokes, dimostrando che è in grado di catturare bene le alte frequenze e può migliorare i risultati anche estrapolando a risoluzioni più elevate rispetto ai dati di addestramento.

  • 00:30:00 Questa parte discute l'importanza di mantenere sia le informazioni di fase che di ampiezza nel dominio della frequenza piuttosto che solo l'ampiezza. Se si utilizzano numeri complessi nelle reti neurali, è importante verificare la presenza di potenziali bug negli aggiornamenti del gradiente per algoritmi come adam. Il relatore suggerisce di aggiungere leggi fisiche come funzioni di perdita a soluzioni come equazioni alle derivate parziali (PDE), poiché ha senso verificare se la soluzione è vicina a soddisfare le equazioni. Allenandosi su molte diverse istanze di problemi e facendo affidamento su piccole quantità di dati di addestramento, l'equilibrio tra l'essere informati sui dati o sulla fisica può creare un buon compromesso e produrre capacità di generalizzazione. Inoltre, il relatore affronta l'utilità di risolvere problemi inversi con le PDE.

  • 00:35:00 Questa parte discute l'idea di risolvere problemi inversi attraverso l'apprendimento automatico. Ciò comporta l'apprendimento di un risolutore di equazioni alle derivate parziali in avanti e quindi l'inversione per trovare la soluzione migliore, piuttosto che fare affidamento su metodi costosi come MCMC. Il relatore tocca anche l'argomento del caos e la sua connessione con i trasformatori, evidenziando la sostituzione del meccanismo dell'attenzione con modelli di operatori neurali di Fourier per una migliore efficienza. Vengono discusse varie applicazioni di questi diversi framework, tra cui la previsione del tempo, il clima e la previsione dello stress nei materiali. Si pone anche la questione se gli operatori neurali possano essere utilizzati per vari domini applicativi simili alle reti pre-addestrate. Sebbene il relatore riconosca l'importanza delle leggi fisiche universali, si suggerisce che l'addestramento di un modello per comprendere la fisica, la chimica e la biologia sia ancora una sfida difficile.

  • 00:40:00 In questa sezione del video, il relatore discute la possibilità di utilizzare l'intelligenza artificiale per apprendere equazioni simboliche e scoprire nuove leggi o leggi fisiche, anche se può essere difficile farlo. Toccano anche l'importanza della quantificazione dell'incertezza per i modelli di deep learning, la scalabilità e le considerazioni tecniche per l'aumento delle applicazioni di intelligenza artificiale. Inoltre, menzionano il potenziale per altri thread, come l'uso dell'auto-attenzione nei modelli di trasformatore e nei modelli generativi per il denoising. Nel complesso, il discorso mira a fornire una buona base sull'apprendimento profondo e incoraggiare le persone a perseguire progetti interessanti con l'IA.
MIT 6.S191: AI for Science
MIT 6.S191: AI for Science
  • 2022.05.13
  • www.youtube.com
MIT Introduction to Deep Learning 6.S191: Lecture 9AI for ScienceLecturer: Anima Anandkumar (Director of ML Research, NVIDIA)NVIDIA ResearchJanuary 2022For a...
 

MIT 6.S191: Incertezza nel Deep Learning



Lezione 10. MIT 6.S191: L'incertezza nell'apprendimento profondo

Il docente Jasper Snoek (Research Scientist, Google Brain) discute l'importanza dell'incertezza e della robustezza fuori distribuzione nei modelli di apprendimento automatico, in particolare in campi come l'assistenza sanitaria, le auto a guida autonoma e i sistemi di dialogo conversazionale. Esprimendo l'incertezza nelle previsioni, i modelli possono fornire ai medici o agli esseri umani maggiori informazioni per prendere decisioni o chiedere chiarimenti, migliorando in ultima analisi l'utilità complessiva del sistema. Il relatore introduce anche l'idea dell'incertezza del modello e delle fonti dell'incertezza, sottolineando che i modelli che riconoscono i propri limiti possono essere ancora più utili.

  • 00:00:00 In questa sezione del video, il relatore discute l'importanza della stima pratica dell'incertezza e della robustezza fuori distribuzione nel deep learning. La stima dell'incertezza comporta la restituzione di una distribuzione sulle previsioni piuttosto che solo su una singola previsione per fornire un'etichetta con la sua confidenza o una media con la sua varianza. La robustezza al di fuori della distribuzione è necessaria perché anche se gli algoritmi di apprendimento automatico vengono generalmente addestrati su set di dati indipendenti e distribuiti in modo identico dallo stesso set di dati, i modelli distribuiti spesso incontrano nuovi dati, che hanno una distribuzione diversa. Ciò può includere input diversi o etichette diverse. Il relatore presenta esperimenti che dimostrano che i modelli di deep learning lottano con i cambiamenti dei set di dati durante la distribuzione e commettono errori troppo sicuri di fronte a questi cambiamenti di distribuzione.

  • 00:05:00 In questa sezione, il relatore discute l'importanza dell'incertezza e della robustezza fuori distribuzione nei modelli di apprendimento automatico, in particolare in campi come l'assistenza sanitaria, le auto a guida autonoma e i sistemi di dialogo conversazionale. Esprimendo l'incertezza nelle previsioni, i modelli possono fornire ai medici o agli esseri umani maggiori informazioni per prendere decisioni o chiedere chiarimenti, migliorando in ultima analisi l'utilità complessiva del sistema. Il relatore introduce anche l'idea dell'incertezza del modello e delle fonti dell'incertezza, sottolineando che i modelli che riconoscono i propri limiti possono essere ancora più utili.

  • 00:10:00 Il docente discute le due principali fonti di incertezza nel deep learning: epistemica e aleatoria. L'incertezza epistemica è l'incertezza di quale potrebbe essere il vero modello, che può essere ridotta con una maggiore raccolta di dati. L'incertezza aleatoria si riferisce all'incertezza che è insita nei dati ed è spesso nota come incertezza irriducibile. Gli esperti spesso confondono i due tipi di incertezza. Il video rileva inoltre che un modo popolare per misurare la qualità dell'incertezza nei modelli di deep learning è attraverso la nozione di errore di calibrazione. Il video fornisce un esempio di errore di calibrazione per le previsioni meteorologiche e mette in evidenza uno svantaggio della calibrazione, ovvero che non ha alcuna nozione di precisione incorporata.

  • 00:15:00 In questa sezione, Jasper Snoek discute l'importanza di ottenere una buona nozione di incertezza dai modelli e come estrarla. Spiegano che ogni funzione di perdita corrisponde a un massimo, quindi minimizzare una funzione di perdita corrisponde a massimizzare una probabilità o massimizzare una probabilità logaritmica dei dati dati i parametri del modello. Il relatore sottolinea l'importanza di una regola di punteggio adeguata che dia un'idea di quanto fosse buona l'incertezza e discute il concetto di entropia incrociata softmax con regolarizzazione L2. Spiegano anche che è possibile ottenere una distribuzione per p theta dato xy, ottenendo più buoni modelli o calcolando il posteriore, che è una distribuzione condizionale dei parametri date le osservazioni.

  • 00:20:00 Questa parte discute il deep learning bayesiano, che prevede il calcolo delle probabilità al momento della previsione dati i parametri. Un posteriore viene utilizzato per pesare ogni configurazione di parametri in un integrale che viene aggregato per ottenere previsioni. In pratica, vengono prelevati un gruppo di campioni e le previsioni vengono aggregate su un insieme di campioni discreti per ottenere una distribuzione di modelli invece di uno solo. Ciò fornisce un'incertezza interessante mentre ti allontani dai dati perché si formano diverse ipotesi su come sarà il comportamento dei dati mentre ti allontani. Esistono molti modi per approssimare l'integrale su tutti i parametri perché generalmente è troppo costoso farlo in forma chiusa o esattamente per le reti profonde. Viene discusso anche l'insieme, che sta prendendo un gruppo di modelli addestrati in modo indipendente e formando una distribuzione mista, in quanto fornisce previsioni e incertezza migliori rispetto a una sola.

  • 00:25:00 In questa parte Jasper Snoek discute diverse strategie per migliorare l'incertezza dei modelli di deep learning. Menzionano dibattiti tra esperti sul fatto che gli ensemble siano o meno bayesiani, con l'oratore che cade nel campo "non bayesiano". Spiegano anche alcune difficoltà con i modelli bayesiani sulle reti neurali profonde, come la richiesta di integrali ad alta dimensione e la necessità di specificare una classe ben definita di modelli che può essere difficile da determinare per le reti profonde. Nonostante queste difficoltà, discutono alcuni metodi popolari ed efficaci per migliorare l'incertezza, tra cui la ricalibrazione tramite il ridimensionamento della temperatura, l'abbandono di Monte Carlo e gli insiemi profondi. Citano anche gli insiemi di iperparametri come una strategia che funziona anche meglio degli insiemi profondi.

  • 00:30:00 Questa parte discute diversi metodi per ottimizzare i modelli di deep learning e renderli più efficienti, in particolare quando si tratta di modelli di grandi dimensioni e bassa latenza. Il primo approccio discusso è l'ensembling, che prevede la combinazione di più modelli indipendenti per generare un insieme più diversificato di previsioni. Un altro approccio consiste nell'utilizzare SWAG, che ottimizza tramite SGD e adatta una gaussiana attorno alle iterazioni di peso medio. La discussione si sposta quindi sulla scalabilità, che è una questione particolarmente importante dato che molti modelli di deep learning sono grandi e difficili da inserire nell'hardware. L'oratore discute un metodo chiamato "batch ensemble" che utilizza fattori di rango uno per modulare un singolo modello, producendo quasi le stesse prestazioni di un insieme completo con solo il cinque percento del numero di parametri di un singolo modello.

  • 00:35:00 In questa sezione, Jasper Snoek discute l'idea di trasformare il metodo dell'insieme batch in un metodo bayesiano approssimato. Ciò può essere ottenuto attraverso l'uso di una distribuzione sui fattori e il campionamento di questi fattori durante la previsione, che potrebbe corrispondere alla distribuzione binaria o ad altre distribuzioni interessanti che modulano i pesi del modello. Altri approcci ai metodi bayesiani includono essere bayesiani su un sottospazio e forzare le reti neurali a prevedere più input e output, il che porta a previsioni diverse e interessanti. L'uso di modelli pre-addestrati su larga scala è anche discusso come un cambio di paradigma per l'apprendimento automatico, in cui è possibile accedere a un'altra gigantesca distribuzione per migliorare l'accuratezza e l'incertezza.

  • 00:40:00 Il video discute l'importanza dell'incertezza e della robustezza nel deep learning e come la pre-formazione può aiutare a ottenere l'intera distribuzione. L'autore afferma che con l'aumentare della potenza di calcolo, ci sono nuovi modi di guardare alla frontiera, il che promette di ottenere una migliore incertezza dai nostri modelli. Si discute anche sull'uso dell'incertezza per colmare il divario di realtà nelle applicazioni sim-to-real, ma si sottolinea che l'incertezza e la robustezza sono incredibilmente importanti in queste applicazioni sebbene le specifiche non siano chiare.

  • 00:45:00 In questa sezione, Jasper Snoek discute la potenziale applicazione delle misure di incertezza nei modelli di intelligenza artificiale a valle, in particolare utilizzando l'incertezza per migliorare i modelli predittivi. Esplorano le sfide nel trasmettere l'incertezza agli utenti non esperti e l'importanza di utilizzare l'incertezza per migliorare la perdita di decisioni a valle, in particolare in campi come la medicina e le auto a guida autonoma. Toccano anche la mancanza di implementazioni accessibili e facili da usare delle reti neurali bayesiane, che il loro gruppo sta lavorando per affrontare attraverso la loro libreria open source, linee di base dell'incertezza.
MIT 6.S191: Uncertainty in Deep Learning
MIT 6.S191: Uncertainty in Deep Learning
  • 2022.05.28
  • www.youtube.com
MIT Introduction to Deep Learning 6.S191: Lecture 10Uncertainty in Deep LearningLecturer: Jasper Snoek (Research Scientist, Google Brain)Google BrainJanuary ...
 

Intelligenza artificiale: l'ultima invenzione dell'umanità



Intelligenza artificiale: l'ultima invenzione dell'umanità

Il video "Artificial Intelligence: Mankind's Last Invention" esplora i progressi e i potenziali rischi associati allo sviluppo dell'intelligenza artificiale (AI). Il video mette in evidenza AlphaGo di Google DeepMind, che ha superato secoli di conoscenza della strategia umana in soli 40 giorni. Si tuffa nelle differenze tra IA debole e forte e discute di come l'IA avanzata possa portare a una singolarità tecnologica, dove migliora continuamente su se stessa e diventa miliardi di volte più intelligente degli umani. L'oratore sottolinea l'importanza di dare all'IA valori e principi simili a quelli umani e mette in guardia contro la creazione di un sistema incontrollabile. Il video si conclude sottolineando la necessità di considerare attentamente le conseguenze dello sviluppo di un'intelligenza artificiale super intelligente prima di farlo.

  • 00:00:00 Questa parte spiega la complessità del gioco da tavolo, Go, che non può essere risolto con la forza bruta o previsto, e ha da 10 a 170 mosse possibili. AlphaGo di Google DeepMind è stato addestrato utilizzando i dati di veri giochi Go umani in cui ha appreso le tecniche utilizzate e ne ha create di nuove che nessuno aveva mai visto, il che è stato impressionante da solo. Un anno dopo la vittoria di AlphaGo, AlphaGo Zero ha battuto AlphaGo 100 a 0 utilizzando le regole essenziali poiché ha imparato a giocare senza interazione umana, che ha superato oltre 2.500 anni di strategia e conoscenza in soli 40 giorni. Il video evidenzia la quantità significativa di conoscenza non umana man mano che la tecnologia continua a svilupparsi; ci sarà un punto in cui gli umani rappresenteranno la minoranza dell'intelligenza e non ci sarà alcun interruttore per spegnere l'IA.

  • 00:05:00 In questa sezione, il video discute le reti neurali e il modo in cui le macchine apprendono dai dati e adattano la propria visione di essi. Esplora anche la differenza tra le capacità del cervello umano e dei computer. Ad esempio, i computer possono eseguire 20.000 anni di ricerca a livello umano in una sola settimana. Inoltre, viene esplorata la natura esponenziale dell'apprendimento automatico, nel senso che inizia lentamente ma raggiunge un punto critico in cui le cose iniziano ad accelerare drasticamente. Viene sottolineata la differenza tra AI debole e forte; mentre il primo richiede meno energia, la differenza tra il secondo e l'intelligenza artificiale super intelligente è milioni di volte maggiore. Viene quindi sottolineata l'importanza di un'intelligenza artificiale forte, che ha il potenziale per aiutarci a raggiungere il livello di superintelligenza in pochi mesi.

  • 00:10:00 Il relatore discute di come l'intelligenza artificiale avanzata possa portare a una singolarità tecnologica in cui migliora continuamente su se stessa e diventa miliardi di volte più intelligente degli umani. Il relatore sottolinea la necessità di stare attenti a come realizziamo l'IA, poiché può diventare incontrollabile se non le diamo valori e principi simili a quelli umani. L'oratore spiega come l'IA con solo intelligenza ma non saggezza può prendere decisioni che non sono necessariamente etiche o buone per gli esseri umani. L'oratore introduce anche Neuralink, che mira a creare un laccio neurale che ci darà un accesso ad alta velocità a Internet e ci consentirà di accedere istantaneamente a tutte le informazioni disponibili al mondo.

  • 00:15:00 In questa sezione, esploriamo le potenziali incertezze e i rischi che derivano dalla creazione di un sistema artificialmente intelligente. Ci sono molte domande da considerare, ad esempio come la coscienza può essere programmata e come possono essere replicate emozioni come l'amore e l'odio. Inoltre, la possibilità che un'intelligenza artificiale super intelligente possa adottare opinioni radicali e impegnarsi nella sua agenda piuttosto che in ciò per cui è stata programmata. Mentre i progressi nell'informatica stanno rallentando, un'intelligenza artificiale super intelligente ha ancora il potenziale per aiutare l'umanità a raggiungere il suo apice, ma anche essere un'arma nelle mani sbagliate. È un argomento che dovrebbe essere preso sul serio e le conseguenze sulla sicurezza di un tale sistema dovrebbero essere considerate prima che venga creato.
Artificial Intelligence: Mankind's Last Invention
Artificial Intelligence: Mankind's Last Invention
  • 2018.10.05
  • www.youtube.com
Artificial Intelligence: Mankind's Last Invention - Technological Singularity ExplainedPart 2: https://www.youtube.com/watch?v=zuXNlTJb_FMFollow me on Instag...
 

La rivoluzione canadese dell'intelligenza artificiale - Dr. Joelle Pineau



La rivoluzione canadese dell'intelligenza artificiale - Dr. Joelle Pineau

La dott.ssa Joelle Pineau discute i progressi e le sfide nel campo dell'intelligenza artificiale (AI), evidenziando il ruolo dell'apprendimento automatico e della visione artificiale nel progresso della ricerca sull'IA. Presenta il proprio lavoro sull'ottimizzazione dei trattamenti per l'epilessia utilizzando la terapia di stimolazione neurale e l'apprendimento per rinforzo. Il dottor Pineau discute anche degli impatti socio-economici dell'IA, rilevando la necessità di collaborazione tra ricercatori di intelligenza artificiale e ricercatori medici specifici del dominio per ottimizzare il trattamento. Sottolinea l'importanza di preparare l'istruzione della prossima generazione in matematica, scienze e abilità informatiche per soddisfare la domanda di incorporare più prospettive tecniche nel curriculum. Tuttavia, riconosce anche le sfide nel campo, come problemi di parzialità nei dati e problemi di privacy e sicurezza rispetto ai dati. Il Dr. Pineau, in ultima analisi, ritiene che l'IA abbia il potenziale per rivoluzionare vari campi come l'assistenza sanitaria e la robotica e attende con impazienza il futuro di sistemi autonomi in grado di operare in modo sicuro ed efficace in ambienti incentrati sull'uomo.

Sottolinea inoltre la necessità di portare diverse prospettive nel campo dell'intelligenza artificiale (AI) per espandere la tecnologia e cita iniziative come AI for Good presso McGill che formano le giovani donne nell'IA. Tuttavia, rileva la necessità di misurare il loro impatto e formare rapidamente più persone nell'IA per superare il collo di bottiglia nello sviluppo dell'IA dovuto alla mancanza di talento. Pineau sottolinea l'importanza di disporre di una forza lavoro diversificata e ben addestrata per far progredire il campo dell'IA. Il video si conclude con Pineau che annuncia un prossimo evento con Michele Lamont all'hotel Omni King Edward il 14 novembre.

  • 00:00:00 In questa sezione del video, il Dr. Alan Bernstein presenta il Canadian Institute for Advanced Research (CFR), un'organizzazione di ricerca globale che riunisce i migliori ricercatori per affrontare importanti questioni che l'umanità deve affrontare. Uno dei programmi di successo del CFR è l'intelligenza artificiale (AI), che è stata sperimentata da un borsista del CFR nel 2002. La dott.ssa Joelle Pineau, la relatrice della serata, approfondisce le implicazioni dell'IA sulla società e le preoccupazioni etiche che circondano il suo sviluppo.

  • 00:05:00 In questa sezione, il relatore discute gli entusiasmanti progressi compiuti nel campo dell'intelligenza artificiale, compreso lo sviluppo di auto a guida autonoma e agenti conversazionali. Sebbene l'intelligenza artificiale non sia ancora completamente integrata nella nostra vita quotidiana, la tecnologia ha già iniziato a influenzare il modo in cui interagiamo con il mondo digitale. Il relatore sottolinea anche il ruolo dell'apprendimento automatico e della visione artificiale nel far progredire la ricerca sull'IA e il potenziale dell'IA di rivoluzionare vari campi come l'assistenza sanitaria e la robotica.

  • 00:10:00 In questa sezione, apprendiamo l'impatto delle capacità cognitive dell'intelligenza artificiale e come sta rivoluzionando l'economia e la società. Lo sviluppo dell'intelligenza artificiale è un processo continuo, ma abbiamo creato macchine con moduli per la pianificazione, la comprensione del linguaggio naturale e l'elaborazione delle immagini. Le sfide si prospettano nella costruzione di un'intelligenza artificiale migliore e che integri perfettamente queste diverse abilità. Negli ultimi anni c'è stato un cambiamento nell'approccio all'intelligenza artificiale, con le macchine che sono state addestrate attraverso esempi invece che una filosofia programmatica. Le scoperte nella visione artificiale hanno migliorato la nostra capacità di comprendere le immagini, portando a progressi nella tecnologia come le auto a guida autonoma.

  • 00:15:00 In questa sezione, la dott.ssa Joelle Pineau spiega che la svolta nella visione artificiale è stata ottenuta grazie alla disponibilità di dati, in particolare il set di dati ImageNet con un milione di immagini annotate che ha addestrato le macchine a riconoscere migliaia di oggetti diversi con elevata precisione. Questo aumento dei dati, combinato con le piattaforme informatiche, come le piattaforme GPU, ha consentito alla tecnologia di deep learning di guidare il progresso in vari tipi di dati, incluso il riconoscimento vocale. Questa analogia tecnologica viene fatta con i neuroni biologici nel cervello, dove i neuroni ricevono informazioni, le elaborano, prendono decisioni e inviano un messaggio, che è lo stesso processo dei neuroni artificiali. Le connessioni tra questi neuroni vengono regolate con algoritmi di apprendimento automatico per rafforzare determinate previsioni selezionando il giusto insieme di pesi.

  • 00:20:00 In questa sezione, la dott.ssa Joelle Pineau discute di come le reti neurali artificiali elaborano le informazioni, con ogni livello della rete che elabora una versione più astratta delle informazioni fino a quando non viene generata una previsione alla fine. Viene anche esplorata l'intersezione tra visione e linguaggio, con la didascalia delle immagini come esempio. Sebbene le macchine non siano perfette e possano commettere errori, l'apprendimento per rinforzo è una tecnica che può migliorare le loro capacità. Un esempio di successo è AlphaGo, che ha imparato a giocare a Go ea battere un campione umano. Questo sistema è stato creato con la combinazione di deep learning e milioni di giochi per giocatori esperti di Go, seguiti da apprendimento per tentativi ed errori.

  • 00:25:00 In questa sezione, la dott.ssa Joelle Pineau discute un progetto su cui lei e il suo team hanno lavorato per diversi anni volto a sviluppare la tecnologia per migliorare i trattamenti per le persone con epilessia. Questo progetto prevede l'uso della terapia di stimolazione neurale, in cui un dispositivo applica la stimolazione elettrica nel cervello in tempo reale per interrompere l'incidenza delle convulsioni. Il problema che stanno cercando di risolvere è come ottimizzare il parametro della stimolazione per migliorare la loro capacità di interrompere le convulsioni. In collaborazione con i ricercatori, hanno utilizzato l'apprendimento per rinforzo per ottimizzare la strategia e sono stati in grado di sviluppare una politica molto diversificata, distanziando l'incidenza della stimolazione in base al fatto che il cervello sia a rischio immediato di convulsioni o meno. Questi esperimenti sono stati condotti con modelli animali di epilessia e il passo successivo è passare agli esperimenti sull'uomo.

  • 00:30:00 In questa sezione, la dott.ssa Joelle Pineau discute l'uso delle strategie di intelligenza artificiale per ottimizzare il trattamento, in particolare per le malattie che richiedono una sequenza di interventi. Pur avendo molti dati è importante, osserva che anche l'apprendimento efficiente da set di dati più piccoli è fondamentale. Sottolinea la necessità di collaborazione tra ricercatori di intelligenza artificiale e ricercatori medici che hanno conoscenze e comprensione specifiche del dominio delle dinamiche della malattia. Inoltre, sottolinea l'importanza di sviluppare talenti in molti settori dell'economia e della società per essere pronti all'IA. Pineau discute anche della strategia pan-canadese per produrre la prossima generazione di studenti per aiutare a far progredire la ricerca sull'IA in Canada.

  • 00:35:00 In questa sezione, i giovani borsisti del Massey College di Toronto hanno discusso gli impatti socio-economici dell'IA, in particolare lo spostamento di posti di lavoro e l'aumento delle disparità di ricchezza. Sebbene la relatrice, la dott.ssa Joelle Pineau, non sia un'esperta di politica, suggerisce che è importante prevedere quali settori hanno maggiori probabilità di essere colpiti e preparare la prossima generazione a tale cambiamento. Un esempio di trasferimento di posti di lavoro è nel settore degli autotrasporti, dove l'automazione può alleviare un po' la pressione in quanto è difficile assumere nuove persone. Tuttavia, in campo medico, potrebbe essere più difficile preparare le persone alla realtà dell'IA che sostituisce determinati lavori, come i radiologi. Il dottor Pineau ricorda al gruppo che la società umana è adattabile e che ci saranno sempre problemi nuovi e interessanti da risolvere.

  • 00:40:00 In questa sezione, la dott.ssa Joelle Pineau discute l'importanza di preparare l'istruzione della prossima generazione in matematica, scienze e abilità informatiche per soddisfare la domanda di incorporare più prospettive tecniche e codificare in diversi programmi di studio. Tuttavia, c'è un divario tra gli esperti tecnici che potrebbero non avere la più ampia visibilità culturale ei responsabili politici che potrebbero non avere le competenze tecniche, e ci vuole tempo per trovare un linguaggio comune. Il dottor Pineau condivide anche che mentre il cervello umano è una grande ispirazione per la ricerca sull'IA, ci sono vincoli fisici a ciò che le macchine possono fare che il cervello umano può fare, e le reti neurali rappresentano solo una parte della storia della costruzione di questi algoritmi. In termini di applicazioni di intelligenza artificiale, la più entusiasmante della dott.ssa Pineau è l'apprendimento per rinforzo nella robotica e non vede l'ora che arrivi il futuro dei sistemi autonomi in grado di operare in modo sicuro ed efficace in ambienti incentrati sull'uomo.

  • 00:45:00 In questa sezione del video, la dottoressa Joelle Pineau discute il suo lavoro su un progetto sull'epilessia utilizzando l'intelligenza artificiale, che trova affascinante a causa della complessità del problema e della natura interdisciplinare del lavoro. Spiega che le sfide dell'IA risiedono nel porre le giuste domande sui dati e nell'associarli all'algoritmo corretto. La dottoressa Pineau afferma anche che lei e i suoi studenti laureati spesso hanno bisogno di essere creativi e inventare nuovi algoritmi per adattarsi ai dati. Crede che uno dei più grandi malintesi sull'intelligenza artificiale sia che sia una scatola nera che prende decisioni che gli umani non possono comprendere.

  • 00:50:00 In questa sezione, la dott.ssa Joelle Pineau discute le sfide legate alla comprensione del modo in cui le reti neurali prendono le decisioni. Mentre possiamo tracciare le previsioni di una rete neurale, non è sempre facile spiegare perché ha fatto quelle previsioni in modo conciso e comprensibile come fanno gli umani. Tuttavia, se le macchine possono essere progettate per costruire una narrazione che spieghi le loro decisioni, potrebbe stabilire un dialogo più ricco tra macchine e umani. Man mano che le macchine diventano più diffuse nella forza lavoro, è importante disporre di un linguaggio per spiegare le decisioni reciproche per creare una partnership tra umani e macchine. Il dottor Pineau tocca anche la questione del bias nei dati, che spesso è intrinsecamente umano e può portare a bias negli algoritmi di apprendimento automatico. Mentre il pregiudizio induttivo è essenziale nell'addestramento degli algoritmi, dobbiamo essere consapevoli dei nostri pregiudizi e scegliere buoni pregiudizi e dati induttivi per progettare sistemi imparziali.

  • 00:55:00 In questa sezione, la dott.ssa Joelle Pineau discute l'importanza di evitare pregiudizi durante l'addestramento di modelli e metodi di intelligenza artificiale per raggiungere questo obiettivo, come la sovrarappresentazione di tipi di dati sottorappresentati. Tuttavia, osserva anche che evitare completamente i pregiudizi è difficile e che dovremmo concentrarci sull'aumento della diversità tra le persone che costruiscono la tecnologia. Inoltre, riconosce le sfide nel campo come problemi di privacy e sicurezza rispetto ai dati, capire cosa viene condiviso durante la distribuzione di algoritmi di apprendimento automatico e capire la giusta funzione di ricompensa per gli agenti nell'apprendimento per rinforzo.

  • 01:00:00 In questa sezione, la dott.ssa Joelle Pineau parla dell'importanza di introdurre diverse prospettive nel campo dell'intelligenza artificiale (AI) al fine di ampliare la gamma della tecnologia. Cita iniziative come il programma AI for Good presso McGill, che riunisce giovani donne per una formazione avanzata in IA e progetti pratici. Tuttavia, Pineau osserva che c'è ancora molto lavoro da fare per misurare l'impatto di queste iniziative, in particolare con l'introduzione della programmazione nei programmi scolastici. Il collo di bottiglia nello sviluppo dell'IA, secondo Pineau, è la mancanza di talento e la necessità di formare rapidamente più persone in questo campo. Sulla questione di come formare le persone per la ricerca sull'IA, riconosce la gamma di opportunità disponibili e la necessità di fare meglio a tutti i livelli. Nel complesso, Pineau sottolinea l'importanza di disporre di una forza lavoro diversificata e ben addestrata per far progredire il campo dell'IA.

  • 01:05:00 In questa sezione, il relatore conclude l'evento ringraziando i partecipanti e annunciando un prossimo evento con Michele Lamont, borsista di Seafire presso l'Università di Harvard. Lamont parlerà di come le società possono diventare più inclusive e riceverà il Premio Erasmus più avanti in autunno dal re dei Paesi Bassi. L'evento si terrà presso l'hotel Omni King Edward il 14 novembre
Canada’s Artificial Intelligence Revolution - Dr. Joelle Pineau
Canada’s Artificial Intelligence Revolution - Dr. Joelle Pineau
  • 2017.11.11
  • www.youtube.com
Dr. Joelle Pineau discusses how artificial intelligence is poised to change almost every aspect of our lives, from medical treatments to assistive robots to ...
 

Intelligenza artificiale e algoritmi: pro e contro | Documentario DW (documentario AI)



Intelligenza artificiale e algoritmi: pro e contro | Documentario DW (documentario AI)

Il video discute i pro ei contro dell'intelligenza artificiale, con un focus sulle implicazioni etiche dell'IA. Evidenzia come l'intelligenza artificiale può essere utilizzata per migliorare l'efficienza e la sicurezza pubblica, ma anche come può essere utilizzata per violare la privacy. Il video intervista Jens Redma, un dipendente di lunga data di Google, sull'importanza dell'intelligenza artificiale per l'azienda.

  • 00:00:00 L'intelligenza artificiale sta facendo passi da gigante, con il potenziale per rivoluzionare molti aspetti della vita quotidiana. Tuttavia, ci sono anche preoccupazioni circa le implicazioni dell'intelligenza artificiale sulla forza lavoro e sulla privacy.

  • 00:05:00 L'intelligenza artificiale viene utilizzata per analizzare grandi set di dati, comprese le radiografie del torace, al fine di identificare anomalie. L'accuratezza degli algoritmi è simile a quella dei radiologi umani. Tuttavia, gli algoritmi non sono perfetti e gli esseri umani sono ancora necessari per prendere decisioni in clinica basate sulle probabilità.

  • 00:10:00 Max Little è un matematico della Aston University che ha sviluppato un algoritmo per rilevare le differenze nei modelli vocali tra persone con e senza morbo di Parkinson. Lo studio ha mostrato che l'algoritmo era accurato quasi al 99% nell'identificare la condizione. Sebbene questo lavoro sia potenzialmente prezioso, ci sono preoccupazioni etiche sull'utilizzo di questi dati per diagnosticare persone senza un consenso adeguato.

  • 00:15:00 Il video presenta i vantaggi e gli svantaggi dell'intelligenza artificiale, inclusa la sua capacità di migliorare la sicurezza pubblica e l'efficienza. Discute anche del compromesso tra privacy e sicurezza. In Cina, c'è una tradizione diversa e affronta la questione della privacy e della sorveglianza, con particolare attenzione all'efficienza e alla raccolta dei dati.

  • 00:20:00 Nel video vengono discussi i pro ei contro dell'intelligenza artificiale. Il video discute anche di come aziende come Google abbiano un impatto sulla società e di come l'Unione Europea stia attualmente infliggendo a Google una multa antitrust di 2,7 miliardi di dollari.

  • 00:25:00 Il video discute l'importanza dell'intelligenza artificiale (AI) per Google e discute alcune delle preoccupazioni sollevate riguardo al suo impatto sulla società. Intervista anche Jens Redma, un impiegato di lunga data di Google, sull'importanza dell'intelligenza artificiale per l'azienda.

  • 00:30:00 Il video discute i pro ei contro dell'intelligenza artificiale, sottolineando l'importanza dell'intuizione e del processo decisionale umano sul campo. Parla della necessità che l'IA sia in grado di navigare in ambienti complessi e delle difficoltà che comporta raggiungere questo obiettivo.

  • 00:35:00 L'intelligenza artificiale può aiutare i conducenti a evitare gli incidenti, ma ci sono questioni etiche su come decidere chi salvare in una situazione così frenetica. In un recente sondaggio online, le persone concordano su una serie di valori morali, ma differiscono su come agire in scenari specifici.

  • 00:40:00 In questo documentario, i ricercatori discutono dei pro e dei contro dell'intelligenza artificiale e degli algoritmi. Discutono di come l'IA può aiutarci a prendere decisioni in modo più efficiente, ma notano che ci sono ancora questioni etiche da affrontare.
Artificial intelligence and algorithms: pros and cons | DW Documentary (AI documentary)
Artificial intelligence and algorithms: pros and cons | DW Documentary (AI documentary)
  • 2019.09.26
  • www.youtube.com
Developments in artificial intelligence (AI) are leading to fundamental changes in the way we live. Algorithms can already detect Parkinson's disease and can...
Motivazione: