Aprendizado de máquina e redes neurais - página 6

 

A História da Inteligência Artificial [Documentário]



A História da Inteligência Artificial [Documentário]

O documentário History of Artificial Intelligence nos leva pelos primeiros dias do conceito de "máquina pensante", gerado por escritores de ficção científica e pela indústria cinematográfica, até os avanços atuais em IA e processos de aprendizado profundo. O documentário mostra o progresso feito em IA, a capacidade das máquinas de aprender como humanos e os princípios por trás do funcionamento dos computadores. O vídeo explora as limitações dos computadores, o potencial de seu desenvolvimento e o possível futuro da inteligência artificial (IA). Os cientistas discutem a possibilidade de as máquinas serem capazes de pensar e produzir novas ideias, e o objetivo é criar um sistema de computador mais geral que possa aprender por experiência, formar conceitos e fazer lógica. Os primeiros passos em direção à IA podem ser vistos em uma pequena máquina de computação que pode aprender com a experiência, como mostra o exemplo de um mouse controlado eletricamente resolvendo um labirinto.

A segunda parte explora as limitações e o potencial dos computadores em termos de pensamento, sentimento e criatividade. Enquanto os computadores se destacam em operações lógicas e cálculos matemáticos, eles lutam com reconhecimento, reconhecimento de padrões e generalização, reconhecendo blocos, traduzindo idiomas e executando tarefas simples. Apesar dos resultados iniciais insatisfatórios, sistemas especialistas e programas como SHRDLU e TENDRIL mostraram como os computadores podem usar o conhecimento para resolver a ambigüidade e o aprendizado de idiomas. No entanto, permanece o desafio de ensinar o conhecimento do senso comum, que inclui tanto o conhecimento factual quanto as experiências que as pessoas adquirem ao longo do tempo. As redes neurais, embora inicialmente atraentes, têm limitações e são capazes apenas de lidar com pequenas tarefas. Os pesquisadores precisam treinar computadores para entender como a natureza constrói e coordena muitas micromáquinas dentro do cérebro antes que uma versão totalmente artificial possa ser construída.

A terceira parte abrange uma ampla gama de tópicos relacionados à história e ao futuro da inteligência artificial. Ele discute os esforços contínuos para alcançar a inteligência de uso geral com base no senso comum, incluindo o projeto Cyc e o potencial para compreensão geral da linguagem natural na IA. Os desafios para alcançar a inteligência semelhante à humana, incluindo a necessidade de modelos formais de inteligência e o papel da psicologia, também são explorados. Os entrevistados discutem o impacto dos computadores no campo da psicologia, bem como os desafios impostos pelo raciocínio não monotônico e a necessidade de avanços conceituais. Apesar das críticas, os entrevistados veem o objetivo da IA como um projeto nobre que pode nos ajudar a entender melhor a nós mesmos.

  • 00:00:00 Nesta seção, somos transportados de volta para a década de 1950, onde a ideia de uma "máquina pensante" ainda era um sonho, realizado apenas por escritores de ficção científica e pela indústria cinematográfica. O filme "The Thinking Machine" seguiu uma discussão sobre se as máquinas podem realmente pensar, um conceito ainda muito rebuscado na época, já que o campo da inteligência artificial estava apenas em seus estágios iniciais e os pesquisadores ainda não haviam descoberto como fazer as máquinas produzirem ideias genuinamente novas. Hoje, o documentário nos lembra do progresso feito na IA e nos processos de aprendizado profundo que contribuíram para avanços na tecnologia que às vezes damos por certo.

  • 00:05:00 Nesta seção da transcrição, uma criança está aprendendo o alfabeto e um psicólogo questiona como o cérebro reconhece padrões. A conversa então muda para o potencial dos computadores para imitar o mesmo processo de aprendizagem de uma criança ao ver o alfabeto pela primeira vez. O computador é testado e, embora não seja perfeito, pode identificar letras com precisão cada vez maior à medida que é apresentado com mais informações. A possibilidade de as máquinas serem capazes de aprender como os humanos é explorada, mas os processos de pensamento específicos das máquinas ainda não estão claros e toda a gama de utilidade dos computadores está sendo descoberta.

  • 00:10:00 Nesta seção, um grupo de professores da Carnegie Tech chamados Simon e Newell são mostrados tentando entender problemas lógicos como o quebra-cabeça de missionários e canibais. Eles representam seu progresso abordando o problema de fazer com que todos os três missionários e canibais cruzem o rio em um barco que pode acomodar apenas duas pessoas por vez sem que os canibais superem os missionários. Uma conversa entre professores revela que uma de suas alunas chamada Bárbara encontrou uma solução para o problema que o computador agora reproduziu. Além disso, os professores mostram uma demonstração de um homem jogando damas contra um computador, o que chama a atenção para a capacidade de um computador aprender com base em probabilidades ou razoabilidade que foram programadas nele.

  • 00:15:00 Nesta seção, o vídeo explora a questão de como os computadores funcionam, explicando que eles recebem entradas, as processam usando operações matemáticas e produzem resultados por meio de programação. Embora existam semelhanças entre computadores e sistemas nervosos vivos, os neurofisiologistas acreditam que há muito mais diferenças do que semelhanças. O vídeo também aborda a ideia de que os humanos são programados tanto hereditariamente quanto por experiência, oferecendo um experimento em que patinhos criados isoladamente falharam em reconhecer a silhueta de um ganso. No geral, a seção fornece uma breve explicação dos princípios por trás de como os computadores funcionam e mergulha em algumas ideias sobre programação em máquinas e seres vivos.

  • 00:20:00 Nesta seção, dois homens discutem o conceito de programação versus instinto em animais. Enquanto um argumenta que a capacidade do pato de diferenciar entre um ganso e um falcão é um exemplo de instinto, o outro sugere que alguns animais nascem com mais conhecimento embutido do que se pensava anteriormente. Eles analisam pesquisas feitas com sapos e sugerem que as fibras no olho de um sapo apenas informam ao cérebro coisas específicas relacionadas à sobrevivência do sapo, como movimento e presa em potencial. Essa teoria, embora ainda não amplamente aceita, poderia explicar a existência do instinto.

  • 00:25:00 Nesta seção, vemos um pesquisador conduzindo um experimento com uma criança de cinco anos para provar que os humanos nascem com certas habilidades inatas. A criança é solicitada a encher seu copo com leite até o nível do copo da pesquisadora, mas ela o enche até a borda, pensando que é a mesma quantidade. Isso sugere que algumas noções sobre o mundo ao nosso redor são preconcebidas em nossas mentes e contamos com nossos olhos para formar nossos conceitos do mundo ao nosso redor. O vídeo prova que o que vemos com nossos olhos nem sempre é preciso, e as ilusões podem pregar peças em nossos cérebros.

  • 00:30:00 Nesta seção, um professor fala com outro homem sobre como os humanos são programados para reagir com base em crenças e regras preconcebidas. O homem questiona se um computador pode fazer algo original, e o professor mostra a ele uma peça escrita por um computador com a ajuda de um programador chamado Harrison Morse. O público fica maravilhado com a impressão da peça e o professor explica que não é mágica, mas sim o resultado de um programa bem elaborado.

  • 00:35:00 Nesta seção, o funcionário do MIT, Doug Ross, explica como eles usaram um programa para escrever um playlet que ilustra as regras que constituem o comportamento inteligente. Eles destacam que o comportamento inteligente é um comportamento de obediência a regras e mostra como um computador pode ser feito para fazer um trabalho criativo. Eles mencionam as regras que o computador usa para determinar o comportamento razoável e até programaram um fator de embriaguez que afeta o comportamento do ladrão. Eles enfatizam que não há magia negra em fazer essas coisas em máquinas e mostram que o computador escreve uma peça diferente a cada vez, demonstrando sua criatividade.

  • 00:40:00 Nesta seção, o vídeo explora as limitações dos computadores e o potencial de seu desenvolvimento. A animação destaca o processo de tentativa e erro envolvido na programação de um computador e a possibilidade de erros. O vídeo mostra um experimento no qual um computador é usado para estudar sinais no cérebro humano, destacando o potencial dos computadores para melhorar nossa compreensão dos processos de aprendizagem. O vídeo então mostra aos espectadores o Lincoln Laboratory e seu computador TX2, que é um dos maiores e mais versáteis computadores do mundo. O vídeo sugere que computadores como o TX2 estão sendo usados para estudar processos de aprendizagem e que computadores estão sendo desenvolvidos globalmente para fins científicos.

  • 00:45:00 Nesta seção, os cientistas discutem a possibilidade de as máquinas serem capazes de pensar e produzir novas ideias. Enquanto alguns acreditam que as máquinas e os programas de computador serão capazes de se comportar de maneira inteligente e ajudar os humanos a aliviar o fardo do trabalho intelectual, outros duvidam que as máquinas algum dia sejam capazes de um verdadeiro pensamento criativo. Prevê-se que o futuro dos computadores terá efeitos diretos e indiretos, como colocar as máquinas para trabalhar de várias maneiras e aprender coisas novas à medida que os humanos trabalham com computadores. Espera-se que a segunda revolução industrial seja a era da assistência da mente humana pelo computador, e as possibilidades do que as máquinas podem fazer com a ajuda humana são difíceis de imaginar.

  • 00:50:00 Nesta seção, o foco está no potencial da inteligência artificial (IA) e seu possível desenvolvimento no futuro. O objetivo é criar um sistema de computador mais geral que possa aprender por experiência, formar conceitos e fazer lógica. Ele consistirá em órgãos dos sentidos, um grande programa de computador flexível de uso geral e dispositivos de saída. Enquanto o progresso está sendo feito, há uma preocupação em gerenciar o impacto da tecnologia. No entanto, um cientista acredita que, se lidarmos com isso corretamente, podemos criar um mundo muito melhor. Os primeiros passos em direção à IA podem ser vistos em uma pequena máquina de computação que pode aprender com a experiência, como mostra o exemplo de um mouse controlado eletricamente resolvendo um labirinto.

  • 00:55:00 Nesta seção, vemos uma demonstração de um mouse navegando em um labirinto, controlado por um sistema de relés telefônicos e interruptores Reed. O mouse é capaz de adicionar novas informações e se adaptar às mudanças. A demonstração mostra o mouse substituindo informações antigas e obsoletas pelo que está aprendendo sobre a nova configuração do labirinto. Embora seja a máquina sob o chão do labirinto que realmente move o mouse, a demonstração oferece um vislumbre do tipo de comportamento inteligente que pode ser alcançado.

  • 01:00:00 Nesta seção, o vídeo explora a definição de "pensamento" e como ele se relaciona com os computadores. Embora os computadores sejam excelentes em armazenar e recuperar informações, isso por si só não abrange o pensamento verdadeiro. No entanto, os computadores podem realizar operações lógicas, como jogar xadrez, onde analisam os dados e determinam a melhor jogada. Esta exibição de funções lógicas básicas concedeu a alguns computadores o primeiro lugar em torneios de xadrez amadores.

  • 01:05:00 Nesta seção, o vídeo explora como os computadores são capazes de realizar operações lógicas, mesmo tomando milhões de decisões lógicas todos os dias, mas são limitados em termos de capacidade de visualização e reconhecimento. Embora os computadores possam produzir imagens e simular designs, eles lutam para reconhecer padrões e generalizar. O vídeo também observa a dificuldade em ensinar um computador a traduzir idiomas devido à falta de correspondência direta entre palavras de diferentes idiomas. Em última análise, os computadores carecem da capacidade de pensar, sentir ou ter consideração por qualquer coisa.

  • 01:10:00 Nesta seção, o vídeo discute as capacidades dos computadores em termos de emoções e criatividade. Embora os computadores não possam realmente sentir emoções, eles podem ser programados para simulá-las. Da mesma forma, embora a criatividade seja frequentemente considerada uma capacidade exclusivamente humana, os computadores são capazes de produzir filmes de animação e até música. A utilidade e eficiência dos computadores, incluindo os bilhões de operações matemáticas que eles podem executar sem cometer erros, é inegável, mas a questão de saber se eles têm a capacidade de realmente "pensar" ainda está em debate.

  • 01:15:00 que os computadores podiam jogar como damas e resolver problemas complexos levou ao nascimento da inteligência artificial (IA). Isso se tornou uma fronteira a ser explorada por um grupo de matemáticos, liderados por Marvin Minsky e John McCarthy, que montou um departamento no MIT para explorar as possibilidades da IA. Alunos como Jim Slagle desenvolveram programas para resolver problemas de cálculo e, em 1960, um computador conseguiu obter um A em um exame do MIT, tendo um desempenho tão bom quanto um aluno mediano. Isso mostrou que os computadores poderiam ter inteligência e aumentou as esperanças de um futuro em que as máquinas pudessem pensar.

  • 01:20:00 Nesta seção, o documentário explora os primórdios da inteligência artificial e como os pioneiros na área não se preocupavam com a construção física do cérebro. Eles viam a mente como uma entidade de processamento simbólico, enquanto o cérebro era simplesmente o hardware no qual a mente funciona. O documentário argumenta que copiar cegamente a maneira de fazer as coisas da natureza nem sempre é uma boa ideia, e que as tentativas de voo artificial com base na maneira como os pássaros voam foram um desastre. O documentário destaca as dificuldades que surgiram quando os cientistas do MIT tentaram construir uma mente de computador que pudesse interagir com o mundo e empilhar blocos. Dizem que, embora possa parecer uma tarefa simples, reconhecer blocos é realmente muito complicado, e o programa tinha algumas ideias estranhas sobre o que acontece com os blocos quando você os solta.

  • 01:25:00 Nesta seção, o documentário explora os desafios de ensinar computadores a ver e se mover como humanos. Os pesquisadores descobriram que os problemas computacionais da visão eram tão imensos que muitos decidiram se concentrar em uma forma incorpórea de inteligência, conhecida como teste de Turing, que mede a capacidade de uma máquina de usar a linguagem de forma inteligente. Um dos primeiros programas de computador criados para esse fim foi o programa "Eliza", que usava uma série de truques para simular conversas, mas não conseguia passar no teste de Turing. O documentário destaca como a complexidade da compreensão da linguagem humana dificultou o desenvolvimento de modelos de linguagem de IA que pudessem entender o significado e o contexto como humanos.

  • 01:30:00 Nesta seção, o vídeo discute as primeiras tentativas de usar computadores para traduzir idiomas, que encontraram grandes problemas devido a questões de ambiguidade e contexto. Apesar das alegações de que os computadores poderiam substituir os tradutores humanos, a complexidade da linguagem e a necessidade de conhecimento e compreensão humanos comuns tornaram essa tarefa muito mais difícil do que o previsto. A incapacidade dos computadores de reconhecer rostos, aprender idiomas e executar tarefas simples, como vestir roupas, mostra que as coisas que as pessoas pensam serem fáceis são, na verdade, muito difíceis para a IA realizar. As falhas da IA levaram a um declínio no financiamento e a uma perspectiva sombria para o campo.

  • 01:35:00 Nesta seção, vemos que, apesar dos resultados iniciais insatisfatórios, o programa de Terry Winograd chamado SHRDLU mostrou que os computadores podem usar o conhecimento para resolver a ambigüidade e o aprendizado de idiomas. No entanto, ele estava restrito a um micromundo simulado de blocos. Edward Feigenbaum e seus colegas desenvolveram um sistema chamado TENDRIL, que capturou as regras que especialistas em áreas restritas usam para tomar decisões. Eles descobriram que o comportamento especializado em áreas restritas requer apenas algumas centenas de peças de conhecimento. Isso levou ao desenvolvimento de sistemas especialistas que se mostraram frágeis e sem flexibilidade para operar fora de suas áreas de conhecimento.

  • 01:40:00 Nesta seção, o documentário aborda os desafios enfrentados pelos pesquisadores da linguagem na década de 1970, que tentavam fazer com que os computadores seguissem histórias simples como as crianças. Eles descobriram que o problema não era o que a história dizia, mas o grande número de coisas que não foram ditas porque eram óbvias demais para valer a pena serem ditas. Os pesquisadores desenvolveram a ideia de construir frames ou scripts para diferentes situações que o computador pode encontrar, como uma festa de aniversário, que conteria todas as coisas que normalmente aconteciam em festas de aniversário. No entanto, o desafio era como incluir o conhecimento geral de fundo, que não era específico da situação ou contexto. Esse conhecimento geral criou um problema de conhecimento de senso comum, tornando desafiador ensinar computadores a interpretar histórias simples.

  • 01:45:00 Nesta seção, o trecho discute o conhecimento do senso comum e a dificuldade de ensiná-lo às máquinas. O conhecimento do senso comum é o conhecimento intuitivo que todos compartilham, como saber que os objetos caem quando são soltos. No entanto, não se trata apenas de conhecimento factual, mas também de habilidades e experiências que as pessoas adquirem ao longo do tempo. Os cientistas há muito se interessam em ensinar as máquinas a aprender e adquirir conhecimento como os humanos, mas os computadores começaram com níveis tão baixos de aprendizado que o aprendizado de máquina não foi eficaz até que recebessem grandes quantidades de conhecimento de senso comum. O projeto PYSCH foi criado no Texas em 1984 para inserir o conhecimento do senso comum e foi o teste final da IA. No entanto, os críticos argumentaram que o bom senso real dependia de ter um corpo humano, e que o conhecimento do senso comum não é feito apenas de fatos, mas também de experiências e habilidades que as crianças adquirem com o tempo.

  • 01:50:00 Nesta seção, o vídeo explora a ideia de conhecimento do senso comum e como ele é adquirido por meio de experiências do mundo, mas também apresenta o caso de um paciente sem experiências físicas que ainda adquiriu o senso comum por meio da linguagem. O vídeo aprofunda o argumento de que, para construir uma mente artificial, é preciso primeiro construir um cérebro artificial. A complexidade do cérebro humano, composto por bilhões de neurônios conectados de milhares de maneiras, inspirou cientistas na década de 1950 a perseguir a ideia de construir um cérebro artificial, levando ao desenvolvimento de perceptrons que mais tarde evoluíram para redes neurais. O modelo moderno de percepção de redes neurais é um movimento crescente chamado conexionistas e se concentra no aprendizado de máquina por meio do cérebro, e não da mente.

  • 01:55:00 tentativa e erro, nesta seção o documentário enfoca as redes neurais e suas limitações. Embora as redes neurais fossem inicialmente atraentes, elas só são capazes de realizar tarefas de pequeno alcance, e os pesquisadores ainda não entendem completamente como elas aprendem. O exemplo de uma rede neural aprendendo a distinguir entre imagens com tanques e sem eles destaca o potencial das redes chegarem a conclusões incorretas. Embora a possibilidade de minúsculas redes neurais capturarem algo tão elaborado quanto o senso comum seja intrigante, os pesquisadores admitem que esse objetivo de longo prazo ainda está longe de ser alcançável com a tecnologia atual. Além disso, as tentativas de criar redes neurais maiores do que algumas centenas de neurônios geralmente saem pela culatra devido ao longo tempo de treinamento necessário. Portanto, os pesquisadores devem entender como a natureza constrói e coordena muitas micromáquinas dentro do cérebro antes que uma versão totalmente artificial possa ser construída.

  • 02:00:00 Nesta seção, a transcrição discute como as aplicações práticas de inteligência artificial se apropriaram do termo, mas estão longe da busca original de alcançar inteligência de propósito geral baseada no senso comum. No entanto, a busca pela IA não foi abandonada e o projeto Cyc, iniciado por Doug Leonard em 1984, ainda está em andamento. O projeto visa construir uma mente que saiba o suficiente para entender a linguagem e aprender tudo o que o ser humano sabe. Apesar de ser um software sem corpo ou experiência direta do mundo, Psyche, a entidade de IA do projeto Cyc, analisa inconsistências em seu banco de dados e faz novas descobertas interessantes, mostrando que vê o mundo de uma forma única.

  • 02:05:00 Nesta seção, a discussão se concentra no potencial de compreensão geral da linguagem natural na inteligência artificial e na necessidade de alcançar isso para evitar o fim da IA simbólica. O projeto Psyche é mencionado como um projeto de alto risco com alto potencial de recompensa se for bem-sucedido no teste de Turing de compreensão geral da linguagem natural. Tal sucesso pode levar ao desenvolvimento de programas de aprendizado de máquina para aprender coisas desconhecidas, ampliando assim a inteligência de maneiras que atualmente são inimagináveis. O Dr. John McCarthy, um dos fundadores da inteligência artificial, reflete sobre a história da disciplina e previu o impacto que ela teria na sociedade.

  • 02:10:00 Nesta seção, o vídeo discute as dificuldades em conseguir programas de computador tão inteligentes quanto os humanos. Apesar de algum progresso inicial com problemas difíceis, como resolver teoremas matemáticos, tarefas de senso comum, como reconhecer a fala, provaram ser difíceis para a inteligência do computador. O palestrante e seus colegas têm trabalhado para desenvolver modelos formais de inteligência que sejam equivalentes à inteligência humana, mas existem diferentes abordagens para atingir esse objetivo. O campo da psicologia também teve um papel a desempenhar nisso, com a ciência da computação ajudando-os a se afastar do behaviorismo e a obter insights sobre a cognição.

  • 02:15:00 Nesta seção, especialistas discutem o impacto dos computadores no campo da psicologia e como o conceito de consciência tem sido abordado em ambos os campos. Embora os computadores tenham oferecido grandes insights sobre o funcionamento da mente, a questão de saber se os computadores podem realmente ser autoconscientes continua sendo um assunto de debate filosófico. Além disso, a noção de que a consciência é apenas a soma de suas partes, como uma máquina, não é totalmente precisa, pois a mente é um sistema complexo de partes especializadas que interagem de maneiras específicas.

  • 02:20:00 Nesta seção, o entrevistado discute o recuo da visão de que os seres humanos têm algo que transcende os aspectos mecanicistas de nosso ser, à medida que mais se descobre sobre a fisiologia e a psicologia humanas. Apesar disso, ainda existem aspectos da consciência humana que não foram realizados em máquinas em programas de computador. O entrevistado, otimista em relação à IA, fala sobre o conjunto de problemas sobre os quais a força bruta computacional pode ser aplicada, que é bastante limitada, e que o problema central da inteligência artificial envolve expressar o conhecimento sobre o mundo necessário para o comportamento inteligente. A lógica matemática tem sido buscada como ferramenta para isso e, no final da década de 1970, várias pessoas descobriram maneiras de formalizar o que chamam de raciocínio não monotônico, ampliando enormemente o poder da lógica matemática na área do senso comum.

  • 02:25:00 Nesta seção, o entrevistado discute o raciocínio não monotônico e como ele representa um desafio para o pensamento humano em computadores. A lógica comum funciona adicionando mais premissas para tirar mais conclusões, enquanto o raciocínio humano nem sempre tem essa propriedade. Por exemplo, o termo “pássaro” tem a suposição embutida de que pode voar, e um contexto adicional pode mudar as conclusões tiradas disso. O raciocínio não monotônico pode ser usado como uma ferramenta matemática para formalizar esse tipo de pensamento e introduzir a consciência do contexto nos computadores. No entanto, o desafio com o contexto é que sempre há exceções que não podem ser explicadas; portanto, é necessário um sistema em que uma suposição seja feita, a menos que haja evidência em contrário.

  • 02:30:00 Nesta seção, John McCarthy, um pioneiro da IA, discute a história da IA e por que demorou tanto para os humanos desenvolverem a inteligência artificial. Ele explica que nossa capacidade limitada de observar nossos próprios processos mentais impediu nosso progresso, como visto no fracasso de Leibniz em inventar o cálculo proposicional, que foi inventado por Boule 150 anos depois. Ele também reconhece que avanços conceituais são necessários para o futuro da IA e que pode levar de algumas décadas a várias centenas de anos para alcançar a verdadeira inteligência humana nas máquinas. Apesar das críticas sobre a impossibilidade de replicar a inteligência humana, McCarthy vê o objetivo da IA como um projeto nobre para entender melhor a nós mesmos.
The History of Artificial Intelligence [Documentary]
The History of Artificial Intelligence [Documentary]
  • 2020.03.26
  • www.youtube.com
Visit Our Parent Company EarthOne For Sustainable Living Made Simple ➤https://earthone.io/ This video is the culmination of documentaries that cover the hist...
 

O Nascimento da Inteligência Artificial



O Nascimento da Inteligência Artificial

O vídeo discute o nascimento da inteligência artificial (IA) moderna e o otimismo que veio com ela durante os 'anos dourados' da IA nos anos 60 e início dos anos 70. No entanto, o campo enfrentou desafios significativos, incluindo o primeiro inverno de IA em meados dos anos 70 devido à dificuldade dos problemas que enfrentaram e ao desempenho computacional limitado.

Os sistemas especialistas marcaram um ponto de virada no campo, mudando o foco do desenvolvimento da inteligência geral para a IA específica do domínio restrito e ajudando a aumentar a eficiência dos negócios. No entanto, o hype em torno dos sistemas especialistas levou a uma diminuição no financiamento, principalmente após o crash do mercado de 1987. O vídeo reconhece os desafios de entender e definir a IA, recomendando o Brilliant como um recurso para as pessoas aprenderem sobre IA desde os blocos de construção fundamentais até arquiteturas mais avançadas.

  • 00:00:00 Nesta seção, aprendemos sobre o nascimento oficial da inteligência artificial moderna no projeto de pesquisa de verão de Dartmouth em 1956, onde o termo "inteligência artificial" foi cunhado pela primeira vez. A conferência teve como objetivo simular o aprendizado humano, descrevendo todos os recursos de inteligência que as máquinas podem simular. Os sete aspectos incluíam programação de computadores para usar linguagem, redes neurais, abstração, auto-aperfeiçoamento, aleatoriedade e criatividade. O período após a conferência foi conhecido como os "anos dourados" da IA, onde a computação e as teorias e algoritmos da IA começaram a ser implementados, incluindo raciocínio como pesquisa, redes semânticas e micromundos. Esses algoritmos foram inovadores e infundiram otimismo no campo, fazendo com que indivíduos como Marvin Minsky acreditassem que a criação de inteligência artificial poderia ser resolvida substancialmente em uma geração.

  • 00:05:00 Nesta seção, o vídeo explora o nascimento da inteligência artificial e como ela gerou muito otimismo e exagero durante os anos 60 e início dos anos 70. Isso levou a grandes quantidades de financiamento principalmente do governo para pesquisa e implementação de IA, resultando em muitas instituições de pesquisa na vanguarda da pesquisa de IA hoje. No entanto, em meados dos anos 70, o primeiro inverno da IA começou devido à incapacidade de avaliar a dificuldade dos problemas que enfrentavam, aliado ao fato de que o campo da ciência da computação ainda estava sendo definido nesse período. Cinco problemas foram listados, incluindo o fato de que avanços foram feitos com desempenho computacional limitado e o paradoxo de Moravec, uma teoria postulada pelo pesquisador de IA e robótica Hans Moravec da Carnegie Mellon.

  • 00:10:00 Nesta seção, aprendemos sobre como os sistemas especialistas marcaram um importante ponto de virada no campo da IA, mudando o foco do desenvolvimento da inteligência geral para a IA específica de um domínio restrito. Os sistemas especialistas, baseados no conhecimento de especialistas em um domínio específico, tiveram impactos tangíveis no mundo real e ajudaram as empresas a aumentar sua eficiência, como visto no sistema especialista em logística XCON, que economizou quase 40 milhões de dólares por ano para a corporação de equipamentos digitais. Além disso, o surgimento dos sistemas especialistas ajudou a reviver o conexionismo, que surgiu como uma forma viável de aprender e processar informações. A rede Hopfield e a retropropagação, métodos de treinamento de IA, foram popularizados e refinados durante esse período, abrindo caminho para o aprendizado profundo. No entanto, como as expectativas para sistemas especialistas ficaram fora de controle e rachaduras em seus frágeis sistemas baseados em lógica condicional começaram a aparecer, o financiamento para IA diminuiu novamente devido, em parte, ao crash de 1987 nos mercados mundiais.

  • 00:15:00 Nesta seção, a transcrição discute os desafios de definir e entender a inteligência artificial (IA), principalmente devido aos ciclos de hype que surgiram e desapareceram no século passado. O vídeo reconhece a confusão que surgiu com a ascensão e queda das palavras-chave da IA, do aprendizado profundo à inteligência humana artificial. A esperança é separar o hype das aplicações práticas atuais da IA, como conhecimento específico de domínio em sistemas de aprendizagem profunda. O vídeo recomenda o Brilliant como um recurso para indivíduos manterem seu cérebro afiado e aprenderem sobre IA desde seus blocos de construção fundamentais até arquiteturas mais avançadas.
The Birth of Artificial Intelligence
The Birth of Artificial Intelligence
  • 2020.04.23
  • www.youtube.com
This video was made possible by Brilliant. Be one of the first 200 people to sign up with this link and get 20% off your premium subscription with Brilliant....
 

Aprendizado de máquina supervisionado explicado




Aprendizado de máquina supervisionado explicado

O vídeo explica que o aprendizado supervisionado envolve um conjunto de dados rotulado, com o objetivo de aprender uma função de mapeamento de variáveis de entrada para variáveis de saída. O conjunto de dados rotulado é dividido em um conjunto de treinamento e um conjunto de teste, com o modelo sendo treinado no conjunto de treinamento e avaliado no conjunto de teste para medir sua precisão.
O vídeo observa que o overfitting pode ocorrer se o modelo for muito complexo e se ajustar muito próximo ao conjunto de treinamento, resultando em desempenho ruim em novos dados, enquanto o underfitting ocorre se o modelo for muito simples e incapaz de capturar a complexidade dos dados. O vídeo fornece o exemplo do conjunto de dados da íris e percorre o processo de treinamento de um modelo para prever as espécies de uma nova flor de íris com base em suas medições, usando o algoritmo de árvore de decisão.

  • 00:00:00 Nesta seção, o vídeo explica a definição e as finalidades do aprendizado de máquina, que pode ser usado para fazer previsões com base em dados anteriores. O vídeo fornece o exemplo de regressão, que mede as relações entre as variáveis, cria uma linha de melhor ajuste e usa essa linha para prever novos dados. O vídeo expande essa ideia para explicar os problemas de classificação, que envolvem a adição de dados de rótulo e a criação de limites de decisão para classificar o rótulo de saída de novos dados. O vídeo examina a precisão desse modelo e explica que os algoritmos de aprendizado de máquina buscam maximizar a precisão do modelo. O vídeo observa que as árvores de decisão são um tipo de algoritmo de aprendizado de máquina que usa uma abordagem baseada em declarações condicionais, semelhante aos sistemas especialistas.

  • 00:05:00 Nesta seção, o vídeo mergulha nos diferentes tipos de algoritmos que podem ser usados para aprendizado de máquina, incluindo máquinas de vetor de suporte e como variáveis adicionais podem ser adicionadas para espaços dimensionais superiores. O vídeo também aborda a interseção de inteligência artificial, big data e ciência de dados, com ciência de dados e estatística sendo consideradas a mesma coisa para simplificar. O vídeo continua explicando o aprendizado supervisionado, que é composto de dois modos principais de modelos de aprendizado, regressão e classificação, e como é essencialmente matemática estatística para problemas de reconhecimento de padrões, renomeado como aprendizado de máquina. O vídeo termina com uma menção ao aprendizado não supervisionado e ao aprendizado profundo, que serão abordados em vídeos futuros, e uma recomendação do Brilliant.org para os interessados em aprender mais sobre a matemática e a ciência por trás desses conceitos.
Supervised Machine Learning Explained
Supervised Machine Learning Explained
  • 2020.05.07
  • www.youtube.com
This video was made possible by Brilliant. Be one of the first 200 people to sign up with this link and get 20% off your premium subscription with Brilliant....
 

Aprendizado de máquina não supervisionado explicado



Aprendizado de máquina não supervisionado explicado

O vídeo explica o aprendizado de máquina não supervisionado, que lida com dados não rotulados e não estruturados e é usado principalmente para derivar estrutura de dados não estruturados. É dividido em dois tipos: associação e agrupamento, onde o agrupamento envolve o uso de algoritmos como o agrupamento K-means para dividir o espaço de decisão em categorias ou agrupamentos discretos.

Os problemas de associação identificam correlações entre os recursos do conjunto de dados e, para extrair associações significativas, a complexidade das colunas deve ser reduzida por meio da redução da dimensionalidade. Esse processo envolve minimizar o número de recursos necessários para representar um ponto de dados e obter resultados e associações significativos, evitando o subajuste ou o superajuste. O segmento final do vídeo apresentou o conceito de aprendizado de matemática e ciências no Brilliant, uma plataforma que oferece aprendizado divertido e interconectado de matemática e ciências e oferece um desconto de 20% em assinaturas premium para visualização de conteúdo de futurologia. O vídeo também solicitou suporte para o canal no Patreon ou na assinatura do YouTube e recebeu sugestões de tópicos futuros nos comentários.

  • 00:00:00 Nesta seção, aprendemos sobre aprendizado de máquina não supervisionado, que é para dados não rotulados e não estruturados. É representativo da maioria dos problemas do mundo real e ocorre no cruzamento entre big data e o campo da inteligência artificial. O aprendizado não supervisionado é usado principalmente para derivar estrutura de dados não estruturados. Esse tipo de aprendizado é subdividido em dois tipos principais: associação e agrupamento. Clustering envolve o uso de algoritmos como K-means clustering, onde o objetivo é dividir um espaço de decisão com um número de pontos de dados em um número especificado de categorias discretas ou clusters. Isso é feito primeiro adicionando centróides e reatribuindo iterativamente os pontos de dados a seus novos clusters enquanto atualiza os centróides.

  • 00:05:00 Nesta seção, o foco muda de agrupamento para associação em aprendizado não supervisionado. Os problemas de associação identificam correlações entre recursos de um conjunto de dados, ao contrário do agrupamento, que agrupa pontos de dados semelhantes. Para extrair associações significativas, a complexidade das colunas no conjunto de dados deve ser reduzida por meio da redução de dimensionalidade, onde o número de recursos para representar exclusivamente um ponto de dados é minimizado. A extração de recursos pode ser feita selecionando um número ideal de recursos para evitar o subajuste ou superajuste do conjunto de dados. A redução da dimensionalidade é alcançada por meio do aprendizado múltiplo, onde dados de alta dimensão podem ser representados por variedades de baixa dimensão. A representação de baixa dimensão do conjunto de dados contém o conjunto de recursos reduzido necessário para representar o problema e ainda produzir resultados e associações significativos. A engenharia de recursos é um subcampo do aprendizado de máquina que inclui redução de dimensionalidade, seleção de recursos e extração.

  • 00:10:00 Este segmento final do vídeo apresenta o conceito de aprendizagem de matemática e ciências para obter uma compreensão mais profunda dos conceitos discutidos no canal. Brilliant, uma plataforma que torna o aprendizado de matemática e ciências empolgante, interconectado e oferece aprendizado offline. Além disso, os usuários podem aprender sobre futurologia e obter um desconto de 20% nas assinaturas premium acessando o link fornecido. Por fim, os espectadores são incentivados a apoiar o canal no Patreon ou na assinatura do YouTube e deixar sugestões para tópicos futuros nos comentários.
Unsupervised Machine Learning Explained
Unsupervised Machine Learning Explained
  • 2020.05.14
  • www.youtube.com
This video was made possible by Brilliant. Be one of the first 200 people to sign up with this link and get 20% off your premium subscription with Brilliant....
 

O que é aprendizado de máquina (aprendizado de máquina explicado)



O que é aprendizado de máquina (aprendizado de máquina explicado)

O aprendizado de máquina é um campo de estudo que permite que os computadores aprendam sem serem explicitamente programados. Envolve o uso de algoritmos para formar limites de decisão sobre o espaço de decisão de um conjunto de dados. Essa compreensão do aprendizado de máquina é a segunda mais usada e estabelecida pelo Dr. Tom Mitchell.

O aprendizado de máquina pode ser atribuído ao aumento do poder de computação e armazenamento que permitiu dados maiores e melhores, e o surgimento do aprendizado profundo. Embora seja classificado como inteligência artificial fraca, já que as tarefas que executa são frequentemente isoladas e específicas de um domínio. O aprendizado de máquina abrange muitas abordagens e modelos diferentes e, embora nunca possam ser 100% precisos na previsão de resultados em problemas do mundo real devido a abstrações e simplificações, eles ainda podem ser úteis em uma ampla gama de aplicativos. Brilliant é mencionado como um dos recursos para aprender sobre aprendizado de máquina e outros tópicos STEM.

  • 00:00:00 Nesta seção, o foco está no significado e definição de aprendizado de máquina e como ele se relaciona com a inteligência artificial. O aprendizado de máquina é um campo de estudo que dá aos computadores a capacidade de aprender sem serem explicitamente programados. Envolve o uso de algoritmos para formar limites de decisão sobre o espaço de decisão de um conjunto de dados. O processo de formação do modelo é conhecido como treinamento e, uma vez que um modelo treinado exibe boa precisão nos dados de treinamento, ele pode ser usado para inferência para prever novas saídas de dados. Esse processo define a segunda definição de aprendizado de máquina mais amplamente usada, estabelecida pelo Dr. Tom Mitchell, da Carnegie Mellon University.

  • 00:05:00 Nesta seção, o vídeo explora a ascensão do aprendizado de máquina e da inteligência artificial, destacando as cinco principais tribos do aprendizado de máquina: simbolistas, conexionistas, evolucionários, bayesianos e analógicos. Ele continua explicando como o desenvolvimento da IA passou da tentativa de criar uma IA mais geral e forte nos primeiros dias da IA, para se concentrar na aquisição de conhecimentos específicos de domínio em vários campos. A ascensão do aprendizado de máquina pode ser atribuída ao aumento do poder de computação e armazenamento que permitiu dados maiores e melhores e o aumento do aprendizado profundo. Além disso, o vídeo aborda quantas inovações de IA foram possíveis devido ao fato de os dados serem um grande gargalo no setor.

  • 00:10:00 Esta seção explica que, embora o aprendizado de máquina seja uma forma de inteligência artificial, ele é classificado como IA fraca porque as tarefas que executa geralmente são isoladas e específicas do domínio. O aprendizado de máquina abrange muitas abordagens diferentes, desde regras complexas e árvores de decisão até abordagens baseadas na evolução e muito mais, tudo com o objetivo de modelar as complexidades da vida da mesma forma que nossos cérebros tentam fazer. Embora seja reconhecido que os modelos nunca podem ser 100% precisos na previsão de resultados em problemas do mundo real devido a abstrações e simplificações, os modelos de aprendizado de máquina ainda podem ser úteis em uma ampla gama de aplicações. O vídeo incentiva os espectadores a buscar recursos adicionais para aprender mais, incluindo Brilliant, uma plataforma que oferece cursos e desafios diários que cobrem uma variedade de tópicos STEM.
What Is Machine Learning (Machine Learning Explained)
What Is Machine Learning (Machine Learning Explained)
  • 2020.05.30
  • www.youtube.com
This video was made possible by Brilliant. Be one of the first 200 people to sign up with this link and get 20% off your premium subscription with Brilliant....
 

Aprendizado profundo explicado (e por que o aprendizado profundo é tão popular)



Aprendizado profundo explicado (e por que o aprendizado profundo é tão popular)

O vídeo explica que a popularidade do aprendizado profundo decorre do fato de que ele pode aprender recursos diretamente dos dados e usar redes neurais para aprender recursos subjacentes em um conjunto de dados. A ascensão do aprendizado profundo pode ser atribuída a big data, maior poder de processamento e interfaces de software simplificadas.

  • 00:00:00 Nesta seção, o vídeo explica que o aprendizado profundo é um subcampo da inteligência artificial que se tornou popular devido ao sucesso da tribo conexionista do aprendizado de máquina. Os sistemas de aprendizado profundo podem aprender recursos diretamente dos dados e usar redes neurais para aprender recursos subjacentes em um conjunto de dados. O elemento-chave do aprendizado profundo é que camadas de recursos são aprendidas a partir de dados usando um procedimento de aprendizado de propósito geral, em vez de serem projetados manualmente. O vídeo também oferece um exemplo de rede neural detectando um rosto em uma imagem de entrada, começando com recursos de baixo nível, discernindo recursos de nível médio e, finalmente, descobrindo recursos de alto nível para identificar várias estruturas faciais. O vídeo finalmente observa que o verdadeiro nascimento do aprendizado profundo ocorreu em 2012 com a competição ImageNet, onde o algoritmo vencedor teve uma taxa de erro de 16%, quase 10% melhor que seu concorrente mais próximo.

  • 00:05:00 Nesta seção, o vídeo discute como o aumento do aprendizado profundo pode ser atribuído a fatores como a difusão de big data, aumento do poder de computação, interfaces de software simplificadas como o TensorFlow e a capacidade do aprendizado profundo de processar dados não estruturados. O vídeo também aborda o desenvolvimento histórico das redes neurais, desde redes perceptron de camada única dos anos 60 até redes profundas modernas com dezenas a centenas de camadas. Além disso, o vídeo recomenda o Brilliant.org como um ótimo recurso de aprendizado para os interessados em se aprofundar no campo do aprendizado profundo.
Deep Learning Explained (& Why Deep Learning Is So Popular)
Deep Learning Explained (& Why Deep Learning Is So Popular)
  • 2020.08.01
  • www.youtube.com
This video was made possible by Brilliant. Be one of the first 200 people to sign up with this link and get 20% off your premium subscription with Brilliant....
 

Do cérebro à IA (o que são redes neurais)




Do cérebro à IA (o que são redes neurais)

O vídeo discute os componentes de um neurônio artificial, que é o principal elemento de uma rede neural artificial, e como ele se baseia na estrutura de um neurônio biológico.

Ele também explica como as redes neurais derivam a representação de grandes quantidades de dados em um processo camada por camada que pode ser aplicado a qualquer tipo de entrada. O vídeo recomenda ir para bright.org para saber mais sobre os blocos de construção fundamentais dos algoritmos de aprendizado profundo.

  • 00:00:00 Nesta seção, o vídeo explica os fundamentos de um neurônio artificial, o principal componente de uma rede neural artificial. A estrutura de um neurônio artificial é semelhante a um neurônio biológico, com três componentes principais: o soma ou o núcleo, os dendritos ou os braços que se conectam a outros neurônios e o axônio ou a cauda longa que transmite informações de e para a célula corpo. O vídeo mostra como a estrutura básica de uma arquitetura de rede neural de aprendizado profundo foi derivada do primeiro desenho de um neurônio de Santiago Ramon y Cajal, representando dendritos como entradas, soma como centro de processamento e axônio como saída. Além disso, as conexões ou sinapses entre os neurônios foram modeladas e a força da conexão foi ligada à espessura da linha.

  • 00:05:00 Nesta seção, o vídeo discute como as redes neurais funcionam ao derivar a representação de grandes quantidades de dados. Ele continua explicando como isso acontece em um processo de camada por camada que pode se traduzir em qualquer tipo de entrada, desde os valores de pixel de um reconhecimento de imagem até as frequências de áudio da fala para reconhecimento de fala ou o histórico médico de um paciente para prever o probabilidade de câncer. O vídeo também menciona que, para aprender mais sobre o campo, deve-se considerar visitar o bright.org, uma plataforma para manter o cérebro afiado e criativo, e entender os blocos de construção fundamentais dos algoritmos de aprendizado profundo.
From The Brain To AI (What Are Neural Networks)
From The Brain To AI (What Are Neural Networks)
  • 2020.08.30
  • www.youtube.com
This video was made possible by Brilliant. Be one of the first 200 people to sign up with this link and get 20% off your premium subscription with Brilliant....
 

Como fazer uma rede neural | Redes neurais explicadas



Como fazer uma rede neural | Redes neurais explicadas

O vídeo explica como as redes neurais formam capacidades de reconhecimento de padrões, discutindo a estrutura e a matemática envolvidas. Ele usa uma imagem como exemplo e discute a camada de entrada, os nós da camada de saída e apresenta a ideia de camadas ocultas.

O vídeo então se aprofunda nas funções de ativação e como elas convertem os sinais de entrada em sinais de saída. A função tangente hiperbólica e a camada de unidade linear retificada são discutidas, e é revelado que a rede neural construída requer engenharia humana significativa para garantir valores não ambíguos. O vídeo recomenda Brilliant.org para saber mais.

  • 00:00:00 Nesta seção, o vídeo continua de onde o anterior parou, discutindo mais a estrutura e a matemática das redes neurais para ver como elas formam os recursos de reconhecimento de padrões. Para entender melhor esse tema complexo, uma imagem será utilizada como exemplo intuitivo. A camada de entrada é definida como os pixels que compõem a imagem, e os nós da camada de saída são definidos arbitrariamente para quatro tipos diferentes de estruturas. O vídeo apresenta a ideia de camadas ocultas, que podem ter funções de ativação aplicadas para remapear o valor de entrada e adicionar limites ao valor bruto do nó. Pesos também são incorporados para mostrar como a entrada para nosso nó de camada oculta é afetada por imagens de entrada aleatórias.

  • 00:05:00 Nesta seção, o vídeo discute como as funções de ativação funcionam para converter sinais de entrada em um sinal de saída que pode ser entendido pelas seguintes camadas em uma rede neural. A função tangente hiperbólica é usada como exemplo, que mapeia todos os valores no eixo X para um valor Y entre menos um e um. Ao adicionar mais nós, os campos receptivos tornam-se mais complicados e, por exemplo, na terceira camada oculta, a rede começa a reconhecer padrões como uma cruz invertida. Por fim, é introduzida a camada de unidade linear retificada, que retifica os valores negativos e mantém os positivos iguais, levando a uma rede neural completa e pronta para testes.

  • 00:10:00 Nesta seção, a rede neural construída na seção anterior é analisada em profundidade para entender como ela identifica padrões em uma imagem de entrada. É revelado que a rede construída não é perfeita e requer engenharia humana significativa para garantir valores não ambíguos. O próximo vídeo da série abordará a descida do gradiente e a retropropagação, os métodos que colocam o aprendizado no aprendizado profundo e como eles permitem que a rede construa sua própria representação.
How To Make A Neural Network | Neural Networks Explained
How To Make A Neural Network | Neural Networks Explained
  • 2020.09.26
  • www.youtube.com
This video was made possible by Brilliant. Be one of the first 200 people to sign up with this link and get 20% off your premium subscription with Brilliant....
 

Como os Computadores Aprendem | Redes neurais explicadas (descida de gradiente e retropropagação)



Como os Computadores Aprendem | Redes neurais explicadas (descida de gradiente e retropropagação)

Este vídeo explica como as redes neurais aprendem alterando os pesos nas camadas ocultas para permitir que a rede os determine. O conceito de função de custo é introduzido para minimizar a taxa de erro da rede neural e a retropropagação é explicada como o processo essencial no ajuste dos parâmetros da rede.

Os três componentes principais do aprendizado de máquina, incluindo representação, avaliação e otimização, são abordados na tribo do conexionismo. O vídeo também observa que a rede nem sempre se organiza perfeitamente em camadas de abstração. O objetivo do aprendizado profundo é que a rede aprenda e ajuste os pesos por conta própria.

  • 00:00:00 Nesta seção, o foco está em como as redes neurais realmente aprendem. O primeiro passo é ajustar a rede alterando os pesos nas camadas ocultas, que previamente definimos manualmente, para permitir que a própria rede os determine. Com 181 pesos potenciais, torna-se uma tarefa árdua visualizar o efeito de cada um no espaço de decisão de saída. Para simplificar as coisas, um número simples é usado com 12 pesos e as equações do nó de saída são plotadas com limites de decisão, onde P é maior que Q em vermelho e menor que Q em azul. Alterar os valores ponderados na rede altera a inclinação do limite de decisão. Observa-se que todas as alterações resultantes do ajuste de peso resultam em saídas lineares com linhas retas até que uma função de ativação como a função sigmoide seja aplicada para adicionar não linearidade. Para alcançar o aprendizado profundo, o objetivo é que o processo de aprendizado e ajuste de peso seja feito pela própria rede.

  • 00:05:00 Nesta seção, o vídeo explica o conceito de função de custo e como ela ajuda a minimizar a taxa de erro da rede neural. O vídeo também explica o processo de retropropagação, essencial para ajustar os valores dos parâmetros da rede neural. A descida do gradiente é o método para determinar em qual direção se mover, e a retropropagação está, na verdade, ajustando os parâmetros para esse valor, permitindo que a rede produza os resultados desejados. O objetivo é aproximar os valores ponderados da verdade fundamental para minimizar o valor da função de custo. O processo se repete durante o treinamento da rede até que os pesos cheguem a um ponto em que estejam produzindo os resultados que esperamos ver.

  • 00:10:00 Nesta seção, aprendemos sobre os três componentes principais do aprendizado de máquina na tribo do conexionismo, que incluem representação, avaliação e otimização. A representação é feita por meio de uma função de rede neural, que define um espaço de representação, e a avaliação é feita pelo cálculo do erro quadrado dos nós na saída, que é usado para obter uma função de custo ou utilidade. Finalmente, a otimização é alcançada pela busca no espaço dos módulos de representação, e isso é feito por meio de gradiente descendente e retropropagação. Embora tenhamos feito muitas generalizações sobre como as redes neurais artificiais devem funcionar, ainda há muitas coisas que não abordamos. Uma delas é que a rede nem sempre se organiza em camadas perfeitas de abstração.
How Computers Learn | Neural Networks Explained (Gradient Descent & Backpropagation)
How Computers Learn | Neural Networks Explained (Gradient Descent & Backpropagation)
  • 2020.10.25
  • www.youtube.com
This video was made possible by Surfshark. Sign up with this link and enter the promo code 'Futurology' to get 83% off and an extra month free of your VPN pl...
 

Como funcionam as redes neurais | Redes neurais explicadas



Como funcionam as redes neurais | Redes neurais explicadas

O vídeo explica o parâmetro de viés em redes neurais, que inicia os nós para ativar quando um determinado limite é atingido, bem como a diferença entre parâmetros e hiperparâmetros, com hiperparâmetros que precisam de ajuste fino por meio de técnicas de otimização.

A taxa de aprendizado também é discutida, e os desafios de encontrar a taxa ideal, evitando overfitting ou underfitting, são destacados. A engenharia de recursos é outro subcampo encontrado em redes neurais, onde os analistas devem determinar os recursos de entrada que descrevem com precisão um problema. O vídeo observa que, embora as redes neurais artificiais teóricas envolvam camadas perfeitas de abstração, elas são muito mais aleatórias na realidade devido ao tipo de rede usada, que é escolhida por meio da seleção dos hiperparâmetros mais importantes.

  • 00:00:00 Nesta seção, o vídeo discute alguns dos conceitos que não foram abordados em vídeos anteriores sobre aprendizagem profunda. O parâmetro de viés em redes neurais é explicado, que é outro parâmetro que deve ser ajustado para aprender a representação. A finalidade do parâmetro bias é iniciar os nós para ativar fortemente quando um determinado limite for atingido. O vídeo explica que o viés é uma interceptação Y para uma equação linear, onde o peso é a inclinação. Também é discutido o conceito de parâmetros versus hiperparâmetros, onde os hiperparâmetros são configurações externas ao modelo e cujo valor não pode ser estimado a partir dos dados. A discussão destaca que o ajuste e otimização de hiperparâmetros é um subcampo inteiro de aprendizado profundo, e diferentes técnicas são necessárias para encontrar os melhores valores para diferentes parâmetros. A taxa de aprendizado, que é um hiperparâmetro, também é explicada, e o valor da taxa de aprendizado tem grandes implicações para a representação que uma rede neural construirá.

  • 00:05:00 Nesta seção, o vídeo explica os desafios de encontrar a taxa de aprendizado ideal e a engenharia de recursos em redes neurais. Para encontrar a taxa de aprendizado ideal, é preciso muito trabalho para garantir que a rede neural funcione corretamente. Uma taxa de aprendizado inadequada pode levar a superajuste ou subajuste, o que pode causar maior poder computacional e consumo de tempo. A engenharia de recursos, por outro lado, é o subcampo no qual um analista deve determinar os recursos de entrada que descrevem com precisão o problema que ele está tentando resolver. É essencial capturar os recursos que fortalecem o sinal e removem o ruído, pois o underfitting pode acontecer quando há poucos recursos, enquanto o overfitting é quando o modelo é muito especializado e frágil para responder a novos dados.

  • 00:10:00 Nesta seção, o vídeo explica que, embora o conceito teórico de redes neurais artificiais envolva camadas perfeitas de abstração, na realidade é muito mais aleatório. O tipo de rede usada para um determinado problema, que é escolhido através da seleção dos hiperparâmetros mais importantes, é um grande motivo para isso. Uma rede neural feed-forward é normalmente escolhida para aprender sobre aprendizado profundo porque é fácil de entender. No entanto, agora existem muitos tipos de redes neurais que surgiram e que seriam muito mais adequadas para vários problemas, incluindo redes convolucionais e redes recorrentes. O vídeo conclui pedindo aos indivíduos que mantenham seus cérebros afiados e pensem em soluções criativas para problemas multidisciplinares.
How Neural Networks Work | Neural Networks Explained
How Neural Networks Work | Neural Networks Explained
  • 2020.11.21
  • www.youtube.com
This video was made possible by Brilliant. Be one of the first 200 people to sign up with this link and get 20% off your premium subscription with Brilliant....
Razão: