Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
Desafios em Deep Learning (Dr. Razvan Pascanu - DeepMind)
Desafios em Deep Learning (Dr. Razvan Pascanu - DeepMind)
O Dr. Razvan Pascanu, da DeepMind, discute vários desafios no aprendizado profundo neste vídeo. Ele destaca a importância da adaptabilidade e da mudança de foco das métricas de desempenho e sugere que as limitações de recursos computacionais em sistemas de aprendizado profundo podem realmente ser benéficas. Além disso, ele explora os desafios do aprendizado contínuo e o subcampo do aprendizado de máquina relacionado a isso, incluindo o impacto do tamanho e da arquitetura no desempenho dos modelos de aprendizado profundo. O Dr. Pascanu também discute o papel da descida do gradiente estocástico, a importância dos vieses explícitos e o conceito de pré-treinamento e adição de vieses indutivos em modelos de aprendizado profundo.
O Dr. Razvan Pascanu, da DeepMind, discute a questão do esquecimento no aprendizado profundo e como os modelos podem se recuperar dele. Embora algum conhecimento ainda possa permanecer após o esquecimento, é difícil determinar quanta informação é perdida. O Dr. Pascanu menciona como os artigos recentes sobre o esquecimento direcionado têm se concentrado na privacidade dos dados, mas mais pesquisas e foco são necessários nessa área.
CS 198-126: Modern Computer Vision Outono 2022 (Universidade da Califórnia, Berkeley) Aula 1 - Introdução ao Machine Learning
CS 198-126: Aula 1 - Introdução ao Machine Learning
Nesta palestra sobre aprendizado de máquina, o instrutor aborda uma ampla gama de tópicos, incluindo uma introdução ao curso, uma visão geral do aprendizado de máquina, diferentes tipos de aprendizado de máquina, pipeline de aprendizado de máquina, rotulagem de dados e função de perda. O conceito de trade-off viés-variância, overfitting e underfitting também é discutido. O instrutor enfatiza a importância de escolher a função certa durante o processo de aprendizado de máquina e o papel dos hiperparâmetros no processo. O objetivo geral do aprendizado de máquina é prever com precisão novos dados, não apenas ajustar os dados de treinamento. O palestrante incentiva os alunos a assistir às aulas e se esforçar para aprender sobre aprendizado de máquina e aprendizado profundo.
CS 198-126: Aula 2 - Introdução ao Deep Learning, Parte 1
CS 198-126: Aula 2 - Introdução ao Deep Learning, Parte 1
Nesta palestra do YouTube sobre introdução ao aprendizado profundo, o instrutor discute os fundamentos dos modelos de aprendizado profundo e como treiná-los usando gradiente descendente, abrangendo diferentes blocos de construção para redes neurais e por que o aprendizado profundo é uma tecnologia tão prevalente. A palestra apresenta o perceptron e o empilhamento de vários perceptrons para criar uma rede neural mais complexa e sofisticada e explica como calcular a saída por multiplicação de matrizes e uma adição final, com a camada do meio usando uma função de ativação ReLU. O palestrante aborda o uso da função Softmax e da função de ativação ReLU, usando funções de perda como métricas para avaliar o desempenho do modelo e o conceito de otimização de gradiente descendente. Por fim, o instrutor discute a ideia de aprendizado profundo e como uma grande rede neural gera baixa perda, apesar de sua capacidade de memorizar os dados. Além disso, o palestrante introduz o conceito de ajuste de hiperparâmetros em redes neurais para melhorar seu desempenho com conjuntos de dados específicos. Ele observa que não há valores universais para hiperparâmetros e sugere explorar diferentes opções, como números de camada e funções de ativação. Devido a limitações de tempo, a palestra termina abruptamente, mas o palestrante garante aos alunos que o próximo questionário não será excessivamente difícil e estará acessível na plataforma GreatScope.
CS 198-126: Aula 3 - Introdução ao Deep Learning, Parte 2
CS 198-126: Aula 3 - Introdução ao Deep Learning, Parte 2
Nesta seção da palestra, é explicado o conceito de retropropagação, que é uma maneira mais rápida de obter todas as derivadas parciais necessárias para o algoritmo de descida do gradiente sem realizar operações redundantes. O palestrante também discute como melhorar a descida de gradiente vanilla para otimização de aprendizagem profunda e apresenta momentum, RMSprop e Adam como métodos de otimização. A importância de acompanhar o histórico de treinamento de um modelo, o uso de normalização em lote e o ensemble como uma técnica para melhorar o desempenho do modelo também são discutidos, bem como as técnicas comumente usadas em aprendizado profundo para ajudar a diminuir o overfitting, como dropout e pular conexões. Por fim, o palestrante aborda brevemente a facilidade de uso do PyTorch e abre espaço para perguntas.
CS 198-126: Aula 4 - Introdução ao pré-treinamento e aprimoramentos
CS 198-126: Aula 4 - Introdução ao pré-treinamento e aprimoramentos
Nesta palestra, o palestrante explica a evolução da extração de recursos no aprendizado de máquina, as vantagens do aprendizado profundo e como o aprendizado de transferência pode ser usado para melhorar a precisão e a velocidade dos modelos. Eles também discutem o conceito de congelamento e ajuste fino de camadas em redes neurais e a importância de incorporações na redução da dimensionalidade de variáveis categóricas. A palestra apresenta o aprendizado auto-supervisionado e suas diferentes tarefas, incluindo quebra-cabeças, rotação e tarefas de previsão de palavras mascaradas, que podem ser usadas para pré-treinar modelos e transferir representações aprendidas para tarefas posteriores. Por fim, é discutido o interesse renovado no aprendizado auto-supervisionado em visão computacional, e a palestra incentiva os alunos a fazerem a lição de casa no notebook Crush.
direto para dados tabulares, mas complexo para dados como texto, áudio ou imagens. No entanto, para imagens, existem extratores de recursos especializados disponíveis na visão computacional clássica.
CS 198-126: Aula 5 - Introdução à Visão Computacional
CS 198-126: Aula 5 - Introdução à Visão Computacional
Esta palestra sobre visão computacional aborda vários tópicos, incluindo a história da visão computacional e seu desenvolvimento ao longo dos anos. O instrutor também explica o aprendizado profundo e como ele melhora os métodos clássicos de visão computacional. A palestra aprofunda o conceito de convoluções e como elas são usadas como extratores de recursos em visão computacional, levando à criação de redes neurais convolucionais (CNNs). Além disso, a palestra discute o papel dos campos receptivos e apresenta camadas de agrupamento como um método para aumentar o campo receptivo das CNNs. No geral, a palestra fornece uma visão geral da visão computacional como um campo e as técnicas usadas para extrair informações de imagens. Na segunda parte da palestra, são discutidas várias técnicas para preservar o tamanho de uma imagem durante as convoluções, incluindo preenchimento e mesmo preenchimento. O conceito de stride em camadas convolucionais também é abordado, demonstrando como ele pode imitar o efeito de uma camada de agrupamento. A anatomia de uma CNN e seus hiperparâmetros, incluindo tamanho do kernel, passo, preenchimento e camadas de pooling, são explicadas, com ênfase em como uma camada convolucional atua como um extrator de recursos que passa blocos de recursos de baixa dimensão para um totalmente conectado rede para classificação. As palestras também cobrem a arquitetura de rede LeNet para classificar dígitos manuscritos e a importância de normalizar dados de imagem antes de passá-los por uma rede neural. Finalmente, o aumento de dados é discutido como uma técnica para criar dados de treinamento adicionais, e a importância do ponto de verificação do modelo durante o treinamento é enfatizada.
CS 198-126: Aula 6 - Arquiteturas avançadas de visão computacional
CS 198-126: Aula 6 - Arquiteturas avançadas de visão computacional
Esta palestra sobre arquiteturas avançadas de visão computacional se concentra em redes neurais convolucionais (CNNs) e suas várias técnicas. O palestrante explica a arquitetura de AlexNet e VGG antes de se aprofundar em técnicas avançadas, como resíduos, para manter valores residuais anteriores para maior precisão e arquiteturas mais simples. O uso de gargalos e convoluções um a um são discutidos, bem como a importância de aprender a identidade em arquiteturas de visão computacional. A palestra também aborda as questões de desaparecimento de gradientes em redes neurais e como isso pode ser aliviado com normalização em lote e redes residuais. Técnicas como agrupamento de média global e convolução separável em profundidade são explicadas em profundidade, seguidas de discussão sobre a arquitetura de rede móvel e seus benefícios.
Além disso, o palestrante examina arquiteturas avançadas de visão computacional e se concentra na otimização de modelos de rede neural convolucional usando convoluções locais passo a passo e convoluções uma a uma. Ele enfatiza a importância de entender essas otimizações e os problemas que podem surgir com certas otimizações na construção de redes futuras com eficiência. A palestra termina com uma discussão sobre a compensação entre precisão, desempenho e tamanho do modelo, destacada pela comparação do modelo de rede eficiente com outras redes. Os alunos são informados sobre um próximo questionário e uma tarefa de casa para entrega na sexta-feira seguinte.
CS 198-126: Aula 7 - Detecção de objetos
CS 198-126: Aula 7 - Detecção de objetos
A palestra discute a detecção de objetos, especificamente adicionando localização a uma CNN de classificação simples, o método IOU para detecção de objetos, o sistema R-CNN e otimizando algoritmos de detecção de objetos para minimizar o tempo de processamento com YOLO. O vídeo explica o YOLO cortando uma imagem e discute os desafios da detecção de objetos YOLO, incluindo o uso de caixas de ancoragem para eliminar a ambiguidade. Por fim, é explorada a arquitetura YOLO, que é uma rede neural totalmente convolucional para detecção de objetos, e o armazenamento de um grande número de classes para classificação é apresentado como uma questão de pesquisa em andamento. O palestrante recomenda a leitura de "The Yellow Paper" enquanto desaconselha o RCNN devido à ilegibilidade.
CS 198-126: Aula 8 - Segmentação Semântica
CS 198-126: Aula 8 - Segmentação Semântica
A palestra discute segmentação de imagem, incluindo segmentação semântica e segmentação de instância. O principal objetivo da segmentação é detectar todos os objetos em uma imagem e separá-los. O palestrante explica como uma rede neural convolucional (CNN) pode ser usada para segmentação semântica e como o downsampling pode ajudar com imagens de alta resolução computacionalmente caras. Diferentes abordagens para transformar um pequeno volume de volta em um tamanho de imagem também são discutidas. A palestra apresenta o U-Net, um modelo de segmentação semântica que combina melhorias anteriores com conexões de salto e explica como ele pode ser expandido para segmentação de instância usando a abordagem Mask R-CNN. Um modelo de segmentação semântica pré-treinado é demonstrado e o palestrante fala sobre o pré-treinamento e as próximas atribuições do curso.
CS 198-126: Aula 9 - Autoencoders, VAEs, Modelagem Generativa
CS 198-126: Aula 9 - Autoencoders, VAEs, Modelagem Generativa
Nesta palestra, é apresentado o conceito de modelagem generativa, que envolve o uso de aprendizado de máquina para criar novas imagens com base em um conjunto de dados. Autoencoders, um tipo de rede neural usada para aprendizado de recursos, são explicados, com foco em sua estrutura e como eles podem aprender recursos de dados de entrada por meio de compressão e reconstrução. A palestra também abrange autoencoders variacionais e seus benefícios, bem como o uso de espaços latentes estruturados em autoencoders para interpolar entre imagens. A importância da quantização vetorial para trabalhar com dados discretos é discutida e a função de perda para um autoencoder variacional é explicada, o que inclui uma perda de reconstrução e uma perda de compromisso para impedir a codificação permanente dos dados de entrada. A palestra termina com uma recapitulação dos tópicos abordados.