
Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
Netron é uma ferramenta para visualizar modelos de rede neural, aprendizado profundo e aprendizado de máquina
Visão rápida do Netron
Visão rápida do Netron
No vídeo, o apresentador apresenta uma visão geral do Netron, ferramenta para visualização e análise de modelos de aprendizado de máquina . O Netron suporta vários formatos e pode ser instalado em várias plataformas. O apresentador demonstra como iniciar o Netron e navegar por vários modelos de exemplo, destacando os recursos e limitações da ferramenta. Embora o Netron seja útil para explorar arquiteturas de rede mais simples, o apresentador sugere que ele poderia se beneficiar de recursos adicionais para visualizar modelos mais complexos. No geral, o apresentador recomenda o Netron como uma ferramenta útil para examinar e entender os modelos de aprendizado de máquina.
Netron - Ferramenta de Visualização de Rede | Aprendizado de Máquina | dados mágicos
Netron - Ferramenta de Visualização de Rede | Aprendizado de Máquina | dados mágicos
Netron é uma biblioteca Python que ajuda os usuários a explorar e examinar visualmente a estrutura e os parâmetros dos modelos de aprendizado profundo. É uma biblioteca de código aberto que fornece modelos de amostra para análise e possui um processo de instalação simples. Com apenas duas linhas de código, os usuários podem instalar o Netron e usá-lo para visualizar a estrutura da rede neural, funções de ativação, camadas de agrupamento, camadas convolucionais e todos os atributos passados em cada camada de um determinado modelo de aprendizado de máquina. Netron fornece uma interface fácil de usar que permite aos usuários exportar visualizações como arquivos PNG e explorar diferentes recursos e opções.
PyTorch, TensorFlow, Keras, ONNX, TensorRT, OpenVINO, AI Model File Conversion
[Vídeo educacional] PyTorch, TensorFlow, Keras, ONNX, TensorRT, OpenVINO, AI Model File Conversion
O palestrante do vídeo discute as vantagens e desvantagens de diferentes estruturas de IA, como PyTorch, TensorFlow, Keras, ONNX, TensorRT e OpenVINO, e recomenda o PyTorch como a estrutura preferencial para treinamento e conversão de dados. O palestrante explica o processo de conversão, incluindo a conversão de modelos PyTorch para ONNX e depois para TensorRT ou OpenVINO, e adverte contra o uso do arquivo TensorFlow PB e Cafe. O palestrante também discute a importância de definir o formato de ponto flutuante corretamente e recomenda o uso de FP 32 para a maioria dos modelos. O vídeo fornece exemplos de conversão de modelos e incentiva os espectadores a visitar o site oficial para ver mais vídeos educativos.
Como usamos o ONNX no Zetane para concluir projetos de aprendizado de máquina mais rapidamente com menos tentativa e erro
Como usamos o ONNX no Zetane para concluir projetos de aprendizado de máquina mais rapidamente com menos tentativa e erro
Patrick Saitama, cofundador e CTO da Zetane Systems, discute o valor de usar o ONNX no novo produto de sua empresa para abordar questões relacionadas ao problema da caixa preta da IA. O mecanismo da Zetane permite a exploração e inspeção dos modelos ONNX, fornecendo insights sobre a interação do modelo com os dados e levando a estratégias mais decisivas para melhorar sua qualidade. O exemplo dado mostra como o motor do Zetane ajudou a depurar um modelo de trem autônomo inspecionando a camada de rádio e adicionando mais imagens de túneis rotulados como não-obstáculos. O Zetane também inclui ferramentas para inspecionar dinamicamente os tensores internos e tirar instantâneos do modelo para investigação posterior. Além disso, o novo mecanismo da Zetane permite a instalação de modelos maiores, como o YOLOv3.
O que há de novo no ONNX Runtime
O que há de novo no ONNX Runtime
Esta palestra compartilhará os destaques dos lançamentos do ONNX Runtime 1.10-1.12, incluindo detalhes sobre melhorias notáveis de desempenho, recursos e plataformas, incluindo dispositivos móveis e web. Ryan Hill está na equipe AI Frameworks nos últimos 4 anos, onde trabalhou principalmente em kernels de operadores, APIs C e provedores de execução de carregamento dinâmico. Antes disso, ele trabalhou na equipe do Office PowerPoint, onde seu trabalho mais visto são muitas das transições de slides da apresentação de slides. Para se divertir, ele gosta de tentar usar os recursos C++ mais recentes e encontrar erros internos do compilador.No vídeo, o engenheiro de software Ryan Hill discute os vários recursos e atualizações do ONNX Runtime, um runtime de plataforma cruzada amplamente usado que pode ser direcionado a várias arquiteturas de CPU. Ele destaca os recursos mais recentes adicionados ao ONNX Runtime, como a capacidade de chamar op kernels diretamente e melhorias de desempenho, como otimizador de transposição e otimização de tamanho pequeno. Hill também fala sobre os provedores de execução do ONNX Runtime, que permitem desempenho ideal em vários hardwares, e o lançamento de pacotes móveis que oferecem suporte à conversão NHWC em tempo de execução. O vídeo também abrange o suporte ao operador sensível ao layout, suporte Xamarin para aplicativos de plataforma cruzada, ONNX Runtime web e a biblioteca de extensões ONNX Runtime que se concentra no trabalho de pré-pós-processamento do modelo, incluindo conversões de texto e operações matemáticas, e atualmente se concentra em PNL, visão e domínios de texto.
Tempo de execução ONNX v1.12.0 - Revisão da versão
Tempo de execução ONNX v1.12.0 - Revisão da versão
A versão v1.12.0 do ONNX Runtime (ORT) foca na inferência, mas também inclui investimentos contínuos em treinamento, com integração com o Hugging Face Optimum, resultando na aceleração de vários modelos de Hugging Face. Novos recursos incluem a capacidade de usar operações ORT nativas em operações personalizadas e chamar diretamente um operador nativo ou de tempo de execução sem criar um gráfico. A versão também inclui suporte para .NET 6 e Multi-platform App UI (MAUI) e provedores de execução para plataformas específicas, como Neural Processing Unit no Android e Core ML no iOS. As melhorias de desempenho foram feitas reduzindo as alocações de memória durante a inferência e eliminando o registro desnecessário. Melhorias futuras para aprimorar a localização do cache e a utilização do pool de encadeamentos estão planejadas.
Tempo de execução ONNX v1.13 - Revisão da versão
Tempo de execução ONNX v1.13 - Revisão da versão
A versão 1.13 do tempo de execução ONNX foi lançada recentemente com patches de segurança, correções de bugs e melhorias de desempenho. A atualização se concentra na otimização de modelos do Transformer para quantização de GPU e adiciona suporte para provedores de execução direta de ML que são independentes de dispositivo e oferecem suporte a mais de 150 operadores. Além disso, o lançamento inclui atualizações para a infraestrutura móvel ORT para compatibilidade com o novo EPS, como o pacote XNN. O uso de quantização para melhorar o desempenho de modelos baseados em Transformer também é discutido, com otimização do provedor de execução CUDA para executar o modelo BERT quantizado e o uso de treinamento consciente quantizado para maximizar a precisão enquanto otimiza o mecanismo de execução ONNX.
O que é ONNX Runtime (ORT)?
O que é ONNX Runtime (ORT)?
O ONNX Runtime (ORT) é uma biblioteca que otimiza e acelera a inferência de aprendizado de máquina, permitindo que os usuários treinem seus modelos em qualquer biblioteca de aprendizado de máquina compatível, exportem para o formato ONNX e executem inferência em seu idioma preferido. O palestrante destaca um exemplo de realização de inferência usando PyTorch com ONNX Runtime e aponta que os usuários podem visitar ONNXRuntime.ai para explorar as diferentes APIs e ferramentas necessárias para sua configuração preferida.
Discussão do roteiro ONNX 2020 nº 1 20200903
Discussão do roteiro ONNX 2020 nº 1 20200903
O documento do roteiro ONNX, que foi aberto a contribuições do público, é um tópico importante neste vídeo. A discussão abrange a extensão do ONNX em um pipeline de aprendizado de máquina, incluindo evolução de dados, pré-processamento e extensão do ONNX para pipelines horizontais como o QFLO. As sugestões feitas pelos contribuidores incluem suporte a quadros de dados e adoção de novos operadores para pré-processamento. Os palestrantes também discutem a adoção do padrão API de dados Python para expandir o suporte do ONNX e garantir a interoperabilidade entre outras bibliotecas. Além disso, os palestrantes discutem a integração do ONNX no Kubernetes e no Kubeflow para simplificar o desenvolvimento de ML para os usuários. O grupo planeja continuar avaliando o impacto da proposta e recebe feedback por meio do roteiro ou do comitê diretor.