Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
Импорт, обучение и оптимизация моделей ONNX с помощью NVIDIA TAO Toolkit
Импорт, обучение и оптимизация моделей ONNX с помощью NVIDIA TAO Toolkit
В видео показано, как использовать набор инструментов NVIDIA TAO для импорта, обучения и оптимизации моделей ONNX. Он начинается с загрузки предварительно обученной модели ResNet18, ее точной настройки с помощью TAO в наборе данных Pascal VOC и предоставления шагов для импорта модели и визуализации графика ONNX. За ходом обучения можно следить с помощью визуализации TensorBoard, а в случае ошибок преобразования ONNX можно использовать настраиваемые слои. В видео также объясняется, как оценить производительность модели, наблюдая за уменьшением потерь, подтверждая потери и анализируя веса и смещения. Пользователи могут оценить точность модели на тестовом наборе данных и образцах изображений, а затем продолжить сокращение и оптимизацию для ее дальнейшего улучшения.
Веб-семинар NVAITC: развертывание моделей с помощью TensorRT
Веб-семинар NVAITC: развертывание моделей с помощью TensorRT
В этом разделе вебинара NVAITC архитектор решений Никки Лоппи представляет TensorRT, набор средств разработки программного обеспечения NVIDIA для высокопроизводительного вывода на основе глубокого обучения. TensorRT предоставляет оптимизатор вывода и среду выполнения для вывода с низкой задержкой и высокой пропускной способностью на различных платформах, от встроенных устройств до центров обработки данных. Лоппи объясняет пять технологий, которые TensorRT использует для оптимизации производительности логических выводов, включая слияние ядра и точную калибровку. Разработчики могут использовать API-интерфейсы Python и C++ TensorRT для включения этих оптимизаций в свои собственные приложения, а библиотеки преобразователей, такие как trtorch, можно использовать для оптимизации моделей PyTorch для логического вывода. Лоппи демонстрирует, как сохранять модели, оптимизированные для TensorRT, с помощью библиотеки trtorch, и сравнивает оптимизированные модели с неоптимизированными моделями для классификации изображений, демонстрируя значительное ускорение с половинной точностью.
Учебное пособие по ESP - Как создать ускоритель в Keras/Pytorch/ONNX
Учебное пособие по ESP - Как создать ускоритель в Keras/Pytorch/ONNX
В этом руководстве представлен инструмент под названием Chalice для ML, который может автоматически генерировать ускоритель из модели Keras/Pytorch/ONNX. Затем в учебнике демонстрируется, как интегрировать ускоритель в ESP (прототип на ранней стадии). Докладчик также показывает, как спроектировать ускоритель в Keras/Pytorch/ONNX, и описывает этапы импорта ускорителя, добавления тестового стенда, генерации RTL и создания двух версий ускорителя. В видео также рассказывается о компиляции Linux и создании приложения пользовательского пространства Linux для ускорителя. Наконец, учебник заканчивается ресурсами для дальнейшего обучения.
Оптимальное исполнение моделей на оборудовании с ONNX Runtime
Оптимальное исполнение моделей на оборудовании с ONNX Runtime
В этом руководстве рассматривается развертывание моделей на CPU, GPU и OpenVINO с использованием ONNX Runtime. Докладчик демонстрирует использование различных исполняющих провайдеров, включая OpenVINO, для логических выводов на гибком оборудовании. Код для логического вывода в основном одинаков во всех средах, главное отличие заключается в поставщике исполнения. Среда выполнения ONNX выполняет вывод быстрее, чем PyTorch на ЦП и графическом процессоре, а для OpenVINO существует отдельная библиотека среды выполнения ONNX. В целом, в руководстве представлен обзор того, как развертывать модели на различных вариантах оборудования с помощью ONNX Runtime.
Вывод машинного обучения в Flink с ONNX
Вывод машинного обучения в Flink с ONNX
В видео обсуждаются преимущества и реализация использования ONNX для логического вывода машинного обучения и его развертывания в среде распределенных вычислений Flink. Разделение проблем между обучением модели и выводом продукции, возможность определения спецификаций для входных и выходных данных, а также независимость от языка делают ONNX ценным инструментом для специалистов по данным. Видео демонстрирует, как загрузить модель ONNX во Flink, предоставляя ключевые компоненты функции расширенной карты и объясняя, как связать модели вместе с кодом с помощью файла jar. Докладчик также рассматривает такие вопросы, как управление памятью, пакетная оптимизация и аппаратное ускорение с помощью ONNX, и подчеркивает его преимущества для машинного обучения в режиме реального времени в Flink.
Улучшение опыта онлайн-покупок с ONNX
Улучшение опыта онлайн-покупок с ONNX
В этом видео рассказывается, как компании электронной коммерции используют искусственный интеллект для создания эффективных аналитических данных, позволяющих различать выигрыш и проигрыш в сфере онлайн-торговли. Спикер приводит пример Bazaar Voice, крупнейшей сети брендов и розничных продавцов, которые предоставляют более 8 миллиардов отзывов, и то, как они используют сопоставление продуктов для обмена отзывами. Затем докладчик описывает, как они разработали модель машинного обучения на Python, экспортировали ее в формат ONNX и развернули в бессерверной функции, используя среду узла для выполнения логического вывода в среде выполнения ONNX. Это решение позволяет быстро сопоставлять сотни миллионов товаров в тысячах каталогов клиентов, сохраняя при этом низкие затраты, что приводит к значительной экономии средств и миллионам дополнительных отзывов для брендов и розничных продавцов. В заключение докладчик предлагает зрителям изучить другие способы использования возможностей ONNX и поделиться своими вариантами использования для будущих технологических достижений.
ONNX Runtime Azure EP для гибридного вывода на границе и в облаке
ONNX Runtime Azure EP для гибридного вывода на границе и в облаке
Команда ONNX Runtime сделала первый шаг в гибридный мир, позволив разработчикам использовать единый API как для пограничных, так и для облачных вычислений с помощью Azure EP, что устраняет проблемы с подключением устройств и позволяет разработчикам переключаться на оптимизированную ими облачную модель. , экономя затраты и уменьшая задержку. Эта новая функция позволяет разработчикам обновлять логику приложения и выбирать путь через Azure EP, предлагая больше возможностей и возможностей. Команда демонстрирует развертывание дочерних серверов и моделей обнаружения объектов, а также то, как просто протестировать конечную точку и настроить Azure Onnx Runtime. Докладчики также обсуждают возможность переключения между локальной и удаленной обработкой и потенциальные варианты использования, в том числе модели с более низкой и более высокой производительностью. ONNX Runtime Azure EP можно предварительно загрузить и легко настроить с помощью необходимых пакетов для развертывания, что упрощает использование программного обеспечения.
DSS онлайн № 4: комплексное развертывание глубокого обучения с ONNX
DSS онлайн № 4: комплексное развертывание глубокого обучения с ONNX
В этом видео обсуждаются проблемы сквозного развертывания глубокого обучения, включая управление различными языками, платформами, зависимостями и изменчивостью производительности, а также разногласия между командами и привязки к проприетарным форматам. Open Neural Network Exchange (ONNX) представлен как формат на основе буфера протокола для сериализации глубокого обучения. Он поддерживает основные платформы глубокого обучения и предоставляет автономный артефакт для запуска модели. ONNX ML также обсуждается как часть спецификации ONNX, которая обеспечивает поддержку традиционной предварительной обработки машинного обучения. Ограничения ONNX признаются, но он рассматривается как быстрорастущий проект с мощной поддержкой крупных организаций, который предлагает настоящую переносимость между различными размерами языков, сред, сред выполнения и версий.
ONNX и ONNX Runtime с Винитрой Свами и Пранавом Шармой из Microsoft
ONNX и ONNX Runtime с Винитрой Свами и Пранавом Шармой из Microsoft
В видео обсуждается формат Open Neural Network Exchange (ONNX), созданный для обеспечения совместимости и эффективности моделей при сериализации и управлении версиями. ONNX состоит из промежуточного уровня представления, спецификаций операторов и поддерживает различные типы данных. Среда выполнения ONNX, реализованная на C++ и ассемблере, обеспечивает обратную совместимость и расширяется с помощью поставщиков исполнения, пользовательских операторов и оптимизаторов графов. API предлагает поддержку платформ, языков программирования и поставщиков исполнения. Пользователи могут создавать сеансы, оптимизировать модели и сериализовать их для будущего использования. Выступающие демонстрируют универсальность и эффективность ONNX Runtime с возможностью запуска на устройствах Android.
совместимость возвращается к CentOS 7.6. Также обсуждается ONNX Go Live Tool, инструмент с открытым исходным кодом для преобразования и настройки моделей для достижения оптимальной производительности. Раздел завершается примерами служб Microsoft, использующих ONNX, включая 14-кратный прирост производительности в отсутствующей модели определителя Office и 3-кратный прирост производительности в модели оптического распознавания символов, используемой в когнитивных службах.
Ян-Бенедикт Ягуш Кристиан Буржо: Делаем приложения машинного обучения быстрыми и простыми с помощью ONNX
Ян-Бенедикт Ягуш Кристиан Буржо: Делаем приложения машинного обучения быстрыми и простыми с помощью ONNX
В этом видео о машинном обучении и развертывании спикеры обсуждают проблемы запуска моделей в производство, в частности, трудности выбора и развертывания моделей. Они знакомят с ONNX, универсальным форматом файлов для экспорта моделей машинного обучения, и объясняют, как он может помочь разделить обучение и логические выводы, делая развертывание более быстрым и эффективным. Они предоставляют живую демонстрацию с использованием scikit-learn, объясняя, как преобразовать конвейер машинного обучения в формат ONNX. Они также обсуждают ограничения контейнеров Docker для развертывания моделей машинного обучения и подчеркивают преимущества использования ONNX. Они затрагивают тему моделей шифрования для дополнительной безопасности и решают проблему удобства использования ONNX, которая все еще является молодой экосистемой с некоторыми загадочными сообщениями об ошибках.