Машинное обучение и нейронные сети

 

Мы добавили в MQL5 поддержку матриц и векторов, которые используются во многих вычислительных задачах, в том числе и в машинном обучении. В данной ветке мы подобрали для вас материалы, которые могут быть вам полезны. В основе технологии машинного обучения лежат нейронные сети.

Нейронные сети — это математические модели, которые пытаются эмулировать работу человеческого мозга. Они состоят из множества соединенных узлов, которые передают сигналы друг другу, и на основе этих сигналов принимают решения.

Машинное обучение — это процесс, при котором компьютер использует данные для обучения моделей, которые могут прогнозировать результаты на новых данных. Машинное обучение используется в различных областях, включая медицину, бизнес, науку о материалах и другие.

Глубокое обучение (deep learning) — это подраздел машинного обучения, который использует нейронные сети с многими слоями для решения задач обработки информации. Это позволяет моделям глубокого обучения изучать данные с высокой точностью и автоматически извлекать признаки из сложных иерархических структур, что обычно является трудной задачей для традиционных алгоритмов машинного обучения.

Глубокие нейронные сети обычно состоят из многих слоев, которые принимают данные на вход и последовательно их обрабатывают. Каждый слой представляет собой набор нейронов, которые обрабатывают данные и передают результаты следующему слою. Обучение модели заключается в том, чтобы настроить веса нейронных связей между слоями таким образом, чтобы минимизировать ошибку на тренировочном наборе данных. Одним из наиболее широко используемых подходов для обучения глубоких нейронных сетей является обратное распространение ошибки (backpropagation). Этот алгоритм позволяет определять, как изменения весов между слоями сказываются на ошибке модели, и использовать эту информацию для обновления весов в соответствии с градиентным спуском.

Глубокое обучение позволяет создавать более точные модели, чем классические методы машинного обучения, такие как логистическая регрессия или деревья решений. Однако оно требует большого объема данных и вычислительной мощности для обучения, что может быть проблемой в некоторых областях.

Глубокое обучение применяется во многих областях, таких как компьютерное зрение, обработка естественного языка, обработка речи, рекомендательные системы и т.д. В последние годы были достигнуты значительные успехи в этой области, в том числе в задачах распознавания изображений и обработки естественного языка.

Здесь мы представим видео, которые позволят вам быстро понять принципы работы этих технологий.


 

1. The Deep Learning Revolution




Deep Learning Revolution

В этом коротком ролике подчеркивается революционная роль искусственного интеллекта (ИИ) в достижении сверхчеловеческих способностей, открытии новых частиц и экономии ценных ресурсов.

Эти технологии позволяют людям с нарушениями зрения распознавать лица, читать текст и помогать слепым читать своим детям, а автономные транспортные средства дают нам свободу исследовать отдаленные районы без карт.

Подчеркивается роль технологии ИИ в укреплении способности людей принимать лучшие решения и решать сложные задачи.

The Deep Learning Revolution
The Deep Learning Revolution
  • 2016.06.09
  • www.youtube.com
More info at: http://www.nvidia.com/deep-learning Deep learning is the fastest-growing field in artificial intelligence, helping computers make sense of infi...
 

2. Визуализация процессов обработки информации в нейронных сетях глубокого обучения

Несколько коротких видео, которые лучше посмотреть, чем пытаться описать словами.












 

3.  [DeepLearning | видео 1] Что же такое нейронная сеть?




[DeepLearning | видео 1] Что же такое нейронная сеть?

Это видео знакомит зрителей с нейронными сетями и их работой. В нейронных сетях содержится несколько слоев нейронов, каждый из которых связан с нейронами предыдущего и следующего слоев через веса и смещения. Активация нейрона определяется взвешенной суммой активаций нейронов предыдущего слоя, которая затем сжимается сигмоидной функцией.

  • 00:00:00 Введение в нейронные сети, в котором рассказывается о том, как они вдохновлены мозгом и как их можно использовать для распознавания рукописных цифр. Видео также объясняет структуру нейронной сети, включая входной слой, скрытый слой и выходной слой.

  • 00:05:00 В этой части объясняется, почему можно ожидать, что слоистая структура нейронной сети может вести себя интеллектуально. Утверждается, что каждый нейрон в средних слоях сети соответствует одному из нескольких подкомпонентов, составляющих общее изображение. Например, нейрон может быть активирован, когда изображение с петлевым узором поступает на входной слой. Это позволяет сети собирать различные компоненты, составляющие изображение, и, в конечном итоге, распознавать цифру, которую представляет изображение.

  • 00:10:00 Веса и смещения нейронной сети определяют ее поведение, а обучение - это процесс корректировки этих значений для достижения желаемого поведения. Нейронные сети состоят из слоев нейронов, каждый из которых соединен с нейронами предыдущего и следующего слоя через веса и смещения. Активация нейрона определяется взвешенной суммой активаций нейронов предыдущего слоя, которая затем сжимается сигмоидной функцией. Этот конечный вектор затем передается на следующий слой.

  • 00:15:00 В этом видео автор объясняет, что такое нейронная сеть и как она работает. Он также вводит сигмоидную функцию и объясняет, как она используется для сжатия соответствующей взвешенной суммы в интервал между нулем и единицей.
[DeepLearning | видео 1] Что же такое нейронная сеть?
[DeepLearning | видео 1] Что же такое нейронная сеть?
  • 2019.01.29
  • www.youtube.com
Оригинальная запись: https://www.youtube.com/watch?v=aircAruvnKk
 

4. [DeepLearning | видео 2] Градиентный спуск: как учатся нейронные сети




[DeepLearning | видео 2] Градиентный спуск: как учатся нейронные сети

Это видео рассказывает о том, как градиентный спуск помогает нейронным сетям эффективнее учиться.

  • 00:00:00 Представлена идея градиентного спуска, который лежит в основе того, как нейронные сети и многие другие алгоритмы машинного обучения учатся. Затем в видео показано, как сеть распознавания рукописных цифр параметризуется функцией стоимости, весами и смещениями. Производительность сети оценивается на обучающем наборе примеров, и по мере того, как сеть становится лучше распознавать цифры, функция стоимости становится все более точной.

  • 00:05:00 Градиентный спуск - мощный инструмент для обучения нейронных сетей, и важно помнить, что функция стоимости должна иметь гладкий выход, чтобы эффективно минимизировать ее.

  • 00:10:00 Объясняется алгоритм градиентного спуска, а также работа искусственных нейронов. Градиентный спуск используется для поиска локального минимума в функции стоимости, двигаясь маленькими шагами вниз по склону. Этот процесс повторяется до тех пор, пока сеть не достигнет хорошего решения. Затем в видео показывается пример градиентного спуска на действии с сетью нейронов, обученной распознавать цифры. Хотя сеть не идеальна, впечатляет то, что она может хорошо справляться с изображениями, которые раньше не видела.

  • 00:15:00 Градиентный спуск - это метод, используемый для обучения нейронных сетей. В первой части мы видели, что глубокие нейронные сети, обученные на случайно помеченных данных, достигают такой же точности, как и на правильно помеченных данных. Во второй части показано, что если нейронная сеть обучена на наборе данных с правильными метками, то локальные минимумы ее функции стоимости имеют одинаковое качество.

  • 00:20:00 Демонстрируется работа градиентного спуска в нейронных сетях и как он может помочь сети более эффективно учиться.
[DeepLearning | видео 2] Градиентный спуск: как учатся нейронные сети
[DeepLearning | видео 2] Градиентный спуск: как учатся нейронные сети
  • 2020.08.10
  • www.youtube.com
Оригинальная запись: https://www.youtube.com/watch?v=IHZwWFHWa-w
 

5. [DeepLearning | видео 3] В чем на самом деле заключается метод обратного распространения?




[DeepLearning | видео 3] В чем на самом деле заключается метод обратного распространения?

Backpropagation - это алгоритм, используемый в нейронных сетях для помощи им в обучении. Алгоритм работает путем вычисления градиента функции стоимости, который зависит от весов и смещений сети. Затем градиент используется для корректировки весов и смещений сети.

  • 00:00:00 Backpropagation лежит в основе обучения нейронных сетей. Алгоритм работает путем вычисления градиента функции стоимости, который зависит от весов и смещений сети. Затем градиент используется для корректировки весов и смещений сети.

  • 00:05:00 Backpropagation представляет собой алгоритм обучения с учителем, который помогает увеличить активацию нейронов в сети глубокого обучения. Алгоритм корректирует веса и смещения нейронов в предыдущем слое таким образом, чтобы это изменение было пропорционально размеру соответствующих весов. Backpropagation также помогает распространять желаемые изменения на веса и смещения нейронов во втором слое.

  • 00:10:00 Backpropagation используется для корректировки весов и смещений нейронной сети. Это стохастический алгоритм градиентного спуска, который случайным образом разбивает данные на мини-пакеты и обновляет веса и смещения на основе мини-пакета. Этот алгоритм вычислительно быстрее, чем настоящий градиентный спуск, и может сходиться к локальному минимуму функции стоимости.
What is backpropagation really doing? | Chapter 3, Deep learning
What is backpropagation really doing? | Chapter 3, Deep learning
  • 2017.11.03
  • www.youtube.com
What's actually happening to a neural network as it learns?Help fund future projects: https://www.patreon.com/3blue1brownAn equally valuable form of support ...
 

6. [DeepLearning | видео 4] Формулы обратного распространения




[DeepLearning | видео 4] Формулы обратного распространения

В этом видео объясняется математическое обоснование алгоритма backpropagation (обратное распространение ошибки) для глубокого обучения на примере простой сети с одним нейроном на каждом слое, определяемом весами и смещениями. Введено правило цепочки, чтобы понять, как изменения веса влияют на стоимость, а чувствительность стоимости к малым изменениям веса находится через производные функции стоимости, функции активации и взвешенной суммы. Чувствительность учитывается итеративным вычислением чувствительности предыдущей активации в расширении правила цепочки, чтобы найти чувствительность к предыдущим весам и смещениям. Подход остается похожим даже при наличии нескольких нейронов на слое, при этом каждый вес имеет свой индекс, чтобы отслеживать его позицию в слое.

  • 00:00:00 В первой части мы погружаемся в необходимый математический аппарат для backpropagation в глубоком обучении. На примере простой сети с одним нейроном на каждом слое, определяемом тремя весами и тремя смещениями. Цель состоит в том, чтобы понять, насколько чувствительна функция стоимости к этим переменным, и какие корректировки будут наиболее эффективны для уменьшения функции стоимости. Введено правило цепочки, чтобы понять, как изменения весовых переменных влияют на функцию стоимости. Чувствительность функции стоимости к малым изменениям веса вычисляется с помощью производных функции стоимости, функции активации и взвешенной суммы.

  • 00:05:00 Во второй части вводится концепция чувствительности в отношении весов и смещений в нейронной сети. Производная функции стоимости по весам и смещениям находится через расширение правила цепочки, требуя учета чувствительности. Хотя чувствительность может быть рассмотрена как количество нейронов, которые активируются вместе и связываются между собой, производная требует усреднения выражения по всем обучающим примерам. Вычисляется чувствительность предыдущей активации в расширении правила цепочки и используется для итеративного расчета чувствительности к предыдущим весам и смещениям. Подход не меняется сильно, даже если слои в нейронной сети имеют несколько нейронов; однако каждый вес должен быть проиндексирован дополнительными индексами, чтобы отслеживать его положение в слое.
 

Artificial Intelligence Full Course | Artificial Intelligence Tutorial for Beginners | Edureka

Выше мы представили вам самые лучшие материалы по введению в искусственные нейронные сети. Это видео от Edureka даст вам всесторонние и подробные знания о концепциях искусственного интеллекта с практическими примерами.


Для вашего удобства мы приводим общий таймлайн и далее подробный по каждой части. Вы можете переходить сразу к нужному моменту, смотреть в удобном для вас режиме и ничего не пропустить.

  1. 00:00:00 - 01:00:00 В 1 части дается введение в искусственный интеллект, обсуждается его история, различные области и концепции, а также то, как глубокое обучение используется для решения реальных проблем. Также рассказывается о различных типах искусственного интеллекта и популярных языках программирования для разработки ИИ.

  2. 01:00:00 - 02:00:00 Во 2 части обсуждаются различные виды искусственного интеллекта и как они могут быть использованы для решения различных типов задач. Объясняется, как линейная регрессия может быть использована для прогнозирования средней максимальной температуры для заданного диапазона температур, а логистическая регрессия - для прогнозирования вероятности того, что исход будет равен одному или нулю. Также обсуждается алгоритм дерева решений и как его можно использовать для построения дерева решений. Наконец, объясняется, как случайный лес может быть использован для создания более точного и стабильного прогноза.

  3. 02:00:00 - 03:00:00 В 3 части преподаватель Edureka Майкл Кеннеди объясняет, как работает алгоритм кластеризации K-средних и как его можно использовать для сжатия огромных наборов данных в небольшое количество значимых значений. Он также обсуждает, что обучение с подкреплением является другим видом машинного обучения, которое помогает агентам учиться достигать своих целей в неизвестной среде.

  4. 03:00:00 - 04:00:00 В 4 части мы учимся вычислять выигрыш в информации для родительского узла, дочернего узла и дороги разного типа. Энтропия рассчитывается для правой стороны и оказывается равной нулю, что указывает на отсутствие неопределенности. Когда дорога ровная, скорость машины высокая, что указывает на отсутствие неопределенности в этой информации. Когда дорога крутая, скорость машины может быть медленной или быстрой, что указывает на то, что информация не является специфичной для какого-либо конкретного типа дороги.

  5. 04:00:00 - 04:50:00 В 5 части инструктор Edureka Кирилл Еременко представляет всесторонний обзор искусственного интеллекта, охватывая основы программирования, данных и машинного обучения. Он объясняет, как работают нейронные сети и как они могут быть использованы для прогнозирования цен на акции. Он также описывает необходимые шаги для обучения нейронной сети, включая подготовку данных, их разделение и масштабирование. Наконец, он обсуждает параметры архитектуры модели для системы искусственного интеллекта, включая количество нейронов в каждом скрытом слое, размер смещения и функцию стоимости.


Детальный таймлайн по частям видеокурса

Часть 1

  • 00:00:00 Зулайха из Edureka рассказывает о истории искусственного интеллекта, различных областях и концепциях, связанных с ним, о том, как возник искусственный интеллект, ограничениях машинного обучения и о том, как необходимо глубокое обучение. Она также представляет концепцию глубокого обучения и показывает, как его можно использовать для решения реальных проблем. Наконец, она рассказывает о следующем модуле - обработке естественного языка.

  • 00:05:00 Искусственный интеллект - это наука и инженерия создания интеллектуальных машин, которые могут выполнять задачи, обычно требующие человеческого интеллекта, такие как визуальное восприятие, распознавание речи, принятие решений и перевод между языками. Недавние достижения в области вычислительной мощности и алгоритмов позволили более эффективно внедрять искусственный интеллект в нашу повседневную жизнь. Университеты, правительства, стартапы и крупнейшие технологические компании вкладывают в ИИ свои ресурсы, поскольку считают, что это будущее. Искусственный интеллект быстро развивается как область изучения, так и как экономика.

  • 00:10:00 Искусственный интеллект используется в различных областях, от финансов до здравоохранения и социальных медиа. ИИ стал настолько важен, что им пользуются даже такие бизнесы, такие как Netflix.

  • 00:15:00 Искусственный интеллект разделен на три стадии, и в настоящее время мы находимся на стадии слабого ИИ. Искусственный общий интеллект, или сильный ИИ, все еще далек от достижения, но если бы это произошло, это стало бы важным этапом в истории человечества.

  • 00:20:00 В этом разделе представлены различные типы искусственного интеллекта, а затем обсуждаются различные языки программирования для ИИ. Python считается лучшим языком для разработки ИИ, и R также является популярным выбором. Другие языки включают Python, Lisp, Prolog, C++, MATLAB, Julia и JavaScript.

  • 00:25:00 Python - это гибкий и простой в использовании язык программирования, который становится популярным в области искусственного интеллекта. Машинное обучение - это метод, который позволяет машинам учиться на основе данных, чтобы улучшать свои прогнозы.

  • 00:30:00 Машинное обучение - это подраздел искусственного интеллекта, который использует алгоритмы для автоматического обучения и улучшения с опытом. Основным компонентом процесса машинного обучения является модель, которая обучается с помощью алгоритма машинного обучения.

  • 00:35:00 Разница между алгоритмом и моделью заключается в том, что алгоритм отображает все решения, которые модель должна принимать на основе заданного ввода, в то время как модель будет использовать алгоритм машинного обучения для извлечения полезных идей из входных данных и давать вам результат, который очень точен. Затем у нас есть предикторная переменная, которая является любой функцией данных, которая может быть использована для прогнозирования выходных данных. Таким образом, в том же примере высота будет переменной отклика. Переменная отклика также известна как целевая переменная или выходная переменная. Это переменная, которую вы пытаетесь предсказать, используя предикторные переменные. Итак, переменная отклика - это функция или выходная переменная, которую необходимо предсказать, используя предикторные переменные. Затем у нас есть то, что называется обучающими данными. Терминологии "обучающие" и "тестовые" данные вы часто встретите в процессе машинного обучения. Таким образом, обучающие данные - это данные, которые используются для создания модели машинного обучения. Таким образом, в процессе машинного обучения, когда вы загружаете данные в машину, они будут разделены на две части. Разделение данных на две части также известно как разделение данных. Вы возьмете входные данные, разделите их на две части.

  • 00:40:00 Сбор данных является одним из самых трудоемких шагов в машинном обучении, и если вам приходится вручную собирать данные, это займет много времени. Но к счастью, существует множество ресурсов онлайн, которые предоставляют обширные наборы данных. Все, что вам нужно сделать, это веб-скрейпинг, где вы просто должны скачать данные. Один из сайтов, о котором я могу вам рассказать, это Cargill. Так что, если вы новичок в машинном обучении, не беспокойтесь о сборе данных и всем таком. Вам нужно только зайти на сайты, такие как Cargill, и скачать набор данных.

  • 00:45:00 Обучение с учителем - это техника, при которой машина обучается с использованием хорошо помеченных данных. Обучение с учителем аналогично тому, как учителя помогают студентам понимать математические концепции.

  • 00:50:00 В обучении с учителем (supervised learning), набор данных обучения содержит информацию о том, как выглядят объекты, например, изображения Тома и Джерри. Алгоритм машинного обучения обучается с использованием этого набора размеченных данных, чтобы научиться идентифицировать и классифицировать изображения. В неконтролируемом обучении (unsupervised learning) алгоритм машинного обучения не получает размеченных данных, но, вместо этого, обучается на неразмеченных данных. В обучении с подкреплением (reinforcement learning) агент помещается в среду и учится вести себя, выполняя действия и наблюдая за вознаграждениями, получаемыми за эти действия.

  • 00:55:00 Машинное обучение состоит из трех основных типов обучения: обучение с учителем, обучение без учителя и обучение с подкреплением. Обучение с учителем используется для изучения размеченных данных, обучение без учителя используется для изучения неразмеченных данных, а обучение с подкреплением используется для изучения действий и вознаграждений. Существует три типа проблем, которые можно решать с помощью машинного обучения: регрессия, классификация и кластеризация. Существует множество алгоритмов, которые могут использоваться для решения проблем регрессии, классификации и кластеризации, но наиболее часто используются линейная регрессия, логистическая регрессия, метод опорных векторов и наивный Bayes.


Часть 2

  • 01:00:00 Искусственный интеллект может быть использован для решения задач классификации, регрессии и кластеризации. Алгоритмы обучения с учителем, такие как линейная регрессия, используются для прогнозирования целевых переменных, таких как индекс цен на жилье, на основе входных данных.

  • 01:05:00 Линейная регрессия является алгоритмом обучения с учителем, используемым для прогнозирования непрерывной зависимой переменной, y, на основе значений независимой переменной, x. Линейная регрессия начинается с построения связи между y и x, используя наилучшую линейную подгонку, а затем вычисляет наклон и сдвиг по оси y линии линейной регрессии.

  • 01:10:00 Инструктор Edureka Майкл Кеннеди демонстрирует линейную регрессию на наборе данных о погодных условиях, записанных в разные дни по всему миру. Он показывает, как импортировать необходимые библиотеки и считать данные, как построить график точек данных и найти линейную зависимость между переменными. Он также обсуждает предупреждающее сообщение и объясняет, что главная цель этой демонстрации - прогноз погоды.

  • 01:15:00 В этом уроке объясняется, как линейная регрессия может быть использована для предсказания средней максимальной температуры для заданного диапазона температур. Путем разделения набора данных на обучающие и тестовые наборы, и импорта соответствующего класса линейной регрессии, модель обучается. После обучения, преподаватель показывает, как вычислить наклон и сдвиг по оси y для линии, соответствующей данным.

  • 01:20:00 Объясняется, как использовать алгоритм регрессии для предсказания процентного балла тестового набора данных. В видео также показывается, как построить график результатов и сравнить их с фактическими значениями.

  • 01:25:00 Логистическая регрессия - это метод, используемый для прогнозирования зависимой переменной, y, при заданной независимой переменной, x, так, что зависимая переменная является категориальной переменной, то есть выход является категориальной переменной. Результат логистической регрессии всегда категориальный, и основная техника, используемая в логистической регрессии, очень похожа на линейную регрессию.

  • 01:30:00 Логистическая регрессия используется для предсказания вероятности того, что исход будет равен единице или нулю, используя уравнение Pr(X = 1) = beta0 + beta1*X. Логистическая функция, или S-образная кривая, гарантирует, что диапазон между нулем и единицей будет соблюден.

  • 01:35:00 Алгоритм дерева решений - это алгоритм обучения с учителем, который легко понимать. Он состоит из корневого узла (где происходит первое разделение), внутренних узлов (где принимаются решения) и конечных узлов (где сохраняются результаты). Ветви между узлами представлены стрелками, и алгоритм работает путем прохождения данных через дерево, пока не будет достигнут конечный узел.

  • 01:40:00 Алгоритм "ID3" - это алгоритм, используемый для создания дерева решений. Шаги, необходимые для использования этого алгоритма, следующие: (1) выбор лучшего атрибута, (2) назначение этого атрибута в качестве решающей переменной для корневого узла, (3) для каждого значения решающей переменной создается потомок, и (4) листовым узлам присваиваются метки классификации. Если данные правильно классифицированы, то алгоритм останавливается; если нет, то алгоритм продолжает итерирование по дереву, изменяя положение предикторных переменных или корневого узла. Лучший атрибут - это тот, который наиболее эффективно разделяет данные на различные классы. Энтропия и мера прироста информации используются для определения того, какая переменная лучше всего разделяет данные. Высшая мера прироста информации будет использоваться для разделения данных в корневом узле.

  • 01:45:00 В этом видео уроке по искусственному интеллекту для начинающих мы учимся рассчитывать выигрыш информации для родительского узла, дочернего узла и дороги разного типа. Вычисляется энтропия для правой части и оказывается равной нулю, что указывает на отсутствие неопределенности. Когда дорога прямая, скорость автомобиля высокая, что указывает на отсутствие неопределенности в этой информации. Когда дорога крутая, скорость автомобиля может быть медленной или быстрой, что указывает на то, что информация не является конкретной для какого-либо определенного типа дороги.

  • 01:50:00 Обсуждается, как используется энтропия для вычисления прироста информации в дереве принятия решений. Вычисляется энтропия для родительского узла, взвешенное среднее вычисляется для дочерних узлов, а прирост информации вычисляется для каждой переменной-предиктора. Энтропия для переменной типа дороги равна нулю, что означает отсутствие неопределенности в наборе данных. Прирост информации для переменной типа дороги составляет 0,325, что означает, что набор данных содержит мало информации о переменной типа дороги. Прирост информации для переменной препятствий равен нулю, что означает, что переменная препятствий не влияет на дерево принятия решений. Прирост информации для переменной ограничения скорости равен единице, что означает, что переменная ограничения скорости оказывает наибольшее влияние на дерево принятия решений.

  • 01:55:00 В случайном лесе (random forest) строятся несколько деревьев решений, которые затем объединяются, чтобы создать более точный и стабильный прогноз. Bootstrapping используется для создания небольшого набора данных, который затем используется для обучения деревьев решений. Случайный лес более точен, чем деревья решений при прогнозировании новых данных, потому что снижается переобучение (запоминание обучающих данных).


Часть 3

  • 02:00:00 В этом видео объясняетcя как создать дерево решений, используя случайный лес. Сначала выбираются две или три переменные случайным образом для использования в каждом узле дерева решений, а затем вычисляется информационный выигрыш и энтропия для каждой из них. Затем этот процесс повторяется для каждого следующего узла ветвления, создавая дерево решений, которое предсказывает выходной класс на основе выбранных предикторных переменных. Наконец, возвращаемся к первому шагу и создаем новое дерево решений на основе подмножества исходных переменных. Этот процесс повторяется до тех пор, пока не будет создано несколько деревьев решений, каждое из которых предсказывает выходной класс на основе разных предикторных переменных. Наконец, оценивается точность модели, используя набор данных out-of-bag.

  • 02:05:00 В этом видео преподаватель Edureka Майкл Кеннеди объясняет, как работает случайный лес (Random Forest). Сначала создается выборка с повторением (bootstrap data set), чтобы обеспечить точные прогнозы. Затем создается решающее дерево, используя случайный набор предикторов. Этот процесс повторяется сотни раз, пока не будет создана модель. Точность модели можно вычислить с помощью выборки out-of-bag.

  • 02:10:00 Алгоритм K ближайших соседей (K nearest neighbor algorithm) - это алгоритм обучения с учителем, который классифицирует новую точку данных в целевой класс или выходной класс в зависимости от особенностей ее соседних точек данных.

  • 02:15:00 Алгоритм KNN - это алгоритм обучения с учителем, который использует данные для прогнозирования выходных данных новых точек входных данных. Он основан на сходстве функций с соседними точками данных и не является параметрическим. Алгоритм KNN является ленивым и может запоминать тренировочный набор вместо того, чтобы изучать дискриминационную функцию.

  • 02:20:00 Преподаватель Edureka Алан Си объясняет основы алгоритмов классификации KNN и SVM. Каждый алгоритм имеет свои сильные стороны, а SVM является популярным выбором для классификации благодаря своей способности обрабатывать нелинейные данные.
  • 02:25:00 Рассматривается использование различных алгоритмов классификации с помощью Python. Сначала данные считываются и группируются по типам фруктов в соответствии с их метками. Затем реализуются и тестируются различные алгоритмы на данных. Наконец, результаты показываются и обсуждаются.

  • 02:30:00 Обсуждается важность визуализации в машинном обучении и объясняет использование box plots, гистограмм и шкалировщиков. Также обсуждается важность разделения данных на тренировочный и тестовый наборы.

  • 02:35:00 В этом видео рассматривается использование логистической регрессии, деревьев решений и метода опорных векторов в задаче классификации. Классификатор логистической регрессии дал хороший результат на обучающем наборе данных, но был менее точным на тестовом наборе данных. Классификатор деревьев решений был более точным на обучающем наборе данных, но показал худший результат на тестовом наборе данных. Метод опорных векторов дал хорошие результаты как на обучающем, так и на тестовом наборах данных.

  • 02:40:00 Алгоритм кластеризации K-means является алгоритмом машинного обучения без учителя, используемым для группировки похожих элементов или точек данных в кластеры. Он используется для целевого маркетинга, например, для продвижения определенного продукта в определенной аудитории.

  • 02:45:00Метод локтя (elbow method) - это простой метод, используемый для нахождения оптимального значения k для конкретной задачи. Метод локтя начинается с вычисления суммы квадратов ошибок для разных значений k и их последующей визуализации. По мере увеличения k ошибка уменьшается, что указывает на то, что большее количество кластеров приводит к меньшему искажению. Оптимальное значение k находится на точке на графике, где уменьшение ошибки замедляется, образуя форму "локтя".

  • 02:50:00 Метод локтя является простым способом выбора оптимального значения K для алгоритма K-means. Этот метод начинается с вычисления суммы квадратов ошибок для разных значений K, и их построения на графике. При увеличении K ошибка уменьшается, что указывает на то, что больше кластеров приводят к меньшему искажению. Оптимальное значение K для K-means находится в точке, где искажение резко уменьшается. Этот метод можно легко реализовать с помощью стандартных библиотечных функций. В этом видео мы используем образец изображения из набора данных scikit-learn, чтобы продемонстрировать метод локтя.

  • 02:55:00 В этом видео объясняется, как работает алгоритм кластеризации K-means и как его можно использовать для сжатия больших наборов данных до малого числа значимых значений. Также рассматривается, что обучение с подкреплением - это другой вид машинного обучения, который помогает агентам научиться достигать своих целей в неизвестной среде.


Часть 4

  • 03:00:00 Агент обучения с подкреплением (reinforcement learning) в видеоигре, например, в Counter Strike, пытается максимизировать свою награду, принимая наилучшее действие в соответствии с его текущим состоянием и окружением. Например, если агент приближается к тигру, он может снизить свою ожидаемую награду, чтобы учесть возможность быть убитым. Эти концепции, такие как действие, состояние, награда и gamma, будут подробнее рассмотрены в следующих слайдах.

  • 03:05:00 В этом видео преподаватель Edureka Адриано Феррейра обсуждает концепции исследования и эксплуатации, математический подход к решению процесса принятия решений Маркова и проблемы кратчайшего пути. Затем он демонстрирует пример того, как выбрать стратегию для решения проблемы, используя жадную стратегию, и пример того, как выбрать стратегию, используя стратегию exploration.

  • 03:10:00 Инструктор Edureka объясняет основы обучения с подкреплением, включая три основных метода: основанные на политиках (policy-based), основанные на значениях (value-based) и основанные на действиях(action-based.). Затем он демонстрирует алгоритм Q-обучения, который является важным алгоритмом обучения с подкреплением. Цель Q-обучения - найти состояние с наибольшей наградой, а терминология, используемая в Q-обучении, включает состояние и действие.

  • 03:15:00 Объясняются основы искусственного интеллекта, включая то, как он работает, и как создать агента, который может учиться на опыте. В видео объясняется, как используются матрица вознаграждений и равномерная матрица Q для определения текущего состояния агента и будущих вознаграждений. Гамма используется для управления исследованием и использованием агентом.

  • 03:20:00 Рассказывается о базовых концепциях искусственного интеллекта, включая то, как матрица Q агента хранит его память и как ее обновлять. Затем оно переходит к тому, как делать то же самое в Python, используя библиотеки NumPy и R.

  • 03:25:00 Демонстрируется, как создать систему искусственного интеллекта (ИИ), обучив новичков использовать код для создания матрицы вознаграждения и матрицы Q, а также установки параметра gamma. Затем в видео показывается, как обучить систему ИИ, запустив ее на 10 000 итераций, и как протестировать систему, выбрав случайное состояние и попытаться достичь целевого состояния, которое является комнатой номер пять.

  • 03:30:00 Машинное обучение - это область исследования, которая помогает компьютерам учиться на основе данных. Однако оно неспособно обрабатывать данные с высокой размерностью. Еще одним ограничением машинного обучения является его растущее требования к вычислительной мощности при увеличении количества измерений.

  • 03:35:00 Искусственный интеллект ограничен в возможности использоваться для распознавания изображений, потому что изображения содержат много пикселей и имеют много высокомерных данных. Извлечение признаков является важной частью рабочего процесса машинного обучения, поскольку эффективность алгоритма зависит от того, насколько глубоко программист проанализировал данные. Глубокое обучение имитирует работу нашего мозга и может самоучиться фокусироваться на правильных признаках, что требует очень мало руководства со стороны программиста.

  • 03:40:00 Глубокое обучение - это набор техник машинного обучения, которые позволяют эффективно изучать иерархии признаков в данных. Глубокое обучение состоит из нейронной сети искусственных нейронов, которые работают так же, как и наш мозг. Количество слоев и количество перцептронов в каждом слое полностью зависят от задачи или приложения.

  • 03:45:00 Объясняется, как используется вес в вычислении функции активации. Эта функция активации затем определяет, сколько конкретного входа (X one) используется для создания выхода (one).

  • 03:50:00 Многослойный перцептрон имеет такую же структуру, как и однослойный перцептрон, но с одним или несколькими скрытыми слоями. Веса в начале назначаются случайным образом, и необходимо, чтобы веса были правильными, чтобы минимизировать ошибку. Обратное распространение (Back propagation) является способом обновления весов, чтобы уменьшить ошибку.

  • 03:55:00 Инструктор Edureka Эммануэль рассказывает зрителям, как вычислить выход модели с помощью обратного распространения ошибки. Сначала они вычисляют ошибку, которая показывает, где модель неточна. Затем они используют обратное распространение ошибки для обновления значений весов таким образом, чтобы минимизировать ошибку. Если ошибка остается высокой, они перестают обновлять веса и находят глобальный минимум потерь, после чего останавливаются.


Часть 5

  • 04:00:00 Back propagation - это математический метод, который используется для корректировки весов сети для уменьшения ошибки на выходном слое. Градиентный спуск используется для оптимизации работы прямого распространения сети. Рекуррентные нейронные сети являются типом искусственных нейронных сетей, которые могут использоваться для распознавания шаблонов в последовательности данных.

  • 04:05:00 Объясняется, как работают глубокие нейронные сети и как их можно использовать для прогнозирования цен на акции. В нем рассматриваются основы прямых нейронных сетей, многослойных перцептронов и рекуррентных нейронных сетей.

  • 04:10:00 Описываются шаги, необходимые для тренировки нейронной сети, включая подготовку данных, их разделение и масштабирование. Также обсуждается использование заполнителей (placeholders) и инициализаторов (initializers).

  • 04:15:00 Обсуждаются параметры архитектуры модели для системы искусственного интеллекта, включая количество нейронов в каждом скрытом слое, размерность смещения и функцию затрат. Затем объясняется, как функция активации преобразует скрытые слои и как вывод транспонируется и оценивается по затратам.

  • 04:20:00 Преподаватель Edureka Кирилл Еременко объясняет основы глубокого обучения, включая роль нейронных сетей, оптимизаторов и инициализаторов. Он также объясняет, как работает обучение с мини-пакетами и как используются эпохи для обучения нейронной сети.

  • 04:25:00 Продемонстрировано deep learning путём сравнения предсказанных значений модели с фактическими наблюдаемыми целями, которые хранятся в y. ЗатемTensorFlow используется для обновления коэффициентов веса и смещения. Модель затем обучается на тестовых данных, и её прогноз сравнивается с фактическими значениями. После 10 эпох точность модели показывается очень близкой к фактическому значению.

  • 04:30:00 Text mining или анализ текста - это процесс извлечения значимой информации из текста на естественном языке. Text mining - это обширное поле, которое использует NLP для выполнения анализа текста и анализа текстовых данных. NLP - это часть text mining, которая помогает машинам понимать данные в виде нулей и единиц. Обработка естественного языка - это то, что компьютеры и смартфоны используют для понимания нашего языка, как устного, так и письменного. Примеры применения text mining и обработки естественного языка включают обнаружение спама, предиктивный набор текста и анализ настроений.

  • 04:35:00 Здесь обсуждается важность токенизации, стемминга и лемматизации в обработке естественного языка. Объясняется, что токенизация разбивает предложение на слова, стемминг сокращает слова до их базовой формы, а лемматизация связывает слова обратно с их леммой. Стоп-слова - это общие слова, которые удаляются, чтобы сосредоточиться на важных словах.

  • 04:40:00 В этом уроке Edureka объясняется, как выполнить обработку естественного языка, используя классификатор NaiveBayesClassifier, который является библиотекой, содержащей все необходимые функции для выполнения этой задачи. Затем они демонстрируют процесс, выполнив анализ настроений набора данных обзоров фильмов. Классификатор смог точно определить, какие обзоры были положительными, а какие отрицательными.

  • 04:45:00 Программа для инженеров машинного обучения Edureka включает в себя девять модулей с более чем 200 часами интерактивного обучения, охватывающих программирование на Python, машинное обучение, обработку естественного языка (NLP), графическое моделирование, глубокое обучение и Spark. Учебный план включает в себя алгоритмы с учителем и без учителя, статистику и временные ряды, глубокое обучение и Spark. Среднегодовой заработок инженера машинного обучения составляет более $134,000.

  • 04:50:00 Представлено всестороннее введение в искусственный интеллект, включающее основы программирования, обработки данных и машинного обучения. После завершения этого вводного модуля студент сможет приступить к дополнительным курсам, направленным на углубление понимания этих тем.
Artificial Intelligence Full Course | Artificial Intelligence Tutorial for Beginners | Edureka
Artificial Intelligence Full Course | Artificial Intelligence Tutorial for Beginners | Edureka
  • 2019.06.02
  • www.youtube.com
🔥 Machine Learning Engineer Masters Program (Use Code "𝐘𝐎𝐔𝐓𝐔𝐁𝐄𝟐𝟎"): https://www.edureka.co/masters-program/machine-learning-engineer-training This ...
 
Круто
 

Курс MIT Introduction to Deep Learning разработан с целью быстрого и интенсивного обучения фундаментальным принципам глубокого обучения

Введение в методы глубокого обучения от Массачусетского технологического института с применением в компьютерном зрении, обработке естественного языка, биологии и других областях. В рамках курса студенты получат базовые знания по алгоритмам глубокого обучения и практический опыт в создании нейронных сетей в TensorFlow. Программа завершается конкурсом проектных предложений, который оценивается персоналом и спонсорами индустрии. Предполагается, что студенты знакомы с математическим анализом (то есть умеют брать производные) и линейной алгеброй (то есть умеют умножать матрицы), но все остальное постараются объяснить по ходу курса. Опыт работы с Python будет полезен, но не обязателен.


В этой лекции Александр Амини вводит основы глубокого обучения с обсуждением персептрона. Он показывает, как создать нейронную сеть с нуля, упрощая процесс с помощью библиотеки TensorFlow. В конце видео он рассказывает о том, как создать однослойную и двухслойную нейронную сеть с выходным слоем.

  • 00:00:00 В этом недельном курсе введения в глубокое обучение студенты изучают основы этой области и получают практический опыт, используя лаборатории глубокого обучения. Демонстрируемое видео с бывшим президентом является фиктивным, но видео и звук фактически созданы с помощью методов глубокого обучения. Это позволяет преподавателю показывать высококачественные реалистичные примеры глубокого обучения в действии.

  • 00:05:00 В этом видео вводятся основы глубокого обучения, включая терминологию и концепции, используемые в этой области. Курс разделен на технические лекции и лабораторные занятия с использованием программного обеспечения глубокого обучения, а финальный проект фокусируется на творческой, инновационной идее. Видео заканчивается кратким обзором преподавателей курса и того, как с ними связаться, если у вас возникнут вопросы.

  • 00:10:00 Основная цель глубокого обучения заключается в том, чтобы изучать характеристики данных, что достигается путем обучения глубоких нейронных сетей с иерархическими слоями нейронов. Это позволяет массовой параллелизации, а также возможность обнаружения иерархических признаков.

  • 00:15:00 Вы узнаете о технических концепциях глубокого обучения, включая функцию активации сигмоида и функцию ReLU. Вы также увидите, как функции активации используются в современных нейронных сетях, чтобы вводить нелинейность. Наконец, вам будет показано, как использовать уравнение персептрона для вычисления взвешенной комбинации входных данных.

  • 00:20:00 Александр Амини вводит основы глубокого обучения, обсуждая перцептрон. Затем он демонстрирует, как создать нейронную сеть с нуля, упрощая процесс с помощью библиотеки TensorFlow. Обсуждается, как создать однослойную и двухслойную нейронную сеть с выходным слоем.

  • 00:25:00 В этом видео описывается, как работает глубокое обучение и как создать нейронную сеть для прогнозирования, сдачи экзамена студентом. Сеть не обучена правильно, и в результате прогнозируемая вероятность сдачи неверна.

  • 00:30:00 Александр Амини обсуждает основы глубокого обучения и оптимизацию нейронной сети с помощью градиентного спуска. Он объясняет, что глубокое обучение заключается в тренировке сети для улучшения ее прогнозов на основе данных. Цель заключается в поиске весов (w), которые минимизируют ошибку сети в среднем на всех наборах данных.

  • 00:35:00 В глубоком обучении обратное распространение ошибки (backpropagation) является процессом распространения градиентов до входа нейронной сети, чтобы определить, как каждый вес должен измениться, чтобы уменьшить потери. На практике использование скорости обучения, которая не слишком мала и не слишком велика, избегает локальных минимумов и все еще сходится к глобальному оптимуму.

  • 00:40:00 Александр Амини обсуждает, как обучать глубокие нейронные сети с помощью градиентного спуска, адаптивных скоростей обучения и пакетной обработки данных. Он также обсуждает опасности переобучения и способы его уменьшения.

  • 00:45:00 В этой лекции были рассмотрены основные строительные блоки нейронных сетей, способы их обучения и использование функции потерь. В следующей лекции будет говорится о глубоком моделировании последовательностей с помощью RNN (Recurrent Neural Network) и новом захватывающем типе моделей, называемых "трансформер".
MIT Introduction to Deep Learning (2022) | 6.S191
MIT Introduction to Deep Learning (2022) | 6.S191
  • 2022.03.11
  • www.youtube.com
MIT Introduction to Deep Learning 6.S191: Lecture 1Foundations of Deep LearningLecturer: Alexander AminiFor all lectures, slides, and lab materials: http://i...
 

MIT 6.S191 (2022): Recurrent Neural Networks and Transformers




Лекция 2. MIT 6.S191 (2022): Recurrent Neural Networks and Transformers

Эта лекция представляет собой введение в моделирование последовательностей и подчеркивает важность обработки последовательных данных на примерах, таких как предсказание траектории мяча. Вводятся рекуррентные нейронные сети (RNN), как средство для обработки моделирования последовательностей, и объясняется, каким образом RNN (Recurrent Neural Network) использует внутреннюю память (или состояние) для учета предыдущей истории, которая информирует о текущих и будущих предсказаниях.

Также обсуждается, как RNN могут быть развернуты во времени для явного определения матриц весов и рассматривается проблема проектирования и критерии для моделирования последовательностей. Рассматриваются распространенные проблемы с RNN, такие как проблема исчезающего градиента и вводится концепция внимания (attention) как потенциального решения, которое позволяет модели обращаться к наиболее важным частям ввода без повторения. Лекция завершается обсуждением того, как механизмы само-внимания (self-attention) могут быть применены к областям за пределами обработки языка, таким как в биологии и компьютерном зрении.

  • 00:00:00 Лекция вводит концепцию моделирования последовательностей и ее важности в обработке задач, которые включают последовательные данные. Лектор начинает с простого примера предсказания траектории мяча, где добавление предыдущих данных о положении мяча сильно улучшает предсказание. Последовательные данные окружают нас в различных формах, таких как аудио, текст, ЭКГ-сигналы и цены на акции. Лектор затем объясняет разницу между моделями прямого распространения и последовательными моделями и предоставляет примеры реальных приложений, где требуется моделирование последовательностей. Чтобы построить фундаментальное понимание моделирования последовательностей, лектор возвращает к концепции персептрона и демонстрирует пошагово, как его изменить для обработки последовательных данных.

  • 00:05:00 Видео рассказывает о концепции рекуррентных нейронных сетей (RNN) и о том, как они обрабатывают последовательные данные. Выход RNN на конкретном временном шаге зависит не только от входа на этом временном шаге, но и от памяти с предыдущего временного шага. Эта память запоминает предыдущую историю того, что произошло ранее в последовательности, и передается далее с каждого предыдущего временного шага. Видео объясняет, как RNN используют внутреннюю память (или состояние), чтобы захватить эту идею памяти, и как выход на конкретном временном шаге является функцией как текущего ввода, так и прошлой памяти. Также описывается, как такие типы нейронов могут быть определены и изображены как рекуррентное соотношение.

  • 00:10:00 Ава Солеймани рассказывается о концепции рекуррентного соотношения в нейронных сетях и как она является ключевой идеей, которая стоит за рекуррентными нейронными сетями (RNN). RNN поддерживает внутреннее состояние, h от t, которое обновляется на каждом временном шаге путем применения рекуррентного соотношения, которое функционирует как комбинация как текущего ввода, так и предыдущего состояния. Параметры этой функции представлены набором весов, которые изучаются в процессе обучения. RNN предсказывает выход после того, как обработаны все слова и временные точки в последовательности. Выходной вектор, y of t, генерируется путем прохождения внутреннего состояния через матрицу весов и применения нелинейности. Лекция дает визуальное представление того, как цикл RNN обратно питается сам на себя и может быть развернут во времени.

  • 00:15:00 Объясняется, как RNN может быть развернута во времени, чтобы сделать матрицы весов, применяемые к входу, более явными. Матрицы весов повторно используются на всех временных шагах. Докладчик также приводит пример того, как реализовать RNN с нуля и определяет функцию вызова, которая определяет прямой проход через модель RNN. Докладчик подчеркивает полезность RNN в различных приложениях и мотивирует набор конкретных критериев проектирования, которые следует иметь в виду.

  • 00:20:00 Обсуждаются проблемы проектирования и критерии для моделирования последовательностей, которые включают обработку последовательностей переменной длины, отслеживание долгосрочных зависимостей, сохранение и рассуждение об упорядоченности и использование общих параметров между последовательностями. Объясняется важность вложений для представления языка в виде числовых векторов, которые могут быть поданы на вход нейронной сети, одним из примеров является one-hot вложение, где бинарные векторы указывают идентификатор слова. Для обучения вложений предлагается использовать модели машинного обучения, такие как нейронные сети. В целом, эти концепции служат основой для рекуррентных нейронных сетей и новой архитектуры трансформер, которая будет обсуждаться позже в лекции.

  • 00:25:00 Вводится концепция изучения вложений (learned embeddings), что является отображением значения слов на более информативное кодирование, которое позволяет похожим словам с похожими значениями иметь похожие вложения. Рекуррентные нейронные сети (RNN) способны обрабатывать переменную длину последовательности, захватывать и моделировать долгосрочные зависимости и сохранять порядок, что делает их полезными для задач моделирования последовательностей, таких как предсказание следующего слова в предложении. Вводится алгоритм обратного распространения ошибки во времени как средство для обучения RNN, который включает в себя обратное распространение ошибок на каждом временном шаге и выполнение матричных умножений, что может приводить к проблемам вычислительной сложности.

  • 00:30:00 В видео рассматривается проблема взрывающихся и затухающих градиентов в рекуррентных нейронных моделях, и представлены три решения для смягчения проблемы затухания градиентов. Проблема затухающего градиента может заставить нейронную модель отдавать приоритет короткосрочным зависимостям перед долгосрочными, что приводит к неточным прогнозам. Рассматриваются три решения: выбрать подходящую функцию активации, интеллектуально инициализировать веса и использовать более сложную рекуррентную единицу, такую ​​как сеть долгой краткосрочной памяти (LSTM), которая может выборочно контролировать поток информации через свои различные гейты. LSTM использует несколько гейтов, которые взаимодействуют, чтобы сохранять соответствующую информацию и удалять несущественную информацию.

  • 00:35:00 Обсуждаются основы рекуррентных нейронных сетей (RNN) и их архитектура, включая важность структур с воротами (gate) и противодействие проблеме затухающих градиентов. Затем приводятся конкретные примеры использования RNN, включая предсказание следующей музыкальной ноты в последовательности для создания новой музыки и классификацию тональности твитов. Лектор также подчеркивает ограничения RNN, такие как узкое место кодирования, неэффективность и потенциальную потерю информации при кодировании.

  • 00:40:00 Обсуждаются ограничения рекуррентных нейронных сетей (RNN) в обработке длинных последовательностей, особенно узкое место, вызванное рекуррентной связью. Вводится концепция внимания как потенциального решения этой проблемы, позволяющего модели идентифицировать и обращаться к наиболее важным частям ввода. Внимание объясняется как возникающий и мощный механизм для современных нейронных сетей, особенно в контексте архитектуры трансформера. Интуиция само-внимания развивается, рассматривая возможность людей выделить важные части изображения и извлечь из них функции с высоким уровнем внимания.

  • 00:45:00 Объясняется концепция поиска и то, как она связана с само-вниманием в нейронных сетях, таких как трансформеры. Идея состоит в том, чтобы обратить внимание на самые важные особенности в последовательности ввода без рекуррентности, используя вложения, которые имеют определенное представление о позиции. Процесс включает в себя извлечение функций запроса, ключа и значения, которые являются тремя отдельными преобразованиями одного и того же позиционного вложения. Механизм внимания вычисляет перекрытия между запросом и ключом, и извлеченное значение основано на этом вычислении, что позволяет сети идентифицировать и обращаться к наиболее значимым частям ввода.

  • 00:50:00 Объясняется, как работает механизм внимания в нейронных сетях. Механизм внимания вычисляет весовые коэффициенты, чтобы уделить внимание различным областям входных данных. Это можно достичь, вычислив сходство между векторами запроса и ключа с помощью скалярного произведения и масштабирования его. Затем используется функция softmax для сжатия каждого значения, чтобы оно находилось в диапазоне от 0 до 1. Результирующая матрица является весовой матрицей внимания, которая отражает отношения между компонентами входных данных. Эта весовая матрица используется для извлечения функций с высоким вниманием, и можно использовать несколько отдельных механизмов внимания, чтобы обращаться к разным аспектам входных данных. Этот механизм внимания является мощным инструментом, как это проиллюстрировано его использованием в архитектурах трансформеров, которые имеют множество применений, особенно в обработке языка.

  • 00:55:00 Обсуждается, как механизмы само-внимания могут быть применены в областях, выходящих за пределы обработки языка, таких как в биологии с нейронной архитектурой Alpha Fold 2 для прогнозирования структуры белков и в компьютерном зрении с Vision Transformers. Также подводится итог предыдущему обсуждению задач моделирования последовательностей и тому, как RNN могут эффективно обрабатывать последовательные данные, а механизмы само-внимания могут эффективно моделировать последовательности без необходимости в рекуррентных связях. Оставшееся время лекции посвящено лабораторным сессиям по программному обеспечению, где студенты могут скачать лабораторные работы с веб-сайта курса и выполнить блоки кода, чтобы завершить лабораторные работы, с доступными виртуальными и очными часами консультаций.
MIT 6.S191 (2022): Recurrent Neural Networks and Transformers
MIT 6.S191 (2022): Recurrent Neural Networks and Transformers
  • 2022.03.18
  • www.youtube.com
MIT Introduction to Deep Learning 6.S191: Lecture 2Recurrent Neural NetworksLecturer: Ava SoleimanyJanuary 2022For all lectures, slides, and lab materials: h...
Причина обращения: