Машинное обучение и нейронные сети - страница 9

 

Лекция 5 - ИИ + Здравоохранение




Stanford CS230: глубокое обучение | Осень 2018 | Лекция 5 - ИИ + Здравоохранение

В лекции представлен обзор приложений ИИ в здравоохранении. Он разбивает типы вопросов, на которые может ответить ИИ, такие как описательные, диагностические, предсказательные и предписывающие. Затем автор представляет три тематических исследования из своей лаборатории, которые демонстрируют применение ИИ к различным проблемам здравоохранения. Одним из примеров является обнаружение серьезных сердечных аритмий, которые эксперты могли неправильно диагностировать, но которые могли быть обнаружены машиной. Другим примером является использование сверточных нейронных сетей для выявления отклонений от МР-исследований коленного сустава, в частности для определения вероятности разрыва передней крестообразной связки и разрыва мениска. Наконец, спикер обсуждает вопросы, связанные с распространением и дополнением данных в ИИ в здравоохранении.

Вторая часть охватывает различные темы, связанные с реализацией глубокого обучения в приложениях для здравоохранения. Обсуждается важность расширения данных, о чем свидетельствует решение компании проблем распознавания речи в беспилотных автомобилях, вызванных тем, что люди разговаривают с виртуальным помощником, оглядываясь назад. Также обсуждаются гиперпараметры, участвующие в переносе обучения для приложений здравоохранения, например, решение о том, сколько слоев добавить, а какие заморозить. Затем лекция переходит к анализу изображений, где подчеркивается важность добавления границ к размеченным наборам данных. Обсуждаются преимущества и различия между обнаружением объектов и сегментацией в анализе медицинских изображений, а также вводится тема бинарной классификации медицинских изображений, помеченных либо нулем, либо единицей. Лекция завершается обсуждением важности данных в глубоком обучении и предстоящих оценок курса.

  • 00:00:00 В этом разделе видео лекции представлен обзор применения ИИ в здравоохранении. Он разбивает типы вопросов, на которые может ответить ИИ, такие как описательные, диагностические, предсказательные и предписывающие. Он также обсуждает смену парадигмы глубокого обучения и потенциал ИИ для автоматизации работы инженера по машинному обучению. Затем Раджпуркар представляет три тематических исследования из своей лаборатории, которые демонстрируют применение ИИ к различным проблемам здравоохранения.

  • 00:05:00 В этом разделе спикер обсуждает проблему выявления аритмий с помощью медицинской визуализации. Аритмии представляют собой серьезную проблему, от которой страдают миллионы людей, и их обнаружение с помощью тестов ЭКГ может быть сложной задачей из-за тонких различий между сердечными ритмами. Докладчик подчеркивает объем данных, полученных за две недели в результате наблюдения за пациентами с использованием новейших устройств, таких как Zio Patch, которые могут потребовать автоматической интерпретации. Однако обнаружение аритмий с помощью автоматизированных методов связано с такими проблемами, как ограниченная доступность нескольких электродов и тонкие различия между сердечными ритмами. Чтобы преодолеть эти проблемы, спикер предлагает использовать глубокое обучение, которое может изменить традиционные подходы к разработке признаков и классификации.

  • 00:10:00 В этом разделе спикер обсуждает использование глубокой нейронной сети с архитектурой одномерной сверточной нейронной сети, состоящей из 34 слоев, для сопоставления сердечных ритмов (обозначенных A, B и C) от входа до выхода. Используемая сеть была остаточной сетью с ярлыками, которые помогают минимизировать расстояние от сигнала ошибки до каждого из слоев, и она была объединена с большей базой данных, которая была в 600 раз больше, чем предыдущий самый большой набор данных. Эта новая база данных позволяет алгоритму превзойти кардиологов по точности и полноте показателей F1, при этом самой большой ошибкой является различение двух ритмов, которые выглядят очень похожими, но не имеют различий в лечении, и даже обнаружение ошибки в расчете стоимости, которую не заметили эксперты.

  • 00:15:00 В этом разделе лектор обсуждает использование автоматизации в здравоохранении и то, как глубокое обучение и машинное обучение позволяют осуществлять непрерывный мониторинг пациентов, углублять научное понимание факторов риска и потенциальные медицинские прорывы. Одним из примеров является обнаружение серьезных сердечных аритмий, которые эксперты могли неправильно диагностировать, но которые могли быть обнаружены машиной. Лектор также обсуждает обнаружение пневмонии с помощью рентгенографии грудной клетки, подчеркивая полезность автоматического обнаружения, особенно у детей, где пневмония имеет большое глобальное бремя.

  • 00:20:00 В этом разделе спикер обсуждает использование 2D сверточной нейронной сети, которая была предварительно обучена на ImageNet для получения входного изображения рентгенограммы грудной клетки пациента и вывода бинарной метки, указывающей на наличие или отсутствие пневмонии. Используемый набор данных представлял собой большой набор данных из 100 000 рентгенограмм грудной клетки, выпущенных Национальным институтом здоровья, причем на каждом рентгенограмме было аннотировано до 14 различных патологий. Была проведена оценка, чтобы определить, была ли модель лучше, чем у радиологов, или наравне с ними, путем оценки того, согласны ли они с другими экспертами аналогичным образом. Оценка F1 вычислялась один раз для каждого эксперта и модели, и было показано, что модель справилась с этой задачей лучше, чем средний рентгенолог. Результаты также были лучше, чем предыдущий уровень техники по всем 14 патологиям.

  • 00:25:00 В этом разделе спикер обсуждает проблемы диагностики пациентов без доступа к их историям болезни и то, как можно обучать алгоритмы глубокого обучения на рентгенологических отчетах, которые имеют доступ к дополнительной информации. Цель состоит в том, чтобы определить потенциальные патологии по набору симптомов, наблюдаемых на рентгенограмме грудной клетки нового пациента. Интерпретация модели важна для информирования клиницистов о процессе принятия решений алгоритмом, и они используют карты активации классов для создания тепловых карт, которые выделяют области изображения с патологиями. Этот подход может улучшить оказание медицинской помощи за счет приоритизации рабочего процесса, особенно в развитых странах, и повысить уровень знаний в области медицинской визуализации во всем мире, где две трети населения не имеют доступа к диагностике.

  • 00:30:00 В этом разделе лектор демонстрирует прототип приложения, которое позволяет пользователям загружать рентгеновские снимки, которые затем диагностирует модель. Модель обучена на 14 патологиях и способна выявлять кардиомегалию, увеличение сердца. Лектор в восторге от способности алгоритма обобщать популяции за пределами тех, на которых он обучался, о чем свидетельствует успешная диагностика изображения, загруженного из Интернета. Кроме того, лектор обсуждает тематическое исследование МРТ коленного сустава, целью которого было выявление аномалий коленного сустава. Трехмерная задача позволяет рассмотреть колено под разными углами, что очень важно для рентгенологов при постановке диагноза.

  • 00:35:00 В этом разделе докладчик обсуждает использование сверточных нейронных сетей для выявления отклонений от МР-исследований коленного сустава, в частности для определения вероятности разрыва передней крестообразной связки и разрыва мениска. Спикер обучил девять сверточных сетей для каждой пары представление-патология, а затем объединил их с помощью логистической регрессии. Они протестировали модель на 120 экзаменах и обнаружили, что она хорошо справляется с выявлением аномалий. Спикер также обсуждает важность возможности обобщать модели для работы с наборами данных из разных учреждений и стран. Также упоминается проблема совместной работы моделей с экспертами в различных областях, такими как радиологи, для повышения производительности.

  • 00:40:00 В этом разделе лекции спикер обсуждает исследование эффективности рентгенологов, использующих модель ИИ для обнаружения разрывов передней крестообразной связки. Исследование показало, что использование модели вместе с радиологами повысило эффективность и специфичность обнаружения разрывов передней крестообразной связки. Тем не менее, возникает проблема предвзятости автоматизации, и докладчик обращается к потенциальным решениям, таким как сдача экзаменов с перевернутыми ответами, чтобы предупредить рентгенологов, если они слишком полагаются на модель. Спикер также рассказывает о двух возможностях для студентов поучаствовать в ИИ и здравоохранении, в том числе о работе с набором данных MURA и участии в учебном лагере ИИ для здравоохранения.

  • 00:45:00 В этом разделе спикер обсуждает приложения и потенциальную компенсацию для медицинских экспертов при разработке и внедрении моделей ИИ в здравоохранении. Несмотря на то, что по этой теме проделана большая работа, нет прямого решения этических проблем, связанных с потенциальным воздействием на средства к существованию медицинских работников. Спикер также затронул вопрос об ограничениях моделей ИИ в обнаружении определенных патологий и важности донесения этих ограничений до пользователей. Раздел завершается конкретным примером использования глубокого обучения для сегментации микроскопических изображений клеток кожи для выявления заболеваний.

  • 00:50:00 В этом разделе спикер обсуждает сегментацию медицинских изображений и разделение набора данных на наборы для обучения, разработки и тестирования. Изображения бинарно сегментированы на пиксели, которые соответствуют ячейке или не соответствуют ячейке. Аудитории предлагается обсудить и предложить стратегии разделения данных с трех разных микроскопов — A, B и C, с разделением данных на 50 % для A, 25 % для B и 25 % для C. Консенсус таков: разделите данные на 95-5 для обучения и тестирования разработки, с изображениями C в наборах для разработки и тестирования, а изображения C также включены в 90% обучающих данных.

  • 00:55:00 В этой секции спикер обсуждает вопросы, связанные с распределением данных и аугментацией данных в ИИ в здравоохранении. Он подчеркивает важность обеспечения того, чтобы распределение обучающих данных соответствовало реальному приложению, и предлагает дополнительные методы, такие как вращение, масштабирование, размытие и симметрия. Докладчик также предупреждает о случаях, когда увеличение данных может скорее навредить, чем помочь модели, например, при распознавании символов, где изменение симметрии может привести к неправильной маркировке.
  • 01:00:00 В этом разделе обсуждается важность увеличения данных на примере компании, работающей над беспилотными автомобилями и виртуальными помощниками в автомобилях. Они заметили, что система распознавания речи плохо работала, когда машина ехала назад, и обнаружили, что люди разговаривают с виртуальным помощником, положив руку на пассажирское сиденье, оглядываясь назад. Используя интеллектуальную аугментацию данных, они смогли изменить голоса данных, чтобы они выглядели так, как будто их использовал кто-то, кто разговаривал с задней частью автомобиля, что решило проблему. Кроме того, обсуждаются такие темы, как гиперпараметры, связанные с трансферным обучением.

  • 01:05:00 В этом разделе спикер обсуждает гиперпараметры, связанные с переносом обучения для приложений здравоохранения, использующих глубокое обучение. Они сосредоточены на гиперпараметрах, таких как количество слоев, размер добавленных слоев и решение о том, какие слои заморозить во время обучения. Докладчик объясняет, как выбрать, какие слои оставить в предварительно обученной сети и сколько слоев добавить, чтобы создать новую сеть для сегментации. Кроме того, они обсуждают, что важно решить, сколько предварительно обученных слоев заморозить во время повторного обучения для небольшого набора данных.

  • 01:10:00 В этом разделе инструктор показывает изображение вывода, полученного алгоритмом, который не соответствует желанию врача. На изображении есть клетки, которые невозможно разделить, что затрудняет интерпретацию этого изображения врачом. Решение этой проблемы состоит в том, чтобы добавить границы к размеченному набору данных. Наборы данных могут быть перемаркированы с учетом наличия границ. Когда модель по-прежнему работает неудовлетворительно, корректируется взвешивание функции потерь, что означает, что модель обучена фокусироваться на границах. Каждому значению функции потерь можно присвоить коэффициенты, чтобы сообщить модели, как действовать, если она не выходит за границы. Перемаркировку набора данных можно выполнить вручную, когда вы рисуете линии, и область внутри линий будет рассматриваться как ячейка, а граница — как линия.

  • 01:15:00 В этом разделе лекции обсуждаются преимущества и различия между обнаружением объектов и сегментацией в анализе медицинских изображений. Хотя обнаружение объектов может работать лучше для более быстрого анализа, сегментация более точна при разделении ячеек. Затем лекция переходит к обсуждению бинарной классификации медицинских изображений, помеченных либо нулем, либо единицей, что указывает на наличие или отсутствие раковых клеток. Докладчик рекомендует использовать значения градиента для интерпретации прогноза сети после достижения точности 99%. Затем возникает вопрос, может ли сеть достичь более высокой точности, чем врач, на что ответ положительный из-за различий в опыте и восприятии.

  • 01:20:00 В этом разделе инструкторы обсуждают базовую ошибку и производительность на уровне человека в моделях искусственного интеллекта в здравоохранении. Они упоминают, что необходимо учитывать точность группы врачей, разметивших набор данных, поскольку она может превзойти точность одного врача. Также обсуждается конвейер для автономного вождения, и предполагается, что изоляция каждого компонента и проверка их производительности могут помочь определить, в чем заключается проблема. Кроме того, обсуждаются преимущества конвейерного подхода, в том числе то, что сбор данных может быть проще для каждого отдельного шага, чем для всей сквозной системы.

  • 01:25:00 В этом разделе инструктор обсуждает важность данных в глубоком обучении и то, как выбор проблемы для работы может зависеть от того, какие данные легко доступны. Затем он представляет тему сверточных нейронных сетей и упоминает, что предстоящие модули будут в значительной степени сосредоточены на анализе изображений. Преподаватель напоминает учащимся о предстоящей викторине, заданиях по программированию и промежуточных экзаменах, которые будут охватывать все, вплоть до видеороликов текущей недели.
Stanford CS230: Deep Learning | Autumn 2018 | Lecture 5 - AI + Healthcare
Stanford CS230: Deep Learning | Autumn 2018 | Lecture 5 - AI + Healthcare
  • 2019.03.21
  • www.youtube.com
Andrew Ng, Adjunct Professor & Kian Katanforoosh, Lecturer - Stanford Universityhttp://onlinehub.stanford.edu/Andrew NgAdjunct Professor, Computer ScienceKia...
 

Лекция 6 - Стратегия проекта глубокого обучения




Stanford CS230: глубокое обучение | Осень 2018 | Лекция 6 - Стратегия проекта глубокого обучения

В этом видео спикер обсуждает важность выбора хорошей метрики для измерения успеха проекта машинного обучения. Выбранная метрика должна отражать проблему и желаемый результат. Докладчик приводит примеры точности, точности, отзыва и оценки F1 и объясняет, когда каждый из них следует использовать. Они также обсуждают разницу между проверочным набором и тестовым набором и объясняют, почему важно использовать оба. Кроме того, спикер подчеркивает необходимость базовой модели в качестве точки сравнения для измерения эффективности алгоритма обучения. Наконец, спикер отвечает на некоторые вопросы аудитории о выборе порога для бинарной классификации и о том, как бороться с дисбалансом классов.

  • 00:00:00 В этом разделе инструктор представляет сценарий проекта по созданию системы распознавания речи для обнаружения определенной фразы «Роберт, включи», которую можно использовать для включения лампы с помощью голосовой команды. Цель состоит в том, чтобы построить алгоритм обучения, который может распознавать эту фразу и включать лампу при произнесении. Преподаватель подчеркивает важность стратегической продуманности при принятии решений о том, что делать дальше в проекте машинного обучения, чтобы сделать его более эффективным и быстро продвигать вперед. Лекция будет интерактивной, и студентам предлагается сидеть с кем-то, с кем они традиционно не работают.

  • 00:05:00 В этом разделе инструктор просит аудиторию представить себя в качестве генерального директора стартапа с задачей построить алгоритм обучения для обнаружения определенной фразы. Он подчеркивает важность чтения существующей литературы, прежде чем приступать к новому проекту, и дает советы о том, как эффективно читать исследовательские работы. Он советует аудитории бегло просмотреть несколько статей на поверхностном уровне, прежде чем они решат, какую из них прочитать более подробно. Он также предупреждает, что не все документы имеют смысл или важны, и поэтому важно отфильтровывать ненужную информацию.

  • 00:10:00 В этом разделе лекции подчеркивается важность общения с экспертами и контактов с авторами статей при попытке понять конкретную тему. Спикер также обсуждает процесс сбора соответствующих наборов данных для обучения, разработки и тестирования для проекта глубокого обучения. Они предлагают записывать людей, произносящих конкретную фразу, которую нужно обнаружить, например «Роберт, включи», и использовать методы увеличения данных, чтобы уменьшить вариативность алгоритма обучения. Докладчик подчеркивает важность проверки необходимости расширения данных, прежде чем вкладывать в это время и усилия.

  • 00:15:00 В этом разделе спикер обсуждает пример домашней задачи, связанной с созданием системы обнаружения триггерных слов. Система предназначена для обнаружения, когда кто-то произносит определенную фразу, например «Роберт, включи», а затем запускает действие, например включение лампы. Для сбора необходимых данных спикер предлагает собрать 100 аудиофрагментов по 10 секунд каждый, из них 25 для развивающего набора и 0 для тестового. Он объясняет, что этот процесс может быть выполнен быстро, поскольку, по его оценкам, один человек может записываться каждую минуту или две в оживленном месте, таком как столовая Стэнфорда.

  • 00:20:00 В этом разделе видео лектор обсуждает, как превратить задачу обнаружения звука в задачу бинарной классификации для обучения с учителем. Они предлагают вырезать трехсекундные аудиоклипы из десятисекундного клипа с разными целевыми метками для каждого клипа. Этот метод может дать тысячи обучающих примеров. Лектор признает, что существуют и другие методы обработки данных последовательности, но это один из способов сделать это. Они также отвечают на вопросы аудитории о разреженных целях и выборе трехсекундных клипов. Наконец, они обсуждают сценарий, в котором точность высока, но алгоритм не обнаруживает ни одного экземпляра рассматриваемой фразы.

  • 00:25:00 В этом разделе спикер обсуждает сценарий, в котором алгоритм обучения дает точность 95%, но без обнаружения. Они предполагают, что один из способов улучшить алгоритм — указать набор разработчиков и оценить метрики, которые ближе к реальной цели. Этого можно добиться путем повторной выборки наборов данных для обучения и разработки, чтобы сделать их более пропорциональными с точки зрения положительных и отрицательных примеров, или путем придания положительным примерам большего веса. Другой подход может состоять в том, чтобы изменить целевые метки на несколько, что может быть быстрым и грязным методом, но не математически строгим. Докладчик также затрагивает вопрос о том, как перебалансировать наборы данных при развертывании, и ссылается на необходимость корректировки смещения, которое может быть введено.

  • 00:30:00 В этом разделе спикер обсуждает стратегию построения алгоритмов обучения и подчеркивает, что это больше похоже на отладку, чем на разработку. Рабочий процесс обычно включает в себя устранение проблемы, а затем поиск новой для решения. Например, если алгоритм переобучения, необходим анализ ошибок, и можно добавить больше, чтобы сбалансировать набор данных. Однако простой способ перебалансировки может привести к отбрасыванию большого количества негативных примеров, которые могли бы быть полезны для алгоритма обучения. Спикер также упомянул метрики для измерения эффективности системы, такие как вероятность пробуждения или включения лампы и случайность ее включения сама по себе.

  • 00:35:00 В этом разделе спикер обсуждает увеличение данных для аудио и предлагает три возможных способа сбора данных о фоновом шуме, чтобы сделать систему более надежной. Первый метод включает в себя сбор аудиосэмплов фоновых звуков в домах людей с их разрешения для добавления к аудиоклипам для имитации того, как они будут звучать в доме пользователя. Второй метод включает в себя загрузку 10-часовых аудиоклипов дождя или автомобилей из контента, лицензированного Creative Commons, в Интернете, а третий вариант — использовать Amazon Mechanical Turk, чтобы люди со всего мира предоставили образцы аудио.

  • 00:40:00 В этом разделе видео спикер просит аудиторию оценить, сколько времени потребуется, чтобы собрать 10 часов аудиоданных в разных местах вокруг Стэнфорда с помощью различных механизмов. Выступающий предполагает, что параллельный сбор данных с помощью нескольких друзей с ноутбуками может быть выполнен быстро, в то время как загрузка клипов в Интернете может быть более сложной, поскольку клипы могут зацикливаться и, таким образом, не способствовать разнообразию данных. Спикер подчеркивает важность прохождения таких упражнений, чтобы эффективно проводить мозговой штурм идей и определять, сколько времени и усилий они потребуют.

  • 00:45:00 В этом разделе инструктор объясняет, как важно быть эффективным и делать выбор на основе идей мозгового штурма и оценок времени, чтобы построить достойную систему обнаружения слов-триггеров. Совет заключается в том, чтобы быстро создать что-то «грязное», а затем разработать наборы данных для дальнейшего улучшения системы. Инструктор подчеркивает, что разница между успехом и неудачей компании в конечном счете сводится к тому, чтобы она была эффективной и максимально использовала отведенное время. Наконец, преподаватель предлагает студентам заполнить анонимный опрос, чтобы помочь улучшить курс.
Stanford CS230: Deep Learning | Autumn 2018 | Lecture 6 - Deep Learning Project Strategy
Stanford CS230: Deep Learning | Autumn 2018 | Lecture 6 - Deep Learning Project Strategy
  • 2019.04.03
  • www.youtube.com
Andrew Ng, Adjunct Professor & Kian Katanforoosh, Lecturer - Stanford Universityhttp://onlinehub.stanford.edu/Andrew NgAdjunct Professor, Computer ScienceKia...
 

Лекция 7 - Интерпретируемость нейронной сети




Stanford CS230: глубокое обучение | Осень 2018 | Лекция 7 - Интерпретируемость нейронной сети

В этой лекции лектор знакомит с несколькими методами интерпретации и визуализации нейронных сетей, такими как карты значимости, чувствительность окклюзии и карты активации классов. Карты активации классов используются для интерпретации промежуточных слоев нейронной сети путем сопоставления выходных данных с входным пространством, чтобы визуализировать, какие части входных данных были наиболее различимы в процессе принятия решений. Профессор также обсуждает глобальное усреднение как способ сохранения пространственной информации в сверточной нейронной сети и деконволюцию как способ повысить выборку высоты и ширины изображений для таких задач, как сегментация изображений. Кроме того, в лекции исследуется предположение об ортогональности сверточных фильтров и то, как субпиксельная свертка может использоваться для реконструкции в приложениях визуализации.

В лекции рассматриваются различные методы интерпретации и визуализации нейронных сетей, в том числе субпиксельная свертка, 2D-деконволюция, повышение дискретизации, распаковка и использование таких инструментов, как набор инструментов DeepViz и алгоритм Deep Dream. Докладчик объясняет, как визуализация фильтров на первом уровне сети может облегчить интерпретацию, но чем глубже мы погружаемся, тем сложнее понять сеть. Изучая активации в разных слоях, спикер показывает, как определенные нейроны реагируют на определенные функции. Хотя существуют ограничения на интерпретацию нейронных сетей, методы визуализации могут дать понимание и потенциальные приложения, такие как сегментация, реконструкция и создание состязательной сети.

  • 00:00:00 В этом разделе спикер представляет идею интерпретации нейронных сетей, а не просто использование метода проб и ошибок для их улучшения. Далее они представляют три метода интерпретации нейронных сетей: карты значимости, чувствительность к окклюзии и карты активации классов. Эти методы помогают понять процесс принятия решений в сети, отображая обратно входное пространство, чтобы проверить, какая часть ввода была дискриминационной для определенного вывода. Затем спикер объясняет, как они будут углубляться в промежуточные слои и как они будут использовать такие методы, как визуализация модели класса градиентного восхождения, поиск набора данных и деконволюция, чтобы лучше понять сеть. Цель состоит в том, чтобы предоставить научный метод улучшения нейронных сетей, а не просто полагаться на пробы и ошибки.

  • 00:05:00 В этом разделе лектор обсуждает интерпретируемость нейронных сетей и использование карт заметности для визуализации того, на что смотрит сеть. Они объясняют, что вместо использования вероятностей слоя softmax лучше использовать оценки до softmax, чтобы определить, какие пиксели оказывают наибольшее влияние на общий вывод сети. Лектор также знакомит с чувствительностью окклюзии как методом более точной визуализации. Это включает в себя размещение серого квадрата на собаке на входном изображении и многократное распространение его по сети для создания карты вероятности класса собаки, где достоверность сети обозначена разными цветами. Перемещая серый квадрат, карта показывает, какие области входного изображения наиболее важны для сети, чтобы классифицировать его как собаку.

  • 00:10:00 В этом разделе лектор обсуждает три разных метода интерпретации и понимания нейронных сетей. Первый метод включает в себя перекрытие частей изображения, чтобы увидеть, куда смотрит сеть и на чем она фокусируется. Лектор демонстрирует этот метод на изображениях собак и стульев, показывая, как меняется достоверность сети в зависимости от того, какая часть изображения закрыта. Второй метод — это чувствительность к окклюзии, при которой достоверность сети фактически увеличивается, когда определенные части изображения удаляются. Третий метод — это карты активации классов, которые демонстрируют способность сети локализовать объекты на изображениях, даже если они обучены только меткам на уровне изображения. Лектор объясняет, что эта способность к локализации имеет решающее значение для таких задач, как обнаружение объектов, и часто развивается в процессе обучения задачам классификации.

  • 00:15:00 В этом разделе инструктор демонстрирует, как использовать глобальное усреднение вместо выравнивания плюс полное соединение в сверточной нейронной сети (CNN) для сохранения пространственной информации, которая полезна для визуализации того, на что смотрит сеть. После получения тома с шестью картами объектов применяется глобальное среднее объединение для преобразования его в вектор из шести значений, которые затем передаются в полносвязный слой с активацией softmax для получения вероятностей. Глядя на веса полносвязного слоя, можно выяснить, какой вклад вносит каждая карта объектов в результат, а взвешенная сумма всех этих карт объектов может показать, на что смотрит сеть во входном изображении.

  • 00:20:00 В этом разделе спикер обсуждает карты активации классов и то, как они зависят от анализируемого класса в нейросети. Изучая границы между первой активацией и предыдущим слоем, спикер объясняет, что веса будут различаться в зависимости от анализируемого класса. Суммируя все карты признаков, можно получить разные результаты. Затем докладчик обсуждает, как карты активации классов можно визуализировать с помощью сети, изменив несколько последних слоев, и как это требует тонкой настройки. Докладчик также обсуждает, как процесс объединения глобальных средних значений, который включает нормализацию 116, не уничтожает пространственную информацию, поскольку карты объектов известны и, следовательно, могут быть точно отображены.

  • 00:25:00 В этом разделе спикер объясняет, как работают карты активации классов для интерпретации промежуточных слоев нейронной сети. Этот метод сопоставляет выходные данные с входным пространством, позволяя пользователям визуализировать, какие части входных данных были наиболее отличительными в процессе принятия решений. С помощью градиентного восхождения, итеративного процесса, который максимизирует оценку желаемого результата, спикер демонстрирует, как использовать этот метод для поиска изображения, которое представляет, как, по мнению сети, выглядит собака. Докладчик говорит, что, хотя этот метод является эффективным способом интерпретации данных изображений, другие методы, такие как модели внимания, используются для интерпретации данных, не связанных с изображениями.

  • 00:30:00 В этом разделе лекции профессор обсуждает различные методы визуализации того, что видит нейронная сеть. Он показывает примеры того, как увеличение определенных значений пикселей может привести к более высокому баллу для определенного класса, и как регуляризация, такая как L2 или размытие по Гауссу, может улучшить качество визуализации. Профессор также представляет идею визуализации модели класса, где целевая функция используется для максимизации оценки конкретного класса и как ее можно использовать для проверки того, что сеть смотрит на правильную вещь. Кроме того, профессор рассказывает о том, как можно использовать поиск по набору данных, чтобы понять, о чем думает конкретная активация в середине сети, путем выбора карты функций и запуска большого количества данных через сеть, чтобы увидеть, какие точки данных имеют значение. максимальная активация этой карты функций.

  • 00:35:00 В этом разделе лектор объясняет, как разные карты признаков в сверточной нейронной сети активируются разными частями изображения. Лектор представляет примеры карты признаков, которая обнаруживает рубашки, и карты, которая обнаруживает края. Затем лектор объясняет, что активации изображения в сети видят только часть входного изображения, и по мере того, как сеть углубляется, активация каждого слоя просматривает большую часть изображения. Лектор также объясняет, как сети деконволюции можно использовать для вывода изображений на основе ввода кода, и как этот метод может быть более практичным, чем использование полносвязного слоя с множеством нейронов.

  • 00:40:00 В этом разделе спикер объясняет использование деконволюции в нейронных сетях. Деконволюция может увеличивать высоту и ширину изображений, что делает ее полезной для таких задач, как сегментация изображений. Докладчик также обсуждает метод градиентного восхождения и способы восстановления активаций во входном пространстве с помощью распаковки, отмены ReLU и деконволюции. Затем спикер переходит к определению деконволюции как математической операции матричного вектора и приводит пример одномерной свертки с дополнением.

  • 00:45:00 В этом разделе лекции профессор обсуждает математическую операцию между матрицей и вектором. Он приводит пример сверточного слоя с одним фильтром, который имеет размер четыре и шаг два. Выходной размер вычисляется по формуле nx-f+2p/шаг. Затем он объясняет, как определить эту свертку как математическую операцию между матрицей и вектором, написав систему уравнений и найдя форму матрицы. Полученная матрица заполняется по системе уравнений, и вектор активаций умножается на матрицу.

  • 00:50:00 В этом разделе лекции инструктор объясняет, как операцию свертки можно представить в виде простой матрицы, умноженной на вектор. Матрица состоит из весов, и их размещение в матрице определяется шагом и размером окна. Сформулировав свертку как матричную операцию, мы можем затем инвертировать матрицу, чтобы выполнить деконволюцию и восстановить исходный ввод. Однако этот подход предполагает, что матрица весов обратима и ортогональна, что не всегда верно на практике. Предположение об ортогональности полезно в тех случаях, когда сверточный фильтр является детектором границ.

  • 00:55:00 В этом разделе лекции профессор представляет метод порождения X из Y, используя предположение, что реконструкция будет полезна, даже если она не всегда верна. Они демонстрируют процесс с помощью иллюстраций и кода Menti, демонстрируя, как можно использовать свертку субпикселей для выполнения той же операции с ударом слева направо, а не сверху вниз. Этот метод включает обрезку и дополнение ввода для получения желаемого результата. Профессор отмечает, что этот тип свертки часто используется для реконструкции в приложениях визуализации.
  • 01:00:00 В этом разделе лектор объясняет концепцию субпиксельной свертки, которая включает вставку нулей в вектор Y для более эффективного вычисления деконволюции. Путем переворачивания весов, деления шага на два и вставки нулей процесс деконволюции становится по существу эквивалентным свертке. Этот процесс может быть расширен до двумерной свертки и в целом обеспечивает лучшее понимание математической операции между матрицей и вектором для свертки.

  • 01:05:00 В этом разделе спикер углубляется в интерпретацию 2D-деконволюции. Цель деконволюции состоит в том, чтобы получить входные данные размером пять на пять, которые представляют собой реконструированный x. Для этого спикер демонстрирует, что фильтр размером два на два применяется к входным данным, распространяющимся вперед, с шагом, равным двум, в конверсионном слое. Затем применяется метод деконволюции для получения реконструированного изображения. В лекции объясняется, что процесс деконволюции включает в себя использование фильтра и умножение всех весов на y11, сдвиг на один шаг и повторение того же процесса для всех записей. В заключение спикер отмечает, что процесс несколько сложен; однако не стоит беспокоиться, если концепция деконволюции не совсем понятна.

  • 01:10:00 В этом разделе лекции профессор наглядно объясняет процесс повышения частоты дискретизации изображения. Он объясняет, что для восстановления изображения следует использовать веса из ConvNet, если это возможно. Затем он показывает визуальное представление процесса повышающей дискретизации, начиная с изображения 4x4, вставляя нули и дополняя его до изображения 9x9, прежде чем использовать фильтр для свертки изображения и выполнения свертки по мере его продвижения. Он также кратко обсуждает, как unpool и unReLU, заявляя, что максимальный пул математически необратим, но этот процесс можно аппроксимировать с помощью переключателей расширения и кэширования для максимальных значений.

  • 01:15:00 В этом разделе объясняется концепция unpooling и maxpooling в нейронных сетях, а также использование переключателей и фильтров для восстановления исходного ввода. Также обсуждается функция активации ReLU и вводится понятие обратного ReLU. Использование ReLU DeconvNet объясняется как метод несмещенной реконструкции, не зависящей от прямого распространения. Подход описывается как взлом и не всегда является научно жизнеспособным, но он полезен для визуализации и интерпретации нейронной сети.

  • 01:20:00 В этом разделе лекции спикер объясняет, как визуализировать и понять, что происходит внутри нейронных сетей, узнав, чему соответствует каждая активация. Техника визуализации включает в себя выбор активации, нахождение максимальной активации, установку всех остальных на ноль, а затем реконструкцию изображения. Докладчик обсуждает, как можно интерпретировать фильтры в первом слое сети из-за того, что веса напрямую умножаются на пиксели. Однако по мере того, как мы углубляемся в сеть, интерпретировать фильтры становится все труднее. Спикер также продолжает объяснять, как чем глубже мы погружаемся, тем больше сложности мы видим, и приводит примеры различных фильтров и типов изображений, которые их активируют.

  • 01:25:00 В этом разделе лекции спикер демонстрирует использование набора инструментов DeepViz для исследования интерпретируемости нейронных сетей. Изучая активацию нейронов в разных слоях сверточной сети, спикер показывает, как активируются определенные нейроны в ответ на определенные особенности, такие как лица или морщины. Докладчик также упоминает о необязательном использовании техники Deep Dream для создания изображений путем установки градиента, равного активациям определенного слоя, что позволяет дополнительно исследовать поведение нейронной сети.

  • 01:30:00 В этом разделе спикер демонстрирует алгоритм Deep Dream, который генерирует изображения путем обратного распространения активаций нейронной сети на входной слой и обновления пикселей. В результате получаются разнообразные сюрреалистические изображения животных и других объектов, объединенных вместе. Спикер также обсуждает ограничения интерпретации нейронных сетей и способы использования методов визуализации, таких как карты активации классов и деконволюции, для понимания того, как сеть видит мир, и обнаружения мертвых нейронов. Кроме того, спикер подчеркивает потенциальные применения этих визуализаций, включая сегментацию, реконструкцию и создание состязательной сети.
Stanford CS230: Deep Learning | Autumn 2018 | Lecture 7 - Interpretability of Neural Network
Stanford CS230: Deep Learning | Autumn 2018 | Lecture 7 - Interpretability of Neural Network
  • 2019.04.03
  • www.youtube.com
Andrew Ng, Adjunct Professor & Kian Katanforoosh, Lecturer - Stanford Universityhttp://onlinehub.stanford.edu/Andrew NgAdjunct Professor, Computer ScienceKia...
 

Лекция 8 - Карьерный совет / Чтение научных статей




Stanford CS230: глубокое обучение | Осень 2018 | Лекция 8 - Карьерный совет / Чтение научных статей

В этой лекции профессор Эндрю Нг дает советы о том, как эффективно читать исследовательские работы и идти в ногу с быстро развивающейся областью глубокого обучения. Он подчеркивает важность подведения итогов работы во вступительном и заключительном разделах, а также уделения внимания рисункам и таблицам. Нг также делится советами по карьере, рекомендуя, чтобы кандидаты на работу обладали как широкими, так и глубокими знаниями в нескольких областях искусственного интеллекта и машинного обучения, и сосредоточились на работе с отдельными людьми, а не с крупными брендами, чтобы максимизировать возможности роста. Он предлагает последовательно читать документы и развивать как горизонтальные, так и вертикальные навыки с помощью курсов и проектов для прочной основы машинного обучения.

  • 00:00:00 В этом разделе лекции спикер делится советами о том, как эффективно читать исследовательские работы, особенно в быстро развивающейся области глубокого обучения. Он предлагает составить список статей и ресурсов, включая исследовательские работы, размещенные на arXiv, сообщениях Medium и случайных сообщениях GitHub. Затем он рекомендует бегло просмотреть документы и быстро разобраться в каждом из них, пропуская документы, которые не имеют смысла или бесполезны. Он предлагает уделять больше времени основополагающим статьям и использовать цитаты для поиска дополнительных статей по теме.

  • 00:05:00 В этом разделе лектор дает рекомендации по чтению научных статей, чтобы улучшить понимание конкретной темы. Он предполагает, что чтение от 15 до 20 статей даст базовое понимание области, а чтение от 50 до 100 статей приведет к очень хорошему пониманию. Кроме того, он дает советы о том, как читать одну статью, предлагая несколько проходов по ней, уделяя особое внимание чтению заголовка, аннотации и рисунков во время первого прохода. Лектор подчеркивает важность подведения итогов работы во вступительном и заключительном разделах, так как именно в них авторы часто четко доказывают значимость своей работы.

  • 00:10:00 В этом разделе лекции спикер дает советы, как эффективно читать научные статьи. Он предлагает начать с аннотации, введения и заключения статьи, чтобы получить четкое представление о ее сути. Он также советует просмотреть раздел связанных работ, который часто может быть трудно понять, если вы еще не знакомы с литературой. Спикер рекомендует прочитать всю статью, но пропустить части, которые не имеют смысла, поскольку статьи нередко включают неважные разделы. Наконец, он предлагает читателям ряд вопросов, на которые они должны попытаться ответить, чтобы закрепить свое понимание статьи, включая то, чего пытались добиться авторы, и какие ключевые элементы можно применить.

  • 00:15:00 В этом разделе лекции профессор призывает студентов читать исследовательские работы и рекомендует начинать с английского текста, прежде чем углубляться в математику. Он дает задание под названием «Сверточные нейронные сети с плотной связью» и предлагает учащимся прочитать его за семь минут, прежде чем обсуждать его со своими одноклассниками. Он также отмечает, что с практикой студенты могут быстрее читать и понимать исследовательские работы, включая понимание распространенных форматов, используемых для описания сетевой архитектуры. Профессор подчеркивает, что можно учиться быстрее, сосредоточившись на основных понятиях, представленных на рисунках и в таблицах статьи.

  • 00:20:00 В этом разделе профессор Эндрю Нг дает советы о том, как идти в ногу с исследованиями глубокого обучения и понимать их. Он предлагает выполнять поиск в Интернете и искать сообщения в блогах о важных документах, проверять Twitter и сабреддит ML, а также следить за исследователями, которые часто делятся статьями в Интернете. Нг также рекомендует создать сообщество с коллегами или одноклассниками, чтобы делиться интересными статьями и повторно извлекать математику из подробных заметок, чтобы глубже понять алгоритм. Нг подчеркивает, что время, затрачиваемое на статью, может варьироваться в зависимости от уровня опыта и сложности, но если потратить больше времени, это может привести к более глубокому пониманию концепций глубокого обучения.

  • 00:25:00 В этом разделе инструктор советует учащимся воссоздать алгоритмы машинного обучения с нуля, чтобы обеспечить глубокое понимание, поскольку это дает возможность обобщать и выводить новые алгоритмы. Он также рекомендует интервальное повторение, а не зубрежку, когда дело доходит до обучения, и призывает студентов формировать группы чтения и сотрудничать со сверстниками, чтобы продолжать учиться и продвигаться по карьерной лестнице в области машинного обучения. Он делает упор на постоянное обучение, а не на интенсивную деятельность, и дает советы о том, как подойти к выбору карьеры.

  • 00:30:00 В этом разделе лекции спикер обсуждает, как получить работу или присоединиться к программе PhD в области машинного обучения, и подчеркивает важность выполнения важной работы. Рекрутеры ищут технические навыки, умение кодировать и значительный опыт работы в области машинного обучения. Также высоко ценится способность постоянно осваивать новые навыки и быть в курсе быстрого развития отрасли. Успешные инженеры по искусственному интеллекту и машинному обучению — это те, кто изучил различные области машинного обучения и имеет опыт работы в этих областях, что привело к четкому пониманию того, как применять алгоритмы машинного обучения в различных условиях.

  • 00:35:00 В этом разделе лектор обсуждает «Т-образные» навыки, которые желательны для кандидатов на работу, что означает наличие широкого понимания нескольких областей искусственного интеллекта и машинного обучения, а также глубокое понимание по крайней мере одной конкретной область. Он подчеркивает важность наличия практического опыта, такого как работа над значимыми проектами, участие в открытом исходном коде или проведение исследований, чтобы убедить рекрутеров в способностях кандидата. Лектор предостерегает от посещения слишком большого количества занятий без получения практического опыта, от попыток слишком быстро прыгнуть слишком глубоко или от выполнения слишком большого количества мелких проектов с небольшой глубиной.

  • 00:40:00 В этом разделе лекции профессор Нг дает советы о том, как заложить прочную основу в машинном обучении, рекомендуя строить горизонтальные и вертикальные части. Он отмечает, что выполнение 10 небольших проектов может не произвести такого впечатления на рекрутеров, как один или два крупных проекта. Чтобы построить горизонтальную часть, состоящую из базовых навыков в области искусственного интеллекта и машинного обучения, он рекомендует пройти курсы, прочитать исследовательские работы и присоединиться к сообществу. Для построения вертикальной части, которая включает в себя выполнение более актуальных, глубоких проектов, Нг советует работать над вещами, имеющими отношение к машинному обучению или искусственному интеллекту, чтобы помочь развитию карьеры в этих областях. Он продолжает подчеркивать важность веселья и перерывов, поскольку часто нет краткосрочного вознаграждения за работу по глубокому обучению, кроме личного удовлетворения.

  • 00:45:00 В этом разделе лектор обсуждает, как согласованность является ключом к совершенствованию в области глубокого обучения. Чтение двух статей в неделю последовательно в течение года приведет к тому, что вы прочитаете 100 статей, и внесете свой вклад в улучшение своей области. Более того, великие люди и проекты — главные предсказатели успеха, и наличие близких друзей, которые усердно работают, читают много статей и заботятся о своей работе, может побудить человека сделать то же самое. При выборе работы рекомендуется ориентироваться на команду и взаимодействовать с группой от 10 до 30 человек, которые могут построить свою карьеру и повысить квалификацию.

  • 00:50:00 В этом разделе спикер дает советы по карьере для энтузиастов глубокого обучения, призывая их сосредоточиться на отдельных людях в компании, а не на ее бренде. Спикер подчеркивает, что их менеджер и основная группа, с которой они взаимодействуют, будут влиять на них больше всего, учитывая их уровень усердной работы и готовность обучать, делая личную оценку и связи с людьми более важными, чем бренд компании. Приведенные примеры сценариев, такие как гигантская компания, отправляющая предложения о работе небольшой команде ИИ, оцениваются с акцентом на отдельных людях и на том, как это влияет на их рост. Неудача, связанная с игнорированием отдельных лиц в пользу брендинга компании, подчеркивается на личном примере студента, чья карьера остановилась после того, как он принял предложение о работе с оплатой на основе Java от известной компании, вместо того чтобы сосредоточиться на работе с конкретными людьми. в небольшой команде.

  • 00:55:00 В этом разделе Эндрю Нг советует проявлять осторожность при рассмотрении программ ротации, которые теоретически кажутся хорошими, но могут не указывать четкого направления или возможностей для роста внутри компании. Он предлагает искать возможности для работы с небольшими, менее известными командами, которые могут выполнять важную работу в области машинного обучения, а не гоняться за крупными брендами. Он подчеркивает важность того, чтобы уделять приоритетное внимание обучению и эффективной работе, а не сосредоточению внимания исключительно на престижных торговых марках в отрасли.

  • 01:00:00 В этом разделе видео спикер дает карьерные советы тем, кто находится на ранних этапах своей карьеры. Рекомендуется присоединиться к команде с отличным набором товарищей по команде и выполнять значимую работу, которая помогает другим людям. Однако он советует не работать в компаниях, производящих вредную продукцию вроде сигарет. Он считает, что предстоит проделать много важной работы в различных отраслях и что миру нужны люди для работы над разными вещами. Он предполагает, что следующая волна машинного обучения предназначена не только для технологических компаний, но и для всех традиционных отраслей, в которых не внедрены технологии.
Stanford CS230: Deep Learning | Autumn 2018 | Lecture 8 - Career Advice / Reading Research Papers
Stanford CS230: Deep Learning | Autumn 2018 | Lecture 8 - Career Advice / Reading Research Papers
  • 2019.04.03
  • www.youtube.com
Andrew Ng, Adjunct Professor & Kian Katanforoosh, Lecturer - Stanford Universityhttp://onlinehub.stanford.edu/Andrew NgAdjunct Professor, Computer ScienceKia...
 

Лекция 9 - Глубокое обучение с подкреплением




Stanford CS230: глубокое обучение | Осень 2018 | Лекция 9 - Глубокое обучение с подкреплением

Лекция представляет глубокое обучение с подкреплением, которое сочетает в себе глубокое обучение и обучение с подкреплением. Обучение с подкреплением используется для принятия правильных последовательностей решений в ситуациях с отложенными метками и применяется в различных областях, таких как робототехника, игры и реклама. Глубокое обучение с подкреплением заменяет Q-таблицу Q-функцией, которая представляет собой нейронную сеть. Лектор обсуждает проблемы применения глубокого обучения с подкреплением, но описывает метод создания целевого значения для Q-показателей на основе уравнения Беллмана для обучения сети. В лекции также обсуждается важность воспроизведения опыта при обучении глубокому обучению с подкреплением и компромисс между эксплуатацией и исследованием в алгоритмах RL. Также обсуждается практическое применение глубокого обучения с подкреплением в игре Breakout.

В лекции обсуждаются различные темы, связанные с глубоким обучением с подкреплением (DRL). Обсуждается компромисс между разведкой и эксплуатацией в DRL, и предлагается решение с использованием гиперпараметра, который определяет вероятность разведки. Исследуется важность человеческих знаний в DRL и то, как они могут улучшить алгоритмические процессы принятия решений. В лекции также рассматриваются градиенты политики, различные методы их реализации и предотвращение переобучения. Кроме того, выделяются проблемы в среде с разреженным вознаграждением и кратко обсуждается решение из недавней статьи под названием «Унификация основанных на подсчете метаданных для исследования». Наконец, в лекции кратко упоминаются статьи YOLO и YOLO v2 от Redmon et al. относительно обнаружения объектов.

  • 00:00:00 В этом разделе спикер представляет идею глубокого обучения с подкреплением, которое представляет собой комбинацию глубокого обучения и другой области ИИ — обучения с подкреплением. Докладчик объясняет, что глубокие нейронные сети отлично подходят для аппроксимации функций и могут применяться во многих различных областях, где требуются аппроксиматоры функций, и обучение с подкреплением является одним из таких примеров. Спикер мотивирует идею обучения с подкреплением такими примерами, как AlphaGo и документ Google DeepMind, где они использовали глубокое обучение для обучения агента превосходить производительность на уровне человека в различных играх, в основном в играх Atari. Спикер также объясняет, что обучение с подкреплением важно, потому что оно позволяет агентам иметь долгосрочную стратегию в сложных играх, таких как го, которые намного больше, чем шахматная доска.

  • 00:05:00 В этом разделе видео профессор предлагает студентам подумать, как создать агента, который мог бы научиться побеждать в игре го, используя глубокое обучение. Одним из возможных наборов данных может быть пара ввода-вывода игрового поля и вероятность победы для этой позиции, но это сложно, потому что трудно представить вероятность выигрыша в данной позиции доски. Другим вариантом было бы наблюдать за ходами профессиональных игроков и записывать их в качестве входных и выходных данных, создавая набор данных о шагах, которые профессиональные игроки делали в прошлом. Однако это также сложно, потому что в игре слишком много состояний для точного представления, и основная правда, вероятно, будет неверной, поскольку у разных профессиональных игроков разные стратегии. Существует также риск того, что алгоритм не будет обобщать, потому что это вопрос стратегии, а не простого распознавания образов.

  • 00:10:00 В этом разделе лектор представляет обучение с подкреплением (RL), которое представляет собой метод автоматического обучения принятию правильных последовательностей решений. RL используется в ситуациях, когда присутствуют отложенные метки, такие как вероятность победы в игре. RL применяется в различных областях, таких как робототехника, игры и реклама. Чтобы проиллюстрировать, как работает RL, лектор представляет игру с пятью состояниями и объясняет, как в этой игре определяется долгосрочная отдача. Цель игры состоит в том, чтобы максимизировать вознаграждение в долгосрочной перспективе, перемещаясь по состояниям и принимая решения на основе доступных вознаграждений.

  • 00:15:00 В этом разделе обсуждаются концепция долгосрочной отдачи и использование дисконтированной отдачи для Q-обучения в обучении с подкреплением. Дисконтированная доходность учитывает важность времени при принятии решений и помогает смягчить проблему конвергенции, которая может возникнуть при недисконтированной доходности. Целью Q-обучения является изучение оптимального действия в каждом состоянии путем сохранения матрицы Q-таблицы, которая представляет оценку для каждого действия в каждом состоянии. Используя баллы таблицы Q, агент может определить максимальное значение и соответствующее действие в данном состоянии, чтобы быстро принимать решения. Также был объяснен процесс построения Q-таблицы с помощью древовидной диаграммы.

  • 00:20:00 В этом разделе профессор объясняет итеративный алгоритм Q-обучения, используя матрицу, которая указывает действие, которое необходимо предпринять в каждом состоянии. Чтобы вычислить долгосрочное дисконтированное вознаграждение для каждого штата, они используют уравнение Беллмана, которое состоит из немедленного вознаграждения плюс скидка, умноженная на максимально возможное вознаграждение в будущем. Итерационный алгоритм должен сходиться в некоторой точке, а Q-функция должна следовать оптимальному уравнению Беллмана. Профессор подчеркивает важность уравнения Беллмана для понимания Q-обучения.

  • 00:25:00 В этом разделе докладчик рассказывает о словаре обучения с подкреплением, который включает в себя среду, агента, состояние, действие, политику, вознаграждение, общий доход, коэффициент дисконтирования, Q-таблицу и уравнение Беллмана. Q-таблица — это матрица записей, представляющих, насколько хорошо предпринять действие A в состоянии S, а политика — это функция принятия решений, которая говорит нам, какую стратегию лучше всего применить в состоянии S. Количество состояний может быть слишком большим, что делает решение Q-таблицы непрактичным. Глубокое обучение входит в обучение с подкреплением, заменяя Q-таблицу Q-функцией, которая представляет собой нейронную сеть. Однако динамические изменения Q-показателей отличают обучение сети от классической настройки обучения под наблюдением.

  • 00:30:00 В этом разделе лекции профессор обсуждает проблемы, возникающие при применении глубокого обучения с подкреплением, поскольку оно существенно отличается от обучения с учителем. Одной из основных проблем является отсутствие меток, так как Q-показатели динамичны и постоянно меняются. Чтобы решить эту проблему, профессор описывает метод создания целевого значения или метки для Q-показателей на основе уравнения Беллмана. Используя этот прокси в качестве метки, сеть можно научить приближаться к оптимальной Q-функции с помощью итеративных обновлений, которые, как мы надеемся, приведут к конвергенции.

  • 00:35:00 В этом разделе обсуждается концепция уравнения Беллмана и его использование в обратном распространении в глубоком обучении с подкреплением. Уравнение Беллмана используется для вычисления значений, которые ближе к оптимальным значениям, которых мы пытаемся достичь с точки зрения вознаграждения. Функция Q генерируется и сравнивается с уравнением Беллмана для определения наилучшей функции Q. Однако в алгоритме есть вероятность расхождения, и сходимость алгоритма доказана в статье Франсиско Мело. Реализация алгоритма DQN объясняется с помощью псевдокода, который включает в себя инициализацию параметров Q-сети, перебор эпизодов, вычисление целевого значения с помощью уравнения Беллмана и обратное распространение с использованием фиксированной целевой сети Q.

  • 00:40:00 В этом разделе видео обсуждается практическое применение Deep Q-Network в игре Breakout. Цель Breakout — разрушить все кирпичи, не дав мячу пересечь нижнюю линию. После обучения с использованием Q-обучения агент придумал способ быстро закончить игру, прокопав туннель, чтобы добраться до другой стороны кирпичей. Сеть разработала эту стратегию самостоятельно, без участия человека. Входные данные Q-сети представляют собой представление функции, которое включает в себя положение мяча, ракетки и кирпичей. Однако для получения всей информации следует использовать пиксели. Выход сети — это три значения Q, представляющие действие движения влево, вправо или бездействия в определенном состоянии.

  • 00:45:00 В этом разделе спикер обсуждает различные методы предварительной обработки, помогающие настроить архитектуру глубокой сети Q для глубокого обучения с подкреплением, особенно при работе с изображениями. Первый метод включает в себя получение последовательных кадров для предоставления сети дополнительной информации, в то время как другие методы предварительной обработки включают уменьшение размера входных данных, преобразование оттенков серого для сжатия изображения и удаление неважных пикселей, таких как результаты в определенных играх. Докладчик предупреждает об опасности потери важной информации при преобразовании в оттенки серого и подробно объясняет архитектуру глубокой сети Q, говоря, что сверточные нейронные сети используются из-за того, что входными данными являются изображения. Наконец, спикер объясняет необходимость отслеживать конечное состояние, чтобы обеспечить правильное завершение цикла, что важно для функции y.

  • 00:50:00 В этом разделе лектор объясняет важность воспроизведения опыта в обучении с подкреплением, которое позволяет тренироваться на прошлом опыте, а не только на том, что изучается в настоящее время. Поскольку обучение с подкреплением тренируется только на том, что оно исследует, оно может никогда больше не сталкиваться с определенными переходами состояний, что делает прошлый опыт бесценным для обучения. Воспроизведение опыта создает память воспроизведения, в которой может храниться прошлый опыт, и во время обучения алгоритм может делать выборку из памяти воспроизведения в дополнение к изучению новых переходов состояний. Это позволяет многократно использовать прошлый опыт в обучении, что может иметь решающее значение для изучения важных точек данных.

  • 00:55:00 В этом разделе лекции спикер обсуждает преимущества воспроизведения опыта в глубоком обучении с подкреплением. Во-первых, это позволяет использовать данные много раз, а не только один раз, что повышает эффективность данных. Во-вторых, воспроизведение опыта декоррелирует опыт, предотвращая предвзятость сети в отношении многократного предсказания одного действия. Наконец, это позволяет обменивать вычисления и память на исследования, что является дорогостоящим. Спикер также говорит о компромиссе между эксплуатацией и исследованием в алгоритме RL и предлагает способ стимулировать исследование, не всегда предпринимая наилучшие действия.
  • 01:00:00 В этом разделе преподаватель и студенты обсуждают проблему компромисса между исследованием и эксплуатацией в обучении с подкреплением и предлагают решение с использованием гиперпараметра, который определяет, с какой вероятностью агент должен исследовать, а не использовать. Они объясняют, почему исследование имеет решающее значение, и добавляют строки в псевдокод для эпсилон-жадного исследования в памяти воспроизведения. Они подчеркивают, что основным преимуществом использования глубокого обучения в обучении с подкреплением является его способность хорошо аппроксимировать функции. Наконец, они кратко затрагивают тему человеческих знаний в обучении с подкреплением и почему важно оценивать производительность алгоритма.

  • 01:05:00 В этом разделе лекции профессор объясняет, какую важную роль в глубоком обучении с подкреплением (DRL) играют человеческие знания. Люди могут эффективно и инстинктивно интерпретировать контекстуальные сигналы, например, люди знают, что ключ открывает дверь, и это понимание может значительно улучшить алгоритмический процесс принятия решений. Трудность возникает при обучении алгоритмов с ограниченной контекстной информацией, таких как печально известная сложная игра «Месть Монтесумы» — подвиг, достигнутый DeepMind путем реализации алгоритмов поиска по дереву и глубокого обучения. Лекция кратко касается игры Alpha Go и того, как комбинированный поиск по дереву и сети ценности могут улучшить алгоритмические процессы принятия решений.

  • 01:10:00 В этом разделе лектор представляет градиенты политик, которые представляют собой совершенно другой класс алгоритмов из DQN, который оптимизируется для непосредственного сопоставления состояния с действием (политикой). Лектор объясняет, что в градиентах политики основное внимание уделяется самой политике, а не Q-значению, и что сеть политик обновляется с использованием градиента политики, в отличие от обновления Q-функции в DQN. С помощью различных видеороликов лектор объясняет различные методы градиентной политики, такие как проксимальная оптимизация политики (PPO) и конкурентная самостоятельная игра, и выделяет технические моменты перенастройки для реального агента перед вами, указывая на необходимость чередования разных версий агент, чтобы избежать переобучения. Наконец, лектор объясняет, как метаобучение тренируется на распределении похожих задач, чтобы можно было изучать конкретные задачи с минимальными шагами градиента.

  • 01:15:00 В этом разделе лекции спикер обсуждает дилемму исследования и эксплуатации и то, как это может быть проблемой, особенно когда вознаграждение невелико. Он рассказывает о недавней статье под названием «Унификация метаданных на основе подсчета для исследования», в которой представлена идея ведения подсчета количества посещений состояния и предоставления агенту внутренней награды за посещение состояний с меньшим количеством подсчетов. Это побуждает агента исследовать и искать больше, побуждая его открывать разные комнаты в игре. Докладчик также кратко обсуждает имитационное обучение и то, как оно может помочь, когда сложно определить вознаграждение.

  • 01:20:00 В этом разделе спикер кратко упоминает, что они рассмотрели работы по YOLO и YOLO v2 от Redmon et al. относительно обнаружения объектов.
Stanford CS230: Deep Learning | Autumn 2018 | Lecture 9 - Deep Reinforcement Learning
Stanford CS230: Deep Learning | Autumn 2018 | Lecture 9 - Deep Reinforcement Learning
  • 2019.04.03
  • www.youtube.com
Andrew Ng, Adjunct Professor & Kian Katanforoosh, Lecturer - Stanford Universityhttp://onlinehub.stanford.edu/Andrew NgAdjunct Professor, Computer ScienceKia...
 

Лекция 10 - Чат-боты / заключительные замечания



Stanford CS230: глубокое обучение | Осень 2018 | Лекция 10 - Чат-боты / заключительные замечания

Видео охватывает различные темы, связанные с созданием чат-ботов с глубоким обучением. Лектор обсуждает обработку естественного языка, поиск информации и обучение с подкреплением как методы создания чат-ботов. Подчеркивается важность контекста, классификации намерений, тегов слотов и совместного обучения. В лекции также рассматриваются способы автоматического создания данных для обучения чат-ботов, оценки их производительности и создания для них систем управления контекстом. Лектор призывает студентов использовать свои навыки для работы над значимыми проектами и возвышать человечество. Наконец, он благодарит студентов за их усердную работу и призывает их продолжать менять мир к лучшему с помощью ИИ.

  • 00:00:00 В этом разделе спикер представляет кейс о том, как создать чат-бот для помощи студентам в зачислении на курс или поиске информации. Спикер подчеркивает, что чат-боты являются важной промышленной темой и их сложно создать, а академическое сообщество помогло их улучшить. Чат-бот, созданный для этой ограниченной области, предполагает, что студенты будут просить только найти информацию о курсе или зарегистрироваться на курс. Спикер предлагает аудитории объединиться в группы и почерпнуть идеи о методах, которые можно использовать для реализации такого чат-бота. Некоторые из предложенных подходов включали использование RNN и перенос обучения для обработки естественного языка и поиска информации из предопределенного хранилища.

  • 00:05:00 В этом разделе видео обсуждается, как можно использовать обучение с подкреплением в чат-ботах, чтобы помочь принимать решения об ответах. Разговор между спикерами подчеркивает важность контекста и то, что исход разговора не всегда на каждом шагу. Обучение с подкреплением может помочь изучить политику для чат-бота, которая, учитывая состояние, может сказать нам, какие действия предпринять дальше. Также представлена лексика, обычно используемая в помощниках по разговору, включая высказывание, намерение и слоты, а также обсуждение одно- и многооборотных разговоров. Видео завершается сеансом мозгового штурма о типе сети и наборе данных, необходимых для обучения модели обнаружению намерений.

  • 00:10:00 В этом разделе лектор обсуждает использование фильтров для определения намерений, стоящих за пользовательским вводом в чат-ботах, которые могут работать лучше, чем рекуррентные нейронные сети, в случаях, когда предполагаемый пользовательский ввод всегда закодирован в небольшом количестве слов. . Лектор предлагает использовать классификаторы сверточной или рекуррентной последовательности для обнаружения слотов, которые определяют определенные фрагменты информации, которые чат-бот должен будет получить, чтобы помочь пользователю, например, время отправления и прибытия в случае чат-бота для бронирования авиабилетов. Лектор подчеркивает важность маркировки и кодирования данных в определенном формате для идентификации слотов в пользовательском вводе.

  • 00:15:00 В этом разделе лектор обсуждает возможность совместного обучения чат-ботов. Он предлагает использовать одну сеть, которая может выполнять как классификацию намерений, так и тегирование слотов, и эта сеть будет контролироваться двумя разными функциями потерь. Лектор также упоминает, что совместное обучение двух сетей обычно полезно, так как позволяет обеим сетям изучать функции одного типа. Кроме того, он представляет различные способы получения данных чат-ботов, такие как использование Mechanical Turk для ручного сбора аннотированных данных, наличие службы помощи в чате для ввода данных и автоматическое создание некоторых данных путем замены дат, курсов, кварталов и других тегов.

  • 00:20:00 В этом разделе спикер обсуждает способы автоматической генерации данных для обучения чат-ботов, такие как использование наборов данных дат, курсов и других тегов и заполнение слотов в высказываниях пользователей этими данными. Они также предлагают использовать теггеры частей речи и модели распознавания именованных сущностей для автоматической маркировки и маркировки наборов данных. Кроме того, спикер подчеркивает важность наличия как автоматически сгенерированных, так и размеченных вручную данных для предотвращения переобучения. Наконец, спикер демонстрирует, как чат-бот может определять намерения пользователя и заполнять слоты для выполнения таких задач, как зачисление учащегося в класс, даже если вся необходимая информация не предоставлена в первоначальном высказывании.

  • 00:25:00 В этом разделе видео объясняется процесс построения системы управления контекстом для чат-ботов с использованием сетей памяти. Система включает в себя запись всей истории высказываний пользователя в хранилище, которая сравнивается с их текущим высказыванием с использованием кодирования предложения с помощью встраивания слов и RNN. Затем с помощью внутреннего продукта softmax вычисляется вектор внимания, который дает чат-боту серию весов, чтобы определить, насколько каждое воспоминание относится к текущему высказыванию. Затем окончательный выходной вектор проходит через последовательность наложения слотов, где тегировщик может определить недостающие слоты для желаемой функции, такой как зачисление учащегося в класс.

  • 00:30:00 В этом разделе лектор рассказывает об ограничениях разговорных помощников и способах их преодоления. Один из подходов заключается в использовании графа знаний, в котором намерение пользователя может быть идентифицировано и прослеживается по графу, чтобы определить слоты, которые необходимо заполнить. Лектор объясняет, что графы знаний используются в промышленности для обработки нескольких намерений и соответствующих им слотов. Наконец, в лекции обсуждается, как оценить производительность чат-бота, где лектор цитирует исследовательскую работу, в которой описывается, как использовать Mechanical Turk для оценки ответов чат-бота.

  • 00:35:00 В этом разделе лекции профессор обсуждает способы оценки ответов чат-ботов и сравнения чат-ботов друг с другом с помощью мнений пользователей и экспериментов со средним мнением. Лекция переходит к обсуждению требований, необходимых для создания голосового помощника, включая системы преобразования речи в текст и текста в речь, и рекомендует дальнейшее чтение по теме для заинтересованных студентов. Наконец, профессор дает советы о том, что включить в классный проект, например, подробно объясняя решения, принятые в ходе проекта, сообщая о настройке гиперпараметров и отправляя код на GitHub для частного рассмотрения ассистентами.

  • 00:40:00 В этом разделе спикер призывает студентов не расстраиваться, если их проект не оправдал их ожиданий. Они подчеркивают, что все в порядке, если они не превзойдут современные достижения в каждой задаче, и напоминают студентам сообщать о своих результатах, объяснять, почему это не сработало, и давать рекомендации. Они также упоминают, что приложения разрешены для дополнительных страниц и что они будут оцениваться на основе их трехминутной презентации проекта и двухминутных вопросов от TA. Наконец, они поощряют студентов изучать другие предметы в университете, такие как компьютерное зрение и глубокие генеративные модели, а также подтверждают, что студенты Стэнфорда могут изменить мир к лучшему своей работой.

  • 00:45:00 В этом разделе Эндрю Нг обсуждает, как можно применять машинное обучение для решения важных и значимых проблем в обществе. Он приводит такие примеры, как оптимизация обжарки кофейных зерен и разработка приложения для диагностики рентгеновских лучей, которое могло бы значительно улучшить доступ к рентгенологическим услугам в районах, где их не хватает. Он призывает учащихся использовать свой уникальный набор навыков, полученных в классе, для работы над наиболее важными проектами, от улучшения здравоохранения до решения проблемы изменения климата и глобального образования. Нг считает, что количество значимых проектов превышает количество людей, обладающих навыками глубокого обучения, и что у всех студентов есть шанс изменить мир к лучшему.

  • 00:50:00 В этом разделе видео спикер рассказывает историю о вождении трактора и призывает слушателей развлекаться, выполняя содержательную работу. Он предполагает, что, хотя многие выпускники могут продолжить работу в технологической отрасли, они не должны упускать из виду неиспользованные возможности для ИИ за пределами индустрии программного обеспечения. Он призывает студентов использовать свои навыки, чтобы возвысить всю человеческую расу, работать в коммерческих и некоммерческих целях и влиять на правительство. Наконец, он благодарит студентов за их усердную работу в классе и надеется, что они будут использовать свои уникальные навыки ИИ для выполнения важной работы и помощи другим людям.
Stanford CS230: Deep Learning | Autumn 2018 | Lecture 10 - Chatbots / Closing Remarks
Stanford CS230: Deep Learning | Autumn 2018 | Lecture 10 - Chatbots / Closing Remarks
  • 2019.04.03
  • www.youtube.com
Andrew Ng, Adjunct Professor & Kian Katanforoosh, Lecturer - Stanford Universityhttp://onlinehub.stanford.edu/Andrew NgAdjunct Professor, Computer ScienceKia...
 

Часть 1/2 полного курса по машинному обучению — изучение машинного обучения, 10 часов | Учебник по машинному обучению | Эдурека




Для вашего удобства мы предоставляем общий график, а затем подробный для каждой части. Вы можете сразу перейти к нужному моменту, смотреть в удобном для вас режиме и ничего не пропустить.

  1. 00:00:00 - 01:00:00 Этот видеоурок по машинному обучению начинается с объяснения различий между искусственным интеллектом, машинным обучением и глубоким обучением, с акцентом на то, как работает машинное обучение путем извлечения закономерностей из наборов данных. Различные категории машинного обучения, включая контролируемое, неконтролируемое обучение и обучение с подкреплением, объясняются вместе с вариантами их использования в различных секторах, таких как банковское дело, здравоохранение и розничная торговля. Глубокое обучение также представлено как особый тип машинного обучения, который опирается на искусственные нейронные сети для изучения сложного отображения функций. В учебнике также рассказывается, как использовать Anaconda Navigator с блокнотом Jupyter, и демонстрируется, как создавать различные модели машинного обучения с использованием набора данных Iris.

  2. 01:00:00 - 02:00:00 Эта часть охватывает ряд тем, включая исследовательский анализ данных, создание проверочных наборов данных, построение моделей, базовую статистику, методы выборки, меры центральной тенденции и изменчивости, вероятность события, получение информации и энтропия, деревья решений и матрица путаницы. Учебник обеспечивает всестороннее понимание каждой темы и ее практического применения в машинном обучении. В учебном пособии подчеркивается важность статистических знаний, анализа данных и интерпретации для построения успешной модели.

  3. 02:00:00 - 03:00:00 Это видео охватывает различные темы, начиная с основ вероятности и распределения вероятностей, заканчивая линейной и логистической регрессией и, наконец, проверкой гипотез и алгоритмами обучения с учителем. Преподаватель объясняет различные типы вероятности и демонстрирует вероятностные задачи, а также рассказывает о концепции доверительного интервала и проверки гипотез в машинном обучении. Видео также дает представление об алгоритмах обучения с учителем, таких как линейная регрессия, логистическая регрессия и случайные леса. Наконец, инструктор объясняет, как рассчитать и определить уравнение линии регрессии, используя метод наименьших квадратов, и вводит понятие R-квадрата как меры соответствия данных.

  4. 03:00:00 - 04:00:00 На протяжении всего видео спикер использует реальные примеры, чтобы продемонстрировать, как применять концепции машинного обучения, такие как использование набора данных размеров головы и веса мозга для поиска линейной зависимости или анализа Катастрофа Титаника, чтобы определить, какие факторы влияют на выживаемость пассажиров. Кроме того, выступающий подчеркивает важность обработки и очистки данных для обеспечения точных результатов, прежде чем углубляться в масштабирование входных значений и знакомить с концепцией классификации.

  5. 04:00:00 - 05:00:00 В этом разделе курса машинного обучения рассматривается концепция деревьев решений и то, как их можно использовать для задач классификации. В видеоруководстве обсуждается процесс построения дерева решений, включая выбор корневого узла на основе полученной информации и обрезку дерева для повышения точности. В этом разделе также рассматривается использование Random Forest, коллекции деревьев решений, для принятия решений в различных областях, таких как банковское дело и маркетинг. Докладчик приводит примеры кодирования и пошаговое объяснение алгоритма, что облегчает его понимание новичками.

  6. 05:00:00 - 06:00:00 Видео содержит обзор различных алгоритмов машинного обучения, в том числе Random Forest, K-Nearest Neighbor (KNN) и Naive Bayes. В видео объясняется, как алгоритм Random Forest используется в банковской сфере для определения того, будет ли заявитель по кредиту дефолтом или нет, как можно использовать алгоритм KNN для прогнозирования размера футболки клиента и как наивный байесовский алгоритм Алгоритм может использоваться для фильтрации электронной почты и обнаружения спама. Видео также объясняет теорему Байеса и то, как ее можно реализовать в реальных сценариях с использованием набора данных. Кроме того, инструктор предоставляет практические примеры и демонстрации того, как реализовать эти алгоритмы с помощью Python и библиотеки scikit-learn.

  7. 06:00:00 - 07:00:00 Этот раздел учебного пособия «Полный курс машинного обучения» охватывает несколько сложных тем, включая машины опорных векторов, методы кластеризации (включая K-средние, нечеткие c-средние и иерархическую кластеризацию), анализ рыночной корзины, анализ ассоциативных правил и обучение с подкреплением. Алгоритм априори подробно объясняется для частого анализа наборов элементов и генерации правил ассоциации, а также приводится пример с использованием данных онлайн-транзакций из розничного магазина. В видео также рассматриваются концепции ценности и ценности действия, Марковского процесса принятия решений и исследования в сравнении с эксплуатацией в обучении с подкреплением. Сценарий проблемы с участием автономных роботов на автомобильном заводе используется в качестве иллюстрации обучения с подкреплением в действии.

  8. 07:00:00 - 07:50:00 Этот видеоурок по машинному обучению охватывает различные темы, в том числе уравнение Беллмана, Q-обучение, технические навыки, необходимые для того, чтобы стать успешным инженером по машинному обучению, тенденции заработной платы и должностные инструкции, а также обязанности. инженера по машинному обучению. В учебнике подчеркивается важность технических навыков, таких как языки программирования, линейная алгебра и статистика, а также нетехнических навыков, таких как деловая хватка, эффективное общение и знание отрасли. Спикер также обсуждает различные проекты машинного обучения с открытым исходным кодом, такие как Tensorflow.js, DensePose и BERT. В целом, учебник представляет собой всесторонний обзор машинного обучения и его приложений в различных областях.


Подробный график частей видеокурса


Часть 1

  • 00:00:00 В этом разделе объясняется, что машинное обучение — это область искусственного интеллекта, которая фокусируется на разработке систем, которые могут принимать решения и прогнозировать на основе данных, позволяя компьютерам действовать и принимать решения на основе данных без явного программирования. для конкретной задачи. В этом разделе также разъясняется путаница между искусственным интеллектом, машинным обучением и глубоким обучением, утверждая, что машинное обучение является подмножеством ИИ, которое занимается извлечением шаблонов из наборов данных. Кроме того, предоставляется программа курса, которая разработана в формате от начального до продвинутого и охватывает различные темы, включая контролируемое и неконтролируемое обучение, обучение с подкреплением и проекты, чтобы подготовить учащихся к работе в отрасли.

  • 00:05:00 В этом разделе объясняется разница между машинным обучением, ИИ и глубоким обучением. Машинное обучение — это процесс, в котором участвуют алгоритмы, которые могут адаптироваться к изменениям на основе помеченного или немаркированного набора обучающих данных, тогда как глубокое обучение — это подмножество машинного обучения, в котором используются нейронные сети для достижения большей точности. Затем вводятся три типа машинного обучения: обучение с учителем, обучение без учителя и обучение с подкреплением. Обучение с учителем объясняется как метод, в котором каждый экземпляр набора обучающих данных имеет входные атрибуты и ожидаемый результат, а алгоритм изучает шаблон ввода, который генерирует ожидаемый результат. Популярные алгоритмы обучения с учителем включают линейную регрессию, случайный лес и методы опорных векторов. Делятся примерами использования контролируемого обучения в банковском деле, здравоохранении, розничной торговле и автоматизации речи.

  • 00:10:00 В этом разделе видео объясняет две категории машинного обучения: контролируемое и неконтролируемое обучение. Обучение с учителем демонстрируется на примерах, таких как голосовые помощники, такие как Siri, или предсказание погодных условий, когда машине передаются данные и ожидаемые результаты, в то время как обучение без учителя — это когда нет ожидаемого результата, и машине предоставляется возможность обнаруживать скрытые структуры в данных. изучая узоры. Кластеризация приводится в качестве примера неконтролируемого обучения с использованием алгоритма k-средних, где похожие экземпляры данных группируются в кластеры для выявления закономерностей без добавления к ним меток. Объясняются различия между контролируемым и неконтролируемым обучением, при этом первое имеет ожидаемый результат, а второе остается для обнаружения скрытых структур.

  • 00:15:00 В этом разделе инструктор обсуждает применение неконтролируемого обучения в различных секторах, таких как банковское дело, здравоохранение и розничная торговля. В банковском секторе неконтролируемое обучение используется для сегментации клиентов с помощью кластеризации и опросов. В здравоохранении он используется для классификации данных МРТ и построения модели, которая распознает различные шаблоны. Наконец, в секторе розничной торговли неконтролируемое обучение используется для рекомендации продуктов клиентам на основе их прошлых покупок. Затем инструктор переходит к объяснению обучения с подкреплением, которое позволяет программным агентам определять идеальное поведение в контексте для максимизации производительности за счет использования двух механизмов: исследования и эксплуатации. Инструктор приводит пример обучения Павлова своей собаки с помощью обучения с подкреплением, прежде чем обсуждать применение обучения с подкреплением в различных секторах, таких как банковское дело, здравоохранение и розничная торговля.

  • 00:20:00 В этом разделе спикер объясняет разницу между искусственным интеллектом (ИИ) и машинным обучением (МО) и подчеркивает важность ИИ из-за стремительного роста данных в последние годы. Они описывают ИИ как метод, который позволяет машине воспроизводить поведение человека и учиться на собственном опыте. Они также обсуждают машинное обучение как подмножество ИИ, которое позволяет компьютерам принимать решения на основе данных и улучшаться с течением времени при воздействии новых данных. Кроме того, спикер подчеркивает важность уменьшения разницы между оценочным значением и фактическим значением в машинном обучении и обсуждает, как добавление дополнительных переменных и точек данных может помочь улучшить модель. Наконец, глубокое обучение представлено как ракетный двигатель, работающий на огромном количестве данных.

  • 00:25:00 В этом разделе мы узнаем о глубоком обучении, особом виде машинного обучения, вдохновленном функциональностью клеток мозга, называемых нейронами. Он использует искусственные нейронные сети, которые принимают соединения данных между искусственными нейронами и настраивают их в соответствии с шаблоном данных, позволяя системе изучать сложное отображение функций, не полагаясь на какой-либо конкретный алгоритм. Глубокое обучение автоматически определяет, какие функции наиболее важны для классификации, в отличие от машинного обучения, где функции необходимо задавать вручную. Глубокое обучение сильно зависит от высокопроизводительных машин и графических процессоров, которые выполняют большое количество операций умножения матриц, необходимых для оптимизации алгоритма. Напротив, алгоритмы машинного обучения могут работать на слабых машинах.

  • 00:30:00 В этом разделе подход к решению проблем традиционных алгоритмов машинного обучения сравнивается с подходом алгоритмов глубокого обучения. Первый включает в себя разбиение проблемы на части, решение их по отдельности, а затем их объединение для достижения желаемого результата. Напротив, алгоритмы глубокого обучения решают проблему от начала до конца. Однако алгоритмы глубокого обучения требуют больше времени для обучения из-за множества параметров в них. Во время тестирования алгоритмам глубокого обучения требуется меньше времени для запуска по сравнению с алгоритмами машинного обучения. Наконец, в промышленности предпочтительны деревья решений и линейная или логистическая регрессия, поскольку их легче интерпретировать, чем алгоритмы глубокого обучения.

  • 00:35:00 В этом разделе рассказчик объясняет, как загружать и использовать Anaconda Navigator для запуска приложений, управления пакетами conda и каналов через графический пользовательский интерфейс рабочего стола без необходимости использования команд командной строки. После загрузки Anaconda Navigator рассказчик сосредотачивается на блокноте Jupyter, который в основном представляет собой файл Json с тремя основными частями: метаданные, формат блокнота и список ячеек. На приборной панели есть три вкладки: другие файлы, работающие и кластеры. Эти вкладки содержат запущенные процессы и записные книжки и представляют список доступных кластеров. Диктор проходит через эти вкладки и объясняет их значение и параметры, такие как редактирование файлов, флажки, раскрывающиеся меню и кнопки «Домой», доступные на каждой вкладке.

  • 00:40:00 В этом разделе стенограммы спикер обсуждает типичный рабочий процесс блокнота Jupyter для анализа данных, который включает создание блокнота, добавление анализа, кодирования и вывода, а затем организацию и представление анализа с помощью Markdown. Докладчик отмечает, что безопасность в ноутбуках Jupyter может быть проблемой, и обсуждает механизмы безопасности по умолчанию, такие как очистка необработанного HTML и невозможность запуска внешнего JavaScript. Чтобы повысить безопасность ноутбука, спикер описывает, как создать дайджест-ключ безопасности и поделиться им с коллегами. Кроме того, спикер объясняет, как настроить параметры отображения с помощью Code Mirror, а затем демонстрирует, как выполнять код Python в блокноте Jupyter.

  • 00:45:00 В этом разделе видео инструктор демонстрирует, как создать и использовать блокнот Jupyter в Python. Пример включает создание новой записной книжки и выполнение кода Python в ячейках. Инструктор выделяет функцию нумерации ячеек и цветовой маркировки синтаксиса Jupyter, а также функции автосохранения и контрольных точек. Кроме того, они показывают, как читать и управлять набором данных с помощью библиотеки Pandas. Набор данных Iris импортируется, и базовая статистика рассчитывается по набору данных в демонстрационных целях.

  • 00:50:00 В этом разделе видео представляет различные алгоритмы машинного обучения, которые могут помочь ответить на такие вопросы, как рыночная стоимость дома, является ли электронное письмо спамом или присутствует какое-либо мошенничество. Первый алгоритм — это алгоритм классификации, который предсказывает категории на основе заданных данных. Алгоритм обнаружения аномалий используется для выявления необычных точек данных или выбросов, в то время как алгоритмы кластеризации группируют данные на основе схожих условий. Алгоритмы регрессии сами предсказывают точки данных, такие как рыночная стоимость дома. Видео демонстрирует, как создать шесть различных моделей машинного обучения с помощью набора данных Iris, известного набора данных, состоящего из измерений цветов, где в пятом столбце указан вид цветка. Этот набор данных считается хорошим для понимания числовых атрибутов и использования алгоритмов обучения с учителем.

  • 00:55:00 В этом разделе видеоурока инструктор подготавливает среду для программы машинного обучения Python с помощью Anaconda Navigator и блокнота Jupyter. Далее проверяется версия различных библиотек, используемых в программе. После этого набор данных цветка ириса загружается с использованием библиотеки Panda, и определяются имена столбцов. Наконец, печатается количество строк и столбцов в наборе данных, чтобы проверить, правильно ли он загружен, и просматривается образец набора данных.


Часть 2

  • 01:00:00 В этом разделе инструктор демонстрирует, как исследовать и понимать атрибуты заданного набора данных. В качестве примера используется набор данных о цветке ириса, и инструктор сначала отображает первые 30 экземпляров набора данных, а затем суммирует каждый атрибут с помощью функции описания. Также отображается количество экземпляров, принадлежащих каждому классу. Затем инструктор создает одномерные графики, в частности графики типа «ящик с усами», чтобы продемонстрировать распределение каждого входного атрибута. Объясняются значения общего доступа x и общего доступа y, и преподаватель решает не делиться этими значениями. Наконец, для каждой входной переменной создается гистограмма, чтобы лучше понять их распределение.

  • 01:05:00 В этом разделе курса машинного обучения основное внимание уделяется созданию моделей и оценке их точности на основе невидимых данных. Первым шагом является создание набора проверочных данных путем разделения загруженных данных на две части, где 80 % используются для обучения модели, а остальные 20 % удерживаются как набор проверочных данных. Затем модель оценивается с использованием статистических методов для оценки точности невидимых данных, и создается тестовая система с использованием 10-кратной перекрестной проверки для оценки отношения точности правильно спрогнозированных экземпляров к общему количеству экземпляров в наборе данных. Метрикой, используемой для оценки, является точность, которая дает процент точности прогноза.

  • 01:10:00 В этом разделе видео ведущий обсуждает создание пяти различных типов моделей с использованием шести различных алгоритмов, включая линейный дискриминантный анализ логистической регрессии, k-ближайший сосед, дерево решений, наивный байесовский метод и методы опорных векторов, чтобы определить наиболее точную модель для сравнения с другими. Ведущий объясняет, что оценка точности для каждой модели важна, и они запускают скрипт для тестирования каждой модели и выбора наиболее точной. Также важно, чтобы набор тестовых данных был независимым для окончательной проверки точности, предотвращая утечку данных или переоснащение. Докладчик подчеркивает важность понимания основных терминов в статистике и вероятности, которые являются фундаментальными для всех алгоритмов обучения, науки о данных и глубокого обучения.

  • 01:15:00 В этом разделе видео инструктор начинает с обсуждения важности данных и дает формальное определение данных как фактов и статистических данных, собранных для справки или анализа. Данные делятся на две подкатегории: качественные данные и количественные данные. Качественные данные имеют дело с характеристиками и дескрипторами, которые можно наблюдать субъективно, и далее делятся на номинальные и порядковые данные. С другой стороны, количественные данные имеют дело с числами и вещами и далее делятся на дискретные и непрерывные данные. Дискретные данные могут содержать конечное число возможных значений, в то время как непрерывные данные могут содержать бесконечное число возможных значений. Кроме того, инструктор объясняет разницу между дискретной переменной, также известной как категориальная переменная, и непрерывной переменной.

  • 01:20:00 В этом разделе спикер вводит понятие переменных и объясняет разницу между дискретными и непрерывными переменными, двумя типами данных. Кроме того, раздел охватывает независимые и зависимые переменные. Затем спикер переходит к определению статистики, которая представляет собой изучение того, как данные можно использовать для решения сложных задач. Статистика включает сбор данных, анализ, интерпретацию и представление. Докладчик приводит несколько примеров, где можно применять статистику, например, тестирование эффективности нового лекарства, анализ ставок на бейсбольный матч и выявление взаимосвязей переменных в бизнес-отчете. Раздел заканчивается объяснением базовой статистической терминологии, включая совокупность и выборку. Разница между ними заключается в том, что совокупность представляет собой набор лиц, объектов или событий, подлежащих анализу, а выборка представляет собой подмножество совокупности. Надлежащая выборка важна для представления всего населения и получения на его основе статистических данных.

  • 01:25:00 В этом разделе видео обсуждается понятие выборки и почему она используется в статистике. Выборка - это метод, используемый для изучения выборки населения, чтобы сделать выводы обо всем населении, не изучая всех в населении. Существует два основных типа методов выборки: вероятностная выборка и невероятностная выборка. Основное внимание в этом видео уделяется вероятностной выборке, которая включает три типа: случайная выборка, систематическая выборка и стратифицированная выборка. Видео также знакомит с двумя основными типами статистики: описательной статистикой и логической статистикой.

  • 01:30:00 В этом разделе инструктор объясняет разницу между описательной и логической статистикой. Описательная статистика используется для описания и обобщения характеристик конкретного набора данных, тогда как статистика логического вывода используется для прогнозирования и обобщения больших наборов данных на основе выборки. Меры центральной тенденции и меры изменчивости являются двумя важными мерами в описательной статистике. Меры центра включают среднее значение, медиану и моду, а меры изменчивости включают диапазон, межквартильный диапазон, дисперсию и стандартное отклонение. Пример нахождения средней или средней мощности автомобилей используется для иллюстрации концепции мер центральной тенденции.

  • 01:35:00 В этом разделе руководства инструктор объясняет показатели центральной тенденции, включая среднее значение, медиану и моду. Среднее значение вычисляется путем сложения всех значений переменной и последующего деления на количество точек данных. Медиана, представляющая собой среднее значение упорядоченного набора данных, рассчитывается путем получения среднего значения двух средних значений при четном числе точек данных. Мода, наиболее часто встречающееся значение в наборе данных, вычисляется путем проверки того, какое значение повторяется наибольшее количество раз. Затем инструктор описывает показатели разброса, которые включают диапазон, межквартильный диапазон (IQR), дисперсию и стандартное отклонение. Квартили делят набор данных на четыре части, чтобы получить IQR.

  • 01:40:00 В этом разделе видео инструктор объясняет понятия межквартильного диапазона, дисперсии, отклонения, выборочной дисперсии, дисперсии генеральной совокупности и стандартного отклонения. Он предоставляет формулы для расчета этих показателей изменчивости и приводит пример расчета стандартного отклонения. Представлены концепции получения информации и энтропии, которые важны для построения алгоритмов машинного обучения, таких как деревья решений и случайный лес. Преподаватель объясняет, что энтропия является мерой неопределенности данных, и дает формулу для ее расчета.

  • 01:45:00 В этом разделе видео ведущий объясняет концепции вероятности события, прироста информации и энтропии, используя прецедент прогнозирования того, можно ли будет сыграть матч, исходя из погодных условий. В представлении используются деревья решений, где самый верхний узел является корневым узлом, а ветви, ведущие к другим узлам, содержат либо да, либо нет. Показано, что переменная пасмурности является определенным и определенным выходом, в то время как Солнечно и Дождь имеют смешанные выходы, показывающие уровень примеси, основанный на возможности определить, ведется игра или нет. Понятия энтропии и прироста информации используются для измерения примеси или неопределенности результата.

  • 01:50:00 В этом разделе видео инструктор объясняет, как выбрать наилучшую переменную или атрибут для разделения данных в дереве решений с использованием показателей энтропии и прироста информации. Показана формула для энтропии с примером расчета, результатом которого является значение 0,9940. Затем представлены все возможные комбинации для корневых узлов, а именно Outlook, Windy, Humidity и Temperature. Прирост информации рассчитывается для каждого атрибута, при этом переменная, дающая наибольший прирост информации, считается наиболее значимой и выбирается в качестве корневого узла, обеспечивая наиболее точный результат. Прирост информации для Windy низкий, в то время как значения Outlook и Humidity приличные, но меньше, чем у Outlook, который имеет самое высокое значение прироста информации.

  • 01:55:00 В этом разделе докладчик объясняет концепцию матрицы путаницы, которая представляет собой матрицу, используемую для оценки производительности модели классификации путем сравнения фактических и прогнозируемых результатов. Матрица путаницы представляет количество истинных положительных результатов, истинных отрицательных результатов, ложных положительных результатов и ложных отрицательных результатов в прогнозах модели. Докладчик приводит пример, рассматривая набор данных из 165 пациентов, из которых 105 имеют заболевание, а 50 — нет. Докладчик объясняет, как рассчитать точность модели, используя матрицу путаницы, и показывает, как интерпретировать результаты матрицы.


Часть 3

  • 02:00:00 В этом разделе концепция матрицы путаницы была объяснена в контексте машинного обучения. Матрица включает в себя истинные положительные, истинные отрицательные, ложные положительные и ложные отрицательные результаты, которые связаны с точностью прогнозов, сделанных моделью. В этом разделе также были рассмотрены основы вероятности, в том числе взаимосвязь между вероятностью и статистикой, а также различные термины, связанные с вероятностью, такие как случайный эксперимент, выборочное пространство и событие. Также обсуждались непересекающиеся и непересекающиеся события с примерами, иллюстрирующими различия между ними.

  • 02:05:00 В этом разделе инструктор обсуждает вероятность и распределение вероятностей, уделяя особое внимание функции плотности вероятности (PDF), нормальному распределению и центральной предельной теореме. PDF используется для нахождения вероятности непрерывной случайной величины в указанном диапазоне, а график является непрерывным в диапазоне, площадь которого ограничена кривой функции плотности, а ось x равна 1. Нормальное распределение, также известное как распределение Гаусса, представляет собой симметричное свойство среднего, при этом данные, близкие к среднему, встречаются чаще, чем данные, удаленные от среднего, и отображается в виде кривой нормального распределения. Наконец, центральная предельная теорема утверждает, что выборочное распределение среднего значения любой независимой случайной величины будет нормальным или почти нормальным, если размер выборки достаточно велик.

  • 02:10:00 определяется путем вычисления предельной вероятности, которая представляет собой вероятность того, что событие произойдет безоговорочно на любом другом событии. В данном варианте использования вероятность составляет 45/105, так как из 105 кандидатов 45 зарегистрировались на обучение Adder the curse. Важно понимать различные типы вероятности, включая предельную, совместную и условную вероятность, для решения различных задач. Совместная вероятность измеряет два события, происходящие одновременно, а условная вероятность — это вероятность события или исхода, основанная на возникновении предыдущего события или исхода.

  • 02:15:00 В этом разделе инструктор объясняет различные типы вероятностных задач и демонстрирует, как их вычислять. Проблема совместной вероятности решается путем рассмотрения числа людей, прошедших определенную подготовку и имеющих хороший пакет. Задача условной вероятности заключается в том, чтобы найти вероятность того, что у кандидата будет хороший пакет при условии, что он не прошел обучение. Теорема Байеса, которая используется в алгоритме Наивного Байеса, вводится как способ показать связь между одной условной вероятностью и ее обратной. Для лучшего понимания теоремы приведен пример, в котором вероятность вытягивания синего шара рассчитывается из чаши, если мы знаем, что всего было вытащено два синих шара.

  • 02:20:00 В этом разделе видео рассказывается о решении вероятностной задачи с использованием условной вероятности и нахождении вероятности возникновения событий. Задача состоит в том, чтобы выбрать два синих шара из группы мешков и найти вероятность того, что вы вытащите синий шар из определенного мешка, вытащив при этом ровно два синих шара. Решение включает в себя нахождение вероятностей выбора ровно двух синих шаров и извлечения синего шара из мешка при условии, что было выбрано два синих шара. Видео также знакомит с выводной статистикой и точечной оценкой, которая включает использование выборочных данных для оценки неизвестных параметров совокупности, таких как среднее значение. Видео объясняет понятия оценщика и оценки в балльной оценке.

  • 02:25:00 В этом разделе видео рассказывается о различных методах нахождения оценок, включая метод моментов, метод максимального правдоподобия, базовую оценку и наилучшие несмещенные оценки. Однако наиболее известным методом нахождения оценок является интервальная оценка, которая включает построение диапазона значений, в пределах которого может встречаться значение параметра. Отсюда возникают два важных статистических понятия: доверительный интервал и предел погрешности. Доверительный интервал измеряет уровень достоверности того, что оцениваемый интервал содержит параметр генеральной совокупности, а предел погрешности — это величина ошибки, допустимая при оценке. Видео представляет собой пример опроса, в котором используется доверительный интервал для оценки количества банок кошачьего корма, купленных владельцами кошек за год.

  • 02:30:00 В этом разделе обсуждается концепция доверительного интервала и проверки гипотез в машинном обучении. Доверительный интервал — это диапазон значений, который дает вероятную оценку неизвестного параметра совокупности. Уровень достоверности указывается как вероятность того, что интервальная оценка содержит этот параметр генеральной совокупности. Погрешность — это максимально возможное расстояние между точечной оценкой и значением оцениваемого ею параметра. Обсуждается формула для расчета погрешности, а также пример постановки задачи. Раздел переходит к проверке гипотез, которая представляет собой статистический метод, используемый для формальной проверки того, принимается или отвергается гипотеза.

  • 02:35:00 В этом разделе пример проверки гипотез используется для объяснения концепции нулевой и альтернативной гипотезы в статистике. В примере участвовали четыре мальчика, которых поймали на том, что они спали в классе, и, чтобы решить, кто будет убирать класс, они выбирали имена из миски. Предполагая, что событие было честным, вероятность того, что Джон не обманул, была рассчитана с помощью проверки гипотез. Было введено понятие порогового значения, и было объяснено, что если вероятность лежит ниже порогового значения, то Джон жульничает, чтобы выйти из-под стражи. Затем раздел переходит к объяснению обучения с учителем, когда алгоритм изучает функцию отображения от ввода к выводу с использованием набора данных. Объясняется рабочий процесс обучения с учителем и приводятся примеры алгоритмов обучения с учителем, включая линейную регрессию, логистическую регрессию, случайные леса и наивные байесовские классификаторы.

  • 02:40:00 В этом разделе в видео объясняются различные типы алгоритмов машинного обучения, которые подпадают под контролируемое обучение, начиная с линейной регрессии, одного из самых простых алгоритмов машинного обучения, который используется для демонстрации взаимосвязи между двумя переменными с помощью линейное уравнение. В видео также объясняются различные типы регрессионного анализа, его использование и определение силы предикторов с помощью регрессионного анализа. Кроме того, видео проливает свет на две популярные формы регрессионного анализа: линейную регрессию и логистическую регрессию, а также на их различия: линейная регрессия используется для демонстрации корреляции между двумя переменными, тогда как логистическая регрессия сопоставляет Y и X с сигмовидной функцией.

  • 02:45:00 В этом разделе объясняется разница между линейной и логистической регрессией. В моделях линейной регрессии используются непрерывные переменные и они отображаются в виде прямой линии, а в моделях логистической регрессии используются категориальные переменные и отображаются в виде сигмовидной функции. Линейная регрессия используется для прогнозирования непрерывных переменных, таких как продажи или температура, а логистическая регрессия используется для принятия верных или ложных решений на основе вероятности возникновения события. Линейная регрессия не подходит для моделей классификации, поскольку модель необходимо изменять при добавлении каждой новой точки данных. В этом разделе также обсуждаются критерии выбора для использования линейной регрессии, такие как ее вычислительная сложность и простота понимания. Линейная регрессия используется в бизнесе для оценки тенденций, анализа влияния изменений цен и оценки рисков в сфере финансовых услуг и страхования.

  • 02:50:00 В этом разделе видео рассказывается о линейной регрессии и о том, как найти наиболее подходящую линию. В видео используется пример построения графика со скоростью по оси x и расстоянием по оси y, чтобы показать положительную связь между переменными, и со скоростью по оси x и временем, затраченным на ось y, чтобы показать отрицательное отношение. В видео также объясняется, как рассчитать среднее значение X и Y и нанести его на график, прежде чем найти уравнение линии регрессии с помощью метода наименьших квадратов. Цель состоит в том, чтобы свести к минимуму ошибку между расчетным значением и фактическим значением.

  • 02:55:00 В этом разделе видео инструктор объясняет, как рассчитать уравнение линии регрессии, используя метод наименьших квадратов, который включает в себя вычисление наклона (m) и точки пересечения с осью y (c) линии наилучшего соответствия который минимизирует расстояние между фактическими и прогнозируемыми значениями для набора точек данных. Преподаватель демонстрирует, как использовать формулы, чтобы найти предсказанные значения y для заданных значений x, подставив их в уравнение линии регрессии. Понятие R-квадрата также вводится как статистическая мера того, насколько хорошо данные соответствуют линии регрессии, при этом высокое значение R-квадрата указывает на хорошее соответствие.


Часть 4

  • 03:00:00 В этом разделе видео инструктор объясняет, как рассчитать R-квадрат, который является показателем для оценки модели в регрессионном анализе. Квадрат вычисляется для проверки и сравнения расстояний между фактическими значениями и прогнозируемыми значениями. Квадрат — это отношение суммы прогнозируемых значений за вычетом среднего значения Y, деленное на сумму фактических значений за вычетом среднего значения Y, которые затем возводятся в квадрат. Результирующее значение R-квадрата может варьироваться от 0 до 1, где значение 1 означает, что фактические значения лежат на самой линии регрессии, тогда как значение 0,02 означает, что в данных слишком много выбросов, что затрудняет их анализ. анализировать. Однако ожидается, что поля, основанные на психологии, будут иметь более низкие значения R-квадрата, поскольку человеческое поведение труднее предсказать, но ценную информацию все же можно получить, поскольку значимые коэффициенты представляют среднее изменение реакции на одну единицу изменения предиктора.

  • 03:05:00 В этом разделе видео рассказывается о реализации линейной регрессии в Python с использованием Anaconda с установленным на ней блокнотом Jupyter. В учебнике используется набор данных о размерах головы и весе мозга разных людей, и цель состоит в том, чтобы найти линейную зависимость между двумя переменными. После импорта набора данных учебник собирает X и Y, которые состоят из значений размера головы и веса мозга соответственно. Затем он вычисляет значения B1, B0 или M и C, используя среднее значение значений X и Y и формулу простой линейной регрессии. В учебнике также рассматривается построение линейной модели и вычисление значения R-квадрата для оценки соответствия модели. Наконец, видео знакомит с логистической регрессией, которая используется, когда зависимая переменная имеет двоичный формат и носит категориальный характер.

  • 03:10:00 В этом разделе видео объясняется концепция логистической регрессии, которая используется, когда прогнозируемое значение равно 0 или 1, в отличие от линейной регрессии, находящейся в непрерывном диапазоне. Вводится сигмовидная кривая или кривая S, которая формируется уравнением для получения либо 0, либо 1 дискретных значений в двоичном формате. Объясняется концепция порогового значения, которое разделяет линию и помогает решить, равен ли результат 0 или 1. Подчеркиваются различия между линейной и логистической регрессией, в частности то, что линейная регрессия имеет непрерывные переменные, тогда как логистическая регрессия имеет категориальные переменные с только два значения.

  • 03:15:00 В этом разделе учебника обсуждается разница между линейной регрессией и логистической регрессией в машинном обучении. Линейная регрессия решает задачи регрессии, используя линейный график, где значение y может быть рассчитано относительно значения x, а логистическая регрессия решает задачи классификации, используя сигмовидную кривую. Логистическая регрессия может выполнять многоклассовую классификацию и может использоваться для прогнозирования погоды и определения болезни пациента. В учебнике представлены реальные примеры того, как можно реализовать логистическую регрессию, и далее объясняется, как она будет использоваться для анализа набора данных о катастрофе Титаника в проекте.

  • 03:20:00 В этом разделе спикер представляет различные функции набора данных Титаника, которые включают количество братьев и сестер, супругов, родителей и детей на борту, номер билета, стоимость проезда, номер стола и колонку отправления. Спикер объясняет важность анализа и изучения данных, чтобы понять факторы, влияющие на выживаемость пассажиров. Объясняются три этапа обработки, построения и тестирования модели, а докладчик продолжает демонстрацию того, как собирать данные и импортировать необходимые библиотеки и модули с помощью Jupyter Notebook. Докладчик также рассказывает о библиотеках pandas, numpy, seaborn, matplotlib и maths и их использовании для анализа данных с помощью Python.

  • 03:25:00 В этом разделе видео инструктор обсуждает процесс анализа данных в машинном обучении. Первым шагом является создание различных графиков для проверки взаимосвязи между переменными, например, как одна переменная влияет на другую. Можно строить различные типы графиков, например, графики корреляции или кривые распределения, используя такие библиотеки, как Seaborn и Pandas. Инструктор демонстрирует, как строить графики подсчета для сравнения выживаемости пассажиров мужского и женского пола, график, основанный на классе пассажиров, и гистограммы для анализа столбцов возраста и стоимости проезда. Эти графики помогают сделать выводы о наборе данных, например о том, что выжило больше женщин, чем мужчин, и у пассажиров более высокого класса было больше шансов на выживание.

  • 03:30:00 В этом разделе видео инструктор обсуждает обработку данных, которая включает в себя очистку данных и удаление всех ненужных столбцов или пустых значений, так как это может напрямую повлиять на точность результатов. Преподаватель демонстрирует, как проверить наличие пропущенных значений и удалить их, либо заменив их фиктивными значениями, либо полностью удалив столбец. Они также анализируют отсутствующие данные с помощью тепловой карты и предоставляют примеры того, как визуализировать данные с помощью коробчатых диаграмм. Преподаватель объясняет, что обработка данных является важным этапом в процессе машинного обучения, и подчеркивает важность очистки данных для получения точных результатов.

  • 03:35:00 В этом разделе видео рассказывается об обработке или очистке данных путем удаления столбца с большим количеством нулевых значений и преобразования строковых значений в категориальные переменные с помощью pandas. Цель состоит в том, чтобы подготовить набор данных для логистической регрессии, для которой в качестве входных данных требуются числовые переменные. Видео демонстрирует удаление столбца «Кабина» и удаление нулевых значений с помощью функций drop и sum соответственно. Затем строковые значения преобразуются в двоичные переменные с помощью функции get_dummies от pandas для таких переменных, как пол и Embark. Полученный набор данных имеет числовые переменные, которые можно использовать в логистической регрессии.

  • 03:40:00 В этом разделе видео знакомит с обработкой данных, которая включает в себя очистку и преобразование данных в форму, пригодную для анализа. В качестве примера используется набор данных Titanic, в котором такие столбцы, как пол, посадка и класс пассажиров, преобразуются в категориальные переменные с двоичными значениями. Затем нерелевантные столбцы удаляются, чтобы создать окончательный набор данных, который включает уцелевший столбец в качестве зависимой переменной, а другие столбцы — в качестве независимых переменных или признаков. Затем данные разбиваются на подмножества для обучения и тестирования с помощью SKLearn.

  • 03:45:00 В этом разделе инструктор демонстрирует, как разделить набор данных с помощью функции разделения на примерах из документации. Затем инструктор создает модель логистической регрессии с помощью модуля sklearn и сопоставляет ее с обучающими данными. Затем с помощью обученной модели делаются прогнозы, а точность оценивается с помощью функций отчета о классификации и матрицы путаницы. Кратко объясняется концепция матрицы путаницы, а оценка точности рассчитывается путем импорта функции оценки точности из модуля sklearn. Полученный итоговый показатель точности составляет 78%, что считается хорошим результатом.

  • 03:50:00 В этом разделе видео обсуждаются два проекта: расчет точности с использованием телефонных номеров и анализ данных о внедорожниках для определения факторов, побуждающих к покупке. Чтобы рассчитать точность в первом проекте, ведущий показывает, как вручную вычислить сумму телефонных номеров и разделить ее на сумму всех телефонных номеров, чтобы получить точность 78%. Для данных внедорожников используется логистическая регрессия, чтобы определить, какие факторы влияют на решение человека купить внедорожник. В видеоролике показано, как импортировать библиотеки, определять независимые и зависимые переменные и разбивать набор данных на подмножества для обучения и тестирования. Кроме того, в видео упоминается использование стандартного масштабирования входных значений для повышения производительности.

  • 03:55:00 В этом разделе ведущий обсуждает важность уменьшения входных значений для повышения производительности алгоритмов машинного обучения. Они демонстрируют, как уменьшать входные значения с помощью стандартного масштабатора и применять логистическую регрессию для прогнозирования новых данных. Затем точность модели рассчитывается с использованием функции оценки точности от Scikit-learn. Докладчик также знакомит с концепцией классификации и ее важностью для классификации данных по различным категориям или группам на основе определенных условий. Они объясняют, что этот процесс используется для прогнозного анализа данных, например, для выявления спам-сообщений или обнаружения мошеннических транзакций.
Machine Learning Full Course - Learn Machine Learning 10 Hours | Machine Learning Tutorial | Edureka
Machine Learning Full Course - Learn Machine Learning 10 Hours | Machine Learning Tutorial | Edureka
  • 2019.09.22
  • www.youtube.com
🔥 Machine Learning Engineer Masters Program (Use Code "𝐘𝐎𝐔𝐓𝐔𝐁𝐄𝟐𝟎"): https://www.edureka.co/masters-program/machine-learning-engineer-trainingThis E...
 

Часть 2/2 полного курса по машинному обучению — изучение машинного обучения, 10 часов | Учебник по машинному обучению | Эдурека



Для вашего удобства мы предоставляем общий график, а затем подробный для каждой части. Вы можете сразу перейти к нужному моменту, смотреть в удобном для вас режиме и ничего не пропустить.

  1. 00:00:00 - 01:00:00 Этот видеоурок по машинному обучению начинается с объяснения различий между искусственным интеллектом, машинным обучением и глубоким обучением, с акцентом на то, как работает машинное обучение путем извлечения шаблонов из наборов данных. Различные категории машинного обучения, включая контролируемое, неконтролируемое обучение и обучение с подкреплением, объясняются вместе с вариантами их использования в различных секторах, таких как банковское дело, здравоохранение и розничная торговля. Глубокое обучение также представлено как особый тип машинного обучения, который опирается на искусственные нейронные сети для изучения сложного отображения функций. В учебнике также рассказывается, как использовать Anaconda Navigator с блокнотом Jupyter, и демонстрируется, как создавать различные модели машинного обучения с использованием набора данных Iris.

  2. 01:00:00 - 02:00:00 Эта часть охватывает ряд тем, включая исследовательский анализ данных, создание проверочных наборов данных, построение моделей, базовую статистику, методы выборки, меры центральной тенденции и изменчивости, вероятность события, получение информации и энтропия, деревья решений и матрица путаницы. Учебник обеспечивает всестороннее понимание каждой темы и ее практического применения в машинном обучении. В учебном пособии подчеркивается важность статистических знаний, анализа данных и интерпретации для построения успешной модели.

  3. 02:00:00 - 03:00:00 Это видео охватывает различные темы, начиная с основ вероятности и распределения вероятностей, заканчивая линейной и логистической регрессией и, наконец, проверкой гипотез и алгоритмами обучения с учителем. Преподаватель объясняет различные типы вероятности и демонстрирует вероятностные задачи, а также рассказывает о концепции доверительного интервала и проверки гипотез в машинном обучении. Видео также дает представление об алгоритмах обучения с учителем, таких как линейная регрессия, логистическая регрессия и случайные леса. Наконец, инструктор объясняет, как рассчитать и определить уравнение линии регрессии, используя метод наименьших квадратов, и вводит понятие R-квадрата как меры соответствия данных.

  4. 03:00:00 - 04:00:00 На протяжении всего видео спикер использует реальные примеры, чтобы продемонстрировать, как применять концепции машинного обучения, такие как использование набора данных размеров головы и веса мозга для поиска линейной зависимости или анализа Катастрофа Титаника, чтобы определить, какие факторы влияют на выживаемость пассажиров. Кроме того, выступающий подчеркивает важность обработки и очистки данных для обеспечения точных результатов, прежде чем углубляться в масштабирование входных значений и знакомить с концепцией классификации.

  5. 04:00:00 - 05:00:00 В этом разделе курса машинного обучения рассматривается концепция деревьев решений и то, как их можно использовать для задач классификации. В видеоруководстве обсуждается процесс построения дерева решений, включая выбор корневого узла на основе полученной информации и обрезку дерева для повышения точности. В этом разделе также рассматривается использование Random Forest, коллекции деревьев решений, для принятия решений в различных областях, таких как банковское дело и маркетинг. Докладчик приводит примеры кодирования и пошаговое объяснение алгоритма, что облегчает его понимание новичками.

  6. 05:00:00 - 06:00:00 Видео содержит обзор различных алгоритмов машинного обучения, в том числе Random Forest, K-Nearest Neighbor (KNN) и Naive Bayes. В видео объясняется, как алгоритм Random Forest используется в банковской сфере для определения того, будет ли заявитель по кредиту дефолтом или нет, как можно использовать алгоритм KNN для прогнозирования размера футболки клиента и как наивный байесовский алгоритм Алгоритм может использоваться для фильтрации электронной почты и обнаружения спама. Видео также объясняет теорему Байеса и то, как ее можно реализовать в реальных сценариях с использованием набора данных. Кроме того, инструктор предоставляет практические примеры и демонстрации того, как реализовать эти алгоритмы с помощью Python и библиотеки scikit-learn.

  7. 06:00:00 - 07:00:00 Этот раздел учебного пособия «Полный курс машинного обучения» охватывает несколько сложных тем, включая машины опорных векторов, методы кластеризации (включая K-средние, нечеткие c-средние и иерархическую кластеризацию), анализ рыночной корзины, анализ ассоциативных правил и обучение с подкреплением. Алгоритм априори подробно объясняется для частого анализа наборов элементов и генерации правил ассоциации, а также приводится пример с использованием данных онлайн-транзакций из розничного магазина. В видео также рассматриваются концепции ценности и ценности действия, Марковского процесса принятия решений и исследования в сравнении с эксплуатацией в обучении с подкреплением. Сценарий проблемы с участием автономных роботов на автомобильном заводе используется в качестве иллюстрации обучения с подкреплением в действии.

  8. 07:00:00 - 07:50:00 Этот видеоурок по машинному обучению охватывает различные темы, в том числе уравнение Беллмана, Q-обучение, технические навыки, необходимые для того, чтобы стать успешным инженером по машинному обучению, тенденции заработной платы и должностные инструкции, а также обязанности. инженера по машинному обучению. В учебнике подчеркивается важность технических навыков, таких как языки программирования, линейная алгебра и статистика, а также нетехнических навыков, таких как деловая хватка, эффективное общение и знание отрасли. Спикер также обсуждает различные проекты машинного обучения с открытым исходным кодом, такие как Tensorflow.js, DensePose и BERT. В целом, учебник представляет собой всесторонний обзор машинного обучения и его приложений в различных областях.

Подробный график частей видеокурса


Часть 5

  • 04:00:00 В этом разделе видеокурса по машинному обучению инструктор приводит примеры прогнозного анализа и его применения для классификации различных предметов, таких как фрукты, автомобили, дома и т. д. Лекция охватывает несколько методов классификации, включая дерево решений, случайный лес, метод k-ближайшего соседа и наивный байесовский метод. Дерево решений использует графическое представление возможных решений для решения, в то время как случайный лес строит несколько деревьев решений и объединяет их для повышения точности. K-ближайший сосед — это метод классификации, основанный на теореме Байеса, а наивный байесовский алгоритм — это простой в реализации алгоритм, используемый для классификации документов.

  • 04:05:00 В этом разделе видео обсуждаются различные алгоритмы машинного обучения, такие как K-ближайший сосед (KNN) и деревья решений. KNN — это алгоритм классификации, который относит объект к категории на основе меры сходства его ближайших соседей. Его можно использовать для различных приложений, включая визуальное распознавание образов и анализ розничных транзакций. С другой стороны, деревья решений представляют собой графическое представление всех возможных решений решения, основанного на определенных условиях. Это интерпретируемые модели, которые позволяют пользователям понять, почему классификатор принял то или иное решение. Видео заканчивается реальным сценарием использования дерева решений при звонках в компании-эмитенты кредитных карт.

  • 04:10:00 В этом разделе видео инструктор обсуждает деревья решений в машинном обучении. Он использует пример принятия решения о том, принимать ли предложение о работе или нет, и создания дерева решений на основе различных условий, таких как зарплата, время в пути и предлагает ли компания бесплатный кофе. Затем он переходит к объяснению процесса построения дерева решений и используемого алгоритма под названием CART — Алгоритм дерева классификации и регрессии. Он также охватывает терминологию дерева решений, включая корневой узел, конечный узел и разделение. Наконец, он объясняет, как вопросы для дерева определяются набором данных и как количественно определить неопределенность с помощью метрики примесей Джини.

  • 04:15:00 В этом разделе видео знакомит с деревьями решений и объясняет концепцию разделения и обрезки ветвей или поддеревьев, а также родительских и дочерних узлов в дереве решений. В видео также показан процесс проектирования дерева решений и определения наилучшего атрибута на основе расчета максимального прироста информации, который измеряется снижением энтропии после разделения данных на основе атрибута. Видео объясняет концепцию энтропии как меры примеси или случайности в анализируемых данных.

  • 04:20:00 В этом разделе видео объясняется концепция энтропии и прироста информации в деревьях решений. Введена математическая формула для энтропии и показано, что значение энтропии максимально, когда вероятность да и нет равны, и равна нулю, когда вероятность да или нет равна единице. Также объясняется, что прирост информации измеряет снижение энтропии и помогает выбрать атрибут, который будет выбран в качестве узла решения в дереве решений. Дан пошаговый пример расчета энтропии и прироста информации для различных атрибутов в наборе данных для выбора корневого узла дерева решений.

  • 04:25:00 В этом разделе курса машинного обучения мы узнаем о процессе расчета прироста информации в деревьях решений. Используемая формула представляет собой энтропию общего пространства выборки минус средневзвешенную энтропию X каждого признака. Прирост информации рассчитывается сначала для параметра Outlook, а затем для параметра Wendy. Энтропия каждого признака определяется путем вычисления вероятности «да» и «нет» для данного параметра. Информация, полученная от Венди, представляет собой сумму информации, полученной, когда Венди равна истинной и ложной. Последним шагом является вычисление информации, полученной от Венди, которая представляет собой общую энтропию за вычетом информации, полученной от Венди.

  • 04:30:00 В этом разделе видео раскрывает концепцию получения информации и обрезки дерева решений. Прирост информации рассчитывается, чтобы определить, какой атрибут выбрать в качестве корневого узла для дерева решений. Видео демонстрирует, как построить дерево решений с помощью алгоритма CART и Python, а также объясняет, когда деревья решений могут быть предпочтительнее других алгоритмов машинного обучения. Раздел завершается введением в Jupyter Notebook и примером набора данных для классификатора дерева решений.

  • 04:35:00 В этом разделе видеоурока рассматриваются различные функции и классы, используемые для построения дерева решений в машинном обучении. Набор обучающих данных определяется примерами и метками, а столбцы заголовков добавляются для целей печати. Затем в учебнике показано, как найти уникальные значения и подсчитать различные типы меток в наборе данных, а также как проверить, является ли значение числовым или нет. Затем в учебнике определяется класс вопросов, который используется для разделения набора данных на основе столбца и его значения, а также представлена функция для расчета примеси Джини и прироста информации. Наконец, функция для построения дерева решений определяется с использованием этих ранее определенных функций и классов.

  • 04:40:00 В этом разделе видео дает пошаговое объяснение алгоритма дерева решений и того, как его можно использовать для задач классификации. Учебное пособие включает примеры кодирования и обсуждает концепции получения информации, конечных узлов, узлов вопросов и построения рекурсивных ветвей. Заключительная часть видео представляет Random Forest как решение для изучения моделей на основе данных и управления процессом принятия решений с помощью простого варианта использования для обнаружения кредитных рисков для компаний, выпускающих кредитные карты. Цель состоит в том, чтобы выявить мошеннические транзакции до того, как будет нанесен слишком большой финансовый ущерб, учитывая, что предполагаемый ущерб от несанкционированных транзакций в США в 2012 году составил 6,1 миллиарда долларов.

  • 04:45:00 В этом разделе спикер обсуждает использование переменных-предикторов для предсказания того, одобрять заявку на кредит или нет, и как случайный лес может помочь минимизировать потери. Докладчик демонстрирует сценарий, в котором две переменные-предикторы, доход и возраст, используются для реализации двух деревьев решений, чтобы предсказать вероятность того, что заявитель погасит кредит. Если доход заявителя превышает 35 000 долларов США или у него хорошая кредитная история, заявка на получение кредита, скорее всего, будет одобрена. Если заявитель молод и учится, имеет банковский счет менее 5 лакхов или имеет большой долг, заявка на получение кредита, скорее всего, будет отклонена.

  • 04:50:00 В этом разделе видео обсуждается, как случайные леса работают для принятия решений путем компиляции результатов различных деревьев решений. Случайные леса представляют собой набор деревьев решений, построенных с использованием части набора данных и определенного количества признаков, которые выбираются случайным образом. Алгоритм универсален и может выполнять как задачи регрессии, так и задачи классификации. Видео представляет собой пример того, как работает случайный лес, сравнивая его с вопросом мнения друга о просмотре фильма. Друг задавал вопросы, которые приводили к решению, подобно тому, как случайный лес собирал результаты различных деревьев решений для принятия окончательного решения.

  • 04:55:00 В этом разделе спикер приводит пример того, как работают деревья решений и как их можно скомпилировать с помощью Random Forest. Он объясняет, как можно использовать деревья решений, чтобы определить, хочет ли человек смотреть фильм или нет. Он также рассказывает о том, как можно объединить результаты нескольких деревьев решений для принятия окончательного решения. Далее спикер объясняет, что Random Forest широко используется в различных областях, включая банковское дело, медицину, землепользование и маркетинг.

Часть 6

  • 05:00:00 В этом разделе видео рассматриваются различные отрасли, в которых используется алгоритм случайного леса. Одним из основных приведенных примеров является то, как банки используют случайный лес, чтобы определить, будет ли заявитель на получение кредита неплатежеспособным или недефолтным, и принимают соответствующие решения. Область медицины — это еще одна область, в которой алгоритм используется для прогнозирования вероятности наличия у человека определенного заболевания путем анализа его истории болезни и различных переменных-предикторов. Случайный лес также используется для выяснения землепользования перед созданием промышленности в определенной области. В маркетинге алгоритм используется для определения оттока клиентов путем отслеживания их активности, истории покупок и привязанности к определенным продуктам или рекламным объявлениям. Затем видео продолжает пошаговое объяснение работы алгоритма случайного леса, начиная с выбора нескольких случайных признаков из общего числа переменных-предикторов в наборе данных.

  • 05:05:00 В этом разделе алгоритм случайного леса объясняется на примере предсказания, состоится ли спортивный матч, учитывая погодные условия за последние 14 дней. Алгоритм включает в себя разделение набора данных на подмножества, выбор определенного количества признаков, вычисление наилучшего разделения для каждого узла и разделение узлов на дочерние узлы. Это повторяется до тех пор, пока не будут достигнуты листовые узлы дерева решений, а затем процесс повторяется для деревьев решений несколько раз. Наконец, результаты всех различных деревьев решений компилируются с использованием мажоритарного голосования, что приводит к окончательному прогнозу.

  • 05:10:00 В этом разделе обсуждается важность подмножеств дерева решений в случайных лесах, где каждое подмножество учитывает разные переменные. Деревья решений также обеспечивают точный результат за счет усреднения дисперсии по нескольким деревьям вместо того, чтобы полагаться только на одно дерево. Случайные леса универсальны, поскольку они хорошо подходят как для задач классификации, так и для регрессии, масштабируемы и требуют минимальной подготовки ввода. Кроме того, они выполняют неявный выбор функций, который выбирает случайные функции для каждой реализации дерева решений, что делает их все отличными друг от друга.

  • 05:15:00 В этом разделе видео охватывает два важных алгоритма машинного обучения: случайный лес и K-ближайший сосед (KNN). Случайный лес — это модель принятия решений, которая может обрабатывать большие объемы данных путем реализации нескольких деревьев решений, работающих одновременно. Он имеет методы для балансировки ошибок в несбалансированных наборах данных, предотвращая смещение модели к одному конкретному классу. KNN, с другой стороны, представляет собой простой алгоритм, который может хранить все доступные случаи и классифицировать новые данные на основе меры сходства. Далее в видео объясняется, как KNN используется в поисковых приложениях, и приводятся примеры промышленных приложений для Random Forest и KNN, таких как рекомендательные системы и поиск понятий.

  • 05:20:00 В этом разделе объясняется алгоритм K ближайших соседей (KNN). Алгоритм работает по принципу выбора «k» ближайших соседей к новой точке, чтобы предсказать ее класс. Расстояние между новой точкой и существующими точками рассчитывается с использованием таких мер расстояния, как евклидово и манхэттенское расстояния. Оптимальное значение «k» зависит от набора данных и может быть найдено путем проверки различных значений с использованием методов перекрестной проверки. Также продемонстрирован практический пример использования алгоритма KNN для прогнозирования размера футболки покупателя на основе его роста и веса.

  • 05:25:00 В этом разделе видео объясняет концепцию алгоритма KNN (K-Nearest Neighbor) и его реализацию с использованием Python. Алгоритм KNN является ленивым учеником, потому что он запоминает обучающие данные без функции различения обучающих данных. Процесс включает в себя обработку данных, вычисление расстояния между двумя экземплярами данных, выбор k-соседей с наименьшим расстоянием и создание ответа из набора данных. Этапы реализации включают загрузку файла данных CSV, разделение данных на обучающий и тестовый наборы данных и вычисление сходства между двумя экземплярами с использованием меры евклидова расстояния. Затем в видео показана реализация алгоритма с использованием Jupyter Notebook и Python.

  • 05:30:00 В этом разделе видео рассказывается о реализации алгоритма K ближайших соседей (KNN) в Python. Инструктор демонстрирует, как вычислить евклидово расстояние между двумя точками данных и как найти K ближайших соседей с помощью функции получения соседей. В видео также рассматривается функция получения ответа, которая позволяет каждому соседу голосовать за атрибут класса и определяет большинство голосов в качестве прогноза. Функция получения точности также обсуждается для оценки точности модели. Наконец, все функции объединены в одну основную функцию для реализации алгоритма KNN с использованием набора данных Iris с точностью 90,29%.

  • 05:35:00 В этом разделе видео объясняется алгоритм наивного Байеса, который представляет собой метод классификации, основанный на теореме Байеса с предположением о независимости предикторов. Наивный байесовский подход предполагает, что наличие определенного признака в классе не связано с наличием какого-либо другого признака, и все эти свойства независимо влияют на вероятность события. Теорема Байеса описывает вероятность события на основе предварительного знания условий, связанных с событием, и помогает вычислить условную вероятность. В видео приведен пример использования колоды карт для иллюстрации теоремы Байеса, а также показано доказательство теоремы, которая имеет красивую интерпретацию в случае любого распределения вероятностей по событиям A и B.

  • 05:40:00 В этом разделе видео знакомит с теоремой Байеса и тем, как ее можно реализовать в реальных сценариях с использованием набора данных. Таблицу правдоподобия и таблицу частот можно создать для каждого атрибута набора данных, а затем использовать для расчета априорной и апостериорной вероятностей с использованием теоремы Байеса. Приведен пример, где теорема Байеса используется для определения того, играть или нет в зависимости от погодных условий. В видео также обсуждаются варианты промышленного использования теоремы Байеса, особенно в категоризации новостей или классификации текста.

  • 05:45:00 В этом разделе видео обсуждается наивный байесовский классификатор — популярный статистический метод, используемый для фильтрации электронной почты и обнаружения спама. Алгоритм использует набор слов для идентификации спам-писем и работает, сопоставляя использование токенов в спаме и не спаме. Теорема Байеса затем используется для расчета вероятности того, что электронное письмо является или не является спамом. В видео также кратко рассматривается эффективность наивного байесовского классификатора в медицинских приложениях из-за его способности использовать всю доступную информацию для объяснения решения, а также в прогнозировании погоды из-за того, что его апостериорные вероятности используются для расчета вероятности каждой метки класса для входные данные.

  • 05:50:00 В этом разделе видео обсуждается использование библиотеки Python scikit-learn для создания смещения и модели, в частности, доступные типы моделей, такие как гауссова, полиномиальная и биномиальная. В видео также представлен пример того, как алгоритм можно использовать для прогнозирования начала диабета у пациентов, используя их медицинские данные в качестве атрибутов. Процесс разбит на четыре этапа: обработка данных, обобщение данных, создание прогнозов и оценка точности. Видео предоставляет функцию для загрузки данных CSV и преобразования элементов в число с плавающей запятой, а также разделения данных на обучающие и оценочные наборы.

  • 05:55:00 В этом разделе руководства инструктор объясняет процесс создания модели с использованием алгоритма Navy Base в машинном обучении. Он объясняет процесс суммирования обучающих данных и вычисления среднего значения и стандартного отклонения для каждого атрибута. Затем он продолжает демонстрировать, как делать прогнозы, используя сводки, подготовленные на основе обучающих данных, и функцию плотности вероятности Гаусса. Наконец, он показывает, как оценить точность модели, делая прогнозы для каждого экземпляра данных в тестовых данных и вычисляя коэффициент точности.


Часть 7

  • 06:00:00 В этом разделе инструктор сначала резюмирует процесс реализации наивного байесовского классификатора с использованием Python с нуля. Однако, поскольку библиотека scikit-learn уже содержит предопределенную функцию для наивного Байеса, инструктор показывает, как использовать гауссовскую модель NB из библиотеки sklearn на примере известного набора данных о цветке ириса. Сначала импортируются необходимые библиотеки, такие как metrics и sklearn, затем загружаются данные и подгоняется модель. Затем инструктор показывает, как делать прогнозы, и резюмирует модель, вычисляя матрицу путаницы и отчет о классификации. Наконец, вводится тема машин опорных векторов, и инструктор объясняет, как работает SVM, а также его различные функции и способы использования в реальном мире.

  • 06:05:00 В этом разделе мы узнаем о машинах опорных векторов (SVM), которые представляют собой алгоритм обучения с учителем, используемый для целей классификации. Он использует гиперплоскость в качестве границы решения между различными классами данных и может использоваться для создания нескольких разделяющих гиперплоскостей для разделения данных на сегменты. SVM может использоваться как для задач классификации, так и для задач регрессии, и использует функции ядра SVM для классификации нелинейных данных. Основной принцип SVM состоит в том, чтобы нарисовать гиперплоскость, которая лучше всего разделяет два класса данных, а оптимальная гиперплоскость имеет максимальное расстояние от опорных векторов с максимальным запасом. SVM используется для классификации данных с использованием гиперплоскости, так что расстояние между гиперплоскостью и опорными векторами максимально.

  • 06:10:00 В этом разделе видеоруководства инструктор объясняет, как работать с наборами данных, которые нельзя разделить с помощью прямой линии, путем преобразования их в линейные наборы данных с помощью функций ядра. Один простой представленный трюк состоит в том, чтобы преобразовать две переменные X и Y в новое пространство признаков, включающее новую переменную по имени Z, чтобы визуализировать данные в трехмерном пространстве, где разделительная граница между двумя классами данных более очевидна. В учебнике также представлен реальный пример использования SVM в качестве классификатора, используемого в классификации рака, где классификатор SVM работает точно даже для небольшого набора данных. Затем в учебнике рассказывается об обучении без учителя и о том, как его использовать для кластеризации входных данных на основе их статистических свойств, при этом кластеризация представляет собой процесс разделения наборов данных на группы, состоящие из схожих точек данных.

  • 06:15:00 В этом разделе объясняется концепция кластеризации, которая является одним из алгоритмов обучения без учителя. Кластеризация используется для определения внутренней группы или разделения набора немаркированных точек данных. Существует три типа кластеризации: исключительная кластеризация, перекрывающаяся кластеризация и иерархическая кластеризация. Кластеризация K-средних, которая является эксклюзивным методом кластеризации, группирует сходные точки данных в предопределенное количество кластеров. Алгоритм начинается с определения количества кластеров и нахождения центроида, затем вычисляет евклидово расстояние каждой точки от центроида и присваивает точку ближайшему кластеру. Эти шаги повторяются до тех пор, пока центроиды новых кластеров не будут очень близки к предыдущим. Кластеризация используется в различных отраслях, таких как маркетинг, разведка нефти и газа и системы рекомендаций фильмов.

  • 06:20:00 В этом разделе видео обсуждается метод локтя для определения количества кластеров в кластеризации K-Means. Сумма квадратов ошибок (SSE) вычисляется и строится в зависимости от количества кластеров для определения точки изгиба, которая указывает оптимальное количество кластеров. Обозначены плюсы и минусы кластеризации K-средних, а также отмечено, что метод прост и понятен, но сложен в использовании, когда неизвестно правильное количество кластеров, и не может обрабатывать зашумленные данные и выбросы. Демонстрация кластеризации K-Means показана с использованием набора данных из 5043 фильмов, которые сгруппированы на основе лайков режиссера и актеров в Facebook.

  • 06:25:00 В этом разделе видео охватывает три типа методов кластеризации; кластеризация k-средних, нечеткая кластеризация c-средних и иерархическая кластеризация. Метод k-средних предполагает размещение данных в определенном количестве кластеров, а метод нечетких c-средних присваивает степень принадлежности от 0 до 1 объекту в каждом кластере. Иерархическая кластеризация объединяет кластеры снизу вверх или сверху вниз, что позволяет алгоритму создавать осмысленные таксономии, не предполагая заранее определенное количество кластеров. Однако некоторые недостатки включают чувствительность к начальному назначению, необходимость определения количества кластеров или порогового значения членства, а также недетерминированные алгоритмы, что затрудняет получение конкретного результата.

  • 06:30:00 В этом разделе видео обсуждается концепция анализа потребительской корзины. Анализ рыночной корзины — это метод, используемый крупными розничными торговцами для выявления связей между товарами, используя частое появление комбинаций товаров в транзакциях для определения взаимосвязей между этими товарами. Это позволяет ритейлерам предсказывать, что клиенты могут купить, и ориентировать конкретных клиентов на предложения или
    скидки, основанные на их модели покупки. Обсуждаются два алгоритма, используемые при анализе ассоциативных правил, а именно метод анализа ассоциативных правил и априорный алгоритм. Наконец, с помощью примера объясняется использование показателей поддержки, уверенности и подъема в анализе правил ассоциации, а также вводится понятие часто встречающихся наборов элементов.

  • 06:35:00 В этом разделе полного курса машинного обучения инструктор объясняет априорный алгоритм, используемый для частого анализа наборов элементов и создания правил ассоциации. Алгоритм априори включает в себя создание таблиц наборов элементов с их значениями поддержки, выполнение сокращения для исключения наборов со значениями поддержки ниже заданного порога и создание частых наборов элементов увеличивающегося размера до тех пор, пока не будет найдено больше. Последний шаг включает в себя создание правил ассоциации из часто встречающихся наборов элементов с минимальными значениями достоверности, которые можно использовать для анализа потребительской корзины. Приведен пример с использованием данных онлайн-транзакций из розничного магазина.

  • 06:40:00 В этом разделе инструктор погружается в процесс очистки данных, консолидации элементов и создания часто используемых наборов элементов с поддержкой не менее семи процентов. Затем создаются правила с соответствующей поддержкой, достоверностью и подъемом и фильтруются с использованием стандартного кода pandas для большого подъема шесть и высокой достоверности 0,8. В этом разделе также рассматривается изучение ассоциативных правил и обучение с подкреплением, когда агент помещается в среду для обучения, выполняя определенные действия, наблюдая за наградами или наказаниями и предпринимая соответствующие действия для максимизации вознаграждения в конкретной ситуации. Ребенок, который учится ходить, используется в качестве аналогии для обучения с подкреплением.

  • 06:45:00 В этом разделе видео объясняет концепцию обучения с подкреплением и его процесс, в котором участвуют агент и среда. Агент представляет собой алгоритм обучения с подкреплением, который выполняет действия в среде, в то время как среда предоставляет агенту текущее состояние и вознаграждает его мгновенными результатами, когда определенный этап очищается. Агент использует политику, стратегию для поиска своего следующего действия на основе своего текущего состояния. Значение представляет собой ожидаемую долгосрочную доходность со скидкой, в то время как значение действия может поначалу немного сбивать с толку, но видео обещает объяснить это позже. Понимание этих концепций имеет решающее значение для изучения обучения с подкреплением.

  • 06:50:00 В этом разделе видео инструктор объясняет концепции ценности и ценности действия в обучении с подкреплением. Значение — это долгосрочный доход со скидкой, а значение действия принимает дополнительный параметр — текущее действие. Основная цель обучения с подкреплением — максимизировать вознаграждение, и агент должен быть обучен предпринимать наилучшие действия, которые максимизируют вознаграждение. Дисконтирование вознаграждения работает на основе значения, называемого гаммой, и чем больше значение скидки, тем ниже шансы агента исследовать и рисковать. Кроме того, инструктор объясняет концепции исследования и эксплуатации и марковский процесс принятия решений, который представляет собой математический подход к отображению решения в обучении с подкреплением. Основная цель — максимизировать вознаграждение, выбрав оптимальную политику.

  • 06:55:00 В этом разделе инструктор обсуждает Марковский процесс принятия решений и обучение с подкреплением, которое необходимо роботу для обучения в своей среде. Он иллюстрирует сценарий задачи, цель которого состоит в том, чтобы найти кратчайший путь между точками A и D с минимально возможной стоимостью, пройдя через узлы A, B, C и D. Он объясняет, что множество состояний обозначается узлами , и действие заключается в переходе от одного узла к другому, а политика — это путь, используемый для достижения пункта назначения. Награда — это стоимость каждого ребра, и машина вычисляет, какой путь лучше всего подходит для получения максимального вознаграждения. Преподаватель подчеркивает важность изучения различных заметок для поиска оптимальной политики, а не эксплуатации. В разделе также обсуждаются компоненты обучения с подкреплением и проблемный сценарий с участием автономных роботов на автомобильном заводе.


Часть 8

  • 07:00:00 В этом разделе концепция состояний, действий и вознаграждений обсуждается в контексте создания таблицы вознаграждений для робота в смоделированной среде. Набор действий, которые может предпринять робот, определяется его текущим состоянием, а вознаграждение дается, если место напрямую доступно из определенного состояния. Приоритет определенного местоположения отражается в таблице наград, связывая его с более высокой наградой. Уравнение Беллмана введено как способ, позволяющий роботу запомнить направление движения, с целью оптимизации ценности пребывания в определенном состоянии на основе максимально достижимого вознаграждения с учетом всех возможных действий. Уравнение ограничено, чтобы гарантировать, что робот получит вознаграждение, когда он перейдет из желтой комнаты в зеленую комнату.

  • 07:05:00 В этом разделе мы узнаем об уравнении Беллмана и его важности в обучении с подкреплением и Q-обучении. Уравнение Беллмана определяет значение пребывания в определенном состоянии и вычисляет максимальное значение пребывания в другом состоянии. Гамма-коэффициент дисконтирования уведомляет робота о том, насколько далеко он находится от пункта назначения. Уравнение Беллмана изменено, чтобы включить некоторое количество случайности в ситуациях, когда результаты частично случайны и находятся под контролем лица, принимающего решения, с использованием марковского процесса принятия решений. Поскольку мы не уверены в следующем состоянии или комнате, все вероятные повороты, которые может совершить робот, включены в уравнение.

  • 07:10:00 В этом разделе видео на YouTube обсуждается концепция связывания вероятностей с каждым ходом для количественной оценки опыта робота. Приведен пример робота, выполняющего верхний или нижний поворот с вероятностью 80% и 20% соответственно, с уравнением для расчета значения перехода в определенное состояние с учетом стохастичности среды. Вводится идея живого штрафа, который связывает вознаграждение за каждое действие, совершаемое роботом, помогающее оценить качество действий. Затем процесс Q-обучения обсуждается как способ оценки качества действия, предпринятого для перехода в состояние, а не как определение возможного значения состояния, в которое осуществляется переход. Уравнение для расчета кумулятивного качества возможных действий, которые может предпринять робот, разбито на части, и введено новое уравнение для замены функции ценности функцией качества.

  • 07:15:00 В этом разделе обсуждается концепция Q-обучения, которое представляет собой форму обучения с подкреплением, связанную с изучением ценности действия в определенном состоянии. Q-обучение использует единственную функцию Q для упрощения вычислений и временную разницу для регистрации изменений в окружающей среде с течением времени. Робот учится находить наилучший путь, сопоставляя местоположение склада с различными состояниями и определяя действия для перехода в следующее состояние. Таблица вознаграждений также предназначена для назначения вознаграждений за переход из одного состояния в другое. Обратное отображение из состояний обратно в исходное местоположение также упоминается для ясности в алгоритме.

  • 07:20:00 В этом разделе учебник объясняет процесс Q-обучения на примере робота, который находит оптимальный маршрут на складе с помощью кода Python. Q-значения инициализируются нулями, а матрица вознаграждений копируется в новую. Уравнение Беллмана используется для обновления значений Q, а оптимальный маршрут инициализируется начальным местоположением. Цикл while используется для процесса итерации, поскольку точное количество итераций, необходимых для достижения конечного местоположения, неизвестно. В руководстве также упоминаются некоторые проекты машинного обучения с открытым исходным кодом, такие как TensorFlow.js, который стал популярным инструментом для разработки и запуска моделей машинного обучения и глубокого обучения в браузере.

  • 07:25:00 В этом разделе спикер рассказывает о различных проектах машинного обучения с открытым исходным кодом, которые можно изучить. Первый обсуждаемый проект — это Detectron2, разработанный Facebook, который представляет собой современную среду обнаружения объектов, написанную на Python. Тогда есть DensePose, который может помочь с оценкой позы человека в дикой природе. Среди других проектов есть Image Outpainting, который можно использовать для расширения границ любого изображения, а Audio Processing можно использовать для таких задач, как классификация звука и снятие отпечатков пальцев. Есть также Astronet команды Google для работы с астрономическими данными и инструмент обработки языка Google AI BERT. Другие обсуждаемые проекты включают AutoML для создания и расширения простых моделей с использованием TensorFlow и платформу на основе обучения с подкреплением для создания симулированного гуманоида для имитации нескольких скинов движения.

  • 07:30:00 В этом разделе видео спикер рассказывает о различных технических навыках, необходимых для того, чтобы стать успешным инженером по машинному обучению. Навыки варьируются от программирования на таких языках, как Python, C++ и Java, до понимания линейной алгебры, статистики и распределения вероятностей. Докладчик подчеркивает важность знакомства с алгоритмами, извлечением признаков, алгоритмами обработки сигналов и архитектурами нейронных сетей. Спикер также подчеркивает важность сильной математической подготовки в машинном обучении и обсуждает необходимость навыков обработки естественного языка в сочетании с информатикой. Технические навыки, обсуждаемые в этом разделе, требуют много практики и сосредоточенности для освоения.

  • 07:35:00 В этом разделе обсуждаются необходимые навыки, необходимые для того, чтобы стать успешным инженером по машинному обучению. Технические навыки важны, но способность различать проблемы и потенциальные проблемы для роста бизнеса и новых возможностей также является обязательным навыком. Эффективная коммуникация жизненно важна для передачи технических результатов нетехническим членам команды. Быстрое создание прототипов и постоянное обновление новых технологий также необходимы для быстрой реализации идей и опережения конкурентов. Бонусные навыки, такие как физика, обучение с подкреплением и компьютерное зрение, обеспечивают конкурентное преимущество для достижения успеха на рынке.

  • 07:40:00 В этом разделе в видео обсуждаются тенденции заработной платы и описание работы инженера по машинному обучению. Средняя зарплата инженера по машинному обучению в США составляет 111 490 долларов, а в Индии — около 7 19 646 индийских рупий, что делает эту профессию хорошо оплачиваемой. Заработная плата начального уровня варьируется от 76 000 до 251 000 долларов в год, а бонус и доля прибыли зависят от проекта и компании. Языки программирования, исчисление и статистика, обработка сигналов, прикладная математика, нейронные сети и языковая обработка являются важнейшими навыками, необходимыми инженеру по машинному обучению. Кроме того, они изучают и трансформируют прототипы для науки о данных, проектируют системы машинного обучения, исследуют и внедряют алгоритмы, разрабатывают новые приложения, выбирают подходящие наборы данных и методы представления данных, проводят тесты и эксперименты, выполняют статистический анализ и точную настройку.

  • 07:45:00 В этом разделе обсуждаются основные обязанности инженера по машинному обучению, которые в первую очередь включают в себя системы обучения и переподготовки, расширение существующих библиотек машинного обучения и отслеживание последних разработок в этой области. Затем в видео обсуждаются элементы резюме инженера по машинному обучению, которое должно включать четкую карьерную цель, технические навыки, такие как языки программирования, исчисление, линейная алгебра и статистика, а также нетехнические навыки, такие как знание отрасли. и навыки решения проблем. Кроме того, в видео подчеркивается важность знания обработки естественного языка и анализа звука в области машинного обучения. Наконец, подчеркивается, что наиболее успешные проекты по машинному обучению решают реальные болевые точки, что указывает на важность отраслевых знаний для инженера по машинному обучению.

  • 07:50:00 В этом разделе спикер обсуждает навыки, необходимые для того, чтобы стать инженером по машинному обучению. Эти навыки включают в себя не только технические знания, но и деловую хватку и эффективные коммуникативные способности. Инженер должен иметь возможность быстро создавать прототипы и быть в курсе любых предстоящих изменений в этой области. Может оказаться полезным наличие степени бакалавра или магистра в области компьютерных наук, экономики, статистики или математики, а также профессионального опыта в области компьютерных наук, статистики или анализа данных. Конкретные проекты, связанные с ИИ и работой с нейронными сетями, также имеют решающее значение для получения работы инженером по машинному обучению. Спикер отмечает, что на эту должность набирают множество компаний, от Amazon и Facebook до стартапов.
Machine Learning Full Course - Learn Machine Learning 10 Hours | Machine Learning Tutorial | Edureka
Machine Learning Full Course - Learn Machine Learning 10 Hours | Machine Learning Tutorial | Edureka
  • 2019.09.22
  • www.youtube.com
🔥 Machine Learning Engineer Masters Program (Use Code "𝐘𝐎𝐔𝐓𝐔𝐁𝐄𝟐𝟎"): https://www.edureka.co/masters-program/machine-learning-engineer-trainingThis E...
 

Почему нейронные сети могут научиться (почти) чему угодно



Почему нейронные сети могут научиться (почти) чему угодно

В этом видео обсуждается, как нейронные сети могут обучаться практически чему угодно, используя функцию в качестве функции активации.
Сеть постепенно добавляет нейроны, пока не выучит нужную функцию, даже если набор данных сложнее, чем предполагалось изначально. Это делает нейронные сети мощным инструментом для обучения на основе данных.

  • 00:00:00 В этом видео показано, как искусственная нейронная сеть изучает форму множества Мандельброта, представляющего собой сложный фрактал. Сеть способна аппроксимировать функцию, описывающую данные, даже если это нелинейная функция.

  • 00:05:00 Видео объясняет, как нейронные сети могут обучаться почти чему угодно, используя функцию в качестве функции активации и постепенно добавляя нейроны. В конечном итоге сеть обучается нужной функции, даже если набор данных оказывается более сложным, чем предполагалось изначально.

  • 00:10:00 В этом видео объясняется, как нейронные сети можно использовать для изучения практически всего благодаря их способности преобразовывать данные в новую полезную информацию.
Why Neural Networks can learn (almost) anything
Why Neural Networks can learn (almost) anything
  • 2022.03.12
  • www.youtube.com
A video about neural networks, how they work, and why they're useful.My twitter: https://twitter.com/max_romanaSOURCESNeural network playground: https://play...
 

ChatGPT, AI и AGI со Стивеном Вольфрамом



ChatGPT, AI и AGI со Стивеном Вольфрамом

Стивен Вольфрам обсуждает различные темы, такие как API между ChatGPT и Wolfram Alpha, понимание и генерация естественного языка, вычислительная несводимость, семантическая грамматика в языке, программирование на естественном языке, сосуществование ИИ и людей, а также ограничения аксиом в определении сложные системы. Он также обсуждает возможности ИИ в таких областях, как рассуждения по аналогии и работа со знаниями, а также проблемы выбора ИИ человеческих приоритетов и мотивов. Также обсуждается вычислительная несводимость, в частности, как она проявляется на самом низком уровне работы во Вселенной. Вольфрам подчеркивает необходимость понимания и работы с вычислительной несводимостью для улучшения нашего понимания окружающего мира.

Стивен Вольфрам объясняет, как наши вычислительные ограничения как наблюдателей влияют на наше восприятие вселенной, что приводит к нашему пониманию законов физики. Он также обсуждает потенциал экспериментальных доказательств, которые могли бы доказать дискретность пространства, и говорит о разработанной ими парадигме мультивычислений, которая может иметь применение в различных областях. Ведущий благодарит Вольфрама за его идеи и выражает энтузиазм по поводу будущего видеосериала «Вне разговоров».

  • 00:00:00 В этом разделе Стивен Вольфрам обсуждает API между Chat GPT и Wolfram Alpha, который позволяет пользователям взаимодействовать с различными источниками данных, описанными в манифесте. Он описывает приключения в области разработки программного обеспечения, которые привели к созданию плагина, а также проблемы взаимодействия с ИИ для достижения желаемого результата. Вольфрам отмечает, что нейробиология, стоящая за пониманием и генерацией естественного языка, еще не изучена с научной точки зрения. Несмотря на это, команда смогла успешно связать интерфейсы Chat GPT и Wolfram Alpha с новым миром интерфейса Language.

  • 00:05:00 В этом разделе Стивен Вольфрам объясняет, что означает понимание естественного языка для Wolfram Alpha и как оно достигается. По сути, естественный язык преобразуется в точный вычислительный язык, чтобы его можно было вычислить, и это то, что делает Wolfram Alpha, поскольку он создан исключительно для понимания естественного языка. Успех LLM, т. е. чата GPT, в создании кода языка Wolfram является захватывающим событием, которое, по мнению Wolfram, возможно благодаря единообразию и принципиальной конструкции языка Wolfram. Хотя у Вольфрама нет мнения о преимуществах или недостатках использования обертки Lang Chain с открытым исходным кодом, он считает, что сочетание Wolfram Alpha с языком является нетривиальным делом.

  • 00:10:00 В этом разделе Стивен Вольфрам обсуждает, как дети и языковые модели подходят к изучению языка и обобщению. Он отмечает, что как дети, изучающие естественные языки, так и молодые студенты, изучающие компьютерные языки, часто обобщают свои знания способами, которые кажутся логичными, но не всегда соответствуют тому, как язык используется на практике. Вольфрам также обсуждает, как Wolfram Language и Wolfram Alpha могут служить инструментом для совместной работы систем ИИ и людей, позволяя генерировать вычислительно точный код, который можно редактировать и улучшать на основе отзывов людей. Такой подход может позволить более систематически исследовать природу и глубину больших языковых моделей.

  • 00:15:00 В этом разделе Вольфрам обсуждает концепцию вычислительной несводимости и ее последствия для нашей способности понимать и предсказывать поведение сложных вычислительных систем. Он объясняет, что, хотя наше традиционное представление о науке основано на идее, что она может предсказывать результаты систем, в действительности вычислительная несводимость означает, что не может быть быстрого или простого способа предсказать поведение таких систем. Тем не менее, он отмечает, что все еще существуют возможности повторного использования вычислений, которые обеспечивают некоторый уровень предсказуемости даже в таких сложных системах, как нейронные сети. В целом, он подчеркивает, что вычислительная несводимость является фундаментальным аспектом вычислений, и это то, что нам необходимо понять и с чем работать, чтобы углубить наше понимание окружающего мира.

  • 00:20:00 В этом разделе Стивен Вольфрам обсуждает, как модель чат-бота, GPT, показывает, что в языке существует семантическая грамматика, которую мы не обнаружили до сих пор. Он объясняет, что хотя мы уже знаем о синтаксической грамматике языка, которая диктует конкретное расположение существительных и глаголов, еще многое предстоит понять о том, как предложения можно считать значимыми. Вольфрам отмечает, что Аристотель открыл силлогистическую логику точно так же, как модели чат-ботов открыли свои собственные шаблоны, которые являются закономерностями языка. Успех моделей чат-ботов предполагает, что существует базовая семантическая грамматика, к которой мы можем подключиться, и это может облегчить нам представление языка на более высоком уровне и более эффективное обучение нейронных сетей.

  • 00:25:00 В этом разделе Вольфрам обсуждает свое восхищение использованием ChatGPT и то, как он показал себя многообещающим в определенных практических задачах, таких как генерация имен для функций или создание шаблонного текста для различных документов. Он также размышляет о потенциале использования ChatGPT для взаимодействия на естественном языке с кодом и графикой, но отмечает, что границы того, что ChatGPT может создавать, и того, что люди могут понять и с чем точно работать, еще предстоит изучить. Вольфрам рассматривает ChatGPT как часть более широкой тенденции к лингвистическим пользовательским интерфейсам, которые будут определять будущий рабочий процесс и парадигмы интерфейса.

  • 00:30:00 В этом разделе ученый-компьютерщик Стивен Вольфрам обсуждает потенциал программирования на естественном языке, инструмента, над которым он работает с 2010 года и который позволяет генерировать фрагменты точного вычислительного языка из входных данных на естественном языке. Wolfram считает этот инструмент очень полезным, позволяя писать сложные фрагменты кода небольшими порциями, что лучше подходит для работы людей. Он считает, что люди станут больше похожи на стратегов, чем на людей, пишущих отдельные строки кода, и эту роль возьмет на себя ИИ, включая диалоговые пользовательские интерфейсы, такие как Copilot X и GPT. Идея 10-кратных разработчиков может уйти в прошлое, ее заменят разработчики Thousand X, которым помогает и ускоряет ИИ.

  • 00:35:00 В этом разделе Стивен Вольфрам обсуждает, как использование вычислительного языка программистами может показаться волшебством другим в отрасли. Он подчеркивает полезность автоматизации многих процессов, которые другие программисты выполняют вручную. Вольфрам отмечает, что автоматизация этих процессов может помочь программистам быстрее рыть окопы и с легкостью работать с библиотекой кодов. Кроме того, он заявляет, что то, что он делал в фундаментальной физике, позволило ему увидеть полезные приложения в сроки, которые он не ожидал, что дало ему «счастливую полосу». Что касается ИИ и ОИИ, он считает, что, хотя в нашем мире уже работают АИС, необходимо подумать о том, как эти системы можно безопасно и ответственно интегрировать.

  • 00:40:00 В этом разделе Вольфрам обсуждает сосуществование ИИ и людей и то, как мы можем с ними взаимодействовать. Он предлагает, чтобы взаимодействие человека с ИИ имело общие принципы для разных ИИ, поскольку одна структура может быть хрупкой и неэффективной. Вольфрам подчеркивает, что следующим шагом в разработке общих принципов ИИ является их выражение в подходе на языке вычислений, который может использовать юридический код, написанный на юридическом языке, для создания кода вычислительного языка, чтобы облегчить понимание для людей, стремящихся к взаимодействию с ИИ. Вольфрам подчеркивает, что исправление кода ИИ неизбежно, потому что всегда будут новые неожиданные обстоятельства, требующие новых исправлений.

  • 00:45:00 В этом разделе Вольфрам говорит об ограничениях аксиом в определении сложных систем и их потенциальном влиянии на создание этических рамок для ИИ. В качестве примера он приводит теорему Геделя и необходимость бесконечного числа аксиом для определения целых чисел. Вольфрам отмечает, что не существует идеальной теоремы или аксиоматической теории этики и что этические решения субъективны и основаны на человеческих ценностях. Он предполагает, что создание экосистемы ИИ потенциально может установить равновесие в системе, аналогично тому, как биология поддерживает равновесие в экосистемах. Кроме того, Вольфрам обсуждает огромные объемы данных, которые можно использовать для обучения моделей ИИ, включая личные данные, и отмечает, что некоторые компании уже видят проблески ОИИ в своих моделях.

  • 00:50:00 В этом разделе Стивен Вольфрам обсуждает потенциальные возможности систем ИИ и ОИИ в таких областях, как рассуждение по аналогии и работа со знаниями. Он предсказывает, что эти системы будут способны проводить грандиозные аналогии, которые необычны для людей, и что автоматизация работы с знаниями потребует перехода от специализированных башен знаний к более междисциплинарному обучению. Отвечая на вопрос о риске эмерджентной активности и мотивации в этих системах, Вольфрам объясняет, что вычислительная вселенная возможных действий огромна, и людей волнует лишь небольшая ее часть. Задача состоит в том, чтобы связать открытия этих систем с вещами, которые волнуют людей, и избежать негативных последствий, если эти системы приобретут активность и целеустремленное поведение.

  • 00:55:00 В этом отрывке Стивен Вольфрам обсуждает проблему выбора ИИ человеческих приоритетов и мотивов. Хотя ИИ может создавать впечатляющие вычислительные системы, он может не обязательно соответствовать тому, что волнует людей. Он также затрагивает культурные сдвиги с течением времени и то, как язык играет решающую роль в том, как мы общаемся и понимаем вещи. Затем Вольфрам кратко затрагивает физику, обсуждая захватывающее осознание того, что основные теории физики 20-го века, по сути, являются одним и тем же, но обозначаются по-разному, и как вычислительная несводимость находится на самом низком уровне работы во Вселенной.
  • 01:00:00 В этом разделе Стивен Вольфрам обсуждает идею вычислительной несводимости и то, как она влияет на наше восприятие Вселенной. Он объясняет, что как наблюдатели мы ограничены вычислительными возможностями, и это, вместе с нашим восприятием постоянства во времени, по-видимому, вынуждает нас воспринимать вселенную, следуя определенным общим правилам, которые соответствуют законам физики, таким как уравнения Эйнштейна для общих уравнений. деятельность или квантовая механика. Вольфрам также говорит о роли математики в том же контексте и о том, как тот факт, что математика более высокого уровня возможна, происходит по существу по той же причине, по которой мы можем верить в пространство континуума. Он приходит к выводу, что между метафизикой и физикой существует глубокая связь, и это осознание весьма волнует.

  • 01:05:00 В этом разделе Стивен Вольфрам обсуждает потенциальные экспериментальные доказательства, которые могут доказать дискретность пространства, подобно тому, как броуновское движение подтвердило существование отдельных молекул в 1830-х годах. Он объясняет, что симуляции их моделей уже разработаны, и теперь они могут изучать свойства черных дыр и предсказывать картины гравитационного излучения, которые указывают на дискретную структуру пространства. Они надеются найти другие явления, такие как флуктуации измерений или фрактальный узор, раскрывающий мельчайший кусок пространства, чтобы еще больше доказать свою модель физики. Кроме того, они говорят о разработанной ими мультивычислительной парадигме, которая может иметь значение в различных областях помимо физики, таких как экономика, молекулярная биология и вычислительная техника.

  • 01:10:00 В этом заключительном разделе видео ведущий благодарит Стивена Вольфрама за его идеи и опыт в обсуждении таких тем, как ChatGPT, AI и AGI. Ведущий выражает волнение по поводу будущих выпусков видеосериала Beyond the Conversations. Видео завершается музыкой.
ChatGPT, AI, and AGI with Stephen Wolfram
ChatGPT, AI, and AGI with Stephen Wolfram
  • 2023.03.24
  • www.youtube.com
Join us for an engaging and insightful conversation between two visionary thinkers and innovators: Stephen Wolfram and David Orban. They discuss the current ...
Причина обращения: