머신 러닝 및 신경망 - 페이지 3

 

진화하는 AI 예술



진화하는 AI 예술

영상은 AI를 활용해 이미지를 진화시키는 과정을 이미지 선택에서 시작해 프롬프트를 주고 진화 과정을 통해 변주를 생성하는 과정을 다룬다. 이 프로세스의 목적은 상상할 수 없을 정도로 거대하고 검색할 수 없는 이미지 공간을 활용하여 아름답고 상상할 수 없는 예술 작품이나 귀여운 고양이를 찾는 탐색입니다. 텍스트-이미지 모델에 대한 입력을 통해 사용자는 간단한 프롬프트를 입력하고 해당 프롬프트를 충족하는 다양한 가능한 이미지를 수신할 수 있으며, 완전히 새로운 이미지를 생성하고 잠재 공간에서 기존 이미지를 구성 및 분류할 수 있습니다. Pick Breeder 방법은 이미지 생성에 가장 적합한 유전자를 돌연변이, 선택 및 재생산하는 효율적이고 자연스러운 방법으로, 사람들이 강력한 AI 도구로 분기 경로를 통해 진화의 실타래를 따라 예상치 못한 아름다움을 발견할 수 있도록 합니다.

  • 00:00:00 작성자는 주어진 텍스트 프롬프트를 기반으로 이미지를 생성하기 위해 신경망을 사용하는 텍스트-이미지 알고리즘인 Mid-Journey라는 AI 모델에 대해 논의합니다. 제작자는 Discord 서버에서 이 알고리즘을 실험하여 사용자가 이미지를 선택 및 변형하고 진화하는 생명 나무를 만들 수 있도록 했습니다. 이 프로세스의 창의성은 모델을 훈련하는 데 사용되는 프롬프트와 데이터 세트에 의해 제한되지만 결과 이미지는 제작자가 이전에 본 어떤 예술 작품과도 다르며 프로세스는 흥미롭고 독특한 창조물로 이어졌습니다. 제작자는 또한 자체 GPU에서 실행할 수 있는 Stable Diffusion이라는 또 다른 오픈 소스 모델을 언급합니다.

  • 00:05:00 이 섹션에서는 제작자가 AI를 사용하여 이미지를 진화시키는 과정을 설명합니다. 프로세스는 이미지를 선택하고 프롬프트를 제공한 다음 진화하는 프로세스를 통해 변형을 생성하는 것으로 시작됩니다. 진화하는 과정은 커뮤니티 측면을 피하기 위해 좁혀지거나 저절로 흘러가도록 허용될 수 있습니다. 이미지를 진화시키는 목적은 이미지 공간(각 이미지가 점 또는 벡터를 차지하는 문자 그대로의 수학적 공간)을 탐색하여 아름답고 상상할 수 없는 작품이나 유난히 귀여운 고양이, 이미지 공간이 상상할 수 없을 정도로 거대하고 절망적으로 찾을 수 없습니다.

  • 00:10:00 비디오는 사용자가 간단한 언어로 프롬프트를 입력하고 해당 프롬프트를 충족하는 다양한 가능한 이미지를 받을 수 있는 텍스트-이미지 모델의 입력 프로세스를 설명합니다. 이러한 생성 검색 엔진은 완전히 새로운 이미지를 생성할 수 있을 뿐만 아니라 잠재 공간에서 구성, 분류 및 레이블이 지정된 기존 이미지를 검색할 수 있습니다. 잠재 벡터와 같은 임의의 값을 모델에 제공함으로써 이미지 출력이 더 다양해지고 잠재 공간을 이동하여 변경할 수 있습니다. Pick Breeder 방법은 이미지 생성에 가장 적합한 유전자를 돌연변이, 선택 및 재생산하는 효율적이고 자연스러운 방법입니다. 사람들은 이러한 강력한 도구를 사용하여 분기 경로를 통해 예상치 못한 아름다움을 발견하기 위해 흥미로운 프롬프트와 이미지의 진화적인 스레드를 따를 수 있습니다.
Evolving AI Art
Evolving AI Art
  • 2022.10.29
  • www.youtube.com
In this video, I explain how #aiart generators like #midjourney and #stablediffusion can be used to simulate evolutionary processes, and explain why this is ...
 

원하는 사진을 만들어주는 AI, 설명



텍스트에서 이미지로의 혁명, 설명

이 비디오는 기계 학습 알고리즘을 사용하여 텍스트 설명을 기반으로 이미지를 생성하는 방법과 이 기술을 사용하여 예술 작품을 만드는 방법에 대해 설명합니다. 비디오는 이 기술이 저작권법과 예술계에 미치는 영향에 대해 논의하는 미국 일러스트레이터 James Gurney를 인터뷰합니다.

  • 00:00:00 이 부분에서는 기계 학습 알고리즘이 이미지에 캡션을 추가하는 방법과 개발자가 이러한 알고리즘을 사용하여 텍스트를 이미지로 생성하는 방법을 설명합니다. 비디오는 또한 이러한 모델과 효과적으로 통신하기 위해 신속한 엔지니어링이 필요한 방법에 대해서도 설명합니다.

  • 00:05:00 원하는 사진을 만드는 AI는 수백만 개의 이미지와 함께 제공되는 캡션으로 구성된 교육 데이터 세트로 시작한다고 설명했습니다. 모델은 이러한 이미지에서 패턴을 인식하는 방법을 학습한 다음 해당 인식을 기반으로 새 이미지를 생성합니다. 이러한 방식으로 생성된 이미지는 확산 프로세스의 무작위성으로 인해 사람과 모델에 따라 다를 수 있습니다.

  • 00:10:00 이 비디오는 딥 러닝을 통해 사용자가 이미지를 직접 복사하지 않고도 유명 아티스트가 제작한 것과 유사한 이미지를 만들 수 있는 방법을 설명합니다. 이 비디오는 텍스트를 이미지로 변환하는 모델 사용자에게 인기 있는 참고 자료가 된 미국 일러스트레이터 James Gurney를 인터뷰합니다. Gurney는 아티스트가 자신의 작업이 다른 예술 작품을 만들기 위한 데이터 세트로 사용되는 것을 옵트인하거나 옵트아웃할 수 있어야 하지만, 모델 교육에 들어가는 이미지와 모델에서 나오는 이미지를 둘러싼 저작권 문제는 여전히 해결되지 않았다고 말합니다. 또한 이러한 모델의 잠재 공간에는 출력이 사실적이 될수록 더 무서워지는 일부 어두운 모서리가 포함됩니다. 그러나 이 기술을 독특하게 만드는 것은 우리 중 누구라도 기계가 보고 싶은 것을 상상하도록 지시할 수 있다는 것입니다.
The text-to-image revolution, explained
The text-to-image revolution, explained
  • 2022.06.01
  • www.youtube.com
How programmers turned the internet into a paintbrush. DALL-E 2, Midjourney, Imagen, explained.Subscribe and turn on notifications 🔔 so you don't miss any v...
 

MidJourney AI Art 가이드 - 무료로 시작하는 방법!



MidJourney AI Art 가이드 - 무료로 시작하는 방법!

이 비디오에서 발표자는 프롬프트를 기반으로 AI 아트를 생성하는 도구인 MidJourney를 소개하고 이를 시작하는 방법에 대한 단계별 지침을 제공합니다. 그들은 "3D 렌더링" 또는 "떨어지는 잉크 스케치"와 같은 예제를 사용하여 생성된 이미지의 스타일과 품질을 변경하는 명령을 사용하는 방법을 보여줍니다. 또한 MidJourney 웹 사이트의 커뮤니티 섹션에 대해 설명합니다. 여기에서 사용자는 영감을 얻고 프롬프트를 복사하여 직접 시도해 볼 수 있습니다. 연사는 또한 AI 예술과의 여정을 공유하고 더 많은 학습에 관심이 있는 사람들을 위해 추가 리소스와 코드를 제공합니다.

  • 00:00:00 이 부분에서는 프롬프트를 기반으로 AI 아트를 생성하는 도구인 MidJourney를 시작하는 방법을 설명합니다. 가입하려면 MidJourney 웹사이트로 이동하여 안내에 따라 등록하고 Discord 초대를 수락하세요. Discord에서 "/imagine" 명령을 입력한 다음 "purple human with wings"와 같은 프롬프트를 입력하여 이미지를 생성합니다. 발표자는 또한 이미지를 확대하여 디테일을 높이는 방법과 "3D 렌더링" 또는 "떨어지는 잉크 스케치"와 같은 다양한 명령을 사용하여 이미지 스타일을 변경하는 방법을 보여줍니다. 명령을 입력할 때마다 결과 이미지는 고유합니다.

  • 00:05:00 이 섹션에서 내레이터는 MidJourney AI 아트에서 사용할 수 있는 다양한 스타일과 품질 옵션을 탐색합니다. 키워드와 명령을 사용하여 3D 렌더링에 초현실주의 및 스타일화를 포함하여 다양한 효과를 만드는 방법을 보여줍니다. 그들은 또한 프롬프트로 자신의 이미지를 사용하고 다른 결과를 생성하기 위해 이미지 가중치를 조정하는 실험을 합니다.
    또한 MidJourney 웹 사이트의 커뮤니티 섹션에 대해 논의합니다. 여기서 사용자는 영감을 얻고 프롬프트를 복사하여 스스로 시도해 볼 수 있습니다. 내레이터는 생성된 아트를 온라인으로 공유할 때 고지 사항을 추가하는 것과 같이 MidJourney를 책임감 있게 사용하는 방법에 대한 팁도 제공합니다.

  • 00:10:00 내레이터는 Discord 및 MidJourney AI 아트에 대한 링크와 AI 아트 여정과 관련된 기타 리소스 및 코드를 제공합니다. 그들은 시청자가 자신의 여정을 직접 확인하고 더 많은 것을 배우고자 하는 사람들을 위해 추가 정보를 제공하도록 권장합니다.
Guide to MidJourney AI Art - How to get started FREE!
Guide to MidJourney AI Art - How to get started FREE!
  • 2022.08.18
  • www.youtube.com
Start for Free. This Guide to Midjourney AI Art will show you how to get started and show you a few tricks and give ean you an idea of how powerful this pla...
 

MidJourney -시작하기 [신규 및 업데이트됨] AI 아트 생성을 시작하기 위한 빠른 자습서



MidJourney -시작하기 [신규 및 업데이트됨] AI 아트 생성을 시작하기 위한 빠른 자습서

비디오 자습서는 Discord를 통해서만 액세스할 수 있는 MidJourney의 AI 아트 생성 플랫폼을 사용하는 방법에 대한 포괄적인 개요를 제공합니다. 발표자는 사용 가능한 다양한 구독 모드, 아티스트 및 다양한 조건을 사용하여 프롬프트를 만드는 방법, 스위치를 사용하여 AI 생성 이미지에서 원치 않는 요소를 제거하는 방법, 이미지의 종횡비를 확대하고 조정하는 방법을 설명합니다. 또한 시각적 매력이 있는 프롬프트를 사용하고 확대하기 전에 변형 버튼을 사용하여 고유한 AI 아트를 생성하는 방법에 대한 팁을 제공합니다. 전반적으로 MidJourney는 완성된 예술 작품을 만드는 수단이 아니라 예술적 탐구와 출발을 위한 도구로 제시됩니다.

  • 00:00:00 이 부분에서는 중간 여정과 Discord에 대한 개요를 제공하며 중간 여정은 Discord를 통해서만 액세스할 수 있음을 설명합니다. 그들은 Discord가 어떻게 봇을 만드는 데 사용할 수 있는 음성 채팅에 사용되는 플랫폼인지, 이것이 중간 여정이 작동하는 방식인지에 대해 논의합니다. 또한 여정 중간에 생성된 자산의 소유권과 서비스 사용에 사용할 수 있는 가격 옵션에 대해 설명합니다. 그런 다음 발표자는 Discord 내의 다양한 방과 기능에 대해 논의하고 슬래시를 통해 사용할 수 있는 다양한 명령을 사용하는 것을 포함하여 중간 여정을 시작하는 방법에 대해 논의합니다.

  • 00:05:00 튜토리얼의 이 섹션에서 내레이터는 편안한 모드와 비공개 모드를 포함하여 MidJourney에서 사용할 수 있는 다양한 구독 모드에 대해 설명합니다. 또한 다양한 업스케일링 모드에 대해 설명하고 너무 많은 이미지 크레딧을 사용하지 않도록 너무 높은 품질을 사용하지 않도록 주의합니다. 내레이터는 또한 사용자가 다른 사람의 창작물을 보고 프롬프트를 복사할 수 있는 커뮤니티 피드를 포함하여 여정 웹 사이트를 간략하게 설명합니다. 마지막으로 내레이터는 "imagine" 명령을 소개하고 프롬프트와 다양한 스위치를 사용하여 이미지를 만드는 과정에 대해 설명합니다.

  • 00:10:00 튜토리얼의 이 섹션에서 사용자는 무료 이미지 생성 시간 동안 이미지를 평가하는 방법, 다양한 이미지를 확장하고 액세스하는 방법, 프롬프트를 만드는 방법을 포함하여 MidJourney의 AI 아트 생성 플랫폼을 탐색하는 방법을 설명합니다. 아티스트 및 기타 조건을 사용합니다. 그들은 신속한 엔지니어링이 AI 예술 창작의 중요한 측면이지만 사용자는 예상치 못한 결과에 대비하고 플랫폼을 완제품이 아닌 아이디어 엔진으로 보아야 한다고 경고합니다.

  • 00:15:00 이 파트 비디오 자습서에서는 특정 스위치를 사용하여 "no -- people" 스위치와 같은 AI 생성 이미지에서 원하지 않는 요소를 제거하는 방법을 설명합니다. 그러나 이러한 전환의 효과는 선택한 아티스트와 이미지의 복잡성에 따라 다릅니다. 이 자습서는 또한 "매우 상세한" 또는 "유화"와 같이 AI 아트 프롬프트에 추가할 수 있는 일반적인 지시문과 AI 봇을 혼동하지 않도록 프롬프트를 간결하게 유지하는 것의 중요성에 대해 설명합니다. 마지막으로 튜토리얼에서는 MidJourney를 사용하여 이미지를 확대하고 종횡비를 조정하는 방법을 다룹니다.

  • 00:20:00 저자는 다른 결과를 얻기 위해 이미지를 확대하면서 추가 플래그를 사용하는 방법을 설명합니다. 플래그는 종횡비를 나타내는 "AR"로 시작하고 너비와 높이가 콜론으로 구분됩니다. 발표자는 손가락, 얼굴, 여분의 팔다리와 같은 문제와 같은 기술에 한계가 있다고 지적합니다. 또한 cryengine 및 수채화와 같은 다양한 유형의 프롬프트와 이를 리믹스하는 방법을 탐색합니다. 마지막으로 화자는 기본 프롬프트로 시작한 다음 리믹스 및 업스케일링하여 완성할 것을 권장합니다. 최종 이미지는 MidJourney 웹사이트에서 저장 및 다운로드할 수 있습니다.

  • 00:25:00 이 부분에서는 MidJourney로 고유한 AI 아트를 생성하기 위한 다양한 전략에 대해 설명합니다. 그는 "Blade Runner" 또는 "cyberpunk"와 같이 시각적 매력이나 특정 모양이 있는 프롬프트를 사용하면 MidJourney의 출력을 안내하는 데 도움이 될 수 있다고 언급합니다. 그는 또한 최상의 결과를 얻기 위해 이미지를 확대하기 전에 변형 버튼을 사용할 것을 제안합니다. 마지막으로 그는 MidJourney가 반드시 완성된 예술 작품을 위한 도구가 아니라 예술적 탐색과 출발을 위한 도구임을 관객에게 상기시킵니다.
MidJourney -Getting Started [New & Updated] A quick tutorial to get you started in AI art generation
MidJourney -Getting Started [New & Updated] A quick tutorial to get you started in AI art generation
  • 2022.10.26
  • www.youtube.com
There have been a lot of changes since the launch of MidJourney and it was about time I made an updated tutorial on how to get started. As more people disco...
 

ChatGPT, 설명: OpenAI의 챗봇에 대해 알아야 할 사항 | 기술 뉴스 브리핑 팟캐스트 | 월 스트리트 저널



ChatGPT, 설명: OpenAI의 챗봇에 대해 알아야 할 사항 | 기술 뉴스 브리핑 팟캐스트 | 월스트리트저널

챗봇은 이제 대중에게 제공되며 질문을 하고 응답을 받는 데 사용할 수 있습니다. 이러한 도구가 어떻게 사용될 수 있는지에 대한 우려가 있지만 전문가들은 사람들이 자신의 역할을 대체하는 것이 아니라 업무를 향상시키기 위해 사용해야 한다고 말합니다.

  • 00:00:00 최첨단 대화형 AI 모델인 ChatGPT는 사람과 같은 대화에 참여하고 질문에 대한 답변을 제공할 수 있습니다. 방대한 양의 데이터를 기반으로 구축되어 인공지능 기업인 OpenAI에서 이미지를 생성하는 AI 플랫폼인 Dolly를 개발하는 데 사용되고 있습니다. ChatGPT에는 한계가 있지만 그 인기와 정교함은 잠재적인 사용과 오용에 대한 의문을 제기합니다.

  • 00:05:00 이제 대중에게 챗봇을 사용할 수 있으며 질문을 하고 응답을 받는 데 사용할 수 있습니다. 이러한 도구가 어떻게 사용될 수 있는지에 대한 우려가 있지만 전문가들은 사람들이 자신의 역할을 대체하는 것이 아니라 업무를 향상시키기 위해 사용해야 한다고 말합니다.
ChatGPT, Explained: What to Know About OpenAI's Chatbot | Tech News Briefing Podcast | WSJ
ChatGPT, Explained: What to Know About OpenAI's Chatbot | Tech News Briefing Podcast | WSJ
  • 2022.12.07
  • www.youtube.com
ChatGPT, Lensa and DALL-E are giving more people without computing skills the chance to interact with artificial intelligence. These AI programs that can wri...
 

CS 156 강의 01 - 학습 문제




Caltech의 기계 학습 과정 - CS 156. 강의 01 - 학습 문제

Yaser Abu-Mostafa의 기계 학습 과정의 첫 번째 강의에서는 사람의 개입 없이 데이터에서 패턴을 찾아 예측을 수행하는 과정인 학습 문제를 소개합니다. 그는 실용적인 학습 문제를 추상화하기 위한 수학적 형식화의 필요성을 설명하고 이 과정에서 머신 러닝을 위한 첫 번째 알고리즘인 퍼셉트론 모델을 소개합니다. 퍼셉트론 모델은 가중치 벡터를 사용하여 데이터 포인트를 이진 범주로 분류합니다. 강의는 또한 지도 학습, 비지도 학습, 강화 학습을 포함한 다양한 유형의 학습을 다루고 학습 대상 함수를 결정하는 문제를 해결하기 위해 지도 학습 문제를 청중에게 제시합니다. 교수는 기계 학습과 관련된 다양한 주제를 다룹니다. 그는 데이터 세트를 선택할 때 편견을 피하고 충분한 양의 데이터를 수집하는 것의 중요성을 강조합니다. 교수는 또한 기계 학습에서 설정된 가설의 역할과 오류 함수 선택이 최적화 기술에 미치는 영향에 대해 논의합니다. 그는 또한 과정에 기계 학습 방법을 포함하기 위한 기준과 순수한 이론보다는 실용적인 지식을 제공하는 데 중점을 둡니다.

  • 00:00:00 이 섹션에서 Yaser Abu-Mostafa는 기계 학습을 위한 과정 개요를 소개하고 주제의 수학적 측면과 실용적인 측면 모두의 중요성을 설명합니다. 그는 코스 주제가 분리되어야 하는 것이 아니라 논리적인 스토리라인을 따른다고 말합니다. 그런 다음 그는 시청자가 영화를 어떻게 평가하는지에 대한 예를 제공하여 학습 문제를 탐구합니다. 이는 Netflix가 고객을 위한 추천을 개인화하는 데 사용하는 Netflix와 관련이 있습니다. 그는 실제 학습 문제를 추상화하는 데 수학적 형식화의 중요성을 언급하고 과정에서 기계 학습을 위한 첫 번째 알고리즘을 소개합니다. 그는 또한 학습 유형에 대한 설문 조사를 제공하고 흥미로운 퍼즐로 끝납니다.

  • 00:05:00 이 섹션에서 강사는 기계 학습의 본질이 데이터의 가용성과 함께 패턴의 존재에 있다고 설명합니다. 또한 그는 적절한 데이터 없이는 수학적으로 불가능한 패턴을 찾아야 할 필요성에 대해 설명합니다. 그는 영화 시청률을 예로 들면서 시청자의 선호도를 요인의 벡터로 사용하여 시청률을 예측하고 이를 영화의 내용과 비교하는 시스템을 만드는 것에 대해 이야기합니다. 이 시스템은 작동하지만 사람의 개입이 필요하기 때문에 기계 학습으로 간주되지 않습니다. 기계 학습의 아이디어는 시스템을 개선하기 위해 패턴을 찾고 시정 조치를 취함으로써 인간의 개입 없이 문제를 해결할 수 있다는 것입니다.

  • 00:10:00 이 섹션에서 발표자는 학습 접근 방식과 해당 평가와 일치하는 요소를 찾기 위해 평가 프로세스를 리버스 엔지니어링하는 방법에 대해 설명합니다. 기계 학습 프로세스는 임의의 요소에서 시작하여 1억 개의 평가를 반복해서 순환하여 평가 값으로 조금씩 이동하여 결국 평가 측면에서 의미 있는 요소를 찾습니다. 그런 다음 연사는 금융 신청, 신용 승인의 은유를 사용하여 신청자 정보, 신용도 패턴 및 신용 승인 또는 거부 결정을 포함하여 학습 문제를 구성하는 수학적 구성 요소를 설명합니다.

  • 00:15:00 이 섹션에서 강사는 학습 문제와 학점 승인에 적용되는 방법에 대해 논의합니다. 목표 함수는 알 수 없는 이상적인 신용 승인 공식이며 가설은 목표 함수를 근사화하기 위해 만든 공식입니다. 데이터는 가설을 학습하는 데 사용되고 학습 알고리즘은 가설 집합으로 알려진 후보 공식 집합에서 공식을 생성하는 데 사용됩니다. 학습 알고리즘을 가설 세트로 제한하는 이유는 제한되지 않은 수식의 단점을 피하고 선택할 수 있는 미리 정의된 수식 세트를 갖는 이점이 있기 때문입니다.

  • 00:20:00 이 섹션에서 화자는 그림의 솔루션 구성 요소를 논의하기 위해 학습 문제를 이미지로 표시했다고 설명합니다. 그는 가설 세트가 무엇보다도 우리가 얼마나 잘 배우는지를 알려주기 때문에 학습 이론에서 중요한 역할을 한다고 지적합니다. 그는 가설 집합, 학습 알고리즘, 최종 가설이 퍼셉트론 모델, 퍼셉트론 학습 알고리즘과 같은 학습 모델을 구성한다고 설명합니다. 그는 임계값에 따라 신용 카드 신청을 승인하거나 거부할 수 있는 고객의 다양한 속성에 기반한 신용 점수 공식을 사용하여 간단한 퍼셉트론 모델 예제를 제공합니다.

  • 00:25:00 이 섹션에서 교수는 가설 h를 정의하는 방법과 동일한 기능적 형태를 갖는 모든 가설을 포함하는 가설 집합에 대해 논의합니다. 데이터를 두 영역으로 분리하는 퍼셉트론 모델을 사용하여 학습 알고리즘은 올바른 솔루션에 도달하기 위해 매개변수를 사용하여 선을 이동합니다. 교수는 또한 교육 데이터를 가져와 가설의 공간을 탐색하여 고객에게 제공하는 최종 가설을 도출하는 퍼셉트론 학습 알고리즘을 소개합니다. 알고리즘은 임의의 가중치로 시작하여 최종 가설에 사용되는 올바른 가중치를 찾을 때까지 이동합니다.

  • 00:30:00 이 섹션에서 화자는 데이터 포인트를 이진 범주로 분류할 수 있는 선형 모델인 퍼셉트론 학습 알고리즘(PLA)에 대해 설명합니다. 이 알고리즘은 데이터 세트의 모든 특성을 고려하는 가중치 벡터를 사용하며, 포인트가 잘못 분류된 경우 알고리즘은 특정 포인트에서 더 잘 작동하도록 가중치 벡터를 업데이트합니다. 연사는 또한 이 접근 방식과 PLA의 반복에 어떻게 문제가 있는지에 대해 논의하지만 잘못 분류된 점을 선택하고 반복을 적용하면 데이터가 원래 선형 분리 가능했다면 결국에는 올바른 솔루션에 도달하게 됩니다.

  • 00:35:00 이 섹션에서 강사는 가장 인기 있는 유형인 감독 학습부터 시작하여 다양한 유형의 학습에 대해 설명합니다. 이러한 유형의 학습에는 미래 인스턴스를 분류하는 데 도움이 되도록 고객 신용 행동과 같이 명시적으로 주어진 출력이 있는 데이터를 사용하는 것이 포함됩니다. 강사는 크기 및 질량과 같은 물리적 측정을 사용하여 다양한 동전을 인식하도록 기계를 가르치는 예를 사용합니다. 동전은 치수에 따라 그룹화할 수 있으므로 기계가 동전을 구별하는 데 도움이 될 수 있습니다. 언급된 다른 유형의 학습에는 코스 뒷부분에서 자세히 설명할 비지도 학습과 간략하게 소개할 강화 학습이 있습니다.

  • 00:40:00 이 섹션에서 강사는 동전 분류 및 언어 학습의 예를 사용하여 감독 및 비지도 학습에 대해 설명합니다. 감독 학습에서는 학습 데이터와 올바른 출력이 제공되고 시스템이 학습되면 향후 예를 분류하는 데 사용할 수 있습니다. 그러나 비지도 학습에서는 입력 데이터만 제공되고 목표 함수는 알 수 없습니다. 그럼에도 불구하고 비지도 학습은 데이터를 클러스터로 그룹화하고 향후 분류에 도움이 될 수 있는 패턴을 식별하는 데 여전히 유용할 수 있습니다. 강사는 또한 언어에 몰입하고 언어에 대한 노출을 통해 언어 모델을 개발함으로써 비지도 학습이 언어 학습에 어떻게 사용될 수 있는지 설명합니다.

  • 00:45:00 이 섹션에서 비디오는 시스템이 경험을 통해 학습할 수 있도록 하는 방법으로 강화 학습의 개념을 설명합니다. 강사는 강화 학습이 어떻게 작동하는지 설명하기 위해 유아가 뜨거운 차를 만지는 예를 사용합니다. 시스템이 어떤 결과(미친 것일지라도)를 내도록 허용하고 보상 또는 처벌 결과를 통해 점진적으로 컨디셔닝에 의존함으로써 시스템은 결국 주사위 놀이와 같은 게임을 탐색하는 방법을 배울 수 있습니다. 이 접근 방식은 코드를 작성하고 그 이면에 있는 수학을 연구하는 대신 원하는 시스템을 생성하는 편리하고 쉬운 방법입니다.

  • 00:50:00 강의의 이 섹션에서 교수는 지도 학습 문제를 수업과 온라인 청중에게 제시합니다. 문제는 일부 포인트가 +1로 매핑되고 다른 포인트가 -1로 매핑된 교육 데이터와 관련이 있습니다. 목표는 대상 기능을 학습하고 테스트 포인트에 대한 기능 값을 결정하는 것입니다. 교수는 목표 함수가 알려지지 않았으며 무엇이든 될 수 있으므로 주어진 훈련 세트 외부에 적용되는 패턴을 결정하는 것이 불가능하다고 강조합니다. 이것은 단순히 예를 암기하는 것 이상의 방법을 요구하는 학습에 대한 어려운 도전을 제시합니다.

  • 00:55:00 강의의 이 섹션에서는 교수가 Q&A 세션의 질문에 대해 토론합니다. 그는 선형 분리 가능성의 문제를 다루며 단순한 가정이지만 선형 분리 불가능의 경우를 처리할 수 있는 알고리즘이 있으며 다음 주에는 비선형 분리 가능 점을 선형 분리 가능하게 만드는 기술을 연구할 것이라고 설명합니다. 교수는 또한 퍼셉트론 알고리즘의 수렴 속도가 차원에 따라 변하고 영원히 걸릴 병리학적 사례를 구축할 수 있다고 언급합니다. 또한 그는 탐지할 특정 패턴이 있는지 알기 어렵지만 대상 기능과 우리가 그것을 배울 수 있는지 여부 사이에는 분리가 있으며 나중에 전체 강의에서 설명할 것이라고 설명합니다.

  • 01:00:00 비디오의 이 섹션에서 교수는 자신에게 주어진 특정 데이터 세트를 보지 않거나 다른 데이터 세트가 나올 때 실망하지 않도록 시스템을 조정하는 방법에 대해 논의합니다. 그는 기계 학습이 최소한의 가정으로 가장 많은 영역을 커버하려고 하는 학문이며 실용적으로나 과학적으로 모두 적용될 수 있다고 설명합니다. 게다가 교수는 최적화가 머신러닝을 위한 도구이지 머신러닝을 하는 사람들이 그 자체를 위해 공부하는 것은 아니라고 언급한다. 마지막으로, 그는 기계 학습을 위한 가설 설정이 연속적이든 불연속적이든 무엇이든 될 수 있다고 지적합니다.

  • 01:05:00 이 섹션에서 교수는 학점 승인의 샘플링 편향과 사용된 데이터의 품질에 미치는 영향에 대해 이야기합니다. 그는 편향된 샘플을 사용하면 부정확한 결과가 나올 수 있지만 고객 기반이 분류 영역에 더 깊기 때문에 고객 기반을 사용하여 의사 결정을 내릴 수 있다고 설명합니다. 그런 다음 그는 데이터 수집의 이론적이고 실용적인 측면과 합리적인 시스템을 만들기 위해 얼마나 많은 데이터가 필요한지 논의합니다. 마지막으로, 그는 가설 세트 크기를 선택하는 문제를 다루고 학습 목표는 데이터를 사용하여 데이터 세트 외부에서 일반화할 합리적인 패턴을 제시하기 위해 데이터를 사용하여 예측하는 것이라고 말합니다.

  • 01:10:00 학습 문제에 대한 강의의 이 섹션에서 교수는 기계 학습에서 이론의 역할, 특히 가설 집합의 정교함과 일반화에 대한 진술을 만드는 데 필요한 데이터의 양을 측정하는 방법에 대해 논의합니다. 교수는 또한 유효성 검사를 사용하여 피드백을 수정하는 방법과 가설에 대한 다양한 유형의 기능 사용을 포함하여 온라인 청중의 질문을 다룹니다. 또한 학습 알고리즘과 가설 세트의 역할에 대해 논의하며 오류 함수의 선택이 최적화 기술 선택에 미치는 영향에 중점을 둡니다. 마지막으로 교수는 출력이 정확히 퍼셉트론 알고리즘의 임계값에 있는 경우 어떤 일이 발생하는지 설명합니다.

  • 01:15:00 강의의 이 섹션에서 교수는 기계 학습이 작동하려면 패턴이 있어야 한다는 생각에 대해 논의합니다. 패턴이 없으면 배울 것이 없습니다. 그는 또한 데이터의 중요성과 데이터가 학습에 어떻게 중요한지 언급합니다. 교수는 학습을 가능하게 하는 구성 요소를 완전히 이해하기 위해 개요의 수학적으로 기울어진 부분을 살펴보는 것이 중요하다고 강조합니다. 그는 또한 왜 퍼셉트론이 종종 뉴런과 관련이 있는지에 대한 질문에 대해 간단히 언급하고 생물학과의 유추는 나중에 더 자세히 논의될 것이라고 언급합니다. 마지막으로 교수는 모델 선택과 베이지안 원리에 대해 나중에 논의할 것이라고 언급합니다.

  • 01:20:00 이 섹션에서 연사는 과정에 기계 학습 방법을 포함하기 위한 기준에 대해 논의합니다. 그는 실무에서 가장 유용한 방법이 포함될 것이며 실무에서 사용할 수 있는 개념과 도구에 대한 큰 그림 이해를 제공하는 것을 목표로 한다고 말합니다. 그는 서포트 벡터 머신에 대해 논의할 때 다룰 수 있는 일반화의 파급 효과가 있는 다양한 계층적 방법이 있다고 언급하지만, 전반적으로 그의 초점은 순수한 이론보다는 실용적인 지식을 제공하는 데 있습니다.
Lecture 01 - The Learning Problem
Lecture 01 - The Learning Problem
  • 2012.08.28
  • www.youtube.com
The Learning Problem - Introduction; supervised, unsupervised, and reinforcement learning. Components of the learning problem. Lecture 1 of 18 of Caltech's M...
 

강의 2. 학습이 가능한가?



Caltech의 기계 학습 과정 - CS 156. 강의 02 - 학습이 가능한가?

강의는 학습의 타당성, 특히 주어진 데이터에서 패턴을 결정하는 기계 학습의 사용에 대해 논의합니다. 강사는 확률의 nu 및 mu 개념과 학습 문제와의 관계를 소개합니다. 목표 기능을 손상시키지 않고 학습의 타당성을 가능하게 하는 확률 추가를 탐색합니다. 즉, 학습될 기능에 대해 가정할 필요가 없습니다. 과대적합의 개념과 그것이 모델 정교화와 어떻게 관련되는지에 대해 논의하며 더 많은 가설이 일반화를 어렵게 만듭니다. 궁극적으로 강의는 nu가 mu와 같다는 의미에 대한 슬라이드를 검토해 달라는 요청으로 끝납니다.

  • 00:00:00 이 섹션에서 Yaser Abu-Mostafa는 기계 학습이 애플리케이션에 적합한 기술인지 판단하기 위한 세 가지 기준, 즉 학습할 수 있는 패턴이 있는지, 패턴을 수학적으로 고정할 수 없는지, 패턴을 나타내기에 충분한 데이터가 존재하는 경우. 또한 패턴이 없으면 기계 학습을 시도할 수는 있지만 실패하고 패턴이 수학적으로 결정될 수 있으면 기계 학습이 최적의 기술이 아닐 수 있다고 설명합니다. Abu-Mostafa는 대상 기능은 알 수 없지만 데이터 입력 및 출력이 제공되는 감독 학습과 출력이 학습 프로세스에 대한 감독자 역할을 하기 때문에 "감독"이라고 불리는 방식에 대해 추가로 설명합니다.

  • 00:05:00 이 섹션에서 강사는 학습의 타당성과 알려지지 않은 기능을 학습하는 것이 불가능한 방법에 대해 논의합니다. 이 문제를 해결하기 위해 강의는 mu로 표시되는 빨간색 구슬을 선택할 확률이 있는 빨간색 또는 녹색 구슬 상자에서 샘플을 채취하는 확률적 상황에 초점을 맞춥니다. 강의는 이러한 상황을 학습으로 해석한 다음 딜레마에 대한 해결책을 찾고 궁극적으로 특정 의미에서 학습이 가능함을 선언합니다.

  • 00:10:00 비디오의 이 섹션에서 발표자는 구슬이 들어 있는 불투명한 통을 사용한 실험에 대해 설명합니다. 여기서 빨간색 구슬을 고를 확률은 mu이고 녹색 구슬을 고를 확률은 1 빼기 mu입니다. mu의 값은 알 수 없으며 목표는 샘플 빈도 nu(구슬 샘플에서 빨간색 구슬의 비율)가 mu에 대한 정보를 제공할 수 있는지 여부를 결정하는 것입니다. 대답은 작은 샘플의 경우 '아니요'이지만 더 큰 샘플의 경우 nu가 더 높은 확률로 mu에 가까울 수 있으므로 통계적 추론 가능성이 열립니다. 가능과 개연성의 구별은 과학과 공학의 핵심입니다.

  • 00:15:00 이 섹션에서 강사는 VC 차원에 대해 무언가를 증명하기 위해 과정 전반에 걸쳐 사용될 공식인 Hoeffding의 부등식을 소개합니다. 부등식은 샘플 빈도가 주어진 허용 오차 내에서 빈 빈도에 근접하지 않는 이벤트의 확률이 작고 샘플 크기가 클수록 기하급수적으로 감소함을 나타냅니다. 그러나 허용 오차가 작을수록 지수가 높아져 음수 지수의 이점이 약화됩니다. 원래 공식보다 2가 있는 공식이 사실이므로 선호됩니다.

  • 00:20:00 강의의 이 섹션에서는 샘플 주파수와 실제 주파수의 편차를 제한하는 도구로 Hoeffding 부등식을 소개합니다. 부등식은 모든 N과 엡실론에 대해 참이므로 지수가 있음에도 불구하고 매우 매력적인 명제입니다. nu의 확률 분포는 알 수 없는 값인 mu에 명시적으로 의존하지만 부등식은 장점인 mu에 의존하지 않습니다. N과 엡실론 사이의 절충안도 논의되는데, 엡실론이 작을수록 동일한 수준의 확률 범위를 보상하는 데 더 큰 N이 필요하기 때문입니다. 마지막으로, nu가 mu와 거의 같다는 진술의 논리가 설명되어 mu가 nu와 거의 같다는 것을 암시합니다.

  • 00:25:00 비디오의 이 섹션에서 화자는 mu와 nu의 개념과 학습 문제와의 관계에 대해 논의합니다. 그들은 확률에서 목적은 다른 샘플을 생성하고 확률을 계산하여 nu에서 mu를 추론하는 것이지만, 학습 문제에서 미지의 양은 10차 유클리드 공간일 수 있는 도메인을 가진 완전 함수라고 설명합니다. 그런 다음 화자는 이 시나리오에서 가설과 목표 함수 간의 일치를 나타내기 위해 색상 코딩의 개념을 소개합니다. 이 매핑을 통해 화자는 학습 문제에 확률을 효과적으로 추가했습니다.

  • 00:30:00 이 섹션에서는 학습 문제에 확률을 추가하는 방법을 살펴봅니다. 독립적으로 점을 생성하는 입력 공간에 대한 확률 분포를 적용하여 입력 공간에 확률을 도입합니다. 도입된 확률 분포는 가정을 필요로 하지 않으며 기계는 모든 확률 분포에 적용될 수 있습니다. 확률을 추가하면 목표 함수를 손상시키지 않고 학습의 타당성을 가능하게 합니다. 즉, 학습될 함수에 대해 가정할 필요가 없습니다. 그러나 설명된 상황이 주어진 데이터를 기반으로 신용 승인을 위한 특정 공식을 찾는 은행과 동등한 확인 문제가 논의됩니다.

  • 00:35:00 이 섹션에서 강사는 간단한 가설 검정 문제를 학습 가능한 이진 문제로 바꾸는 방법을 설명합니다. 단일 빈과 높은 임계값으로 시작하여 그는 학습 문제에 약하게 기여하므로 거주 기간 동안 0.1의 가중치를 선택합니다. 그러나 이 기술은 여러 가설을 설명하지 않으므로 여러 빈에서 선택하는 것이 더 지능적입니다. 이를 위해서는 서로 다른 샘플을 스캔해야 하므로 효과적인 학습이 가능합니다. 강사는 강의의 나머지 부분에서 사용될 표기법을 소개합니다. nu와 mu는 각각 샘플과 빈 내부의 빈도를 나타내므로 결과적으로 E_in을 샘플 내 오류율로 소개합니다.

  • 00:40:00 강의의 이 섹션에서 교수는 샘플 내 및 샘플 외 성능에 대한 표기법을 소개합니다. Out-of-sample 성능은 이전에 본 적이 없는 것을 의미하며, 모델이 out-of-sample 데이터에서 잘 수행되면 학습한 것입니다. 샘플 내 성능과 샘플 외 성능의 차이를 측정하는 데 사용되는 Hoeffding 부등식은 여러 가설 그룹에 적용되지만 교수는 이 경우에는 적용되지 않는다고 설명합니다. 그런 다음 적용되지 않는 이유를 논의하고 청중에게 동전을 다섯 번 던지고 그 결과를 기록하여 요점을 설명하도록 요청합니다.

  • 00:45:00 이 섹션에서 교수는 데이터가 무작위로 두 범주 중 하나에 속하는 학습 상황에 Hoeffding 부등식이 어떻게 적용되는지 설명합니다. 그는 여러 빈이 문제를 처리하기 어렵게 만들고 하나의 빈이 5번 앞면이 나올 확률을 계산하기 때문에 Hoeffding 부등식의 보장을 희석한다고 설명합니다. 각각의 빈이 5개의 헤드 테스트를 통과할 수 있지만 어딘가에서 나쁜 일이 발생할 가능성이 매우 높기 때문에 빈의 실제 확률을 나타내는 것은 아닙니다. 교수는 여러 빈을 효율적으로 처리할 수 있는 무언가를 찾아야 한다고 말하면서 이 섹션을 끝냅니다.

  • 00:50:00 이 섹션에서 강사는 정품 학습 시나리오에서 샘플 내 오류가 샘플 외 오류에 근접할 확률에 대해 논의합니다. 표준. 이 사건의 확률은 확률에서 Union Bound를 사용하여 계산된 유한 집합의 가설이 잘못된 확률보다 작거나 같습니다. 이 경계는 비관적이며 중복을 고려하지 않지만 모든 확률에 대한 상한을 계산하는 데 사용할 수 있습니다. 이 경계의 각 항은 Hoeffding 경계로 대체할 수 있는 고정된 가설에 해당합니다. 궁극적으로 표본 내 오류가 표본 외 오류에 가까울 확률은 여전히 지수가 포함된 용어로 제한되지만 귀찮은 추가 요소가 포함됩니다.

  • 00:55:00 이 섹션에서 교수는 과적합의 문제와 그것이 사용된 모델의 정교함과 어떤 관련이 있는지에 대해 논의합니다. 가설의 수가 많을수록 나쁜 일이 발생할 확률도 높아집니다. 교수는 더 정교한 모델을 사용하면 샘플 내 암기가 발생하고 샘플 외부에서 일반화가 불량해질 수 있다고 설명합니다. Q&A 세션에서는 Hoeffding 부등식과 그 의미에 대해 논의합니다. 여기에는 결과가 사소한 경우와 학습 모델에 대한 가설의 수가 무한한 경우가 종종 포함됩니다. 강의는 nu가 mu와 같다는 의미에 대해 슬라이드 6을 검토해 달라는 요청으로 끝납니다.

  • 01:00:00 비디오의 이 섹션에서 교수는 통계의 원인과 결과의 개념과 그것이 기계 학습과 어떻게 관련되는지 설명합니다. 그는 샘플의 빈도가 효과이고 빈이 원인이라고 강조합니다. mu를 상수로, nu를 원인으로 처리하면서 Hoeffding 부등식을 사용하여 샘플을 기반으로 빈을 추론할 때 이러한 이해가 중요합니다. 교수는 또한 기계 학습의 각 h는 가설이며 모델은 선택 가능한 가설 집합이라고 설명합니다. 모델의 복잡성과 개별 가설은 이 과정의 뒷부분에서 논의될 것입니다. 마지막으로 교수는 방정식을 확장하여 이분형 응답뿐만 아니라 다양한 응답을 지원하는 방법에 대해 논의합니다. 이는 무언가의 기대값 대 표본 평균을 취함으로써 달성할 수 있습니다.

  • 01:05:00 이 섹션에서 교수는 학습이 가능하지만 변수의 분산을 고려해야 한다고 설명합니다. 그는 함수의 기대값과 샘플 평균이 확률과 관련이 있으며 이는 확률과 샘플 평균의 단순한 경우일 뿐이라고 지적합니다. 또한 그는 다양한 가설이 다른 색상으로 이어지기 때문에 학습에서 여러 가설을 나타내기 위해 여러 빈을 사용해야 한다고 설명합니다. 교수는 또한 최상의 초평면을 선택하는 방법과 학습 알고리즘이 끝나는 특정 솔루션을 선택하여 이 문제를 해결하는 방법을 설명합니다. 마지막으로 그는 학습에 필요한 확률의 유일한 호출은 학습에서 확률론적 분석의 이점을 얻기 위해 X에 확률 분포를 두는 것이지만 베이지안 접근법은 마지막에 H에 확률 분포를 둘 것이라고 지적합니다. 강의.

  • 01:10:00 이 섹션에서는 학습 알고리즘에 사용되는 가설 집합(H)의 유연성을 중심으로 논의합니다. 기호 'g'는 H에서 알고리즘에 의해 선택된 최종 가설을 나타내는 데 사용됩니다. 그러나 g는 데이터 및 학습 규칙에 따라 설정된 가설에서 이를 선택하는 전체 학습 과정을 의미하므로 다를 수 있습니다. 또한 퍼셉트론 알고리즘이나 선형 학습 알고리즘이 각 단계에서 가설을 선택하더라도 H에서 하나의 올바른 최종 가설 g를 선택하는 것이 목표이므로 분석 관점에서 숨겨진 프로세스라는 점에 유의하는 것이 중요합니다. 마지막으로, 수정된 Hoeffding 부등식은 평범한 Hoeffding 부등식의 확장으로, 나쁜 일이 발생할 수 있는 확률을 설명하면서 좋은 성능을 보장하기 위해 설정된 가설의 여러 가설에 대해 동시에 진술할 수 있도록 합니다.

  • 01:15:00 이 섹션에서 교수는 통계에서 Hoeffding 부등식과 p-값 사이의 관계에 대해 논의합니다. 그는 Hoeffding 부등식이 표본의 신뢰도와 편차 확률을 추정하는 것과 관련이 있다고 설명합니다. 그는 또한 통계에 많은 수의 다른 법칙이 있지만 일반화 이론을 이해하는 데 가장 유용한 공식으로 이 공식에 초점을 맞춥니다. 교수는 in-sample이 out-of-sample에 가깝고 오류 확률의 다양한 표현을 연구하는 것이 유용하지만 과정의 핵심 주제는 아니라고 언급합니다. 강의가 끝나고 학생들은 다음 주까지 해산됩니다.
Lecture 02 - Is Learning Feasible?
Lecture 02 - Is Learning Feasible?
  • 2012.04.09
  • www.youtube.com
Is Learning Feasible? - Can we generalize from a limited sample to the entire space? Relationship between in-sample and out-of-sample. Lecture 2 of 18 of Cal...
 

강의 3 - 선형 모델 I




Caltech의 기계 학습 과정 - CS 156. 강의 03 -선형 모델 I

이 강의에서는 기계 학습에서의 선형 모델, 입력 표현, 퍼셉트론 알고리즘, 포켓 알고리즘 및 분류에서의 사용을 포함한 선형 회귀의 주제를 다룹니다. 교수는 다양한 아이디어를 시도하기 위해 실제 데이터를 사용하는 것의 중요성을 강조하고 학습 알고리즘의 수명을 단순화하기 위한 기능의 개념을 소개합니다. 강의는 또한 선형 회귀에서 의사 역의 계산적 측면과 비분리 데이터에 대한 분류를 위해 선형 회귀를 사용할 때 발생할 수 있는 문제에 대해 논의합니다. 마지막으로 비선형 변환을 사용하여 데이터를 보다 선형적으로 만드는 개념이 제시되며, 원점에서 x1² 및 x2² 변환을 사용하여 분리 가능한 데이터를 얻는 방법을 보여주는 예가 제공됩니다.

또한 교수는 기계 학습의 선형 모델과 관련된 다양한 주제를 다룹니다. 그는 비선형 변환과 이를 선택하는 지침, 이진 분류의 샘플 내 및 샘플 외 오류, 상관 분석을 위한 선형 회귀 사용, 입력에서 의미 있는 기능 도출에 대해 설명합니다. 교수는 또한 E_in과 E_out의 차이점과 이들이 모델 성능에 미치는 영향을 이해하는 것의 중요성을 강조합니다. 마지막으로 그는 선형 회귀와 최대 우도 추정 사이의 관계, 비선형 변환의 사용, 기계 학습 개념을 이해하는 데 있어 이론의 역할에 대해 다룹니다.

  • 00:00:00 이 섹션에서는 Yaser Abu-Mostafa가 모델의 여러 가설에 대해 자세히 설명합니다. 나쁜 일이 발생할 확률은 여러 가설에 걸쳐 누적될 수 있으므로 수학적 규칙인 합집합 범위를 적용할 수 있습니다. 이 기술을 사용하면 이벤트 또는 다른 이벤트의 확률이 개별 확률의 합보다 작거나 같을 수 있으므로 나쁜 일이 발생할 확률을 제한하는 데 유용한 도구를 제공합니다. 단일 가설 집합 또는 빈이 단일 가설에 해당하는 경우 최종 가설이 잘못될 확률은 작습니다. 그러나 가설 집합이 클수록 M 요인이 커져 확률이 무의미해집니다.

  • 00:05:00 이 섹션에서 강사는 기계 학습에서 선형 모델의 중요성에 대해 논의하고 퍼셉트론과 비분리 데이터에 대한 퍼셉트론의 일반화, 실수 값 함수, 결국 비선형 사례가 됩니다. 또한 다양한 아이디어를 시도하는 데 사용할 우체국 우편번호의 실용적인 데이터 세트를 소개하고 실제 데이터에서 아이디어를 시도하는 것의 중요성을 강조합니다. 강사는 16 x 16 그레이 레벨 픽셀 원시 입력의 256 실수를 인코딩하는 문제를 강조하면서 입력 표현의 문제를 검토합니다. 이는 너무 많은 매개변수로 이어질 수 있지만 특징 추출 기술로 해결됩니다.

  • 00:10:00 이 섹션에서 비디오는 입력 표현의 개념과 학습 알고리즘의 수명을 단순화하는 기능에 대해 설명합니다. 강사는 원시 정보의 상위 수준 표현을 얻기 위해 강도 및 대칭과 같은 이미지의 설명자를 추출하는 예를 제공합니다. 이러한 기능을 사용하여 알고리즘은 일반화에 더 나은 원래 공간의 모든 257개 매개변수 대신 몇 가지 매개변수의 값만 결정하면 됩니다. 그런 다음 강의에서는 특징이 문제를 선형적으로 분리할 수 있게 만드는 방법을 설명하기 위해 강도 및 대칭 좌표의 산점도를 제시하고 결정 경계를 결정하는 퍼셉트론 학습 알고리즘의 역할을 소개합니다.

  • 00:15:00 이 섹션에서는 데이터가 선형적으로 분리되지 않을 때 퍼셉트론 학습 알고리즘의 동작에 대해 알아봅니다. 잘못된 분류를 한 번에 하나씩 수정하는 특성으로 인해 때때로 오류가 증가하거나 감소하며 이러한 경우에 대한 수렴을 보장할 수 없습니다. 이를 해결하기 위해 포켓 알고리즘을 도입합니다. 즉, 각 반복 동안 중간 가설의 샘플 내 오류를 측정하고 포켓에 가장 좋은 것만 보관합니다. 결국 주머니 속의 가설을 최종 가설로 보고합니다. 포켓 알고리즘은 각 반복에서 발견된 포켓 값이 뒤따르는 것보다 더 나은 것으로 간주하므로 더 나은 결과를 제공하므로 샘플 내 오류와 샘플 외 오류가 훨씬 더 가깝습니다.

  • 00:20:00 강의의 이 섹션에서는 Abu-Mostafa 교수가 일반적인 분리 불가능한 데이터에 사용할 수 있는 퍼셉트론 학습 알고리즘의 수정 버전인 포켓 알고리즘에 대해 설명합니다. 알고리즘은 특정 반복에서 종료되고 포켓 값을 보고합니다. 그는 데이터가 아직 완벽하게 분리되지는 않지만 포켓 알고리즘의 분류 경계가 퍼셉트론 학습 알고리즘보다 낫다고 설명합니다. 그런 다음 선형 회귀는 변수 간의 관계를 찾기 위해 일반적으로 사용되는 통계적 접근 방식으로 도입되었으며, 특히 다른 코스의 GPA와 미래 소득 간의 관계를 분석하기 위해 사용되었습니다. 마지막으로 신용 승인 예제를 다시 살펴보고 데이터를 기반으로 고객의 신용 한도를 예측하는 데 회귀를 사용할 수 있는 방법을 보여줍니다.

  • 00:25:00 이 섹션에서 교수는 선형 회귀의 개념을 소개하고 입력 변수를 기반으로 실제 출력 값을 예측하는 데 사용된다고 설명합니다. 출력은 입력 변수 측면에서 선형 형식을 취하는 가설입니다. 변수는 입력으로 인코딩되며 알고리즘은 신호의 선형성에 따라 달라집니다. 이 예제의 데이터 세트는 담당자가 신용 신청을 평가하고 신용 한도를 결정한 이전 고객의 과거 데이터입니다. 목표는 신용 한도 결정 시스템을 자동화하기 위해 전문가가 수행하는 작업을 복제하는 것입니다. 선형 회귀 알고리즘은 오류를 측정하고 f에 잘 근사하는 가설을 결정하기 위해 최적의 가중치를 찾으려고 시도합니다. 선형 회귀에 사용되는 표준 오차 함수는 제곱 오차입니다.

  • 00:30:00 이 섹션에서 강사는 크레디트 라인을 추정하는 방법과 선형 회귀에서 일반적으로 사용되는 제곱 오차와 같은 오차 측정 정의의 중요성에 대해 논의합니다. 샘플 내 오류는 가설이 데이터 세트에서 얼마나 잘 수행되고 있는지 측정하는 데 사용되며 각 예는 오류에 기여합니다. 선형 회귀 알고리즘은 오차 제곱 규칙에 따라 데이터에 맞는 선을 찾아 이 오차를 최소화하려고 합니다. 알고리즘은 선이 초평면인 고차원 공간에 적용됩니다. E_in에 대한 표현은 다른 x_n을 통합하는 무언가의 규범 제곱으로 표시됩니다.

  • 00:35:00 이 섹션에서는 입력 데이터가 출력 벡터 y를 포함하는 행렬 X로 표시되는 선형 모델의 개념을 소개합니다. 매개변수 w에 대해 E_in을 최소화하기 위해 그래디언트가 사용됩니다. 이것은 해결해야 할 간단한 이차 방정식으로 이어지며, 여기에는 가역 정사각 행렬인 X 전치 X가 포함됩니다. 이 때문에 솔루션은 간단하며 w에 대한 공식은 X^†입니다. 여기서 X^†는 X의 의사 역행렬입니다. 이는 X 전치된 X에 전치된 X를 곱한 것의 역수입니다. X는 가역이 아니므로 전통적인 역함수는 없지만 의사 역함수는 있습니다.

  • 00:40:00 이 섹션에서 강사는 선형 회귀에서 의사 역의 계산 측면을 설명합니다. 의사 역의 공식에는 행렬 반전 및 곱셈이 포함되며, 이는 대형 행렬에 대해 계산 집약적일 수 있습니다. 그러나 강사는 의사 역 계산 또는 선형 회귀 솔루션을 계산하는 데 사용할 수 있는 패키지가 많기 때문에 대부분의 실제 응용 프로그램에서는 문제가 되지 않는다고 설명합니다. 선형 회귀를 사용하려면 올바른 형식으로 데이터를 입력하고 행렬 X와 벡터 y를 구성한 다음 이를 의사 역행렬 공식에 연결해야 합니다. 결과 곱셈은 선형 모델의 가중치인 w에 대한 값을 제공합니다.

  • 00:45:00 이 섹션에서는 분류에 선형 회귀를 사용하는 개념을 소개합니다. 이진 값 분류 함수도 실수 값이며 선형 회귀를 사용하여 이러한 함수를 대략적으로 학습할 수 있다고 설명합니다. 선형 회귀에서 얻은 가중치는 퍼셉트론 알고리즘과 같은 분류 알고리즘의 초기 가중치로 사용되어 점프 시작 및 잠재적으로 더 빠른 수렴을 제공할 수 있습니다. 또한 +1 또는 -1로 분류하기 위해 선형 회귀에서 얻은 신호의 부호를 사용하는 아이디어가 논의됩니다. 마지막으로 선형 회귀 경계를 예제를 사용하여 설명합니다.

  • 00:50:00 강의의 이 섹션에서 교수는 특히 비분리 데이터를 처리할 때 분류에 선형 회귀를 사용할 때 발생할 수 있는 문제에 대해 논의합니다. 그는 알고리즘이 모든 값을 동일한 분류로 강제하려고 시도하여 종종 분류 프로세스에서 오류가 발생한다는 것을 보여줍니다. 그런 다음 비선형 변환을 사용하여 거주 기간을 기준으로 신용 한도 안정성을 결정하는 경우와 같이 데이터를 보다 선형적으로 만드는 아이디어를 소개합니다. 그러나 그는 효과적인 사용을 위해서는 이러한 모델의 관점에서 "선형"이 의미하는 바를 이해하는 것이 중요하다고 강조합니다.

  • 00:55:00 이 섹션에서 강사는 퍼셉트론 및 선형 회귀와 같은 학습 알고리즘을 도출할 때 x가 무엇이든 관계없이 알고리즘이 작동할 수 있게 하므로 가중치의 선형성의 중요성에 대해 논의합니다. 이것은 비선형 특성에 주어진 가중치가 매개변수에 선형적으로 의존하기 때문에 선형 모델 영역을 벗어나지 않고 입력에 대한 비선형 변환을 수행할 수 있는 가능성을 열어줍니다. 데이터가 원점에서 x1² 및 x2² 측정을 사용하여 변환되어 분리 가능한 데이터가 되는 비선형 변환의 예가 제공됩니다. 그러나 비선형 변환은 일반화 문제에 민감한 로드된 질문이므로 다음 강의에서 지침에 대해 자세히 설명합니다.

  • 01:00:00 이 섹션에서 교수는 비선형 변환과 이를 선택할 때 얼마나 멀리 갈 수 있는지에 대한 지침에 대해 논의합니다. 그는 비선형 변환을 선택할 때 일반화와 이론적 지식의 중요성을 강조합니다. 그런 다음 토론은 특히 이진 분류의 맥락에서 샘플 내 및 샘플 외 오류로 이동합니다. 교수는 학습에서 샘플 내 오류만 처리되는 반면 샘플 외 오류는 샘플 내에서 잘 수행하면 샘플 외에서 잘 수행된다는 보장과 함께 암묵적으로 처리된다고 설명합니다. 분류에서 오류 확률과 오류 빈도 사이의 구별도 설명됩니다. 그런 다음 강의에서는 선형 회귀를 사용하여 GPA와 미래 소득 간의 상관 관계를 결정하는 방법을 다룹니다. 데이터의 가용성 및 선형 회귀에 w_0 포함에 대해서도 간략하게 설명합니다.

  • 01:05:00 이 섹션에서 교수는 변수 값에 따라 오프셋을 보상하여 적절한 모델을 허용하므로 선형 회귀에 임계값이 필요하다고 설명합니다. 이항의 경우 +1 또는 -1을 출력으로 사용하면 선형 회귀의 가설은 예제의 대상에서 최소 제곱 오차를 가지며 가설의 출력은 값 +1 또는 -1에 가장 가깝습니다. 평균 제곱 오차. 이 기술은 작동할 수 있지만 선형 회귀가 분류를 망칠 수 있는 관련 없는 포인트를 맞추려고 시도하므로 포인트를 올바르게 분류하지 못할 수 있습니다. 교수는 선형 회귀를 초기 가중치로 사용한 다음 적절한 분류 알고리즘을 사용하여 추가로 미세 조정할 것을 제안합니다. 파생 기능에는 일반적인 알고리즘이 없으며 가장 좋은 접근 방식은 원시 입력을 보고 문제 설명을 기반으로 의미 있는 기능을 추론하는 것입니다. 그러나 특징이 너무 많으면 문제가 될 수 있으며, 여기서 비선형 변환이 특징 공간을 단순화하는 데 도움이 될 수 있습니다.

  • 01:10:00 이 섹션에서 교수는 원시 입력의 상위 수준 표현인 기능의 개념에 대해 설명합니다. 선형 모델은 기계 학습의 수많은 모델을 위한 빌딩 블록이며 다른 모델은 경우에 따라 더 나은 증분 성능을 제공할 수 있지만 그는 선형 모델이 작업을 수행한다고 강조합니다. 교수는 또한 E_in이 쉽게 평가되는 E_in과 E_out의 차이점을 강조하는 반면 E_out은 샘플 내 오류가 샘플 외 오류를 추적한다는 이론적 보증이 필요합니다. 또한 그는 비선형 변환을 통해 입력 변수를 변환하여 다항식을 맞추는 데 선형 회귀를 계속 사용할 수 있다고 설명합니다. 마지막으로 확률과 노이즈에 대한 더 많은 가정을 포함하는 통계 문헌에서 선형 회귀 최소 제곱과 최대 우도 추정 사이의 관계에 대해 간략하게 설명합니다.

  • 01:15:00 이 섹션에서 교수는 선형 회귀 모델과 최대 우도 사이의 관계에 대해 이야기하지만 분포에 대해 너무 많은 가정을 하지 않고 기계 학습의 맥락에서 선형 회귀를 제시하는 것을 선호합니다. 교수는 또한 비선형 변환과 다항식 및 방사형 기저 함수를 포함하여 기계 학습에 사용되는 방법에 대해 설명합니다. 그는 또한 의사 난수 생성기에서 패턴을 찾는 방법과 당면한 문제에 따라 달라지는 연속 응답과 불연속 응답에 대한 다양한 처리 방법에 대한 질문을 다룹니다. 마지막으로 교수는 기계 학습 기술을 더 깊이 이해하는 데 있어 이론의 중요성을 강조합니다.
Lecture 03 -The Linear Model I
Lecture 03 -The Linear Model I
  • 2012.04.12
  • www.youtube.com
The Linear Model I - Linear classification and linear regression. Extending linear models through nonlinear transforms. Lecture 3 of 18 of Caltech's Machine ...
 

강의 4 - 오류 및 노이즈



Caltech의 기계 학습 과정 - CS 156. 강의 04 - 오류 및 노이즈

기계 학습 과정의 강의 04에서 Abu-Mostafa 교수는 실제 기계 학습 문제에서 오류와 노이즈의 중요성에 대해 논의합니다. 그는 학습에서 선형성을 유지하는 데 필수적인 특징 공간 Z를 사용하여 비선형 변환의 개념을 설명합니다. 강의는 또한 감독 학습 다이어그램의 구성 요소를 다루며 가설의 성능을 정량화할 때 오류 측정의 중요성을 강조합니다. 시끄러운 대상은 실세계 학습 문제의 전형적인 구성 요소로 도입되며 샘플 내 오류를 최소화할 때 고려해야 합니다. 강의는 학습 이론에 대한 토론과 샘플 내 오류, 샘플 외 오류 및 모델 복잡성 평가에서의 관련성에 대한 토론으로 끝납니다.

교수는 확률 분포의 변화가 학습 알고리즘에 어떤 영향을 미칠 수 있는지, 오류 측정이 응용 프로그램마다 어떻게 다를 수 있는지 설명합니다. 그는 또한 선형 회귀 알고리즘, 최적화에서 오차 측정을 위한 절대값 대비 제곱 오차의 사용, 기계 학습 모델의 복잡성과 성능 사이의 트레이드오프에 대해 설명합니다. 교수는 입력 공간과 특징 추출의 차이점을 명확히 하고 일반화를 개선하는 동시에 오류를 최소화하는 방법에 대한 이론은 다음 강의에서 다룰 것이라고 언급합니다.

  • 00:00:00 이 섹션에서 Abu-Mostafa 교수는 기계 학습에서 실제 문제를 고려할 때 오류와 노이즈의 중요성에 대해 논의합니다. 그는 먼저 비선형 변환의 개념과 학습 프로세스에 필수적인 가중치 벡터인 w에서 변수를 변환하고 선형성을 유지하는 데 어떻게 도움이 되는지 다시 살펴봅니다. 그런 다음 실제 상황에서 발생하는 실질적인 고려 사항을 인정하면서 학습 다이어그램에 오류 및 노이즈의 개념을 도입합니다. 강의에는 비선형 변환을 통해 분리할 수 있는 비분리 데이터의 예도 포함되어 있습니다.

  • 00:05:00 이 섹션에서는 phi라는 비선형 변환에 대해 설명합니다. 여기서 샘플 공간 x_n의 모든 포인트는 변환을 통해 해당 포인트 z_n은 매우 비선형적인 공간일 수 있는 특징 공간 Z에서 얻어집니다. 이를 통해 데이터 세트가 새로운 기능 공간에서 선형으로 분리될 수 있으며 선형 회귀 또는 분류와 같은 간단한 선형 모델 알고리즘에 의해 적용되어 분리 경계를 얻습니다. 그러나 테스트 포인트가 주어지면 입력 공간에 있기 때문에 이 포인트는 그에 따라 분류될 특징 공간에 있는 위치를 찾기 위해 역 변환을 사용하여 변환되어야 합니다. 이 절차는 모든 비선형 변환에 대해 모든 크기의 차원에서 잘 작동하지만 일반화 문제를 피하기 위해 변환에 주의하는 것이 중요합니다.

  • 00:10:00 이 섹션에서 강사는 감독 학습 다이어그램의 구성 요소에 대해 설명하고 오류 측정 및 노이즈 대상의 개념을 소개합니다. 그는 오류 측정의 목표는 가설이 알려지지 않은 목표 함수에 얼마나 잘 또는 얼마나 나쁘게 근사하는지 정량화하는 것이라고 설명합니다. 오차 측정은 두 함수의 E로 정의되며 정량적 측정임을 강조한다. 그는 또한 시끄러운 대상이 반드시 고려해야 하는 실생활 학습 문제의 실용적인 구성 요소라고 말합니다.

  • 00:15:00 이 섹션에서는 기계 학습 알고리즘에서 가설 함수가 목표 함수에 얼마나 근접하는지 측정하기 위해 오류 함수가 어떻게 사용되는지 설명합니다. 오류 함수는 동일한 지점에서 두 함수의 값을 비교하여 계산된 숫자를 반환합니다. pointwise 정의가 일반적으로 사용되며 pointwise 오류의 평균은 전체 공간에 대한 오류 함수를 정의하는 데 사용됩니다. 오차 함수의 표본 내 오차는 훈련 세트의 점별 오차의 평균이며, 표본 외 오차는 데이터를 훈련 세트와 테스트 세트로 나누어야 합니다. 화자는 정확한 가설함수를 개발하기 위해서는 오차함수를 최소화하는 것이 중요함을 강조한다.

  • 00:20:00 이 섹션에서 강사는 오류 측정의 샘플 외 버전인 샘플 외 오류에 대해 설명합니다. 기대값은 입력 공간 X의 모든 점을 평균하여 얻습니다. 이진 오류는 입력 공간 X에 대한 확률 분포를 사용하여 계산되는 전체 오류 확률입니다. 학습 다이어그램은 오류 측정을 추가하여 업데이트됩니다. , 포인트 단위로 정의됩니다. 오류 척도는 두 가지 유형의 오류(거짓 수락 및 거짓 거부)로 지문 확인의 맥락에서 정의됩니다. 오차 측정을 정의할 때 더 나은 가설을 얻기 위해 각 유형의 오차에 불이익을 줍니다.

  • 00:25:00 이 섹션에서 발표자는 지문 확인 시스템의 오류 및 노이즈 개념과 기계 학습을 사용하여 지문을 기반으로 개인을 수락하거나 거부하는 가설을 만드는 방법에 대해 논의합니다. 화자는 하나의 오류 함수를 다른 함수보다 선택하는 데 내재된 장점이 없으며 응용 분야에 따라 다르다는 점에 주목합니다. 예를 들어 슈퍼마켓의 경우 거짓 거부는 고객을 실망시키고 다른 곳으로 사업을 가져갈 수 있으므로 비용이 많이 드는 반면 잘못된 수락은 큰 문제가 아닙니다. 그러나 CIA의 경우 잘못된 승인은 잠재적으로 보안 위반으로 이어질 수 있으므로 잘못된 거부보다 비용이 더 많이 듭니다. 따라서 특정 응용 프로그램에 따라 오류 매트릭스를 조정해야 합니다.

  • 00:30:00 이 섹션에서 화자는 실제 학습 문제에서 오류 측정의 중요성에 대해 논의하고 사용되는 오류 측정은 불완전한 시스템을 사용할 사용자가 지정해야 한다고 설명합니다. 그는 사용자가 정량적 오류 함수를 명확하게 표현할 수 있는 경우 작업할 오류 함수라고 제안합니다. 그러나 사용자가 특정 오류 기능을 제공하지 않는 경우 다른 타당하거나 친숙한 조치를 사용할 수 있습니다. 그럴듯한 측정은 분석적 장점이 있는 반면 친근한 측정은 사용하기 쉽습니다. 화자는 오류 측정을 도입하기 위해 학습 다이어그램을 수정합니다. 이는 시스템이 학습해야 하는 내용을 명확하게 만드는 데 중요합니다.

  • 00:35:00 이 섹션에서는 오류 측정과 학습 알고리즘에서의 역할에 중점을 둡니다. 오류 측정에는 두 가지 주요 기능이 있습니다. 최종 가설을 평가하고 대상 함수를 근사화하고 오류 측정을 학습 알고리즘에 공급하여 샘플 내 오류를 최소화합니다. 또한 시끄러운 대상이 실생활 문제의 표준으로 도입되었습니다. 대상 함수는 항상 함수가 아니며 설명되지 않은 정보 및 상황의 노이즈에 의해 영향을 받을 수 있으므로 결정적이기보다는 확률적입니다. 목표 함수 대신 목표 분포가 사용됩니다. 여기서 y는 확률적 의존성을 나타내는 x가 주어진 확률 분포에 의해 생성됩니다. 잡음이 있는 대상의 개념은 결정론적 대상 함수에 잡음을 더한 아이디어를 도입하여 다루며 이 접근 방식은 대상 분포의 개념을 단순화하는 데 사용됩니다.

  • 00:40:00 이 섹션에서 연사는 머신 러닝의 노이즈 개념과 노이즈가 학습 프로세스에 미치는 영향에 대해 설명합니다. 목표 함수는 x가 주어진 y의 예상 값으로 정의되며 나머지 부분은 노이즈라고 합니다. 대상 함수가 잘 정의되지 않은 경우 확률 분포로 나타낼 수 있으며 잡음이 있는 대상은 x가 주어진 y의 조건부 확률 분포로 나타낼 수 있습니다. 감독 학습을 위한 학습 다이어그램에는 잡음이 있는 대상이 포함되며 x가 주어진 경우 x와 y의 확률이 구분됩니다. 관련된 복잡성에도 불구하고 화자는 학습 다이어그램의 모든 구성 요소가 존재하는 이유가 있다고 말합니다.

  • 00:45:00 이 섹션에서 화자는 입력이 주어진 신용도의 확률 분포인 목표 분포의 개념을 설명하고 감독 학습을 통해 학습하려는 것임을 강조합니다. 반면 입력분포는 목표분포에서 입력의 상대적 중요도를 정량화하는 역할을 하지만 학습하려는 내용은 아니다. 발표자는 또한 이론적으로 수행할 수 있는 두 분포를 혼합하면 실제 목표 분포에 대해 혼동을 일으킬 수 있다고 경고합니다. 마지막으로 화자는 목표 분포를 근사화하는 것을 목표로 하는 학습 이론을 소개하고 통찰력을 얻고 보조 도구를 습득하는 데 있어 학습 이론의 중요성을 강조합니다.

  • 00:50:00 이 섹션에서 강사는 함수 g에 대한 표본 외 오차가 0에 가까워야 하며 이것이 좋은 일반화를 의미한다고 설명합니다. 그러나 이 수량을 알 수 없기 때문에 올바른 확인이 있는 한 샘플 내 오류를 샘플 외 오류의 프록시로 사용할 수 있습니다. 학습의 전체 스토리에는 두 가지 질문이 포함됩니다. 샘플 외 성능이 샘플 내 성능과 충분히 근접하도록 할 수 있는지(이론적 질문), 샘플 내 오류를 충분히 작게 만들 수 있는지(실제 질문) )? 강사는 순전히 잡음이 많은 데이터가 있는 재무 예측과 같이 일부 응용 프로그램에서는 0에 가까운 샘플 외 성능을 얻는 것이 불가능하다고 지적합니다. 그럼에도 불구하고 헤지펀드는 약간의 비효율성을 이용하여 여전히 돈을 벌 수 있습니다.

  • 00:55:00 강의의 이 섹션에서 교수는 표본 외 오차의 중요성과 앞으로 2주 동안 다룰 이론에 대해 논의합니다. 이론은 표본 내 오류, 표본 외 오류 및 모델 복잡성을 이해하는 것을 다루며 이러한 요소를 평가하기 위해 공식적인 정의가 제공됩니다. 이론의 주요 목표는 퍼셉트론 및 선형 회귀 모델과 같이 가설 집합이 무한대인 경우에 대한 학습 가능성을 특성화하는 것입니다. 이론은 모델의 정교함을 반영하는 단일 매개변수로 모델을 측정할 것이며, 이는 실제 학습에서 많은 차이를 만드는 데 도움이 될 것입니다. 교수는 또한 학습 알고리즘에서 x의 P의 상대적 영향에 대해 논의하면서 한 가지 질문에 답합니다.

  • 01:00:00 이 섹션에서 교수는 특히 학습 예제 선택에서 확률 분포의 변화가 학습 알고리즘에 어떤 영향을 미칠 수 있는지 논의합니다. 교수는 입력의 확률 분포가 기술적인 역할을 하지만 다른 부분보다 공간의 특정 부분에 대한 강조가 알고리즘의 선택에 영향을 미칠 수 있다고 설명합니다. N 쌍의 x와 y 또는 x당 N y 중에서 선택하는 가장 좋은 방법과 관련하여 교수는 입력 공간의 매우 특정한 부분을 처리하는 것을 피하고 일반화를 개선하기 위해 동일한 입력에 대해 독립적으로 가져오는 것을 제안합니다. 마지막으로 교수는 잘못된 일반화 또는 좋은 일반화를 측정하는 방법이 있으며 이는 이론의 일부가 될 것이라고 언급합니다.

  • 01:05:00 이 섹션에서 교수는 동일한 시스템 및 동일한 교육 데이터에 대해서도 응용 분야마다 오류 측정이 다를 수 있다고 설명합니다. 그는 슈퍼마켓과 CIA에서 잘못된 수락과 잘못된 거부 사이의 올바른 균형이 어떻게 다를 수 있는지에 대한 예를 제공합니다. 교수는 또한 x의 확률 구조(P(x))는 교육과 테스트에 동일한 분포가 사용되는 한 지도 학습에서 문제가 되지 않는다고 설명합니다. 그는 또한 학습 문제에 대한 확률적 접근 방식을 호출하는 목적에는 어떤 확률 분포로도 충분할 것이라고 설명합니다. 마지막으로, 교수는 제곱 오류 측정 및 폐쇄형 솔루션의 경우를 단순화하라는 요청을 인정하며 검토에서 다룰 것입니다.

  • 01:10:00 이 섹션에서 교수는 제곱 오차 최소화를 기반으로 선형 회귀 알고리즘을 도출하여 간단한 폐쇄형 솔루션을 도출한 방법에 대해 설명합니다. 그는 또한 y 확률의 불균형이 학습 과정에 어떤 영향을 미치며 보상과 비용은 동일하다고 설명합니다. 또한 기계 학습에서 입력 공간을 참조할 때 입력 부분에 대해서만 가능한 모든 지점을 포함하는 반면 특징 추출은 입력을 처리하여 관련 없는 정보를 제거하는 작업이라고 설명합니다. 주성분 분석은 입력 표현 공간에서 정보 방향을 감지하는 또 다른 방법입니다.

  • 01:15:00 강의의 이 섹션에서 교수는 최적화에서 오류 측정값의 절대값 대 제곱 오차 측정값의 사용에 대해 논의합니다. 그는 제곱 오차는 매끄러운 함수이고 많은 바람직한 속성을 가지고 있는 반면 절대값은 매끄럽지 않고 조합 최적화를 초래할 수 있다고 설명합니다. 다만, 특정 공로에 대하여 절대값의 사용이 필요한 경우에는 그대로 사용할 수 있다. 또한 그는 대상이 x의 w가 아니라 x의 함수 f이며 노이즈는 특정 x가 주어진 y와 y의 예상 값 간의 차이임을 명확히 합니다. 마지막으로 교수는 기계 학습 모델에서 복잡성과 성능 사이에 트레이드 오프가 있지만 일반화를 개선하고 오류를 최소화하는 방법에 대한 답은 다음 네 강의에서 다룰 것이라고 언급합니다.
Lecture 04 - Error and Noise
Lecture 04 - Error and Noise
  • 2012.04.15
  • www.youtube.com
Error and Noise - The principled choice of error measures. What happens when the target we want to learn is noisy. Lecture 4 of 18 of Caltech's Machine Learn...
 

강의 5 - 교육 대 테스트



Caltech의 기계 학습 과정 - CS 156. 강의 05 - 교육 대 테스트

데이터로부터 학습에 관한 과정의 강의 5에서 Abu-Mostafa 교수는 머신 러닝의 오류 및 노이즈 개념, 교육과 테스트의 차이점, 성장 함수에 대해 논의합니다. 주어진 포인트 수에 대해 설정된 가설. 또한 가설집합의 복잡도에 해당하는 중단점(Break Point)을 소개하고 만약 존재한다면 N에서의 다항식 증가율을 보장하며 양의 광선, 구간, 볼록집합 등 가설집합의 다양한 예를 논한다. 강의는 가설 세트의 복잡성과 실행 가능한 학습 가능성을 완전히 이해하기 위해 이러한 개념과 수학적 프레임워크를 이해하는 것의 중요성을 강조합니다.

교수는 훈련 대 시험과 관련된 다양한 주제를 다루었습니다. 그는 논바이너리 대상 및 가설 기능과 파쇄 지점의 트레이드 오프에 대한 청중의 질문에 답했습니다. 교수는 성장 함수를 찾는 것의 중요성과 높은 일반화 확률을 측정하기 위해 N의 2제곱을 사용하는 것보다 선호되는 이유를 설명했습니다. 또한 중단점의 존재는 학습이 가능함을 의미하고 중단점의 값은 특정 성능을 달성하는 데 필요한 리소스를 알려준다고 언급하면서 중단점과 학습 상황 간의 관계에 대해 논의했습니다. 마지막으로 교수는 Hoeffding의 대안과 사람들이 그것에 익숙해지도록 하기 위해 그가 그것을 고수하는 이유를 설명했습니다.

  • 00:00:00 이 섹션에서는 Abu-Mostafa 교수가 오류 및 노이즈의 개념과 실제 상황에서 기계 학습과 어떻게 관련되는지 설명합니다. 그는 오류 측정을 정의하는 것의 중요성과 목표 함수 대비 가설의 성능을 결정하는 데 오류 측정이 어떻게 사용되는지 설명합니다. 또한 그는 타겟이 결정론적 함수가 아니라 x의 영향을 받고 확률 분포에 따라 분산되는 노이즈 타겟의 개념에 대해 설명합니다. Abu-Mostafa 교수는 또한 훈련 대 테스트에 초점을 맞춘 다음 세 강의 동안 지속될 이론 트랙과 이를 현실적인 방식으로 설명하는 수학적 프레임워크를 소개합니다.

  • 00:05:00 이 섹션에서 강사는 최종 시험의 맥락에서 교육과 테스트의 차이점을 탐구합니다. 기말고사 전에 제공되는 연습문제와 풀이는 훈련세트가 됩니다. 최종 시험은 테스트 세트 역할을 합니다. 강사는 목표가 기말고사에서 잘하는 것이 아니라 자료를 이해하는 것이라고 강조하며 작은 E_out에 반영됩니다. 테스트에 대한 수학적 설명은 최종 시험에서 얼마나 잘 수행했는지를 포함하는 반면 훈련에 대한 수학적 설명은 연습 문제에서 수행한 방법을 포함합니다. 실습 세트의 오염으로 인해 E_in 메트릭의 성능이 저하됩니다. 강사는 가설 집합의 복잡성을 측정할 때 M 수량을 보다 친숙한 것으로 대체할 필요성을 강조합니다.

  • 00:10:00 이 섹션에서 화자는 가설 M의 출처와 이를 대체하기 위해 이를 둘러싼 맥락을 이해하는 것의 중요성에 대해 논의합니다. 화자는 B라는 나쁜 이벤트가 있으며 샘플 내 성능이 샘플 외 성능을 추적하지 않는 상황을 피하는 것이 목적이라고 설명합니다. 목표는 이벤트 간의 상관 관계에 관계없이 나쁜 이벤트의 확률이 작도록 하는 것입니다. 그런 다음 화자는 계속해서 퍼셉트론 예제와 더 나은 바인딩을 보장하기 위해 그림의 관점에서 나쁜 이벤트를 정의하는 방법을 설명합니다.

  • 00:15:00 이 섹션에서 강사는 가설에 대한 샘플 내 오류와 샘플 외 오류를 각각 나타내는 E_in 및 E_out의 개념에 대해 설명합니다. 그런 다음 그는 한 가설에서 다른 가설로 이동할 때 E_in 및 E_out의 변화가 어떻게 비교되는지 조사하여 가설 간의 중첩 영역으로 인해 작고 같은 방향으로 움직인다고 주장합니다. 강사는 복잡도의 이전 척도인 M을 어떤 모델의 복잡성을 특징짓는 새로운 양으로 대체할 수 있다고 제안하지만, 이는 다음 강의에서 증명이 필요할 것입니다. 그는 수량을 소개하고 증명을 진행하기 전에 그것을 잘 이해할 필요가 있음을 강조한다.

  • 00:20:00 이 섹션에서 강사는 이분법이 무엇이며 가설과 어떻게 관련되는지 설명합니다. 이분법은 포인트의 하위 집합에서만 정의되는 다중 가설이며 한정된 데이터 포인트 집합에서 가능한 빨간색과 파란색 패턴을 나타냅니다. 예를 들어 이분법이 몇 개만 있으면 가설 집합이 강력하지 않지만 많으면 가설 집합이 강력합니다. 강사는 이분법을 입력 공간 위에 놓인 구멍이 있는 불투명한 종이로 설명하며 빨간색과 파란색 점의 패턴만 표시합니다. 이분법은 가설을 표현하는 공식적인 방법으로, 함수가 파란색과 빨간색 영역에 대해 -1 또는 +1을 생성합니다.

  • 00:25:00 이 섹션에서 강사는 퍼셉트론의 경우 가설과 이분법의 수에 대해 논의합니다. 그는 퍼셉트론이 무한한 값을 가지기 때문에 무한한 수의 가설이 있을 수 있다고 설명합니다. 그러나 이분법의 수는 +1 또는 -1을 반환할 포인트가 한정되어 있기 때문에 제한됩니다. "m"으로 표시된 성장 함수는 N 지점에 설정된 가설을 사용하여 얻을 수 있는 가장 많은 이분법을 세어 가설의 수를 대체합니다. 강사는 입력 공간에서 N 포인트를 선택하는 것과 관련하여 이분법의 수를 최대화하여 성장 함수를 계산한다고 언급합니다.

  • 00:30:00 이 섹션에서 강사는 성장 기능의 개념과 그것이 퍼셉트론에 어떻게 적용되는지 설명합니다. 가설 집합의 성장 함수는 주어진 점 수에 대해 생성할 수 있는 최대 이분법 수를 알려주는 함수입니다. 퍼셉트론의 경우 하나부터 시작하여 모든 점의 성장 함수를 찾아야 하기 때문에 성장 함수를 얻는 것은 어렵습니다. 또한 각 포인트 수에 대해 퍼셉트론이 생성할 수 없는 특정 포인트 집합이 있습니다. 그럼에도 불구하고 퍼셉트론은 간단한 알고리즘을 가진 간단한 모델이기 때문에 이러한 제한이 예상됩니다.

  • 00:35:00 이 섹션에서 강사는 양의 광선과 양의 간격을 포함한 다양한 모델의 예를 사용하여 성장 함수의 개념에 대해 설명합니다. 그는 양의 광선에 대한 성장 함수는 N+1이며, 이는 이분법의 수가 N 지점 사이에 가능한 선분의 수에 따라 달라진다는 것을 의미한다고 설명합니다. 한편, 양의 구간은 구간의 시작과 끝이라는 두 매개 변수를 변경하여 서로 다른 이분법을 얻을 수 있기 때문에 더 큰 성장 함수를 갖습니다.

  • 00:40:00 이 섹션에서 강사는 다양한 수준의 복잡성을 가진 가설 집합에 대한 성장 함수에 대해 논의합니다. 한 줄에 있는 가장 단순한 이분법 가설 세트의 경우 성장 함수 공식은 단순히 N+1 세그먼트에서 2 세그먼트를 선택하는 방법의 수이며, 이는 (N+1) 2를 선택하는 것과 같습니다. 다음 가설 세트의 경우 평면에서 볼록한 영역의 경우 강사는 일부 영역이 볼록하지 않기 때문에 유효하지 않다고 지적합니다. 이 세트에 대한 성장 함수 공식은 모든 이분법이 유효하지 않기 때문에 더 복잡한 계산이 필요합니다. 그런 다음 강사는 이 가설 집합에 대한 성장 함수를 최대화하기 위해 원의 둘레에 있는 점 배치에 대한 최적의 선택을 제안합니다.

  • 00:45:00 이 섹션에서 강사는 볼록 집합에 대한 성장 함수와 양의 간격에 대한 성장 함수만큼 강력하지 않은 방법에 대해 설명합니다. 강사는 각 가설에 대해 성장 함수가 어떻게 작동하는지 보여줍니다. 또한 최대 M을 성장 함수가 될 수 있는 유한한 숫자 m으로 대체하는 방법에 대해서도 논의합니다. 강사는 성장 함수가 다항식이라면 그 가설을 사용하여 학습이 가능하다고 결론을 내립니다. 그러나 강사는 성장함수를 명시적으로 평가하는 것이 쉽지 않다는 점을 인정한다.

  • 00:50:00 이 섹션에서는 가설 집합이 가능한 모든 이분법을 얻지 못하는 지점을 정의하기 위해 중단점의 개념을 소개합니다. 중단점은 가설 집합의 복잡성에 해당하며 크기 k의 데이터 집합이 가설 집합에 의해 부서질 수 없는 경우 k가 중단점입니다. 2D 퍼셉트론의 중단점은 4로 밝혀졌습니다. 강의에서는 각 가설 집합의 중단점을 찾는 방법을 설명하기 위해 양의 광선, 간격 및 볼록 집합의 예도 다룹니다. 또한 가설 집합에 중단점이 없으면 무한히 성장할 것이라는 사실이 확립되었습니다.

  • 00:55:00 이 섹션에서 교수는 성장 함수의 개념과 중단점이 존재하는 경우 N에서 다항식 성장 속도를 보장하는 방법을 설명합니다. 중단점의 제약으로 인해 무리에서 가능한 이분법을 제거하여 N 성장 함수에 대한 제한 없는 2를 다항식으로 줄이는 엄청난 조합 제한이 있습니다. 교수는 이분법이 제한되고 제약 조건을 충족하는 이분법 하나만 남을 때까지 위반자가 제거되는 중단점 2로 설정된 3점 가설의 예를 제공합니다.

  • 01:00:00 이 섹션에서 교수는 논바이너리 대상 및 가설 함수와 산산조각 지점의 균형에 대한 청중의 질문에 답합니다. 그는 자신이 개발하고 있는 이론이 이진 함수에 대해 관리할 수 있지만 더 기술적인 실제 값 함수에 대한 상대가 있으며 바이어스-분산 트레이드오프 방법을 통해 다룰 것이라고 설명합니다. 산산조각의 관점에서 그는 데이터를 맞추는 데는 좋지만 일반화에는 좋지 않으며 근사와 일반화 사이의 올바른 균형을 찾는 것이 핵심이라고 말합니다. 또한 그는 다항식 성장의 중요성과 그것이 나쁜 일이 발생할 작은 확률을 어떻게 보장하는지 설명합니다.

  • 01:05:00 이 섹션에서 교수는 모든 행에 3개의 비트를 배치하고 두 점이 부서질 수 없다는 제약 조건 하에서 가능한 한 많은 다른 행을 얻으려고 시도하는 퍼즐에 대해 논의합니다. 교수는 제약 조건을 위반하지 않도록 행을 추가하고 가능한 모든 조합을 주시하는 연습을 거칩니다. 결국 교수는 이 제약 조건 하에서 가능한 패턴은 4개만 달성할 수 있으며 더 이상 행을 추가할 수 없다는 결론을 내립니다. 이 제한은 가설의 수가 퍼셉트론에 대해 무한대이고 성장 함수가 N에 대해 동일하게 2이거나 그 사이에 아무 것도 없는 다항식이라는 사실 때문입니다.

  • 01:10:00 강의의 이 섹션에서 교수는 성장 함수를 찾는 것의 중요성과 높은 일반화 확률을 측정하기 위해 N의 2제곱을 사용하는 것보다 선호되는 이유에 대해 논의합니다. 교수는 다항식 성장 함수를 찾으면 관리 가능한 우변을 얻을 수 있고 일반화 가능성이 높아질 것이라고 설명합니다. 교수는 또한 테스트 및 훈련 포인트의 수, 다양한 가설에 대한 표본 외 오류, 성장 함수라고 불리는 이유에 대한 학생들의 질문에 답합니다. 교수는 성장 함수를 찾는 방법에는 여러 가지가 있으며 때로는 중단점에 대한 추정치가 정확한 값이 아닌 추정치일 뿐이라고 지적합니다.

  • 01:15:00 이 섹션에서 교수는 중단점과 학습 상황 간의 관계에 대해 논의합니다. 그는 중단점의 존재는 학습이 가능하다는 것을 의미하고 중단점의 값은 특정 성과를 달성하는 데 필요한 리소스를 알려준다고 설명합니다. 그는 또한 Hoeffding의 대안과 그가 그것을 고수하는 이유에 대해서도 언급합니다. 목표는 사람들이 Hoeffding에 너무 익숙해져서 차갑다는 것을 알게 되어 수정이 도입될 때 길을 잃지 않도록 하는 것입니다.
Lecture 05 - Training Versus Testing
Lecture 05 - Training Versus Testing
  • 2012.04.19
  • www.youtube.com
Training versus Testing - The difference between training and testing in mathematical terms. What makes a learning model able to generalize? Lecture 5 of 18 ...