머신 러닝 및 신경망 - 페이지 18

 

강의 6. 검색: 게임, Minimax 및 Alpha-Beta



6. 검색: 게임, Minimax 및 Alpha-Beta

이 비디오는 컴퓨터가 체스를 둘 수 없다는 유명한 Dreyfus의 인용문을 시작으로 AI 게임 플레이의 역사에 대해 논의합니다. 연사는 if-then 규칙이 게임 플레이 프로그램에서 어떻게 효과가 없는지 설명하고 더 깊은 분석과 전략이 필요합니다. 게임 검색 효율성을 최적화하기 위해 minimax 알고리즘과 alpha-beta pruning 개념을 도입합니다. 이 비디오는 또한 보험 정책 비용 최소화 및 점진적 심화와 같은 기술을 탐구합니다. 화자는 불도저의 지능이 중요하지만 반드시 인간이 머릿속에 가지고 있는 것과 같은 유형의 지능은 아니라고 결론을 내립니다.

  • 00:00:00 이 섹션에서 연사는 컴퓨터가 체스를 할 수 없다는 Hubert Dreyfus의 유명한 인용문을 강조하면서 AI 게임 플레이의 초기 역사에 대해 논의합니다. 그러나 발표자들은 게임이 지능의 일부 요소를 모델링할 수 있다고 주장하고 컴퓨터가 체스를 두는 방법을 설명합니다. 그들은 if-then 규칙을 사용하여 게임에 접근하는 것을 고려합니다. 이 방법은 매우 효과적이지는 않지만 일부 체커 플레이 프로그램에서 성공적으로 구현되었습니다. 연사는 궁극적으로 게임 플레이 프로그램에서 전술 및 속도와 함께 더 깊은 분석 및 전략이 필요하다는 결론을 내립니다. 이에 대해서는 섹션에서 더 자세히 살펴볼 것입니다.

  • 00:05:00 이 섹션에서 발표자는 강력한 체스 게임 프로그램을 만드는 세 번째 방법에 대해 논의합니다. 여기에는 가능한 최상의 보드 상황을 결정하기 위해 이동의 모든 가능한 결과를 예측하고 평가하는 것이 포함됩니다. 이를 위해서는 체스판의 기능을 결합하여 최상의 보드 상황을 결정하는 데 사용되는 정적 값을 생성하는 기능이 필요합니다. 발표자는 정적 값을 형성하는 가장 보편적인 방법은 선형 채점 다항식을 사용하는 것이라고 설명합니다. 그러나 사용된 방법은 보드 상황의 순위를 매기거나 숫자를 부여할 필요가 없습니다. 단지 최선을 결정하기만 하면 됩니다. 발표자는 이동 트리의 분기 요인과 터미널 또는 리프 노드의 수를 계산하는 방법에 대해서도 이야기합니다.

  • 00:10:00 이 섹션에서 발표자는 게임의 결정 트리에 리프 노드가 많기 때문에 체스에서 대영 박물관 알고리즘의 한계를 설명합니다. 클로드 섀넌(Claude Shannon)에 따르면 체스에는 약 10~120번째 리프 노드가 있으므로 대영 박물관 처리를 사용하여 최상의 수를 평가하는 것은 불가능합니다. 그 수치를 한 눈에 보기 위해 화자는 우주의 모든 원자가 빅뱅이 시작된 이래로 나노초의 속도로 정적 평가를 수행하더라도 우리는 여전히 14배 부족할 것이라고 계산합니다. 따라서 화자는 체스에서 최선의 수를 평가하려면 가능한 한 앞을 내다봐야 한다고 결론을 내립니다.

  • 00:15:00 이 섹션에서 발표자는 게임 트리의 리프 노드에 값을 할당하고 레벨별로 "백업"하여 각 플레이어에게 가능한 최상의 이동을 결정하는 미니맥스 알고리즘을 설명합니다. 최대화 플레이어는 플레이를 최대값으로 유도하고 최소화 플레이어는 최소값으로 밀어붙이기를 원합니다. 이러한 값을 계산하고 최선의 행동 방침을 결정함으로써 알고리즘을 사용하여 체스와 같은 적대적인 게임을 할 수 있습니다. 발표자는 간단한 게임 트리로 알고리즘을 설명하고 더 큰 게임 트리로 작동하는 알고리즘의 예도 보여줍니다.

  • 00:20:00 비디오의 이 섹션에서는 다음 이동에 대한 꽤 좋은 아이디어를 제공할 수 있는 보드 품질의 조잡한 측정을 명확히 하기 위해 가능한 한 검색 트리로 내려가는 방법을 찾는 데 중점을 둡니다. . 검색 트리의 많은 부분을 잘라내는 솔루션은 minimax 위에 레이어인 알파-베타 알고리즘에 있습니다. Alpha-beta는 alpha와 beta라는 두 가지 매개변수를 사용하여 검색 트리의 섹션을 잘라내어 보다 효율적인 검색을 가능하게 합니다. 이 알고리즘은 minimax의 대안이 아니라 오히려 더 효율적으로 만드는 방법입니다. 알파-베타 알고리즘이 실제로 어떻게 작동하는지 보여주는 예가 제공됩니다.

  • 00:25:00 이 섹션에서 발표자는 게임 검색 프로세스와 minimax 및 alpha-beta와 같은 알고리즘을 사용하여 최적화할 수 있는 방법에 대해 논의합니다. 사용된 예는 깊이가 4 이상인 트리입니다. 여기서 화자는 계산해야 하는 숫자에 동그라미를 치고 특정 가지가 잘린 상황으로 인해 평가할 필요가 없음을 나타냅니다. 이렇게 하면 계산 시간이 절약되고 보다 효율적인 게임 검색이 가능합니다. 연사는 또한 트리의 분리된 수준에서 숫자를 비교하고 특정 가지가 관련이 없는 것으로 간주되는 깊은 절단의 개념을 소개합니다. 믿기 어려워 보일 수 있지만 프로세스는 효과적이며 게임 검색 효율성을 크게 향상시킬 수 있습니다.

  • 00:30:00 이 섹션에서는 비디오에서 알파-베타 가지치기의 개념과 게임 플레이 알고리즘에서 계산 시간을 절약할 수 있는 방법에 대해 설명합니다. 보드 상태를 평가함으로써 최소화기와 최대화기는 가능한 최선의 움직임을 결정할 수 있습니다. 최소화기는 특정 방향으로 가는 8을 얻고 최대화기는 다른 방향으로 가는 9를 얻을 수 있어 컷오프 상황을 만듭니다. Alpha-beta pruning을 사용하면 알고리즘이 상황에 따라 알파 및 베타가 축소되어 트리를 통해 진행할 수 있으므로 계산이 절약됩니다. 이 방법은 분기 계수가 일정한 최적의 상황에서만 작동하지만 여전히 상당한 시간과 계산을 절약하므로 게임 플레이 프로그램에 필요한 도구입니다.

  • 00:35:00 이 섹션에서는 게임 트리 계산을 위한 보험 정책 비용을 최소화하는 방법에 대해 알아봅니다. 아래쪽이 아닌 아래쪽에서 한 수준 위의 정적 값을 계산하여 b를 d 리프 노드로 계산할 필요 없이 좋은 이동을 보장하는 보험 정책을 제공합니다. 보험 정책 비용은 나무의 모든 수준에서 잎사귀 수를 합산하여 계산됩니다. 그러나 비용을 최소화하기 위해 정책이 첫 번째 수준부터 적용해야 하는 수준에는 제한이 있습니다. 대수학을 이용하면 최고위의 정책에 필요한 계산은 b-d-1 나누기 b-1이라는 계산이 가능한 계산임을 알 수 있다.

  • 00:40:00 이 섹션에서는 게임 트리에서 보험 정책의 결과를 최적화하는 방법으로 점진적 심화 개념을 소개합니다. 다음 단계로 넘어가지 못하는 것에 대한 보험 정책으로 항상 모든 수준에서 이동이 가능하도록 함으로써 점진적 심화는 언제라도 알고리즘이 요청하는 즉시 답변을 준비할 수 있는 방법을 보여줍니다. 또한 Christopher는 임시 값을 사용하여 알파-베타의 성능을 개선할 것을 제안했으며, 이 아이디어는 나중에 중요한 개념을 재창조한 것으로 나타났습니다. Deep Blue 프로그램은 최종 게임을 위한 병렬 컴퓨팅 및 특수 목적 기술을 사용하는 것을 제외하면 다른 게임 플레이 프로그램과 크게 다르지 않습니다.

  • 00:45:00 이 섹션에서 연사는 게임 중 고르지 않은 나무의 발달과 나무가 고정된 수준으로 내려갈 필요가 없는 방법에 대해 논의합니다. 그는 1997년 Deep Blue가 가진 추가 번영으로 인해 Deep Blue가 Kasparov를 물리친 것에 대해 이야기합니다. 그러나 그는 불도저가 자갈을 처리하는 것과 같은 방식으로 계산을 수행하는 이러한 유형의 계산은 인간의 지능과 다르다고 언급합니다. 인간 체스 마스터는 긴 계산을 하기보다 패턴을 인식하여 게임을 다르게 합니다. 화자는 불도저 지능이 이해하는 것이 중요하지만 반드시 인간이 머리 속에 가지고 있는 것과 같은 유형의 지능은 아니라고 결론을 내립니다.
 

강의 7. 제약 조건: 라인 드로잉 해석



7. 제약 조건: 라인 드로잉 해석

이 비디오는 단순한 물체를 볼 수 있는 컴퓨터를 만들려는 시도로 시작된 선 그림 해석을 위한 제약 조건 만족 문제의 개발에 대해 설명합니다. 실험주의자 Guzman의 작업을 분석하여 David Huffman이 Guzman의 프로그램보다 더 나은 이론을 개발할 수 있는 제약 조건이 있는 단순한 수학적 세계에서 작업하는 접근 방식으로 이어졌습니다. 이 비디오는 도면의 선과 교차점을 분류하고 분류하는 데 사용되는 용어, 5개의 8분원이 물건으로 채워질 가능성, 구성 가능성을 위해 개체를 테스트하기 위한 제약 조건 사용을 탐색합니다. 이 비디오는 또한 라인 드로잉을 해석하기 위해 레이블을 사용하는 문제, Waltz의 알고리즘 및 드로잉 분석에서 포크 정점을 처리하는 프로세스에 대해 설명합니다. 이 프로젝트에서 개발된 제약 조건은 지도 색상 지정 및 스케줄링과 같이 제약 조건이 많은 문제를 해결하는 데 응용할 수 있습니다.

  • 00:00:00 선화를 해석하고 그 안의 개체 수를 결정합니다. 이 아이디어는 Dave Huffman, Dave Waltz 및 Jane Froydter에 의해 더욱 구체화되었습니다. 이 프로젝트에 대한 작업은 처음에는 어린이 블록과 같은 단순한 개체로 시작하여 볼 수 있는 컴퓨터를 만들려는 시도에서 동기가 부여되었습니다. 기록의 이 섹션에서 패트릭 윈스턴은 제약 조건 만족 문제를 포함하여 주제에서 가장 강력한 방법 중 하나를 개발하기 위한 투쟁의 비하인드 스토리와 컴퓨터를 볼 수 있게 만들려는 시도로 모든 것이 어떻게 시작되었는지 공유합니다.

  • 00:05:00 이 섹션에서 연사는 선화를 연구한 Guzman의 작업과 이를 해석하는 방법에 대해 논의합니다. 구즈만은 이 그림들이 화살표형 접합과 포크형 접합이 많은 경향이 있음을 발견하고 이를 증거로 삼아 어떤 면이 같은 물체에 속하는지 추론했다. Guzman은 이 문제를 해결하기 위해 "링크"를 증거의 양으로 사용하는 이론을 내놓았습니다. 그는 단일 링크 이론을 거부하고 두 링크 이론이 너무 보수적이라는 사실을 발견하여 두 길이가 반복되는 세 번째 이론으로 이끌었습니다. 하지만 이 방법이 통하지 않는 상황이 많았고, 왜 통했는지, 언제 통하지 않았는지에 대한 의문이 제기됐다. 세계가 3면 접합 또는 꼭짓점으로 가득 차 있기 때문에 작동하는 것으로 나타났습니다.

  • 00:10:00 이 섹션에서 비디오는 실험가 Guzman의 프로그램을 분석한 후 라인 드로잉 해석에 관한 이론을 개발하기 위한 David Huffman의 접근 방식에 대해 설명합니다. Huffman은 세 평면의 교차점에서 형성된 삼면체 꼭지점만 포함하는 일반적 위치의 세계와 같은 몇 가지 특성을 가진 단순한 수학적 세계에서 작업하기로 결정했으며 다음과 같은 네 가지 종류의 선을 구분했습니다. 더하기, 빼기 및 화살표. 이러한 제약으로 인해 Guzman의 프로그램과는 다르고 더 나은 이론을 개발하면서 수동으로 문제를 관리할 수 있었습니다.

  • 00:15:00 이 섹션에서 Patrick Winston 교수는 정점, 모서리, 접합 및 선을 포함하여 도면에서 선과 접합을 분류하고 분류하는 데 사용되는 용어에 대해 설명합니다. 그는 교차로 주변에 레이블을 배열하는 방법은 18가지 뿐이며 다른 모든 것은 제외된다고 설명합니다. 그는 또한 교차점에 레이블을 지정하는 데 적합한 6개의 L, 5개의 포크, 4개의 T 및 3개의 화살표에 대한 예를 제공합니다. 교차점에 레이블을 지정하는 다양한 방법은 교차점의 유형을 결정하는 채워지는 8분원의 수와 함께 8분원에 따라 다릅니다.

  • 00:20:00 이 섹션에서 발표자는 5개의 8분원이 물건으로 채워질 가능성에 대해 논의하고 관찰 대상을 분석하기 위해 세 가지 다른 관점에서 물체를 보는 방법을 설명합니다. 보라색 분필의 관점에서 개체를 보면 두 개의 오목한 부분과 한 개의 볼록한 부분이 있는 화살표 교차점이 있습니다. 파란색 분필에서 오목한 선과 경계가 있고 다른 쪽은
    파란색 관점의 대칭 반대. 화자는 포크 스타일과 L 스타일의 교차점을 만들 수 있는 꼭지점과 나머지 선을 경계로 하는 T자 모양을 만들 수 있는 가리는 개체를 추가로 검사합니다. 마지막으로 발표자는 물체가 한 점에 모이면 면이 6개인 정점도 생성될 수 있다고 언급합니다.

  • 00:25:00 이 섹션에서 화자는 제약 조건과 제약 조건을 사용하여 특정 개체를 구성할 수 있는지 여부를 결정하는 방법에 대해 설명합니다. 교차로 주변의 선과 화살표의 배열을 연구함으로써 가능한 모든 배열의 카탈로그가 생성됩니다. 이 카탈로그를 사용하여 연사는 홈 플레이트와 유사한 물체 주위에 선과 화살표에 레이블을 지정하는 방법을 시연합니다. 그러나 카탈로그에 맞지 않는 교차점에 직면하면 해당 객체는 건설 불가능으로 결정됩니다. 이 방법은 객체의 구성 가능성을 테스트하는 방법을 제공하지만 테스트를 통과하는 것만으로는 구성 가능성을 보장하기에 충분하지 않습니다.

  • 00:30:00 이 섹션에서 비디오는 컴퓨터 비전에서 선 그림을 해석하는 문제를 탐구합니다. 초기 접근 방식에는 4개의 면이 있는 교차점에 레이블을 지정하는 작업이 포함되었지만 일부 도면은 면이 없기 때문에 레이블을 지정할 수 없었습니다. 대학원생 David Waltz는 이 문제를 해결하기 시작했고 균열, 그림자 및 비삼면체 꼭지점과 같은 더 많은 고려 사항을 추가했습니다. 이로 인해 라벨 수가 4개에서 50개 이상으로 증가하여 수작업이 어려워졌습니다. Waltz의 작업은 문제, 작동하는 방법 및 일반화할 수 있는 원칙을 갖는 것의 중요성을 보여주었습니다.

  • 00:35:00 이 섹션에서 연사는 레이블을 사용하여 라인 드로잉을 해석하는 문제에 대해 설명합니다. 그는 선 그리기의 예를 공유하고 가능한 모든 레이블과 해당 조합을 탐색하기 위해 깊이 우선 검색을 사용하는 Waltz의 알고리즘을 해석하는 데 어떻게 사용할 수 있는지 설명합니다. 그러나 이 알고리즘은 계산 비용이 많이 드는 것으로 판명되었고 1년 반 후에 Waltz는 지수 검색 공간을 처리할 수 있는 새로운 방법을 고안해야 했습니다. 화자는 알고리즘의 효능이 Waltz의 레이블 세트와 그의 새로운 방법의 조합 때문이라고 언급합니다.

  • 00:40:00 이 섹션에서 발표자는 Waltz의 알고리즘과 교차점 2에 방금 배치된 선이 인접한 교차점의 선과 호환되는지 확인하기 위해 인접한 교차점을 확인하는 방법에 대해 설명합니다. 6개의 초기 가능성 중 절반은 교차점 1과 2 사이의 허용되지 않는 경계선으로 인해 제거됩니다. 나머지 가능성은 교차점 3에 대해 확인되고 거기에서 교차점에 대한 추가 제약 조건이 확인되어 교차점과 그 사이의 모든 선에 대해 하나의 해석만 발생합니다.

  • 00:45:00 이 섹션에서 화자는 도면 분석에서 포크 정점을 처리하는 과정에 대해 논의합니다. 그것들을 배치한 후 화자는 모든 교차점에 대해 고유한 해석이 있다고 결론을 내리고 어느 선이 볼록한지 오목한지 식별합니다. 그런 다음 연사는 더 모호한 도면 프로세스를 시연하고 구속 전파 활동이 인간이 선 그림을 해석하는 방식과 유사하다는 점을 지적하여 시각에서 사용하는 구속 전파 장치가 있을 수 있음을 나타냅니다. 마지막으로 연사는 이러한 유형의 메커니즘이 많은 제약이 수반되는 문제, 특히 일정에 적용되는 지도 색상 지정 문제를 해결하는 데 어떻게 사용될 수 있는지에 대해 논의합니다.
 

강의 8. 제약 조건: 검색, 도메인 축소



8. 제약: 검색, 도메인 축소

이 비디오는 특히 검색 및 도메인 축소와 관련하여 문제 해결의 제약 조건 개념에 대해 설명합니다. 화자는 검색을 시작하기도 전에 가능성을 좁히기 위해 제약 조건을 사용할 수 있는 방법을 설명하기 위해 지도의 상태에 색상을 할당하는 예를 사용합니다. 또한 발표자는 과제만 확인하거나 모든 것을 고려하는 것과 같이 제약 조건을 처리하는 다양한 접근 방식을 탐색하고 제약 기반 문제 해결의 또 다른 응용 프로그램으로 자원 계획의 개념을 소개합니다. 전반적으로 비디오는 제약 조건을 사용하여 복잡한 문제를 효율적으로 해결하는 방법에 대한 포괄적인 개요를 제공합니다.

  • 00:00:00 비디오의 이 섹션에서 화자는 26개 주가 있는 지도의 예를 사용하여 지도 색칠 문제의 어려움에 대해 논의합니다. 그는 회전하는 색상 선택을 사용하는 깊이 우선 검색은 적절한 색상을 찾는 데 매우 오랜 시간이 걸린다고 지적하고 다이어그램으로 문제를 보여줍니다. 그러나 그는 검색을 시작하기도 전에 각 상태의 색상에 대한 가능성을 좁힐 수 있는 제약 전파의 개념을 도입합니다. 그런 다음 화자는 텍사스 문제를 통해 작동하며 제약 조건 전파가 불가능한 검색에 갇히는 것을 방지하는 데 어떻게 도움이 되는지 보여줍니다.

  • 00:05:00 이 섹션에서 발표자는 지도의 상태에 색상을 할당하는 문제를 해결하기 위해 제약 조건을 사용하는 방법을 보여줍니다. 무술 원리를 사용하고 지역적 제약을 살펴봄으로써 화자는 인접한 상태가 같은 색을 가지지 않도록 합니다. 화자는 또한 변수, 값 및 도메인을 포함하여 몇 가지 중요한 어휘를 소개합니다. 도메인의 개념은 변수가 취할 수 있는 값의 가방이며 화자는 이 어휘를 사용하여 후속 문제를 일으키지 않는 선택을 할 수 있는 방법을 보여줍니다.

  • 00:10:00 이 섹션에서 발표자는 검색 및 도메인 축소와 관련하여 제약 조건이 어떻게 작동하는지 설명합니다. 제약 조건은 변수 값 쌍에 대한 제한 사항으로 지도 색상 지정 문제에서 자주 사용됩니다. 각 상태는 변수이고 색상은 값이며 나머지 색상 가능성은 도메인입니다. 이 경우 제약 조건은 경계를 공유하는 주가 동일한 색상을 가질 수 없다는 것입니다. 그런 다음 화자는 의사 코드로 작성하여 깊이 우선 검색 및 축소에 대한 접근 방식을 공식화합니다. 의사 코드에는 각 할당에 대한 변수 고려, 나머지 모든 선택 고려, 도메인에 남아 있는 모든 항목이 다른 상태의 일부 선택에 적합한지 확인하는 작업이 포함됩니다.

  • 00:15:00 이 섹션에서 발표자는 검색 알고리즘에 대한 제약 조건을 처리하는 방법에 대해 설명합니다. 그들은 검색의 각 값에 대해 알고리즘이 배치된 제약 조건을 충족하는지 확인해야 한다고 설명합니다. 제약 조건을 충족하는 인접 값이 없으면 알고리즘은 도메인에서 값을 제거합니다. 도메인이 비어 있으면 알고리즘이 역추적해야 합니다. 화자는 아무 것도 고려하지 않는 것, 모든 것을 고려하는 것, 할당만 확인하는 것 등 문제에 접근하는 다양한 방법을 탐구하며, 궁극적으로 할당만 확인하는 것은 빠르지만 실수할 수 있고, 모든 것을 고려하는 것은 인접한 모든 값을 확인하지만 과잉일 수 있음을 발견합니다.

  • 00:20:00 이 섹션에서 화자는 색상 매핑 문제를 해결하는 맥락에서 도메인 축소 알고리즘에 대해 논의합니다. 그들은 할당의 이웃을 확인하는 것, 즉 이웃 상태에 대해 어떤 색상 옵션을 사용할 수 있는지 확인하는 것이 문제를 해결하는 데 필수적이라고 설명합니다. 화자는 또한 프로세스를 보다 효율적으로 만들기 위해 도메인이 축소된 변수를 통해 전파할 것을 제안합니다. 또한 이웃의 이웃을 확인하여 문제 해결 프로세스를 더욱 간소화할 수 있습니다. 연사는 도메인 축소 알고리즘이 복잡한 문제를 해결하는 데 도움이 될 수 있지만 한계와 막다른 골목의 가능성도 인정한다고 언급합니다.

  • 00:25:00 이 섹션에서 연사는 도메인 축소와 전파할 변수를 결정하는 방법에 대해 논의합니다. 축소된 도메인이 있는 모든 변수를 통해 전파하는 대신 알고리즘은 축소가 가장 큰 변수를 통해서만 단일 값까지 전파합니다. 이렇게 하면 확인하는 제약 조건의 수가 줄어들어 해결 시간이 빨라집니다. 화자는 또한 문제를 해결하기 더 어렵게 만들기 위해 특정 순서로 문제를 배열하는 것과 같은 몇 가지 "더러운 작은 비밀"을 소개합니다. 가장 제약이 많은 변수 또는 가장 제약이 적은 변수로 시작하는 것 사이의 선택은 사용자의 기본 설정에 달려 있습니다.

  • 00:30:00 비디오의 이 섹션에서 발표자는 최소 제약 조건을 먼저 작업하고 최소 제약 상태를 먼저 가지도록 항목을 재정렬하는 방법에 대해 설명합니다. 그들은 1732개의 제약 조건만 확인했고 59개의 막다른 골목이 있었기 때문에 가장 제약이 많은 첫 번째 할당만 확인하여 다른 방법을 시도했습니다. 그러나 그들은 상태가 가장 제약이 많은 상태에서 가장 제약이 적은 상태로 정렬되면 일반적인 깊이 우선 검색이 잘 작동할 것이라고 언급합니다. 그런 다음 발표자는 신규 항공사인 Jet Green의 자원 계획 문제를 소개하고 이것이 지도 색칠 문제와 어떻게 유사한지 논의합니다. Jet Green은 주로 보스턴과 뉴욕 사이를 비행하기를 원하며 때때로 가장 적은 수의 비행기로 비행을 시도하면서 로스앤젤레스로 비행하기를 원합니다.

  • 00:35:00 이 섹션에서 화자는 지도 색칠 문제의 개념을 적용하여 해결할 수 있는 도시 간 항공편 예약의 예를 제시합니다. 문제는 원하는 경로에서 효율적으로 작동하도록 4대의 항공기를 구성하는 것입니다. 연사는 문제의 제약을 강조합니다. 두 대의 비행기는 동시에 날 수 없으며 각 비행기는 동등하게 사용해야 하며 지상 시간 제약이 있습니다. 또한 연사는 검색 전략, 도메인 축소, 이웃 검사 및 가장 제약이 많은 첫 번째 유형의 선택이 솔루션의 효율성에 영향을 미칠 수 있음을 보여줍니다.

  • 00:40:00 이 섹션에서 강사는 작업에 필요한 리소스의 적절한 수를 결정하기 위해 최소 및 최대 제약 조건을 사용하는 개념을 소개합니다. 리소스의 최소 및 최대 수를 설정하면 알고리즘이 검색에 오랜 시간이 걸리는 좁은 범위에 빠르게 수렴할 수 있으므로 해당 범위 내에 있는지 확인할 수 있습니다. 강사는 또한 대부분의 제약 조건을 먼저 사용하고 좋은 리소스 할당을 달성하기 위해 단일 알고리즘으로 축소된 도메인을 통해 전파할 것을 권장합니다. 한 번에 여러 작업을 수행하면 작업에 필요한 리소스를 빠르게 결정할 수 있습니다.
 

강의 9. 제약 조건: 시각적 개체 인식



9. 제약 조건: 시각적 개체 인식

이 비디오에서 Patrick Winston은 개체, 표면 법선 및 일반화된 실린더에 대한 가장자리 기반 설명을 형성하는 David Marr의 아이디어를 포함하여 시각적 개체를 인식하는 문제에 대해 설명합니다. 발표자는 또한 정렬 이론과 상관관계 알고리즘을 사용하여 중간 크기 특징의 위치를 계산하는 등 시각적 개체 인식을 위한 다양한 방법을 탐구합니다. Winston은 고양이가 물을 마시는 예를 사용하여 동일한 크기가 아닌 자연 물체를 인식하는 문제와 시각적 인식에서 맥락과 스토리텔링의 중요성을 강조합니다. 비디오 전체에서 그는 다양한 개념을 설명하기 위해 데모와 예제를 제공합니다. 전반적으로 화자는 시각적 인식의 어려움을 강조하고 학생들이 해당 분야에서 계속 연구하도록 권장합니다.

  • 00:00:00 이 섹션에서 Patrick Winston은 얼굴과 같은 시각적 개체를 인식하는 문제에 대해 설명합니다. 그는 정치인의 이미지가 어떻게 보이는지 변경할 수 있는 프로그램을 소개하여 저장된 이미지 사이에 어떻게 보간되는지 보여줍니다. 그런 다음 Winston은 시각적 인식의 첫 번째 단계는 기본 스케치로 알려진 개체의 가장자리 기반 설명을 형성하는 것이라고 제안한 David Marr의 아이디어를 시작으로 개체 인식의 역사를 탐구합니다. 그런 다음 Marr는 개체의 방향을 표시하기 위해 표면 법선으로 기본 스케치를 장식하고 이를 2.5D 스케치라고 부르도록 제안했습니다. 그 다음에는 2.5D 스케치를 일반화된 실린더로 변환하여 시각적 개체를 인식하는 데 한 단계 더 가까워졌습니다.

  • 00:05:00 이 섹션에서 발표자는 축을 따라 움직이는 원형 영역인 일반 실린더의 아이디어에서 시작하여 시각적 개체 인식에 대한 다양한 접근 방식에 대해 이야기하고 정렬 이론의 개념에 대해 논의합니다. 인식의 정렬 이론은 물체의 세 장의 사진을 가지고 있으면 도서관에서 물체를 인식하는 데 사용할 수 있는 직교 투영에서 해당 물체의 모든 보기를 재구성할 수 있다는 생각에 기반합니다. 화자는 서로 다른 물체의 해당 위치를 선택할 수 있으며 그림과 알 수 없는 물체의 정렬을 사용하여 알 수 없는 물체가 원래 물체와 동일한지 확인할 수 있다고 주장합니다.

  • 00:10:00 이 섹션에서 Patrick Winston은 알파, 베타, 감마 및 타우를 상수로 사용하여 다양한 개체에 대한 방정식을 생성하는 방법을 설명합니다. 그는 이 방정식이 4가지 다른 색상 점에 대해 어떻게 작동하는지 보여주고 모든 점에 대해 동일한 알파, 베타, 감마 및 타우 값을 선택함으로써 선형 연산을 성공적으로 사용하여 다른 개체의 점을 연결할 수 있습니다. 그런 다음 그는 좌표가 그림에 대한 개체의 2D 투영이라고 설명하고 시각적 개체 인식에서 곡면을 식별할 수 있는 방법에 대한 질문에 답합니다.

  • 00:15:00 이 섹션에서 Patrick Winston은 인식을 돕기 위해 제약 조건이 물체의 위치를 예측하는 데 어떻게 도움이 되는지 설명합니다. 그는 4개의 선형방정식과 4개의 미지수로부터 유도될 수 있는 알파, 베타, 감마, 타우 변수를 이용하여 대응점을 정확하게 식별할 수 있어 미지의 물체의 위치에 대한 귀중한 정보를 제공할 수 있다고 설명한다. Winston은 이 방법을 시연하면서 해당 지점이 올바르게 식별되면 오벨리스크나 기관과 같은 물체가 올바른 것임을 강력하게 표시한다고 설명합니다.

  • 00:20:00 이 섹션에서 발표자는 3D 물체가 z축을 중심으로 회전할 때 이미지에서 x좌표의 움직임을 계산하는 방법을 보여줍니다. 표준 위치를 정의하고 해당 위치에서 x 및 y 좌표를 식별한 다음 객체를 회전하여 세 가지 다른 위치(a, b 및 c)를 생성하고 각각에 대한 회전 각도를 결정하는 것으로 시작합니다. 그런 다음 화자는 벡터 회전을 사용하여 개체가 z축을 중심으로 회전할 때 x좌표가 어떻게 변경되는지 계산합니다. 이 프로세스에는 코사인 및 사인 함수를 사용하고 회전할 때 벡터의 x 및 y 좌표 투영을 고려하는 작업이 포함됩니다.

  • 00:25:00 이 섹션에서 화자는 원근법 없이 x축을 따라 투영하는 직교 투영을 통해 시각적 개체 인식을 설명하는 방정식을 단순화합니다. 그는 각도 세타의 코사인 및 사인과 같은 알려지지 않은 요소는 상수이며 x sub a 및 x sub b에 대한 알파 및 베타 승수로 나타낼 수 있다고 주장합니다. 변환 및 회전을 허용하는 시나리오가 주어졌을 때 화자는 두 방정식을 빼서 추가 상수 타우를 식별해야 한다고 지적합니다.

  • 00:30:00 이 섹션에서는 패트릭 윈스턴이 다양한 객체 인식 방법에 대해 설명합니다. 그는 인식을 위해 사진을 찍고 일부 지점의 좌표를 기록할 수 있는 제조된 객체와 달리 동일한 치수를 갖지 않는 자연 객체를 인식하는 문제에 대해 이야기합니다. 그런 다음 그는 두 개의 이미지를 가져 와서 하나를 다른 이미지에 상관 마스크로 적용하고 주요 대상을 찾을 수 있는 상관 관계에 기반한 Shimon Ullman의 이론을 제시합니다. 그러나 이 아이디어는 일반적이지 않은 기능을 찾을 수 없고 일반적인 기능만 찾기 때문에 한계가 있습니다. Winston은 두 개의 호박 얼굴의 예를 그려서 아이디어를 더 탐구하고 눈과 코와 같은 특정 기능을 식별하여 물체를 인식하는 아이디어의 문제점에 대해 논의합니다.

  • 00:35:00 이 섹션에서 발표자는 시각적 개체 인식이 작동하는 방식과 인식되는 기능의 크기에 따라 어떻게 달라지는지 설명합니다. 너무 작거나 큰 이미지는 유용한 정보를 제공하지 않지만 두 눈과 코의 조합과 같은 중간 크기의 기능은 유용할 수 있습니다. 그런 다음 문제는 이미지의 바다에서 이러한 중간 기능을 찾는 것입니다. 화자는 특징이 발생하는 이미지의 오프셋을 결정하기 위해 상관 알고리즘을 사용할 것을 제안합니다. 매개변수 x를 최대화하면 얼굴과 이미지의 적분을 계산하여 특징의 위치를 결정할 수 있습니다.

  • 00:40:00 비디오의 이 섹션에서 발표자는 노이즈가 있는 이미지를 예로 사용하여 시각적 개체 인식에서 상관 관계가 어떻게 작동하는지 설명합니다. 상관관계에는 오프셋이 있는 면의 범위에 대한 곱셈과 적분이 포함됩니다. 오프셋이 같으면 프로그램이 이미지 자체를 곱하고 얼굴 전체에 통합합니다. 변환 매개변수 x 및 y를 최대화하면 추가된 노이즈에도 불구하고 사람의 얼굴과 같은 이미지의 특정 기능을 선택할 수 있습니다. 시연은 노이즈가 추가된 경우에도 프로그램이 여전히 올바른 기능을 선택할 수 있음을 보여주었습니다.

  • 00:45:00 이 섹션에서는 패트릭 윈스턴이 시각 인식의 어려움, 특히 다양한 각도에서 사람을 인식하는 능력에 대해 설명합니다. 그는 우리가 다른 각도에서 얼굴을 인식할 수 있는 방법이 명확하지 않지만 얼굴을 뒤집거나 늘리면 잠재적으로 상관관계 이론을 깨뜨릴 수 있다고 지적합니다. 그러나 그는 더 어려운 질문은 우리가 시각적으로 일어나는 일을 어떻게 결정할 수 있는지에 있다고 제안합니다. 그는 컴퓨터 비전의 현재 과제를 강조하면서 학생들에게 자신이 실험에서 수행하는 작업을 결정하도록 요구합니다.

  • 00:50:00 이 섹션에서 화자는 고양이가 술을 마시는 예를 사용하여 스토리텔링의 힘이 시각적 인식에 어떤 영향을 미치는지 보여줍니다. 상당한 시각적 차이에도 불구하고 인간은 이미지에 제시된 내러티브를 이해함으로써 고양이가 술을 마시고 있음을 쉽게 식별할 수 있습니다. 우리 비전 시스템의 하단은 이야기 장치가 고양이의 마시는 행동을 인식할 수 있도록 충분한 정보를 제공하여 시각적 개체 인식에서 맥락과 스토리텔링의 중요성을 증명합니다.
 

강의 10. 학습 입문, 최근접 이웃



10. 학습 소개, 최근접 이웃

이 YouTube 동영상에서 Winston 교수는 학습이라는 주제를 소개하고 규칙성 기반 학습과 피드백 기반 학습이라는 두 가지 유형의 학습에 대해 논의합니다. 그는 최근접 이웃 학습, 신경망 및 부스팅과 같은 규칙성 기반 학습 기술에 중점을 둡니다. 최근접 이웃 학습에는 값 벡터를 생성하는 기능 감지기가 포함되며, 그런 다음 가능성 라이브러리의 벡터와 비교하여 가장 가까운 일치 항목을 찾고 개체가 무엇인지 결정합니다. 발표자는 이 방법이 어떻게 적용될 수 있는지에 대한 다양한 예를 제공합니다. 또한 객체의 범주를 식별하기 위해 결정 경계를 사용하는 방법에 대해 설명합니다. 서로 다른 경우의 유사성의 원리를 소개하고, 학습에 큰 영향을 미치므로 수면관리의 중요성을 강조한다. 마지막으로 그는 비균일성 문제, "무엇이 중요한가" 문제, 통계 기법을 사용하여 데이터를 정규화하는 것의 중요성에 대해 다룹니다.

  • 00:00:00 이 섹션에서 Winston 교수는 학습 주제와 두 가지 유형의 학습, 즉 규칙성을 기반으로 한 학습과 피드백을 기반으로 한 학습을 소개합니다. 그는 전자에 초점을 맞추고 최근접 이웃 학습, 신경망 및 부스팅과 같은 규칙성 기반 학습 기술에 대해 논의합니다. 최근접 이웃 학습은 패턴 인식 분야에서 잘 확립된 기술이며 학습 문제를 해결할 때 가장 먼저 시도하는 것입니다. 교수는 또한 고려해야 할 두 가지 퍼즐, 즉 커피를 마실 수 있는 컴퓨터 프로그램을 만드는 방법과 개가 생각하는 다이어트 콜라의 용도에 대해 설명합니다. 마지막으로 그는 수면이 학습에 큰 영향을 미치기 때문에 수면에 대한 주제를 다루고 적절하게 관리하는 것이 중요하다고 언급합니다.

  • 00:05:00 이 섹션에서 화자는 패턴 인식의 한 유형인 최근접 이웃 학습의 개념을 소개합니다. 여기에는 값 벡터를 생성하는 기능 감지기가 포함되며, 그런 다음 가능성 라이브러리의 벡터와 비교하여 가장 일치하는 항목을 찾고 객체가 무엇인지 결정합니다. 연사는 이 방법을 사용하여 전기 덮개의 면적과 구멍 면적을 측정하여 조립 라인에서 전기 덮개를 분류하는 예를 제공합니다. 불도저가 정보를 처리하는 것과 같은 규칙성 기반 학습의 한 형태입니다. 발표자는 이것이 제약에 기반한 아이디어를 포함하고 원샷 학습과 설명 기반 학습을 가능하게 하는 인간 학습을 위한 최고의 모델이 아닐 수도 있다고 지적합니다.

  • 00:10:00 이 섹션에서 강사는 구멍 영역이 다른 덮개를 조립하는 예를 사용하여 결정 경계의 개념을 설명합니다. 그는 수직 이등분선을 사용하여 공간을 나누는 방법을 보여줍니다. 이는 가장 가까운 이상적인 설명을 기반으로 객체의 범주를 식별하는 데 도움이 될 수 있습니다. 또한 결정 경계는 속성 중 하나를 측정하고 이를 결정 경계에 의해 생성된 범주와 비교하여 새 개체의 범주를 식별하는 데 사용할 수도 있습니다.

  • 00:15:00 이 섹션에서 화자는 서로 다른 사례 간의 유사성의 원칙을 소개하며 어떤 것이 특정 측면에서 유사하면 다른 측면에서도 유사할 가능성이 높다고 말합니다. 이 원칙은 동화, 법률 또는 비즈니스 사례, 심지어 의료 사례에 관계없이 대부분의 학습의 기초입니다. 아이디어는 일부 선례 또는 지식을 적용하기 위해 현재 상황과의 유사성을 인식하는 것입니다. 원리는 다양한 분야에 적용될 수 있습니다. 예를 들어 세포를 고차원 공간에 놓고 다양한 속성을 기반으로 유사성을 평가할 수 있는 세포 식별에 사용할 수 있습니다. 마찬가지로 이 원칙은 특정 질문을 해결하기 위해 잡지의 기사를 단어 수를 기준으로 비교할 수 있는 정보 검색에 사용할 수 있습니다.

  • 00:20:00 이 섹션에서는 알 수 없는 항목에 가장 가까운 항목을 결정하려고 시도할 때 가장 가까운 이웃을 사용하는 개념을 살펴봅니다. 문제는 모든 Town 및 Country 기사가 가장 가까운 것으로 결정될 때 발생합니다. 대신 수업에서는 문제를 해결하기 위해 벡터 사이의 각도와 같은 다른 메트릭을 사용하는 방법에 대해 설명합니다. 두 벡터 사이의 각도의 코사인은 간단한 계산을 통해 계산할 수 있으며 로봇 팔 제어를 비롯한 많은 상황에서 유용할 수 있습니다. 목표는 세타 1과 세타 2의 두 각도를 결정하는 것과 관련된 특정 속도와 가속도에서 공의 궤적을 제어하기 위해 팔을 움직이는 것입니다.

  • 00:25:00 이 섹션에서 발표자는 공의 원하는 (x,y) 좌표를 원하는 위치, 속도 및 가속도가 있는 θ1 및 θ2 공간으로 변환할 때 발생하는 문제에 대해 논의합니다. 그들은 운동 방정식과 관련된 복잡한 기하학의 결과인 코리올리 힘의 개념을 소개합니다. 이 문제를 해결하기 위해 화자는 팔에 대한 움직임 조합의 큰 테이블을 만든 다음 원하는 궤적을 작은 조각으로 나누고 관련 토크를 포함하여 테이블에서 가장 근접한 일치를 찾을 것을 제안합니다. 이 방법은 이전에는 컴퓨터 전원이 부족하여 거부되었지만 최근에 재검토되었으며 유사한 움직임에 잘 작동합니다.

  • 00:30:00 이 섹션에서 연사는 로봇이 "어린 시절"을 거치면서 점차 작업을 더 잘 수행함에 따라 학습 과정이 어떻게 작동하는지 설명합니다. 개선은 로봇이 나중에 다시 참조할 수 있도록 필요한 움직임의 더 나은 버전을 기록하는 테이블을 사용하여 이루어집니다. 그런 다음 화자는 로봇의 학습 속도를 보여주는 그래프를 보여줍니다. 동일한 메모리 기록 방법을 사용하여 야구 투구를 기록하는 주제도 간략하게 설명합니다.

  • 00:35:00 이 섹션에서 패트릭 윈스턴 교수는 뇌, 특히 소뇌에서 운동 제어와 관련된 뉴런과 시냅스의 수와 그것이 어떻게 운동 기능 학습을 위한 거대한 테이블로 기능할 수 있는지에 대해 논의합니다. 그런 다음 머신 러닝에서 정규화된 데이터 문제와 그것이 다양한 차원의 데이터 확산에 어떤 영향을 미칠 수 있는지 탐구합니다. 해결책은 통계의 기술을 사용하여 분산을 계산하고 데이터를 정규화하는 것입니다.

  • 00:40:00 이 섹션에서 화자는 학습에 최근접 이웃을 사용할 때 발생할 수 있는 잠재적인 문제에 대해 논의합니다. 이러한 문제 중 하나는 데이터가 새 변수에 의존하지 않는 경우의 비균일성 문제입니다. 두 번째 문제는 알고리즘이 답을 혼동하는 거리를 측정할 수 있는 "중요한 것" 문제입니다. 마지막으로 세 번째 문제는 사용 가능한 데이터가 질문과 무관한 경우로, 밀가루 없이 케이크를 굽는 것과 유사합니다. 그런 다음 스피커는 특히 육군 레인저와 같은 개인에게 수면의 중요성과 좋은 수면 습관이 얼마나 중요한지에 대해 설명합니다. 또한 그는 전후 분석에서 관찰된 수면 부족이 어떻게 대상 식별 오류로 이어질 수 있는지 설명합니다.

  • 00:45:00 이 섹션에서 연사는 수면 부족이 인간의 정신과 신체에 미치는 영향에 대해 논의합니다. 그는 72시간이 지나면 개인의 능력과 성과가 시작에 비해 30% 떨어진다고 설명한다. 수면 부족이 누적되고 1시간의 수면 부족이 20일 후에는 능력이 25%로 떨어집니다. 연사는 또한 카페인과 낮잠의 효과를 조사하여 카페인이 약간의 도움을 준다고 강조합니다. 그는 원인과의 혼란스러운 상관관계에 대해 경고하고 개와 고양이 같은 동물이 그들이 보는 상관관계로 인해 다이어트 음료가 체중 증가를 유발한다고 실수할 수 있는 방법에 대해 경고합니다.
 

강의 11. 학습: 식별 트리, 무질서



11. 학습: 식별 트리, 무질서

MIT의 패트릭 윈스턴 교수는 데이터를 이용해 뱀파이어를 식별하는 인식 메커니즘을 구축하는 개념과 Occam's Razor를 만족하는 작고 비용 효율적인 식별 트리를 만드는 것의 중요성에 대해 설명합니다. 그는 가능한 모든 트리를 계산하는 것이 NP 문제이기 때문에 트리를 구축하기 위해 휴리스틱 메커니즘을 사용할 것을 제안합니다. Winston은 어떤 개인이 뱀파이어인지 식별하기 위해 그림자 테스트, 마늘 테스트, 안색 테스트 및 억양 테스트를 사용할 것을 제안하고 장애 측정을 기반으로 테스트의 전반적인 품질을 찾기 위해 세트에서 장애를 측정하는 방법을 설명합니다. 이 비디오는 또한 식별 트리를 숫자 데이터와 함께 사용하는 방법과 트리를 규칙 기반 동작을 기반으로 하는 간단한 메커니즘을 생성하는 규칙 세트로 변환할 수 있는 방법에 대해 설명합니다.

  • 00:00:00 이 섹션에서는 MIT 교수인 Patrick Winston이 데이터를 사용하여 뱀파이어를 식별하는 인식 메커니즘을 구축하는 개념을 소개합니다. 그는 이 데이터 세트와 이전 수업에서 작업한 전기 덮개 데이터 세트의 차이점을 지적하면서 이 데이터 세트가 숫자가 아니라 기호이므로 가장 가까운 이웃 기술을 사용할 수 없게 만든다는 점을 지적합니다. 그는 또한 특정 테스트 비용과 어떤 특성이 실제로 중요한지에 대한 불확실성과 같이 뱀파이어를 식별하는 데 있어 다른 문제를 강조합니다.

  • 00:05:00 이 섹션에서 Patrick Winston은 식별 트리 또는 의사 결정 트리의 개념을 설명하고 비용 효율적이고 균일한 데이터 하위 집합을 생성하는 작은 트리를 구축하는 것의 중요성을 강조합니다. 목표는 가장 간단한 설명이 종종 가장 좋은 설명이라는 Occam의 면도날을 만족하는 간단하고 작은 설명을 생성하기 위해 가능한 최상의 테스트 배열을 찾는 것입니다. 그는 또한 가능한 모든 트리를 계산하는 것이 NP 문제이기 때문에 트리를 구축하기 위해 휴리스틱 메커니즘을 사용할 것을 제안합니다. 마지막으로 Winston은 교실에서 사용되는 작은 샘플 세트가 실제 응용 프로그램에 적합하지 않다고 경고합니다.

  • 00:10:00 이 섹션에서는 그림자 테스트, 마늘 테스트, 안색 테스트 및 억양 테스트를 사용하여 어떤 개인이 뱀파이어인지 식별합니다. 테스트는 소규모 표본 모집단에 적용되며 테스트가 데이터를 나누는 방법을 살펴봄으로써 어떤 테스트가 가장 동질적인 그룹을 생성하는지 확인할 수 있습니다. 궁극적인 목표는 샘플 모집단의 모든 뱀파이어를 정확하게 식별할 수 있는 테스트를 찾는 것입니다. 그림자 테스트는 인구를 그림자를 드리우는 사람과 그림자를 드리우지 않는 사람으로 나누며, 그림자를 드리우지 않는 사람은 단 한 명으로 뱀파이어임을 나타냅니다. 마늘 테스트는 샘플 모집단의 모든 뱀파이어가 마늘 섭취에 부정적인 반응을 보였다는 것을 확인합니다. 안색 테스트와 억양 테스트는 또한 뱀파이어일 가능성이 가장 높은 개인을 식별하는 데 도움이 됩니다.

  • 00:15:00 이 섹션에서는 각 그룹에 고유한 특성을 선택하여 개인 그룹을 동종 세트로 나누어 식별 트리를 만드는 방법에 대한 예를 비디오에서 설명합니다. 예제에는 뱀파이어와 뱀파이어가 아닌 사람, 그리고 각 그룹을 식별하는 데 사용되는 테스트가 포함됩니다. 비디오는 또한 이 개념을 더 큰 데이터 세트에 적용하는 방법에 관한 질문을 다루고 교실 예제의 한계를 강조합니다.

  • 00:20:00 이 섹션에서는 집합의 측정 장애 개념을 소개합니다. 나뭇가지 아래에서 발견되는 집합의 무질서를 측정하는 방법을 찾기 위해 정보 이론가의 지도를 받습니다. 정보 이론가들에 따르면, 집합의 무질서는 양과 음의 총 수를 고려하고 2의 밑수에 대해 양의 수에 양의 로그를 총 수로 나눈 값을 곱하여 계산됩니다. 이 방법은 장애 측정을 기반으로 테스트의 전반적인 품질을 찾는 데 도움이 될 수 있습니다.

  • 00:25:00 이 섹션에서 화자는 긍정과 부정의 비율을 사용하여 데이터 세트의 무질서를 측정하는 공식을 설명합니다. 완전히 혼합된 데이터 세트와 완전히 긍정적인 데이터 세트에 대한 값을 계산한 후 발표자는 퀴즈 질문을 빠르게 풀기 위해 이러한 곡선에 주의를 기울이는 것이 중요함을 확인합니다. 마지막으로, L'Hopital의 법칙을 사용하여 화자는 전체에 대한 음의 비율이 0에 가까워질 때 세 번째 값을 계산하여 3개의 점이 있는 곡선의 그래프를 작성할 수 있습니다.

  • 00:30:00 이 섹션에서 연사는 테스트의 품질을 전반적으로 측정하는 방법과 테스트에서 생성된 각 세트의 장애를 측정하는 방법에 대해 논의합니다. 화자는 테스트에 의해 생성된 각 세트의 무질서를 합산할 것을 제안하지만, 이 방법은 거의 모든 것이 아래로 내려가는 가지와 거의 아무것도 없는 가지에 동일한 가중치를 부여하기 때문에 최선이 아닐 수 있다고 지적합니다. 이 문제를 해결하기 위해 화자는 해당 분기로 끝나는 샘플의 비율을 기반으로 합계에 가중치를 부여할 것을 제안합니다. 화자는 샘플 문제로 이 방법을 설명하고 동종 집합의 무질서가 0이라고 결론을 내립니다.

  • 00:35:00 이 섹션에서는 주어진 데이터를 식별하고 하위 집합으로 분할하는 테스트의 품질에 중점을 둡니다. 세트의 무질서 또는 혼란은 모든 샘플이 동일할 때 0이고 샘플이 두 유형의 균일한 혼합물일 때 1입니다. 하위 집합의 확률에 집합의 각 장애를 곱하여 각 테스트의 품질을 계산할 수 있습니다. 그런 다음 이 품질 메트릭을 사용하여 데이터를 동종 하위 집합으로 나누는 데 가장 적합한 테스트를 결정합니다. 이는 가능한 한 단순한 트리를 구축하는 데 필수적입니다. 그러나 정보 이론이나 엔트로피보다는 데이터 분석 이면의 직관에 중점을 둡니다.

  • 00:40:00 이 섹션에서 비디오는 데이터에 임계값을 지정하여 식별 트리를 숫자 데이터와 함께 계속 사용할 수 있는 방법에 대해 설명합니다. 이를 통해 범주형 데이터에 사용되는 테스트와 유사한 이진 테스트를 만들 수 있습니다. 컴퓨터는 다른 임계값을 시도할 수 있으며 데이터를 동종 그룹으로 분리하는 데 가장 적합한 임계값을 결정합니다. 가장 가까운 이웃과 같은 다른 방법과 달리 결정 경계는 데이터 자체의 모양을 따르지 않고 한 축 또는 다른 축에 평행합니다.

  • 00:45:00 이 섹션에서는 식별 트리, 그 장점 및 규칙 지향적인 사용자를 위해 식별 트리를 더 간단하게 만들기 위해 일련의 규칙으로 변환할 수 있는 방법에 대해 배웁니다. 나무는 각 가지를 잎사귀로 내려감으로써 일련의 규칙으로 변환될 수 있으며, 규칙이 그림자와 마늘을 모두 테스트하는 경우 규칙 기반에 기반한 간단한 메커니즘을 만들기 위해 일부 절을 제거할 수 있습니다. 행동.
 

강의 12a: 신경망



12a: 신경망

이 비디오는 신경망과 관련된 다양한 주제를 다룹니다. 연사는 신경망의 역사에 대해 논의하면서 시작하여 이 분야를 변화시킨 Geoff Hinton의 중추적인 작업을 강조합니다. 그런 다음 뉴런의 해부학과 입력이 수집되고 처리되는 방식에 대해 논의합니다. 그런 다음 동영상에서는 신경망이 함수 근사값으로 기능하는 방식과 힐 클라이밍 및 경사 하강법을 사용하여 성능을 개선할 수 있는 방식에 대해 자세히 설명합니다. 편도함수의 계산을 용이하게 하기 위해 체인 규칙이 도입되었으며, 연사는 이 접근 방식을 사용하여 세계에서 가장 간단한 신경망을 훈련할 수 있는 방법을 보여줍니다. 신경망에 대한 최적의 속도 상수도 논의하고 화자는 두 개의 입력과 출력이 있는 더 복잡한 신경망을 소개합니다. 마지막으로 대규모 네트워크를 통한 경로의 기하급수적 폭발 가능성 문제를 해결하기 위해 재사용 원칙이 도입되었습니다. 전반적으로 비디오는 신경망의 훌륭한 아이디어가 현장에 상당한 영향을 미칠 수 있음에도 불구하고 종종 단순하고 간과하기 쉽다는 점을 강조합니다.

  • 00:00:00 이 섹션에서 교수는 신경망의 역사를 설명하고 초기에 많은 사람들이 당시의 신경 모델이 인간 두뇌의 정확한 모델이 아니며 아무도 신경 모델을 만들지 못했다고 믿었다고 언급했습니다. 가치가 있었다. 계속해서 교수는 2년 후 토론토 대학의 Geoff Hinton이 사진을 인식하고 분류하는 데 수행한 몇 가지 신경 작업으로 세상을 놀라게 했으며 몇 가지 예가 포함된 논문을 발표했다고 언급합니다. 이 비디오는 토론토 신경망이 인식할 수 있었던 몇 가지 이미지와 인식하기 어려웠던 이미지의 몇 가지 예를 보여줍니다.

  • 00:05:00 이 섹션에서 화자는 신경망에 대해 논의하고 지난 3년 동안 증가한 노력과 관심으로 인해 신경망이 어떻게 크게 개선되었는지 설명합니다. 그는 우리가 자신의 신경 시스템에서 어떻게 영감을 받았는지 설명하고 축삭, 수지상 나무 및 이들 사이의 시냅스 연결을 포함한 뉴런의 구조를 설명합니다. 연사는 연결 강도를 반영하는 이진 입력 및 가중치를 사용하여 신경망에서 시냅스 연결이 어떻게 모델링되는지에 대해 논의합니다.

  • 00:10:00 이 섹션에서 발표자는 뉴런의 발화 여부를 결정하는 시냅스 가중치, 여름 및 임계값 상자를 사용하는 간단한 모델을 통해 뉴런에서 입력이 수집되는 방식을 모델링하는 방법을 설명합니다. 이 모델은 인간 두뇌의 작용에서 영감을 얻었지만 신경생물학자들이 아직 완전히 이해하지 못한 많은 미지와 복잡성이 여전히 존재합니다. 이 모델은 뉴런이 작동하는 방식과 뉴런이 네트워크로서 집합적으로 기능하는 방식의 일반적인 본질을 이해하는 한 가지 방법일 뿐입니다.

  • 00:15:00 이 섹션에서 발표자는 입력이 네트워크를 통해 흐르고 출력이 되는 함수 근사값으로 신경망이 어떻게 작동하는지 설명합니다. 출력 벡터는 입력 벡터, 가중치 벡터 및 임계값 벡터의 함수입니다. 성능 함수는 원하는 출력 벡터와 실제 출력 벡터를 비교하여 구성되며 목표는 항상 성능 함수를 최소화하는 것입니다. 강의에서는 힐 클라이밍(hill-climbing)을 사용하여 간단한 신경망에서 가중치와 임계값을 최적화하는 과정을 설명하지만 이 방법은 6천만 개의 매개변수가 있는 Hinton의 신경망과 같이 방대한 수의 매개변수를 가진 신경망에는 적합하지 않음을 인정합니다.

  • 00:20:00 이 섹션에서 내레이터는 특정 가중치에 대해 함수의 편도함수를 취함으로써 경사 하강법을 사용하여 성능 함수를 약간 개선하는 방법을 설명합니다. 그러나 이 방법은 신경망과 같은 불연속 표면이 아닌 연속 표면에만 효과적입니다. 이 솔루션은 1974년 Paul Werbos에 의해 소개되었으며, 항상 -1인 입력에 연결된 W0의 가중치를 가진 뉴런에 다른 입력을 추가하는 것을 포함합니다. 이 입력은 효과적으로 임계값을 0으로 이동하고 신경망에 대한 더 부드러운 전환 기능을 허용합니다.

  • 00:25:00 이 섹션에서는 시그모이드 기능과 신경망에서 사용되는 방법에 대한 비디오를 설명합니다. 시그모이드 함수는 뉴런의 활성화 함수로 사용되며 수학이 요구하는 올바른 모양과 모양을 제공합니다. 이제 문제가 되는 임계값이 제거되었으므로 편미분을 계산하여 신경망을 훈련시키려고 시도합니다. 세계에서 가장 단순한 신경망은 두 개의 뉴런과 성능 함수를 제공하는 몇 가지 매개변수로 구성되는 것으로 설명됩니다. 그런 다음 비디오는 부분 도함수를 계산 중간 변수로 다시 작성하여 다른 변수에 대해 얼마나 흔들리는지 확인하고 궁극적으로 신경망을 훈련시키는 체인 규칙을 소개합니다.

  • 00:30:00 이 섹션에서 화자는 체인 규칙을 사용하여 편도함수를 지우고 다시 작성하여 간단한 신경망을 풀 수 있는 표현식을 제공합니다. 도함수는 편의상 곱 형식으로 바뀌고 화자는 Y와 같은 w2에 대한 p2의 편도함수를 찾습니다. p2에 대한 Z의 편도함수는 임계값 기능. 이를 알아내기 위해 화자는 뉴런을 파괴하고 1 나누기 1 더하기 e의 마이너스 알파와 같은 함수 베타로 작업합니다.

  • 00:35:00 이 섹션에서 발표자는 알파 베타에 대한 도함수를 검토한 다음 아무것도 하지 않도록 훈련하여 작동 중인 세계에서 가장 작은 신경망을 시연합니다. 시그모이드 함수의 출력은 파생물이 출력 측면에서만 작성될 수 있으므로 단순화됩니다. 신경망은 출력이 입력과 같도록 훈련되지만 결과적으로 아무 일도 일어나지 않습니다.

  • 00:40:00 비디오의 이 섹션에서 발표자는 신경망에 대한 최적의 속도 상수를 결정하는 프로세스에 대해 설명합니다. 임의의 가중치가 있는 신경망으로 시작하여 화자는 다양한 속도 상수를 테스트하고 신경망 성능에 미치는 영향을 관찰합니다. 속도 상수가 너무 작으면 최적의 성능에 도달하는 데 시간이 오래 걸리고 너무 크면 그물이 너무 멀리 뛰어서 불안정해질 수 있습니다. 화자는 속도 상수가 최적의 성능을 향한 진행 상황에 따라 달라져야 한다고 언급합니다. 발표자는 또한 두 개의 입력과 출력이 있는 더 복잡한 신경망을 소개하고 스트림과 가중치 사이의 상호 작용에 대해 논의합니다.

  • 00:45:00 이 섹션에서는 많은 수의 뉴런이 있는 네트워크를 통해 경로가 기하급수적으로 증가할 가능성에 대해 알아봅니다. 그러나 P의 변화가 성능에 미치는 영향은 고정된 뉴런 열을 통해서만 발생할 수 있기 때문에 계산을 재사용할 수 있으며 기하급수적인 폭발을 일으키지 않습니다. 즉, 이미 완료된 계산을 재사용한다는 의미입니다. 너비가 고정된 열에 필요한 계산량은 선형 및 깊이이지만 열 너비의 제곱에 비례합니다. 화자는 또한 이 원칙이 25년 동안 간과되어 왔다고 언급했습니다.

  • 00:50:00 이 섹션에서 연사는 신경망의 훌륭한 아이디어가 종종 얼마나 단순한지에 대해 논의합니다. 하지만 인간으로서 우리는 기적적인 것을 만들기 위해 몇 가지를 함께 계단식으로 배열하는 대신 하나의 트릭이나 관찰만 제시하는 경우가 많습니다. 기적이 두 가지 속임수와 관찰의 결과였기 때문에 재사용 원칙이 이 경우에 작용합니다. 전반적으로 메시지는 훌륭한 아이디어는 단순하고 간과하기 쉬우며 25년 동안 간과되어 왔다는 것입니다.
 

강의 12b: 심층 신경망



12b: 심층 신경망

이 비디오는 관련 계산 프로세스, 컨볼루션 신경망, 자동 코딩 알고리즘, 출력 레이어의 매개변수 조정, 소프트맥스, 컨볼루션 네트워크를 사용한 역전파 등 심층 신경망과 관련된 여러 주제를 다룹니다. 이 비디오는 또한 로컬 최대값, 확장 네트워크 및 신경망 학습과 같은 개념을 탐색하는 동시에 심층 신경망이 이미지 처리에서 작동하는 방식을 보여줍니다. 전반적으로 이 비디오는 심층 신경망과 관련된 주요 개념의 강점과 한계를 포함하여 포괄적인 개요를 제공합니다.

  • 00:00:00 이 섹션에서 발표자는 작은 신경망의 계산 프로세스에 대해 논의하고 이 신경망의 성능이 유한한 수의 출력 변수에 의존한다는 사실을 강조합니다. 연사는 계속해서 특정 가중치에 대한 성능의 의존성을 보여주는 방정식을 보여주고 계산 프로세스에 많은 중복이 있음을 지적합니다. 출력에서 입력으로 더 뒤로 이동하면 이전에 수행된 많은 계산이 재사용되어 다운스트림 가중치 변경에서 수행된 여러 계산을 재사용하게 됩니다.

  • 00:05:00 이 섹션에서 발표자는 신경망과 관련된 계산에 대해 논의하고 신경망에서도 사용되는 내적인 우리 머리에서 발생하는 기본 계산을 지적합니다. 그는 또한 이미지 처리에 사용되는 컨볼루션 신경망의 개념을 설명하고 신경망 분야에서 다시 나타나는 경향이 있는 구성 요소의 특정 어셈블리로 구성되어 있다고 설명합니다. 화자는 또한 "정답"의 정의에 따라 약 15% 또는 37%의 오류율이 있었던 2012년 심층 신경망의 성능에 대해 언급합니다.

  • 00:10:00 비디오의 이 섹션에서 연사는 신경망에서 컨볼루션과 풀링이 작동하는 방식을 설명합니다. 이 프로세스에는 이미지에서 뉴런을 실행하여 이미지의 특정 위치와 관련된 출력을 생성하는 작업이 포함됩니다. 이를 컨볼루션이라고 하며 결과 포인트는 로컬 이웃에서 최대값을 찾는 데 사용되며 해당 최대값을 사용하여 이미지 매핑을 생성합니다. 이를 최대 풀링이라고 합니다. 여러 개의 커널을 사용하여 많은 출력을 생성할 수 있으며, 그런 다음 신경망에 입력하여 이미지에 개체가 존재할 가능성을 나타낼 수 있습니다. 이 방법은 뉴런에 대한 입력으로 작은 픽셀 그리드를 사용하는 이전 방법보다 훨씬 더 발전된 방법입니다.

  • 00:15:00 이 섹션에서 강사는 신경망이 원하는 값이 서로 일치할 때까지 입력과 출력을 비교하는 자동 코딩의 개념을 설명합니다. 강사는 자동 코딩 알고리즘이 작동하는 방식을 보여주는 간단한 예에서 네트워크가 칠판에 그림자가 얼마나 높은지에 따라 동물을 식별할 수 있는 알고리즘을 설명합니다. 네트워크는 입력 값을 더 작은 숨겨진 계층으로 압축한 다음 확장하여 출력 값을 생성함으로써 동물 그림자를 인식하는 방법을 "학습"합니다. 이 알고리즘은 상당한 수의 클래스와 각 클래스에 대한 예제를 포함하는 대규모 입력 데이터 세트를 처리할 때에도 놀랍도록 효과적인 결과를 달성합니다.

  • 00:20:00 이 섹션에서 화자는 임의 입력과 간단한 역전파로 간단한 신경망을 실행하는 방법을 보여줍니다. 1,000번의 반복 후에 오류율이 크게 떨어지고 그물은 그림자 높이만을 기준으로 환경에서 보는 개체의 특성을 인식할 수 있습니다. 그러나 은닉층의 뉴런에 의해 일반화가 이루어지는 것이 아니라 일종의 부호화된 일반화가 일어나고 있어 신경망이 어떻게 특정 객체를 인식할 수 있는지 연구자들이 이해하기 어려운 것으로 보인다. 이러한 미스테리에도 불구하고 계층별 훈련을 포함하는 자동 코딩은 심층 신경망 훈련을 위한 유망한 기술을 제공합니다.

  • 00:25:00 비디오의 이 섹션에서 연사는 심층 신경망의 마지막 계층과 샘플 분류를 최적화하기 위해 임계값 및 가중치 조정의 중요성에 대해 논의합니다. 임계값을 변경하면 시그모이드 함수가 이동하고 가중치를 변경하면 곡선의 기울기가 변경됩니다. 이러한 조정은 차례로 데이터 세트에서 긍정적 및 부정적 예의 확률에 영향을 미칩니다. 데이터를 올바르게 분류할 가능성을 최대화하려면 부분 도함수를 통해 T 및 W 값을 최적화해야 합니다.

  • 00:30:00 이 섹션에서 강사는 우리가 가지고 있는 샘플 데이터의 확률을 최대화하기 위해 출력 레이어에서 매개변수를 조정하는 개념을 설명합니다. 여기에는 출력 값을 클래스를 볼 확률과 관련된 것으로 보고 그에 따라 매개변수를 조정하는 것이 포함됩니다. 강사는 시그모이드 곡선과 경사 하강법 알고리즘을 사용하여 프로세스를 시연합니다. 목표는 가장 가능성이 높은 클래스를 찾을 수 있도록 일종의 확률을 각 클래스와 연결하는 것입니다. 클래스의 실제 확률은 해당 클래스에 대한 시그모이드 함수의 출력을 모든 함수의 합계로 나누어 계산합니다. 이를 정규화 계수로 나누기라고 하며 각 출력 값을 확률로 변환합니다.

  • 00:35:00 이 섹션에서 발표자는 softmax를 사용하여 다양한 분류를 제공하고 이미지를 분류하기 위해 각각의 가능성을 연관시키는 과정을 설명합니다. 연사는 또한 소프트맥스 아이디어와 자동 코딩 아이디어를 결합하여 입력 레이어를 고정하고 시그모이드 곡선을 사용하여 출력 레이어를 훈련하는 방법에 대해 논의합니다. 또한 그들은 신경망이 로컬 최대 상태에 갇히는 것을 방지하기 위한 드롭아웃 아이디어를 언급합니다. 이 섹션은 출력 레이어의 정교함과 자동 코딩 또는 볼츠만 머신을 사용한 훈련에도 불구하고 컨볼루션 네트워크를 사용한 역전파가 잘 수행되는 것 같다는 점을 언급하며 결론을 내립니다. 동물.

  • 00:40:00 이 섹션에서 비디오는 신경망이 어떻게 로컬 최대값에 갇힐 수 있는지 그리고 네트워크를 확장하면 갇히지 않고 광대한 공간을 크롤링하는 데 어떻게 도움이 되는지 보여줍니다. 연사는 이제 로컬 최대값을 안장점으로 전환하여 보다 효율적으로 학습할 수 있으므로 신경망 학습에 획기적인 발전이 있었다고 설명합니다. 이 비디오는 계속해서 픽셀의 작은 변화만으로도 신경망이 높은 신뢰 수준으로 개체를 구별할 수 있는 방법의 예를 보여줌으로써 신경망이 인간처럼 "볼" 수 있는지 여부를 탐구합니다. 시연은 신경망이 이미지가 실제와 다르다고 생각하도록 속일 수 있음을 보여줍니다.

  • 00:45:00 이 섹션에서 발표자는 사진에 캡션을 넣는 방법에 대한 Google 논문의 예를 사용하여 이미지 처리에서 심층 신경망이 작동하는 방식에 대해 설명합니다. 신경망은 이미지의 로컬 특징과 질감을 감지하여 학교 버스나 야구공과 같은 물체를 식별합니다. 그러나 신경망이 그림의 맥락을 이해할 수 없다는 점은 다른 잘못된 식별 사례에서 볼 수 있듯이 기술의 한계로 나타납니다. 그런 다음 화자는 이미지에 대한 신경망의 인상을 유지하면서 그림에서 사각형을 제거하는 연구실의 작업에 대해 논의합니다. 물체를 식별하는 신경망의 능력은 다양한 절단 수준의 사진을 통해 보여지며, 신경망은 이미지의 일부가 제거된 경우에도 놀라운 성능을 발휘합니다.
 

강의 13. 학습: 유전자 알고리즘



13. 학습: 유전 알고리즘

이 비디오는 진화를 모방하고 복잡한 문제를 해결할 수 있게 해주는 유전자 알고리즘의 개념에 대해 설명합니다. 염색체를 통한 유전적 유전 과정은 돌연변이 및 교차에 대한 선택이 있는 이원 염색체를 사용하여 분해 및 시뮬레이션됩니다. 후보자의 생존 확률과 순위 순서는 올바르게 실행될 때의 효과를 보여주는 예와 함께 설명됩니다. 로컬 최대값을 극복하는 문제와 모의 어닐링 기술의 도입에 대해 논의합니다. 규칙 기반 전문가 시스템 구축 프로젝트 및 블록과 같은 개체로 구성된 생물의 진화를 포함하여 유전 알고리즘의 실제 응용 프로그램을 선보입니다. 강사는 유전 알고리즘의 기원과 성공에 대해 반성하며 다양성이 성공의 핵심 요소라는 점에 주목합니다.

  • 00:00:00 이 섹션에서는 MIT의 패트릭 윈스턴 교수가 유전자 알고리즘을 통한 진화 모방에 대해 이야기합니다. 그는 유사분열과 번식의 기본에 대해 이야기하면서 시작합니다. 그런 다음 그는 진화를 모방하려는 순진한 시도인 유전 알고리즘의 개념을 소개합니다. 이러한 알고리즘을 사용하면 진화 패턴을 모방하여 복잡한 문제를 해결할 수 있습니다. 그는 학생들이 다음 퀴즈에서 이것을 보지 못할 것이지만 그들이 수업에 참석하고 깨어 있는지 테스트하기 위해 최종 시험에서 이와 관련된 질문을 할 것이라고 말했습니다.

  • 00:05:00 영상의 이 섹션에서는 화자가 염색체를 통한 유전적 유전 과정을 세분화하여 유전 알고리즘의 기본을 설명합니다. 그는 유전적 유전 과정을 유전 알고리즘과 비교하고 이원 염색체를 사용하여 유전적 유전 과정을 모방하는 시스템을 구축하기 위해 염색체를 단순화하고 시뮬레이션하는 방법을 설명합니다. 그는 계속해서 염색체당 얼마나 많은 돌연변이 또는 교차가 허용되어 수정된 염색체 집단으로 이어지는지와 같은 이 과정 내에서 선택이 이루어질 수 있는 방법을 설명합니다. 다음 단계는 유전자형에서 표현형 전환으로 가는 것입니다.

  • 00:10:00 이 섹션에서는 유전자형이 표현형을 결정하는 방법과 각 개인과 함께 제공되는 다양한 적합성에 대해 배웁니다. 적합도에 점수가 매겨지면 컴퓨터 과학자는 숫자를 사용하여 다음 세대로의 생존 확률을 계산할 수 있습니다. 확률의 합이 1이 되도록 하려면 적합도에서 생성된 확률 측정이 필요합니다. x와 y의 함수로 공간에서 최적의 값을 찾는 유전자 알고리즘을 구성할 때, 적합도는 어떤 상수 x x의 사인, 양의 제곱, 어떤 상수 y의 사인 곱하기, 양의 제곱, e에 의해 결정됩니다. 더하기 x 더하기 y를 어떤 상수로 나눈 것입니다.

  • 00:15:00 이 섹션에서는 패트릭 윈스턴이 유전자 알고리즘의 작동 방식과 진화 방식을 설명합니다. 그는 돌연변이와 교차의 과정과 이들이 피트니스 그래프에서 개체군을 위쪽으로 진화시키는 데 어떻게 사용될 수 있는지에 대해 설명합니다. 예를 들어, 그는 유전자 알고리즘이 근본적인 언덕 오르기 메커니즘으로 인해 어떻게 로컬 최대값에 고정될 수 있는지 보여줍니다. 학생들은 크로스오버를 사용하자고 제안하지만 그마저도 잘 되지 않는 것 같습니다. 그럼에도 불구하고 Winston은 처음에는 효과적이지 않을 수 있는 아이디어에 대해 열린 마음을 유지하는 것이 중요하다고 지적합니다.

  • 00:20:00 이 섹션에서 강사는 적합도를 생존 확률로 변환하는 개념을 탐구하고 실제 적합도 특성을 사용하는 것이 반드시 효과적이지 않을 수 있음을 강조합니다. 따라서 그는 체력 수준에 따라 후보자의 순위를 매기는 것이 더 나은 접근 방식일 수 있다고 제안합니다. 그는 가장 높은 순위의 개인이 다음 세대에 들어갈 확률이 상수에 의해 결정된다고 말하면서 이 메커니즘을 자세히 설명합니다. 또한 그는 이 방법을 테스트하기 위해 100세대를 실행하고 결과를 설명하여 올바르게 실행될 때 전략의 효과를 보여줍니다.

  • 00:25:00 이 섹션에서는 유전 알고리즘이 어떻게 로컬 최대값에 고정되고 더 나은 솔루션을 찾기 위해 다양성을 증가시키는 방법이 필요한지에 대해 설명합니다. 이것은 일부 종들이 수백만 년 동안 진화하지 않고 고착되는 것과 유사합니다. 그런 다음 모의 어닐링 기술을 도입하여 단계 크기를 점진적으로 줄이고 솔루션을 찾을 수 있도록 합니다. 그러나 비디오는 때때로 시뮬레이션된 어닐링이 로컬 최대값을 벗어나기에 충분하지 않으며 모집단 내에서 다양성을 증가시키기 위해 새로운 메커니즘이 필요함을 보여줍니다. 이 비디오는 인구의 다양성을 측정하고 적합성뿐만 아니라 이미 선택된 다른 개인과의 고유성을 기반으로 개인을 선택하도록 제안합니다.

  • 00:30:00 이 섹션에서 화자는 피트니스 순위와 다양성 순위의 조합을 사용하여 유전자 알고리즘이 작은 단계 크기를 사용하여 100세대 동안 실행하는 방법을 보여줍니다. 오른쪽 상단 모서리까지 기어감으로써 다양성 부분은 높은 적합도를 찾는 동안 물건을 퍼뜨린 상태로 유지합니다. 다양성이 꺼지면 6억년이 걸린다. 그러나 x와 y의 장점을 결합하는 교차 메커니즘이 있으므로 해자 문제를 처리할 때 잘 작동합니다. 연사는 돌연변이가 기본적으로 언덕 오르기를 어떻게 하는지, 그리고 얼마나 많은 크로스오버를 해야 하는지를 포함하여 그것을 처리하는 방법에 대한 선택이 있다고 설명합니다. 그러나 발표자는 유전자 알고리즘은 아무도 완전히 이해하지 못하는 유전자형에서 표현형으로의 전환에 여전히 많은 마법이 있다는 진화에 대한 매우 순진한 생각만을 포착할 뿐이며, 이는 설계자에게 많은 개입을 남겨둔다고 지적합니다.

  • 00:35:00 이 섹션에서 연사는 유전 알고리즘의 몇 가지 실용적인 응용에 대해 논의합니다. 한 가지 예는 새로운 계획을 생성하기 위해 두 단계 세트를 결합할 수 있는 계획입니다. 또 다른 예는 규칙을 발전시키기 위해 돌연변이와 교차를 사용하여 경마의 승자를 예측하는 규칙 기반 전문가 시스템을 구축하는 학생의 프로젝트입니다. 화자는 또한 염색체의 다른 비트가 개체의 수, 크기, 구조 및 제어로 해석되는 블록과 같은 개체로 구성된 생물의 진화를 보여줍니다. 생물의 다양성은 차세대를 위한 모든 후보의 미터법 거리를 계산하여 측정됩니다.

  • 00:40:00 이 섹션에서 패트릭 윈스턴은 생존 확률과 다음 세대의 개인과 얼마나 다른지에 따라 순위가 매겨질 확률을 결합하여 유전자 알고리즘이 작동하는 방식을 설명합니다. 그런 다음 그는 얼마나 빨리 갈 수 있고 육지에서 어떻게 이동하는지에 따라 진화하는 수영하는 생물의 비디오를 통해 이러한 알고리즘의 예를 보여줍니다. 비디오는 함께 진화하고 음식을 위해 경쟁하는 생물을 보여줍니다. 일부 생물은 이국적인 방법을 개발했지만 다른 생물은 혼란스러워 음식에 대해 잊어 버렸습니다. 동영상은 동영상을 만든 회사에서 사용하는 것과 같은 초강력 컴퓨터로 달성할 수 있는 작업의 예입니다.

  • 00:45:00 이 섹션에서 강사는 유전자 알고리즘의 기원과 다양한 문제에 대한 솔루션 생성의 성공에 대해 반성합니다. 그는 알고리즘이 인상적이지만 진정한 신용은 솔루션 공간의 풍부함과 프로그래머의 독창성에 있을 수 있다고 지적합니다. 다양성은 또한 성공적인 유전자 알고리즘 계산의 핵심 구성 요소로 강조됩니다.
 

강의 14. 학습: 희박한 공간, 음운론



14. 학습: 희박한 공간, 음운론

비디오의 이 섹션에서 Winston 교수는 인간이 학습하는 방법에 대한 연구와 관련된 메커니즘으로 희소 공간 및 음운론의 개념을 소개합니다. 그는 언어 학습과 관련하여 우리가 보는 것과 듣는 것 사이의 상호 작용에 대해 논의하며, 예를 들어 시각적 단서가 언어에서 우리가 인식하는 것에 어떻게 영향을 미칠 수 있는지 설명합니다. 화자는 레지스터, 단어 집합, 제약 조건 및 음소 버퍼를 포함하여 말소리를 인식하고 생성하도록 설계된 기계의 요소와 연결을 설명합니다. 그는 또한 "고양이"와 "개"라는 단어와 관련된 독특한 특징을 살펴보는 교실의 예를 사용하여 배울 수 있는 긍정적인 예와 부정적인 예를 사용하여 음운론의 패턴을 일반화하는 기술을 설명합니다. 마지막으로 그는 메커니즘의 기능과 일치하는 구속조건을 만들고 문제를 더 잘 이해하고 해결하기 위해 시각적 표현을 통합하는 것의 중요성에 대해 논의합니다.

  • 00:00:00 비디오의 이 섹션에서 Winston 교수는 학습, Sparse Spaces 및 음운론과 관련된 두 가지 메커니즘 또는 아이디어를 소개합니다. 이에 대해 논의하기 전에 그는 최근접 이웃 및 식별 트리를 포함한 몇 가지 기본 방법과 신경망 및 유전자 알고리즘과 같은 일부 생물학적 모방을 간략하게 검토합니다. 그는 후자가 항상 효과적인 것은 아니지만 여전히 배울 가치가 있다고 설명합니다. 그런 다음 Winston 교수는 인간이 학습하는 방법, 특히 나중에 배운 언어에서 복수 단어를 식별하고 생성할 수 있는 방법에 대한 연구와 관련된 메커니즘에 중점을 둡니다. 그는 Krishna와 같은 개인이 자신이 제대로 하고 있다는 사실조차 깨닫지 못한 채 영어 단어를 복수화할 수 있음을 예를 들어 설명하고 그러한 현상에 공학적인 관점에서 접근할 수 있는 방법에 대해 이야기합니다.

  • 00:05:00 이 섹션에서는 음운 규칙과 기계가 이를 획득하는 방법에 대해 알아봅니다. 음운론은 음절 및 하위 음절 소리를 다루고 음운 규칙은 사람이 말하는 음소 또는 이진 기능의 조합을 결정합니다. 어떤 전화를 말하고 있는지 결정할 수 있는 약 14개의 고유한 기능이 있으며 언어에서 약 16,000개의 가능한 조합을 생성합니다. 그러나 어떤 언어도 100개 이상의 전화를 가지고 있지 않으며, 일부 선택은 물리적 근거에서 제외되는데, 대부분이 그렇지 않기 때문에 이상합니다. 이러한 독특한 기능 중 얼마나 많은 것이 환각되거나 다른 양식의 피드백 루프에 주입되는지 보는 것은 흥미롭고 McGurk 효과는 말과 비디오 사이에 얼마나 자주 단절이 있는지 보여줍니다.

  • 00:10:00 이 섹션에서 화자는 언어 학습과 관련하여 우리가 보는 것과 듣는 것 사이의 상호 작용을 설명합니다. 그는 독일과 영국 소의 소리를 예로 들어 시각적 단서가 우리가 인지하는 것에 어떻게 영향을 미칠 수 있는지에 대해 설명합니다. 그런 다음 그는 "사과"와 같은 단어에 대한 음소 시퀀스를 형성하는 독특한 특징에 대해 음운론자들이 알고 있는 것에 대한 통찰력을 제공합니다. 열 아래에는 유성음, 음절 또는 딱딱한 소리와 같은 기능이 포함되어 있으며 시간이 있습니다. 화자는 또한 소리를 해석하는 기계와 사람들이 언어 소리를 생성하기 위해 보는 사물에 대해 이야기합니다. 이 기계는 명사, 동사 및 복수와 같은 개념에 대한 값을 보유하는 레지스터에 저장된 두 개의 사과가 있다고 결정합니다.

  • 00:15:00 이 섹션에서 화자는 말소리를 인식하고 생성하도록 설계된 기계의 요소와 연결을 설명합니다. 기계는 레지스터, 단어 세트, 제약 조건 및 음소 버퍼로 구성됩니다. 복수형 제약은 복수형을 관찰할 때 자체적으로 작동하는 능력을 갖는 주요 초점입니다. 정보는 요소를 연결하는 포트를 통해 여러 방향으로 흐를 수 있습니다. 그런 다음 스피커는 비전 시스템에서 단어 어휘집 및 복수 레지스터로의 정보 흐름을 설명하는 "두 개의 사과" 개념이 제시될 때 기계가 어떻게 반응하는지 보여줍니다.

  • 00:20:00 비디오의 이 섹션에서 화자는 기계가 음운 규칙을 사용하여 사과가 보인다는 생각을 표현하는 방법을 설명합니다. 기계는 정보가 모든 방향으로 흐를 수 있도록 제약 조건으로 표현된 가역 연결 및 전파자를 사용합니다. 그러나 큰 문제는 이러한 규칙을 배우는 방법입니다. 이를 위해 화자는 "고양이"와 "개"라는 단어와 관련된 음절, 유성음, 계속음, 과격함과 같은 독특한 특징을 살펴보는 간단한 교실 예제를 제공하여 이러한 규칙을 학습하기 위한 긍정적 및 부정적 예를 제공합니다.

  • 00:25:00 이 섹션에서는 비디오에서 영어의 복수형 단어 형성에 대해 설명하고 일부 단어는 "s" 소리를 내고 다른 단어는 "z" 소리를 내는 이유를 조사합니다. 비디오는 이것이 14,000개의 가능한 선택 중 40개의 가능한 음소만 있는 음소 공간의 희소성 때문이라고 설명합니다. 또한 비디오는 문제가 계산적으로 어떻게 접근되었고 궁극적으로 학습할 긍정적 및 부정적 사례를 수집하는 것과 관련된 알고리즘으로 요약되었는지 설명합니다.

  • 00:30:00 이 섹션에서 화자는 씨앗이라는 긍정적인 예를 사용하여 음운론의 패턴을 일반화하고 부정적인 예가 덮일 때까지 일부 요소를 don't care 기호로 점차 전환하는 방법을 설명합니다. 이 기술은 음소 행렬에서 중요하지 않고 복수화 결과에 영향을 미칠 가능성이 가장 적은 위치를 선택하는 것입니다. 검색 기술을 사용하여 이러한 일반화 중 가장 영향력이 큰 인접 음소를 사용하여 어떤 일반화를 만들지 결정합니다. 음운론적 예는 14개의 고유한 특징이 있는 행렬을 사용하여 제공되며, 여기서 긍정적 예와 부정적 예를 구분하는 결정적 특징은 복수형이 되는 단어의 마지막 음소의 무성음 및 비타격적 특징이며 결과적으로 "ss"가 됩니다. 소리.

  • 00:35:00 이 섹션에서 발표자는 시스템을 사용한 추가 실험에 대해 논의하고 빔 검색을 사용하여 고차원의 희박한 공간을 제어한다고 설명합니다. 이 기술은 부정적인 예에서 긍정적인 예 세트를 분리하고 음성학에서 다양한 복수형 시나리오를 처리하는 방법을 시스템에 가르치는 데 사용됩니다. 이 접근 방식은 1차원, 2차원 및 3차원 공간과 같은 다양한 예제를 사용하고 이러한 예제에서 초평면을 사용하여 다양한 데이터 세트를 분리하는 방법으로 설명됩니다.

  • 00:40:00 이 섹션에서 Sussman과 Yip은 인간 언어가 희박한 음소 공간을 사용한다고 제안합니다. 학습성을 높이고, 언어를 고르게 무작위로 배치하면 음소를 쉽게 분리할 수 있기 때문입니다. 그러나 모음은 일정한 소리에 비해 한 가지 특징만 가지고 있기 때문에 구분하기 어렵다. 이 예는 문제에서 시작하여 문제에 고유한 기능을 가져오고 접근 방식을 고안하고 알고리즘을 작성하고 마지막으로 실험을 수행하여 Marr의 교리문답과 일치하는 방식으로 AI를 수행하는 방법을 보여줍니다.

  • 00:45:00 비디오의 이 섹션에서 화자는 신경망과 같은 메커니즘이 기능과 일치하지 않는 특정 문제를 해결하도록 강제하는 것이 제대로 작동하지 않는 방법을 설명합니다. 좋은 표현을 찾는 열쇠는 표현에 의해 노출되는 제약 조건을 생성하여 더 나은 처리와 솔루션에 대한 명확한 경로를 허용하는 것입니다. 또한 지역성 기준을 통합하는 표현을 갖는 것이 중요합니다. 즉, 답변에 대한 설명이 소다 빨대와 같은 접근 방식을 통해 표시되어 문제를 더 쉽게 이해할 수 있습니다. 궁극적으로 좋은 표현을 가지고 있으면 더 똑똑한 엔지니어와 과학자가 되어 결코 만족스러운 솔루션으로 이어지지 않는 순진한 방식으로 메커니즘을 연구하는 것을 피할 수 있습니다.
사유: