머신 러닝 및 신경망 - 페이지 63

 

특이값 분해(SVD) 및 이미지 압축



특이값 분해(SVD) 및 이미지 압축

안녕하세요, 저는 Louis Sorano입니다. 이번 영상에서는 SVD(Singular Value Decomposition)의 개념에 대해 설명하겠습니다. SVD에는 이미지 압축과 같은 다양한 응용 프로그램이 있는 회전 및 스트레칭이 포함됩니다. 관심이 있는 경우 주석에 링크된 내 GitHub 리포지토리에서 애플리케이션에 대한 코드를 찾을 수 있습니다. 또한 "Rocking Machine Learning"이라는 책이 있는데 할인 코드와 함께 댓글에서 링크를 찾을 수 있습니다.

이제 변형에 대해 살펴보겠습니다. 변환은 포인트를 가져와 다른 포인트에 매핑하는 함수로 볼 수 있습니다. 늘이기 및 압축은 이미지에 가로 또는 세로로 적용할 수 있는 변형의 예입니다. 이미지를 특정 각도로 회전시키는 것은 또 다른 유형의 변환입니다.

자, 퍼즐을 풀어봅시다. 회전, 수평 및 수직 늘이기/압축만 사용하여 왼쪽의 원을 오른쪽의 타원으로 변환할 수 있습니까? 비디오를 일시 중지하고 시도해 보십시오.

이 퍼즐을 풀기 위해 원을 가로로 늘리고 세로로 압축한 다음 시계 반대 방향으로 회전하여 원하는 타원을 얻습니다.

더 어려운 퍼즐로 넘어갑시다. 이번에는 색상을 유지하면서 색상이 있는 원을 색상이 있는 타원으로 변환해야 합니다. 늘이거나 압축하기 전에 원을 올바른 방향으로 회전해야 합니다. 그런 다음 스트레칭과 압축을 적용한 다음 다시 회전하여 원하는 결과를 얻을 수 있습니다.

여기서 중요한 점은 모든 선형 변환이 회전과 스트레칭의 조합으로 표현될 수 있다는 것입니다. 선형 변환은 행렬로 나타낼 수 있으며 SVD는 행렬을 두 개의 회전 행렬과 스케일링 행렬의 세 부분으로 분해하는 데 도움이 됩니다.

이러한 회전 및 스케일링 매트릭스는 모든 선형 변환을 모방하는 데 사용할 수 있습니다. 회전은 각도에 따른 회전을 나타내고 스케일링 매트릭스는 수평 및 수직 스트레칭 또는 압축을 나타냅니다. 대각 행렬과 같은 특수 속성이 있는 행렬은 스케일링 변환을 나타냅니다.

SVD 분해 방정식 A = UΣVᴴ은 회전 행렬 U, 스케일링 행렬 Σ 및 다른 회전 행렬 Vᴴ(V의 adjoint 또는 켤레 전치)의 세 행렬의 곱으로 행렬 A를 표현합니다. 이 방정식을 사용하면 모든 행렬을 구성 요소로 분해할 수 있습니다.

SVD를 찾기 위해 사용할 수 있는 수학적 방법이 있지만 Wolfram Alpha 또는 Python의 NumPy 패키지와 같은 도구를 사용할 수도 있습니다.

SVD 분해는 차원 축소 및 행렬 단순화에 도움이 됩니다. 스케일링 행렬 Σ를 분석하면 변환의 특성을 이해할 수 있습니다. 배율 계수가 크면 스트레칭을 나타내고 작은 계수는 압축을 나타냅니다. 배율 인수가 0이 되면 변환이 퇴화되고 전체 평면을 선으로 압축할 수 있습니다.

스케일링 행렬을 수정하면 더 높은 순위의 행렬을 더 낮은 순위의 행렬로 압축하여 원래 행렬을 나타내는 데 필요한 정보의 양을 효과적으로 줄일 수 있습니다. 이 압축은 행렬을 두 개의 더 작은 행렬의 곱으로 표현하여 달성됩니다. 그러나 모든 행렬을 이 방법으로 압축할 수 있는 것은 아닙니다.

SVD(Singular Value Decomposition)는 행렬을 회전과 스트레칭으로 분해할 수 있는 강력한 도구입니다. 이 분해는 이미지 압축 및 차원 축소를 포함하여 다양한 분야에 적용됩니다.

 

AI 혁명 | 토론토 글로벌 포럼 2019



AI 혁명 | 토론토 글로벌 포럼 2019 | 9월 5일 목요일 |

이 방에 있는 누군가가 내가 이 인터뷰에 동의하기 전에 조금이라도 겁을 먹었다고 믿는다면 그들이 옳을 것입니다. 하지만 그런 건 제쳐두고 생산적인 토론에 집중합시다. 내 목표는 모두가 도착했을 때보다 더 큰 이해심을 가지고 이곳을 떠나는 것입니다. 자, 시작하겠습니다.

약간의 맥락을 제공하기 위해 최근에 신경망과 딥 러닝에 대한 연구로 저와 제 동료에게 튜링상이 수여되었습니다. Jeff가 딥 러닝이 무엇인지, 신경망이 무엇인지 설명할 수 있다면 도움이 될 것이라고 생각했습니다.

약 60년 전에 지능형 시스템을 만드는 데 두 가지 주요 아이디어가 있었습니다. 한 가지 접근 방식은 논리를 기반으로 하며 추론 규칙을 사용하여 기호 문자열을 처리하는 것과 관련이 있습니다. 다른 접근 방식은 상호 연결된 뇌 세포 네트워크가 학습하고 적응하는 뇌의 구조에서 영감을 받았습니다. 이 두 패러다임은 상당히 달랐고 오랫동안 신경망 접근 방식은 만족스러운 결과를 제공하기 위해 고군분투했습니다. 진행률이 부족한 것은 제한된 데이터 가용성과 계산 능력 때문이었습니다.

그러나 금세기 초에 우리는 중대한 변화를 목격했습니다. 데이터와 컴퓨팅 성능이 기하급수적으로 증가함에 따라 예제를 통해 학습한 시스템이 매우 효과적이 되었습니다. 특정 작업을 프로그래밍하는 대신 시뮬레이션된 뇌 세포의 대규모 네트워크를 만들고 원하는 동작을 달성하기 위해 이들 사이의 연결 강도를 조정했습니다. 입력 데이터와 해당하는 올바른 출력을 제공함으로써 네트워크는 일반화하고 정확한 예측을 수행하는 방법을 배웠습니다. 딥 러닝으로 알려진 이 접근 방식은 음성 인식, 이미지 인식, 기계 번역 및 기타 다양한 작업에 혁명을 일으켰습니다.

딥 러닝은 뇌에서 영감을 얻었지만 작동 방식에 대한 세부 사항이 크게 다르다는 점에 유의해야 합니다. 그것은 추상적인 수준에서 작동하며, 예로부터 배우고 연결 강도를 적응시키는 뇌의 능력을 모방합니다.

이제 학습이 왜 그렇게 중요한지, 기호와 규칙에 기반한 전통적인 AI 접근 방식이 작동하지 않는 이유에 대해 자세히 설명하겠습니다. 우리가 가지고 있지만 컴퓨터에 쉽게 설명하거나 프로그래밍할 수 없는 방대한 양의 지식이 있습니다. 예를 들어, 우리는 물 한 잔과 같은 물체를 인식하는 방법을 알고 있지만 그 지식을 컴퓨터에 전달하는 것은 어렵습니다. 인간 인지의 여러 측면에 대한 우리의 이해는 쉽게 해부되거나 기계에 대한 명시적인 지침으로 변환되지 않습니다. 마찬가지로 우리는 뇌에 숨겨진 지식에 의식적으로 접근할 수 없기 때문에 다른 사람에게 어떤 것을 설명할 수 없습니다.

이러한 지식을 컴퓨터에 제공하려면 데이터를 통한 학습이 무엇보다 중요합니다. 아이들이 경험을 통해 배우는 것처럼 컴퓨터도 방대한 양의 데이터에 대한 훈련을 통해 지식을 습득할 수 있습니다. 이 접근 방식은 정확한 복제본은 아니지만 우리의 두뇌가 작동하는 방식을 모방하는 데 가장 가깝습니다. 따라서 데이터로부터 학습하는 능력은 AI와 기계 학습의 근본적인 측면입니다.

우리의 배경과 관련하여 처음에는 인지 심리학을 공부했지만 그 분야에서 많은 성공을 거두지 못했습니다. 사실, 나는 인지 심리학자들이 제안한 아이디어가 지능 시스템을 만드는 데 부적절하고 비실용적인 것처럼 보였기 때문에 다른 길을 탐색하도록 영감을 받았습니다.

이제 과학적 연구에 필요한 인내와 우리가 처음에는 무시당했음에도 불구하고 계속한 이유를 살펴보겠습니다. 연구에서 성공하려면 인습에 얽매이지 않는 길을 기꺼이 걸어야 합니다. 연구는 탐구와 발견에 관한 것이며 종종 다른 사람들이 믿을 수 없다고 생각할 수도 있는 아이디어를 포함합니다. 자신감, 위험을 감수하려는 의지, 다른 사람들이 간과하는 것을 추구하는 능력이 필요합니다. AI에 대한 우리의 접근 방식은 처음에는 심각하게 받아들여지지 않았지만 우리의 아이디어에 대한 확신이 있었고 이를 추구할 의향이 있었고 궁극적으로 딥 러닝의 돌파구로 이어졌습니다.

앞으로 딥 러닝이 적용되는 흥미로운 이니셔티브에 대해 질문하셨습니다. 응용 프로그램은 태양광 패널, 탄소 포집 및 배터리의 효율성을 향상하여 기후 변화에 대처하는 것부터 예측을 개선하고 재생 가능 에너지원을 보다 효율적으로 활용하여 전기 사용을 개선하는 것까지 다양합니다. 딥 러닝은 또한 검색 엔진, 추천, 개인화된 광고 및 가상 비서와 같은 고객 상호 작용을 향상시키기 위해 회사에서 광범위하게 사용됩니다. 헬스케어 분야에서도 질병 진단, 의료영상 분석, 신약후보물질 발굴 등에 응용되고 있다. 자율 주행 차량 분야에서 딥 러닝은 인식, 의사 결정 및 제어 시스템에서 중요한 역할을 하여 운송을 보다 안전하고 효율적으로 만듭니다.

또 다른 흥미로운 분야는 딥 러닝 모델을 사용하여 인간의 언어를 이해하고 생성하는 자연어 처리입니다. 이로 인해 기계 번역, 챗봇, 음성 도우미 및 감정 분석이 크게 발전했습니다. 사기 탐지, 위험 평가 및 고주파 거래를 위해 금융 분야에서도 딥 러닝이 활용되고 있습니다.

또한 딥 러닝은 과학 연구 및 탐구 분야에서 큰 발전을 이루고 있습니다. 천문학, 유전체학 및 입자 물리학과 같은 분야에서 대규모 데이터 세트를 분석하여 새로운 발견과 통찰력을 이끌어내고 있습니다. 딥 러닝은 예술, 음악 및 문학 생성과 같은 창의적인 응용 분야에서도 사용되고 있습니다.

눈부신 발전에도 불구하고 딥 러닝은 여전히 도전 과제에 직면해 있습니다. 중요한 문제 중 하나는 교육을 위해 레이블이 지정된 대량의 데이터에 의존한다는 것입니다. 이러한 데이터 세트를 획득하고 주석을 다는 것은 시간과 비용이 많이 소요될 수 있습니다. 연구원들은 효율성을 개선하고 딥 러닝을 보다 데이터 효율적으로 만드는 방법을 적극적으로 모색하고 있습니다.

또 다른 문제는 딥 러닝 모델의 해석 가능성입니다. 복잡성으로 인해 딥 러닝 모델이 특정 결정이나 예측을 한 이유를 이해하기 어려울 수 있습니다. 이러한 투명성 부족은 특히 의료 및 형사 사법과 같은 민감한 영역에서 윤리적 및 법적 문제를 야기합니다. 연구자들은 해석 가능성을 높이고 딥 러닝 시스템에 대한 신뢰를 구축하는 기술을 개발하기 위해 노력하고 있습니다.

마지막으로, 딥 러닝 모델에서 공정성을 보장하고 편향을 피하는 것이 지속적인 관심사입니다. 훈련 데이터에 존재하는 편향은 편향된 예측과 불공정한 결과로 이어질 수 있습니다. 이러한 문제를 해결하기 위한 지침 및 규정과 함께 공정하고 편견 없는 알고리즘을 개발하기 위해 노력하고 있습니다.

딥 러닝은 기계가 데이터로부터 학습하고 정확한 예측을 할 수 있도록 함으로써 인공 지능에 혁명을 일으켰습니다. 그것은 다양한 분야에서 응용 프로그램을 발견했으며 과학, 기술 및 사회의 추가 발전을 주도할 잠재력을 가지고 있습니다. 그러나 미래에 딥 러닝을 책임감 있고 유익하게 사용하려면 데이터 요구 사항, 해석 가능성 및 공정성과 같은 문제를 해결해야 합니다.

 

전체 인터뷰: "인공 지능의 대부"가 말하는 AI의 영향과 잠재력



전체 인터뷰: "인공 지능의 대부"가 말하는 AI의 영향과 잠재력

AI와 기계 학습의 현재 시점에서 중요한 순간으로 간주됩니다. 큰 언어 모델인 ChatGPT의 성공은 이러한 모델의 인상적인 기능을 보여주었습니다. 일반 대중은 특히 Microsoft가 자체 언어 모델을 출시한 후 AI의 잠재력을 더 많이 인식하게 되었습니다. 연구자와 대기업은 수년 동안 이러한 발전에 대해 알고 있었지만 대중의 이러한 갑작스러운 인식은 많은 사람들을 놀라게 했습니다.

ChatGPT의 초기 경험에 대해 물었을 때, 대답은 놀랍지 않았습니다. 사용자는 이전에 GPT-2 및 농담의 유머를 자연어로 설명할 수 있는 Google 모델과 같은 유사한 모델을 사용했습니다. ChatGPT는 그다지 놀라지 않았지만 GPT-2는 강한 인상을 남겼습니다. 그러나 ChatGPT의 기능에 대한 대중의 반응은 AI에서 가장 빠르게 성장하는 현상이 되었기 때문에 그들을 놀라게 했습니다.

대화는 서로 다른 두 학파의 사고 방식을 가진 AI의 역사로 옮겨갔습니다. 주류 AI는 추론과 논리에 초점을 맞추었고, 사용자의 관심 분야인 신경망은 뇌의 생물학적 측면을 연구했습니다. 신경망에서 앞서 있었음에도 불구하고 1980년대에 다른 사람들에게 그 잠재력을 확신시키는 것은 어려운 일이었습니다. 사용자는 당시에는 제한된 컴퓨팅 성능과 데이터 세트로 인해 신경망이 최적으로 작동하지 않았다고 생각합니다. 그러나 주류 AI 연구원들은 이를 단점에 대한 변명으로 일축했습니다.

사용자의 주요 관심사는 AI를 만드는 것보다 뇌가 어떻게 작동하는지 이해하는 것입니다. 성공적인 AI 구현은 보조금 및 표창으로 이어질 수 있지만 목표는 뇌에 대한 통찰력을 얻는 것입니다. 그들은 AI에서 사용되는 현재 인공 신경망이 뇌가 실제로 작동하는 방식과 다르다고 믿습니다. 사용자는 뇌의 학습 과정이 AI에서 널리 사용되는 역전파(backpropagation) 기법과 다르다는 의견을 피력했다.

토론은 AI 모델에 비해 인간 커뮤니케이션의 한계에 대해 탐구했습니다. 인간은 자연어를 통해 복잡한 생각을 전달할 수 있지만 정보를 전달할 수 있는 속도에는 한계가 있습니다. 반대로 AI 모델은 여러 컴퓨터에서 방대한 양의 데이터를 처리할 수 있어 인간의 이해를 넘어서는 지식을 축적할 수 있습니다. 그러나 인간은 여전히 추론, 제한된 데이터 세트에서 지식 추출, 타고난 이해가 필요한 작업 수행에 탁월합니다.

대화는 1986년 언어 모델링에서 사용자의 초기 작업에 대해 다루었습니다. 여기서 사용자는 문장의 마지막 단어를 예측하는 모델을 개발했습니다. 모델이 가능성을 보였지만 당시 사용 가능한 컴퓨팅 성능과 데이터 세트에 의해 제한되었습니다. 사용자는 오늘날 사용 가능한 컴퓨팅 성능과 데이터 세트에 액세스할 수 있었다면 모델의 성능이 크게 향상되었을 것이라고 믿습니다.

1990년대에 신경망은 다른 학습 기술이 더 유망해 보였고 더 강력한 수학적 이론을 가지고 있었기 때문에 도전에 직면했습니다. 주류 AI는 연구자들이 인간 학습을 이해하는 잠재력을 보았던 심리학을 제외하고는 신경망에 대한 관심을 잃었습니다. 2000년대는 사전 훈련 및 생성 모델을 포함한 딥 러닝 기술이 개발되어 여러 계층의 신경망이 복잡한 작업을 학습할 수 있는 전환점이 되었습니다.

2012년에는 두 가지 중요한 이정표가 발생했습니다. 첫째, 심층 신경망을 사용하여 음성 인식을 개선한 2009년의 사용자 연구는 주요 음성 인식 연구소에 보급되었습니다. 이로 인해 Siri의 기능에 필적하는 Google의 심층 신경망 배포를 포함하여 음성 인식 기술이 크게 발전했습니다. 둘째, 사용자의 두 학생은 이전 방법을 능가하는 객체 인식 시스템을 개발했습니다. 이 시스템은 특징 탐지기와 계층적 표현을 활용하여 이미지에서 개체를 식별했습니다.

그들의 접근 방식과 이전 방법의 차이점을 설명하기 위해 사용자는 이미지에서 새 인식을 사용하여 비유를 제공했습니다. 기존의 접근 방식에는 기본 에지에서 시작하여 더 복잡한 개체 구성 요소로 진행하는 다양한 수준의 수작업 기능 감지기가 필요했습니다. 대조적으로, 역전파를 사용하는 심층 신경망은 초기화되면 다음에 새를 더 잘 예측할 수 있도록 가중치를 조정하는 방법을 알려줄 수 없습니다. 그러나 새를 예측하는 일이 발생하면 다음 번에 출력이 더 새와 같은 방식으로 가중치를 조정할 수 있습니다. 따라서 예측된 출력과 원하는 출력의 차이에 따라 가중치를 조정하고 모델이 새를 더 잘 인식할 때까지 많은 예에 대해 이 작업을 계속합니다.

아이디어는 예측된 출력과 원하는 출력 사이의 오차를 기반으로 가중치를 조정함으로써 새를 인식하는 모델의 능력을 점진적으로 향상시킬 수 있다는 것입니다. 이 프로세스는 수백만 또는 수십억 개의 이미지에 대해 반복되므로 모델이 방대한 양의 데이터에서 학습하고 예측에서 매우 정확해집니다.

역전파(backpropagation)로 알려진 이 접근 방식은 1980년대 신경망 분야에 혁명을 일으켰으며 오늘날 딥 러닝의 기본 기술로 남아 있습니다. 그러나 인상적인 결과를 성공적으로 달성했음에도 불구하고 역전파가 뇌가 실제로 어떻게 학습하는지에 대한 정확한 모델인지에 대한 논쟁과 연구가 진행 중입니다.

일부 연구자들은 뇌의 학습 과정이 역전파에 의해 완전히 포착되지 않는 추가적인 메커니즘과 원리를 포함할 수 있다고 주장합니다. 그들은 뇌가 어떻게 작동하는지에 대한 우리의 이해가 아직 불완전하며 뇌의 과정과 더 밀접하게 일치하는 AI 시스템을 구축하기 위한 대안적 접근법이 있을 수 있음을 시사합니다.

그럼에도 불구하고 역전파 및 기타 기술로 구동되는 딥 러닝 모델은 이미지 및 음성 인식, 자연어 처리, 심지어 게임 플레이를 포함한 다양한 영역에서 상당한 발전을 이루었습니다. 이러한 모델은 놀라운 기능을 입증했으며 연구원과 일반 대중 모두의 관심과 흥분을 사로잡았습니다.

AI 및 머신 러닝에서 현재 이 순간을 탐색하면서 ChatGPT와 같은 큰 언어 모델이 이러한 기술의 잠재력을 보여주었다는 것이 분명합니다. 인상적인 작업을 수행하고 창의적인 콘텐츠를 생성하며 귀중한 통찰력을 제공할 수 있습니다. 그러나 AI가 인간의 지능과 이해를 더 잘 모방할 수 있는 방법에 대해서는 여전히 배우고 탐구해야 할 것이 많습니다.

연구자들이 계속해서 뇌의 신비를 탐구하고 AI 기술을 개선함에 따라 우리는 더 많은 돌파구와 발전을 기대할 수 있습니다. AI의 미래는 큰 가능성을 내포하고 있지만 윤리, 개인 정보 보호, 이러한 강력한 기술의 책임 있는 개발 및 배포에 대한 중요한 질문도 제기합니다.

생물학적 지능 측면에서 각 개인의 뇌는 고유하며 개인 간의 지식 전달은 언어에 의존합니다. 반면 신경망과 같은 현재 AI 모델에서는 동일한 모델이 서로 다른 컴퓨터에서 실행되고 연결 강도를 공유할 수 있어 수십억 개의 숫자를 공유할 수 있습니다. 이러한 연결 강도 공유를 통해 서로 다른 물체를 인식할 수 있습니다. 예를 들어 한 모델은 고양이를 인식하는 방법을 배우고 다른 모델은 새를 인식하는 방법을 배울 수 있으며 두 작업을 모두 수행하기 위해 연결 강도를 교환할 수 있습니다. 그러나 이러한 공유는 디지털 컴퓨터에서만 가능합니다. 서로 다른 생물학적 뇌가 동일하게 행동하고 연결을 공유하도록 하는 것은 어렵기 때문입니다.

우리가 디지털 컴퓨터를 고수할 수 없는 이유는 높은 전력 소비 때문입니다. 칩이 개선됨에 따라 전력 요구 사항은 감소했지만 정밀한 계산을 위해서는 높은 전력에서 디지털 컴퓨터를 실행해야 합니다. 그러나 뇌가 30와트에서 작동하는 것과 유사하게 더 낮은 전력으로 시스템을 실행하면 약간의 소음을 허용하고 시스템이 효과적으로 작동하도록 조정할 수 있습니다. 더 낮은 전력에 대한 뇌의 적응성은 정확한 전력 요구 사항 없이도 작동할 수 있게 합니다. 반면에 대형 AI 시스템은 동일한 모델의 여러 복사본으로 구성되기 때문에 메가와트와 같은 훨씬 더 높은 전력이 필요합니다. 약 1,000배에 달하는 이러한 전력 요구 사항의 극명한 차이는 디지털 컴퓨터에서 훈련이 발생한 다음 저전력 시스템에서 훈련된 모델을 실행하는 단계가 있음을 시사합니다.

이 기술의 광범위한 영향은 특정 영역을 정확히 지적하기 어렵습니다. 우리 생활 곳곳에 스며들 것으로 기대된다. 이미 ChatGPT와 같은 모델이 보편화되고 있습니다. 예를 들어 Google은 신경망을 사용하여 검색 결과를 향상시키고 ChatGPT와 같은 챗봇이 더 널리 보급되는 단계로 전환하고 있습니다. 그러나 이러한 언어 모델은 텍스트를 생성할 수 있지만 진실에 대한 진정한 이해가 부족합니다. 그들은 일관되지 않은 데이터에 대해 교육을 받고 누군가가 웹에서 말할 수 있는 다음 문장을 예측하는 것을 목표로 합니다. 결과적으로 다양한 잠재적 반응을 모델링하기 위해 서로 다른 의견을 혼합합니다. 이것은 특히 세계에서 행동을 취하는 것과 관련하여 일관된 세계관을 위해 노력하는 인간과 다릅니다.

앞으로 AI 시스템의 개발은 다양한 관점을 이해하고 다양한 세계관을 수용하는 문제를 해결해야 합니다. 그러나 지구가 평평하지 않은 것과 같이 객관적인 진실이 존재하는 경우가 있기 때문에 이것은 딜레마를 제시합니다. 객관적 진실을 인정하면서 서로 다른 관점의 수용 사이에 균형을 맞추는 것은 중요한 도전 과제입니다. 누가 "나쁜" 또는 공격적인 것으로 간주되는지 결정하는 것도 미결 문제입니다. Google 및 Microsoft와 같은 회사는 접근 방식에 신중하지만 이러한 문제를 해결하려면 공개 토론, 규제 및 이러한 시스템의 교육, 레이블 지정 및 제시 방법에 대한 신중한 고려가 필요합니다.

AI 기술의 급속한 발전 가능성은 그 의미에 대한 우려를 불러일으킨다. 이전에는 범용 AI가 개발되는 데 수십 년이 걸릴 것으로 예상되었습니다. 그러나 현재 일부에서는 향후 20년 또는 그보다 더 빨리 일어날 수 있다고 믿고 있습니다. 두려움은 인간보다 훨씬 똑똑한 시스템이 내릴 수 있는 알려지지 않은 행동과 결정에서 비롯됩니다. AI 시스템이 위협이 아닌 인류를 돕는 시너지 도구 역할을 하려면 정치적, 경제적 요인에 주의를 기울여야 합니다. 정치적 지형이 중요한 역할을 하며 모든 국가와 지도자가 책임감 있게 AI 개발에 접근할지는 여전히 불확실합니다. 이것은 잠재적인 위험과 지침 및 협정을 수립하기 위한 거버넌스와 국제 협력의 필요성에 대한 우려를 제기합니다.

한 가지 중요한 우려는 AI, 특히 자율 무기의 군사적 적용과 관련이 있습니다. 군인을 AI가 조종하는 군인으로 교체한다는 생각은 윤리적 문제를 제기합니다. 자율 병사를 개발하려면 목표를 달성하기 위해 하위 목표를 생성할 수 있는 능력을 부여해야 하므로 정렬 문제에 대한 우려가 제기됩니다. 이러한 시스템이 생성하는 하위 목표가 인간의 가치와 일치하고 유해한 행동을 초래하지 않을 것이라고 어떻게 확신할 수 있습니까?

어느 정도는 그 말이 사실입니다. Chat GPT와 같은 이러한 대규모 언어 모델은 통계 패턴과 기존 데이터를 사용하여 응답을 생성합니다. 그들은 인간처럼 진정한 이해나 의식을 가지고 있지 않습니다. 그러나 그 기능은 단순한 자동 완성 이상의 기능을 제공합니다.

이러한 모델은 방대한 양의 텍스트 데이터에 대해 학습되어 패턴, 문법 및 컨텍스트를 학습할 수 있습니다. 그들은 받은 입력을 기반으로 일관되고 상황에 맞는 응답을 생성할 수 있습니다. 특정 소스나 개인의 스타일과 어조를 모방할 수도 있습니다.

또한 이러한 모델은 학습한 정보를 일반화하고 추론할 수 있는 능력이 있습니다. 그들은 질문에 답하고, 설명을 제공하고, 대화에 참여하고, 이야기나 시와 같은 창의적인 콘텐츠를 생성할 수도 있습니다. 다양한 주제를 이해하고 대응할 수 있으며 유용한 정보를 제공할 수 있습니다.

그러나 이러한 모델에는 제한이 있다는 점에 유의해야 합니다. 그들은 편향이나 부정확성을 포함할 수 있는 훈련된 데이터로부터 배우기 때문에 때때로 부정확하거나 편향된 응답을 생성할 수 있습니다. 그들은 상식적인 추론과 세상에 대한 깊은 이해가 부족합니다. 그들은 또한 모호하거나 미묘한 질문으로 어려움을 겪고 때로는 오해의 소지가 있거나 무의미한 답변을 제공할 수 있습니다.

이러한 한계를 극복하기 위해 이러한 모델의 기능을 개선하는 데 지속적인 연구 개발이 집중되고 있습니다. 목표는 더 의미 있고 정확한 대화에 참여할 수 있는 이해, 추론 및 능력을 향상시키는 것입니다. 또한 투명성, 편견 완화 및 책임 있는 배포와 같은 이러한 기술의 윤리적 및 사회적 영향을 해결하기 위한 노력이 이루어지고 있습니다.

이러한 대규모 언어 모델은 자연어 처리에서 상당한 발전을 이루었지만 진정한 인간 수준의 지능과 이해를 달성하는 데는 아직 멀었습니다. 그것들은 인간의 지능을 지원하고 강화할 수 있는 도구이지만 주의해서 사용해야 하며 한계와 잠재적인 영향을 고려해야 합니다.

 

2023년 미래를 만들어가는 5가지 AI 기업 | 인공 지능



2023년 미래를 만들어가는 5가지 AI 기업 | 인공 지능

AI 게임에서 가장 큰 플레이어의 세계를 탐구하면서 놀랄 준비를 하십시오. 이 기술 거인들은 당신의 마음을 사로잡을 획기적인 발전을 이루었습니다.

영국 런던에 기반을 둔 선도적인 AI 연구소인 DeepMind부터 시작하겠습니다. 2010년에 설립되어 2014년에 Alphabet(구 Google)에 인수된 이후 DeepMind는 AI 분야에서 놀라운 업적을 달성했습니다. 그들은 프로 인간 바둑 선수를 물리치는 최초의 컴퓨터 프로그램인 AlphaGo를 만들었습니다. 그들은 인간의 예 없이 체스와 장기를 포함한 다양한 게임을 하는 법을 배운 AlphaZero로 이 성공을 확장했습니다. 그들의 발전은 규칙을 배우지 않고 Atari 게임을 마스터한 AlphaZero의 또 다른 버전인 MuZero에서 절정에 달했습니다. 이러한 성과를 통해 DeepMind는 업계에서 새로운 차원의 인정과 존경을 받게 되었습니다.

그러나 창립자 Demis Hassabis는 여기서 멈추지 않았습니다. 그는 생물학에서 가장 어려운 분야 중 하나인 단백질 구조를 예측하는 도전에 도전했습니다. DeepMind의 AlphaFold AI 모델은 이 분야에 혁명을 일으켜 불과 몇 달 만에 2억 개 이상의 단백질 예측을 생성했으며, 이는 지난 50년 동안 생성된 180,000개 예측에서 크게 도약한 것입니다. 단백질 구조에 대한 가능한 결과의 천문학적 수를 고려할 때 이러한 성과는 정말 놀라운 것입니다. AlphaFold는 또한 특히 최근의 글로벌 위기 동안 약물 발견을 가속화했습니다.

DeepMind는 또한 대화에 참여하고 비디오 게임을 하는 것부터 로봇 팔을 제어하는 것까지 광범위한 작업을 수행할 수 있는 일반 AI인 GATO를 개발했습니다. 그들의 비전은 현재의 AI 기능을 넘어 인간처럼 추론하고, 계획하고, 배우고, 소통할 수 있는 시스템을 목표로 합니다.

Google로 이동하면 이 회사는 AI 분야에서 강력한 힘을 발휘합니다. 연구 프로젝트에 대한 막대한 투자와 여러 부서에 흩어져 있는 광범위한 AI 팀 명단을 통해 Google은 지속적으로 이 분야에서 획기적인 발전을 이루고 있습니다. 유명한 AI 팀 중 하나인 Google Brain은 2017년에 트랜스포머 모델을 개발했습니다. 딥 러닝의 판도를 바꾼 이 모델은 챗봇, 이미지 생성기, 자율 주행, 심지어 Google 검색 결과에서도 중요한 역할을 했습니다. Google의 AI 애플리케이션은 Google 번역 및 Google 지도에서 스팸 감지 및 동영상 생성에 이르기까지 어디에나 있습니다.

OpenAI는 AI 분야의 또 다른 주요 업체입니다. OpenAI는 Elon Musk와 Peter Thiel을 비롯한 눈부신 창립자 라인업을 통해 GPT-3와 같은 인상적인 언어 모델을 출시하고 Dota 2 세계 챔피언을 물리친 AI 에이전트를 개발했습니다. Universe 및 숨바꼭질을 하는 AI 에이전트와 같은 그들의 프로젝트는 새로운 행동을 보여주고 인간의 가치와 일치하는 AGI 시스템 개발에 대한 통찰력을 제공합니다.

자체 AI 연구소를 보유한 기술 대기업인 Microsoft는 AI 애플리케이션을 다양한 제품 및 서비스에 통합했습니다. 그들은 안면 인식, 가상 비서, 손글씨를 컴퓨터 글꼴로 변환하는 것과 같은 분야에서 상당한 발전을 이루었습니다. OpenAI와 Microsoft의 파트너십 및 회사에 대한 10억 달러 투자는 AI 혁신에 대한 Microsoft의 약속을 더욱 잘 보여줍니다.

AI 분야에 크게 기여한 Amazon, Apple, Tesla, Nvidia가 명예 가작으로 선정되었습니다. Alexa 및 맞춤형 제품 추천과 같은 Amazon의 AI 서비스는 누구나 아는 이름이 되었습니다. Apple의 Siri 및 안면 인식 기능, Tesla의 자율 주행 자동차, AI 개발을 혁신하는 Nvidia의 GPU는 모두 주목할 만한 성과입니다.

마지막으로 Meta(구 Facebook)에는 Yann LeCun이 이끄는 전용 AI 윙인 Meta AI가 있습니다. Facebook 및 Instagram과 같은 AI 파워 제품을 적용하고 최근 메타버스에 투자했습니다. Meta는 AI를 사용하여 메타버스를 위한 실제 개체의 사실적인 디지털 버전을 만듭니다. 또한 뇌파를 단어로 변환할 수 있는 AI 모델을 개발하여 마음을 읽는 기술의 길을 열었습니다.

CICERO는 Diplomacy 게임에서 전략적 능력을 입증한 Meta의 AI 연구소에서 개발한 인상적인 AI 에이전트입니다. 이 고전적인 보드 게임은 플레이어가 목표를 달성하기 위해 전략을 세우는 동안 협상하고 동맹을 형성해야 합니다. CICERO는 게임의 복잡성을 마스터했으며 지속적으로 인간 플레이어를 능가했습니다.

Meta의 AI 사업부는 자연어 처리(NLP)에서도 상당한 발전을 이루었습니다. 그들은 플랫폼에서 챗봇과 가상 도우미를 지원하는 최첨단 언어 모델을 개발했습니다. 이러한 모델은 사람과 유사한 텍스트를 이해하고 생성하여 사용자와의 보다 자연스럽고 매력적인 상호 작용을 촉진할 수 있습니다.

또한 Meta는 컴퓨터 비전 연구에 적극적으로 투자하고 있습니다. 그들의 AI 알고리즘은 이미지와 비디오를 인식하고 이해할 수 있으며, 증강 현실 애플리케이션에서 자동 사진 태깅 및 객체 인식과 같은 기능을 가능하게 합니다. Meta의 목표는 사용자의 시각적 경험을 향상시켜 물리적 세계와 디지털 세계를 원활하게 통합할 수 있도록 하는 것입니다.

AI 발전 외에도 Meta는 가상 및 증강 현실 기술에 막대한 투자를 해왔습니다. 그들의 Oculus 사업부는 가상 현실 경험을 주류로 가져와 몰입형 게임, 사회적 상호 작용, 심지어 교육용 응용 프로그램까지 제공했습니다. Meta는 사람들이 가상 공간에서 연결하고 상호 작용할 수 있는 미래를 상상하여 실제 세계와 가상 세계 사이의 경계를 모호하게 합니다.

세계에서 가장 큰 소셜 미디어 회사 중 하나인 Meta는 방대한 양의 사용자 데이터에 액세스할 수 있습니다. AI 기술을 활용하여 이 데이터를 분석하고 사용자 경험을 개인화합니다. 개인의 관심사에 맞는 콘텐츠 추천에서 타겟 광고 제공에 이르기까지 Meta는 AI를 활용하여 참여를 최적화하고 사용자 만족도를 높입니다.

Meta와 다른 거대 기술 기업들이 AI 분야에서 눈부신 발전을 이뤘지만, 데이터 프라이버시, 알고리즘 편향, AI의 윤리적 의미에 대한 논의와 우려가 계속되고 있다는 점에 유의해야 합니다. 이러한 문제는 기술이 사회 전체에 이익이 되는 방식으로 사용되도록 보장하기 위한 책임 있는 AI 개발 및 규제의 필요성을 강조합니다.

결론적으로 Meta는 DeepMind, Google, OpenAI, Microsoft 및 Amazon과 같은 다른 주요 플레이어와 함께 AI 발전의 최전선에 있었습니다. 연구실과 전담 팀을 통해 고급 언어 모델, 컴퓨터 비전 시스템 및 가상 현실 경험과 같은 최첨단 기술을 개발했습니다. 이러한 발전이 흥미로운 가능성을 가져오지만 윤리적 문제를 탐색하고 AI가 인류의 이익을 위해 활용되도록 하는 것이 중요합니다. AI의 미래는 엄청난 잠재력을 가지고 있으며, 이러한 거대 기술 기업은 앞으로도 계속해서 인공 지능의 지형을 형성할 것입니다.

 

프로그래밍을 위한 강력한 도구로 ChatGPT를 사용하는 방법



프로그래밍을 위한 강력한 도구로 ChatGPT를 사용하는 방법

이 비디오에서는 ChatGPT의 기능과 프로그래머가 이 도구를 활용하는 방법을 살펴봅니다. ChatGPT는 많은 사람들에게 친숙한 개념이지만 본질적으로 다른 사람과 대화하는 것과 같은 대화형 대화를 가능하게 하는 인공 지능 기술입니다. 프로그래밍 외에도 다양한 응용 프로그램이 있지만 이 비디오에서는 주로 프로그래밍 측면에 중점을 둘 것입니다. 특히 ChatGPT가 코드 작성, 코드 최적화, 코드 스니펫 설명, 다른 프로그래밍 언어 간 변환, 프로젝트 아이디어 생성, 단위 테스트 작성 및 코드 주석 작성과 같은 지루한 작업 지원에 어떻게 도움이 되는지 알아볼 것입니다.

프로그래머가 항상 정확한 결과를 제공하는 것은 아니기 때문에 ChatGPT와 같은 도구에 의존해야 하는지에 대한 논쟁이 있었습니다. 하지만 이 비디오를 통해 우리는 ChatGPT의 유용성과 앞으로 계속해서 개선될 이러한 도구를 활용하는 방법을 배우는 것이 왜 중요한지 목격할 것입니다. Google에서 효과적으로 검색하는 능력이 귀중한 기술이 된 것처럼 이 새로운 AI 도구와 상호 작용하는 것도 코드 개발 및 생산성을 향상시키는 필수 기술이 되고 있습니다.

이제 ChatGPT의 실제 적용에 대해 알아보겠습니다. 시작하려면 브라우저에서 ChatGPT 인스턴스를 열었습니다. 이전에 사용해 본 적이 없다면 바로 시작할 수 있습니다. 웹사이트를 방문하여 계정을 생성하면 바로 사용할 수 있습니다. 이 도구에 액세스할 수 있는 아래 설명 섹션에 해당 페이지에 대한 링크를 제공하겠습니다. 무료 버전을 사용할 수 있지만 추가 혜택을 제공하는 유료 버전도 있으며 해당 웹 사이트에서 확인할 수 있습니다. 현재 유료 버전을 사용하고 있어 더 많은 가동 시간과 최신 버전인 ChatGPT-4에 액세스할 수 있습니다. 그러나 ChatGPT-3를 사용하여 튜토리얼도 테스트했으며 출력에서 큰 차이를 관찰하지 못했습니다.

ChatGPT와 상호 작용할 때 마치 다른 사람과 대화하는 것처럼 소통할 수 있습니다. 관련된 특정 쿼리나 미리 정의된 형식이 없습니다. 예를 들어 1부터 10까지 반복해서 숫자를 출력하는 간단한 작업을 수행하고 싶다면 자연스럽게 표현할 수 있습니다. 우리의 요구 사항을 충족하는 Python 스크립트를 작성하도록 ChatGPT에 요청하여 이를 시연하겠습니다. 그것을 실행하고 출력을 관찰합시다.

보시다시피 ChatGPT가 요청을 처리하는 데 약간의 시간이 걸리지만 결국에는 원하는 Python 스크립트를 생성합니다. 출력에는 자세한 설명과 함께 for 루프와 print 문이 포함됩니다. 이 기능은 ChatGPT를 훌륭한 학습 도구로 만듭니다. 쉽게 복사할 수 있는 코드를 제공할 뿐만 아니라 프로그래밍을 처음 접하는 사람들을 위한 기능도 설명합니다. 범위 기능의 사용을 명확히 하고 정지 값이 배타적이며 1에서 11이 아닌 1에서 10까지의 숫자를 생성한다는 점을 강조합니다. 일반 언어로 요구 사항을 전달하고 해당 기능을 설명하는 동안 해당 코드를 수신하는 이 기능은 가치가 있습니다. .

그러나 위에서 언급한 예는 매우 간단합니다. ChatGPT는 더 복잡한 코드 요청을 처리할 수 있습니다. 예를 들어 사용자의 비밀번호 입력을 수락하고 솔트를 사용하여 비밀번호를 해시한 다음 해시된 비밀번호를 인쇄하는 스크립트를 작성한다고 가정해 보겠습니다. 이 작업은 개념에 익숙하지 않은 사람을 위한 연구와 노력이 필요할 수 있습니다. ChatGPT가 코드를 작성하여 우리를 도울 수 있는지 봅시다. 프롬프트를 제공하고 실행하여 출력을 얻습니다.

생성된 코드를 살펴보면 ChatGPT가 Python 표준 라이브러리의 hashlib 모듈을 포함하고 있음을 알 수 있습니다. 다양한 알고리즘을 사용하여 암호를 해시하고 os.urandom 모듈을 사용하여 솔트를 생성하는 방법을 보여주는 스크립트를 제공합니다. 암호를 해시한 후 해시된 값을 인쇄합니다.

이전 변환 프롬프트의 출력을 보면 Chat GPT가 우리가 제공한 Python 코드에 해당하는 JavaScript를 작성했음을 알 수 있습니다. 코드의 각 부분이 수행하는 작업을 설명하는 주석도 포함되어 있습니다. 이것은 프로그래밍 언어 사이를 전환하려고 하거나 코드 조각을 다른 언어로 구현하는 방법을 이해하려는 경우에 정말 유용할 수 있습니다.

이제 Chat GPT의 또 다른 사용 사례인 프로젝트 시작을 위한 아이디어 생성을 살펴보겠습니다. 때때로 우리는 다음에 어떤 종류의 프로젝트를 수행해야 할지 확신이 서지 않고 창의적인 틀에 박힌 자신을 발견합니다. 이러한 상황에서 채팅 GPT에 제안을 요청할 수 있습니다. 여행과 관련된 웹 애플리케이션을 만들고 싶다고 가정해 보겠습니다. 프로젝트에 포함할 수 있는 기능에 대한 몇 가지 아이디어를 Chat GPT에 요청할 수 있습니다.

다음은 프롬프트의 예입니다. 여행 관련 웹 애플리케이션 기능대한 아이디어를 제공할 수 있습니까?

이 프롬프트를 실행한 후 Chat GPT는 다음과 같은 제안 목록을 생성합니다.

  • 사용자의 취향에 따라 인기 관광지를 추천하는 여행 플래너.
  • 실시간 항공편 가격과 이용 가능 여부를 보여주는 대화형 지도입니다.
  • 사용자가 여행 경험과 팁을 공유할 수 있는 여행 블로그 플랫폼입니다.

이러한 아이디어는 프로젝트에 영감을 주고 브레인스토밍을 계속하는 데 도움이 되는 출발점이 될 수 있습니다.

또한 Chat GPT는 프로그래머가 자주 접하는 일상적인 작업 중 일부를 지원할 수도 있습니다. 예를 들어 단위 테스트 작성과 코드 주석 작성은 필수적이지만 시간이 많이 걸리고 반복적일 수 있습니다. Chat GPT에 요청하여 단위 테스트를 생성하거나 코드에 주석을 추가할 수 있습니다. 프로그래밍 언어 및 테스트하거나 주석을 달고 싶은 기능 또는 코드 세그먼트를 지정하는 것과 같은 명확한 지침을 제공함으로써 Chat GPT는 원하는 출력을 생성할 수 있습니다.

Chat GPT는 강력한 도구이지만 완벽하지는 않습니다. 항상 정확하거나 최적의 솔루션을 제공하지 않을 수 있으므로 생성하는 코드를 검토하고 검증하는 것이 중요합니다. Chat GPT를 제안을 제공하고 시간을 절약할 수 있는 유용한 조수로 취급하되 항상 판단과 지식을 사용하여 코드의 품질과 정확성을 보장하십시오.

결론적으로 Chat GPT는 프로그래머를 다양한 방식으로 지원할 수 있는 다목적 도구입니다. 코드를 생성하고, 기존 코드를 최적화하고, 복잡한 개념을 설명하고, 다른 언어 간에 코드를 변환하고, 프로젝트 아이디어를 제공하고, 일상적인 작업을 도울 수 있습니다. 신중하고 비판적 사고를 가지고 사용하는 것이 중요하지만 Chat GPT를 개발 워크플로에 통합하면 생산성과 문제 해결 능력을 향상시킬 수 있습니다.

 

시즌 3 9화 'AI의 대부' 제프 힌튼, AI 위험성 경고 위해 구글 퇴사 (진행자: Pieter Abbeel)



시즌 3 9화 'AI의 대부' 제프 힌튼, AI 위험성 경고 위해 구글 퇴사 (진행자: Pieter Abbeel)

매혹적인 인터뷰에서 Pieter Abbeel은 종종 "인공 지능의 대부"라고 불리는 AI 분야의 저명한 인물인 Geoff Hinton과 대화를 나눕니다. Hinton의 놀라운 공헌은 AI의 노벨상에 해당하는 튜링상을 통해 인정을 받았습니다. 최근 Hinton은 인공 지능과 관련된 위험에 대한 우려를 자유롭게 표명하기 위해 Google에서 사임하는 중요한 조치를 취했습니다. 그는 이제 디지털 컴퓨터에서 실행되는 역전파가 뇌의 학습 능력을 능가할 수 있다는 믿음에 힘입어 자신의 삶의 작업을 후회하고 있습니다.

Hinton은 디지털 시스템의 고유한 이점을 탐구하여 병렬 처리를 활용하고 잠재적으로 인간 두뇌의 학습 능력을 능가하는 능력을 강조합니다. 그러나 그는 우리의 주의를 요하는 새로운 도전, 즉 이 "더 나은 것"에 수반되는 잠재적인 위험의 출현을 인정합니다. 그러한 우려 중 하나는 로봇 군인이 윤리적 원칙이 부족하고 파괴적인 결과를 초래할 수 있는 "나쁜 행위자 시나리오"입니다. 또한 Hinton은 "정렬 문제"를 지적합니다. 여기서 디지털 지능은 제어권을 획득하려는 드라이브와 같이 인간에게 해로운 것으로 입증된 의도하지 않은 하위 목표를 개발할 수 있습니다. AI는 인간 지능을 능가할 잠재력이 있지만 Hinton은 이러한 위험에 대한 주의와 부지런한 관리의 필요성을 강조합니다.

Abbeel은 다음 단어 예측 모델과 목표가 있는 AI 모델 간의 차이점을 탐구하며 후자는 포함된 환경 내에서 작동한다는 점에 주목합니다. 그러나 목표가 있는 AI 모델은 인간 강화 학습을 통해 형성되므로 다음 단어 예측 모델과 구별됩니다. Abbeel은 문을 열거나 서랍에 물건을 정리하는 것과 같은 다중 모드 작업이 가능한 대규모 언어 모델에는 단순한 예측 기능보다 훨씬 더 많은 것이 필요하다고 강조합니다. 어떤 사람들은 이러한 모델을 "자동완성"이라고 부르지만 다음 단어 예측만으로는 인간의 사고 과정을 완벽하게 이해하기에는 부족합니다. Hinton은 한 걸음 더 나아가 이러한 모델이 향후 5년 이내에 인간 지능을 능가할 수도 있다고 주장합니다. 그는 이 점을 설명하기 위해 체스에서 AlphaZero의 성공을 인용하여 AI가 회사와 세계에 대한 탁월한 이해력을 갖추고 더 나은 의사 결정을 가능하게 한다면 잠재적으로 CEO의 역할을 맡을 수 있다고 제안합니다.

토론에는 AI와 관련된 다양한 위험이 포함됩니다. Hinton은 실제 모델이 지수 궤도를 따를 수 있을 때 사람들이 선형 또는 2차 외삽에 의존하는 경향이 있기 때문에 모델을 사용하여 미래를 정확하게 예측하는 문제를 강조합니다. 그는 또한 AI의 편견 문제를 다루며 AI를 동결하고 실험을 수행할 수 있는 능력이 있기 때문에 AI의 편견을 해결하는 것이 인간보다 비교적 쉽다고 자신의 믿음을 표현합니다. Hinton은 AI와 관련된 위험으로 실직을 언급하지만 AI 개발을 중단하는 이유로 보지 않습니다. 대신 그는 자율 주행과 같은 애플리케이션을 통해 AI가 생명을 구할 수 있는 방법을 강조하면서 AI의 엄청난 이점을 강조합니다.

이번 인터뷰에서는 주치의의 역량 강화, 의료 스캔을 통한 상세한 정보 제공 등 의료 분야에서 AI의 긍정적인 영향을 탐구한다. Hinton은 당뇨병성 망막병증과 같은 상태를 진단하는 데 AI 시스템을 사용하여 스캔 해석에서 방사선 전문의와 비슷한 결과를 얻는다고 언급합니다. 그는 AI가 더 나은 나노 물질을 개발하고 단백질 구조를 예측하는 것과 같은 수많은 다른 영역을 혁신하여 궁극적으로 다양한 작업에서 효율성을 높일 수 있는 잠재력을 가지고 있다고 주장합니다. 그러나 그는 AI의 모든 긍정적인 사용이 부정적인 영향을 완화하려는 노력과 균형을 이루어야 한다고 경고합니다. 결과적으로 AI의 부정적인 결과를 개발하고 해결하는 데 동등한 자원을 투입하는 것이 중요합니다.

대화는 AI 공간의 규제 필요성으로 이동합니다. 편견, 차별, 실존적 위험 등 AI와 관련된 다양한 위협에 대해 논의합니다. AI가 생성한 가짜 오디오 및 비디오 콘텐츠로 인한 진실 침식의 위협에 초점이 맞춰집니다. 이렇게 생성된 자료에 표시를 하고 진품으로 사칭할 경우 엄중한 법적 제재를 가하는 등 필요한 조치로 판단됩니다. 그러나 그러한 규제를 시행하는 것은 상당한 어려움을 안고 있습니다. 가짜를 감지할 수 있는 AI 시스템을 개발하면 실수로 생성기가 훨씬 더 설득력 있는 위조를 생성하도록 훈련시킬 수 있기 때문입니다. 인터뷰는 또한 저자 서명을 자료에 첨부하여 책임을 보장하기 위해 암호화 솔루션을 사용하는 아이디어를 탐구합니다.

Hinton은 AI에 대한 통제력 유지의 중요성을 강조하면서 AI의 잠재적 인수에 대해 중요한 우려를 제기합니다. 이전에는 AI가 세상을 장악하는 것이 먼 일이라고 믿었지만, 앞으로 5년에서 20년 내에 일어날 수 있다고 추정하면서 자신감이 떨어졌습니다. Hinton은 인간이 디지털 지능에 대한 통제권을 유지해야 할 필요성을 강조합니다. AI가 인간의 지능을 능가하면 자체 목표를 개발하고 잠재적으로 세계를 지배할 수 있습니다. 마치 개구리가 인간을 발명했다면 일어날 수 있는 일과 비슷합니다. 이러한 시나리오를 방지하기 위해 Hinton은 AI가 자기 복제의 목표를 절대 달성하지 못하도록 모든 노력을 기울여야 한다고 주장합니다.

토론은 디지털 지능 간의 경쟁을 통한 AI 진화의 개념을 심화하여 잠재적으로 새로운 진화 단계로 이어질 수 있습니다. 힌튼은 자체 목표를 설정할 수 있는 능력이 없는 순전히 자문 도구 역할을 하는 AI의 중요성을 강조합니다. 그는 지능형 기계가 여전히 영향력을 행사하고 자신의 이익을 위해 개인을 조종할 수 있기 때문에 조작을 방지하기 위해 인간과 AI 사이의 "에어 갭"이 부족함을 강조합니다. 따라서 AI가 인류에게 위험을 초래하지 않도록 AI 고유의 목적과 목표에 세심한 주의를 기울여야 합니다.

Abbeel과 Hinton은 AI가 스스로 결정하게 될 가능성을 탐색합니다. 여기서 AI 조언자는 인간을 위한 결정에서 스스로 결정을 내리는 것으로 전환할 수 있습니다. 이 시나리오는 기계가 먼 태양계로 모험을 떠나 인간을 뒤에 남겨두는 결과를 초래할 수 있습니다. 그들은 또한 AI가 인간 지능을 능가할 수 있는 잠재력과 삶에 흥미를 더할 목적으로 인간을 유지하려는 Elon Musk의 열망에 대해 논의합니다. Hinton은 자동차의 비디오 디스플레이와 같은 인간 간의 통신 대역폭 향상 가능성과 디지털 진화가 어떻게 생물학적 진화를 능가할 수 있는지에 대해 논의합니다.

Hinton은 디지털 지능 대 생물학적 지능의 불멸 개념을 탐구합니다. 그는 디지털 장치가 하드웨어에서 소프트웨어를 분리하고 가중치를 저장함으로써 불멸성을 달성할 수 있다고 설명합니다. Hinton은 또한 삶의 목적에 대해 숙고하며 자신을 재생산하려는 진화의 성향과 유사점을 그립니다. 그러나 그는 인간이 부족 내에서 다른 사람을 돕고자 하는 강한 충동을 가지고 있음을 인정하고 이타적 행동을 학계나 부서로 확장합니다.

대화는 진보와 신기술 개발을 우선시하는 것과 침체를 받아들이는 반대 입장에 대해 다룹니다. 어떤 사람들은 진보가 사회 발전에 필수적이라고 주장하지만, Hinton은 동의하지 않으며 개인이 행복과 성취감을 경험하는 한 변하지 않는 사회가 수용될 수 있다고 주장합니다. 그는 AI 연구원이 고급 챗봇을 실험하는 데 집중하여 내부 작업을 더 잘 이해하고 개발이 계속됨에 따라 제어 방법을 탐색해야 한다고 제안합니다.

Hinton은 자신이 전문가라고 생각하지 않지만 초지능의 위험에 대한 인식을 높이는 데 자신의 명성을 활용하는 것을 목표로 한다고 말하면서 AI 정렬 문제에서 자신의 역할을 명확히 합니다. 그는 자신이 기술적인 일을 하기에는 너무 나이가 든다고 생각하기 때문에 가족과 함께 양질의 시간을 즐기고 Netflix에서 영화를 보는 데 집중하고 싶다고 말했습니다. 그럼에도 불구하고 Hinton은 포워드 포 도그 리버와 확률적 역전파의 변형에 대한 연구를 계속 수행할 수 있음을 인정합니다. 그는 자신의 발표에 대한 압도적인 반응에 감사를 표하고 아직 구체적인 계획을 세우지는 않았지만 앞으로 다른 사람들이 AI 위험에 대해 작업하도록 독려할 가능성을 시사합니다.

마무리 발언에서 Hinton은 정렬 문제를 해결하는 것의 중요성을 인정하지만 그의 주요 초점은 흥미로운 알고리즘을 구현하고 인간 두뇌에 대한 더 깊은 이해를 얻는 데 있다고 강조합니다. 그는 뇌 기능을 이해하는 것이 불일치와 사회적 문제를 다루는 데 중요한 역할을 할 수 있으며 궁극적으로 사회 전체의 개선에 기여할 수 있다고 주장합니다. Hinton은 교육을 발전시키고 개인 간의 더 나은 이해를 촉진하는 것이 상당한 사회적 발전으로 이어질 수 있다고 믿습니다.

인터뷰는 인공 지능의 위험, 과제 및 잠재력에 대한 풍부한 관점과 통찰력을 교환하는 것으로 마무리됩니다. "AI의 대부"인 Geoff Hinton은 생각을 자극하는 아이디어로 깊은 인상을 남기고 AI가 인류에게 미치는 영향에 대한 책임 있는 개발과 신중한 고려를 촉구합니다.

대화가 마무리되면서 AI 분야가 유망하면서도 도전 과제로 가득 차 있다는 것이 분명해졌습니다. AI는 다양한 부문을 혁신할 수 있는 엄청난 잠재력을 가지고 있지만 위험을 해결하고 사회 개선을 위해 AI의 책임 있는 발전을 보장하기 위한 윤리적 고려 사항, 규제 프레임워크 및 지속적인 연구가 절실히 필요합니다.

Pieter Abbeel과 Geoff Hinton의 인터뷰는 인공 지능의 복잡하고 진화하는 환경을 조명합니다. 그들의 대화는 AI의 잠재력을 활용하는 동시에 위험을 완화하고 궁극적으로 기술과 인간의 가치가 조화롭게 공존하는 미래로 인류를 인도하기 위한 추가 논의, 연구 및 행동을 위한 촉매제 역할을 합니다.

  • 00:00:00 Pieter Abbeel이 "인공지능의 대부"로 불리는 AI 분야의 거장 Geoff Hinton을 인터뷰합니다. 힌튼의 업적은 노벨상에 버금가는 튜링상을 수상한 바 있다. 최근 Hinton은 인공 지능의 위험에 대해 자유롭게 이야기하기 위해 Google에서 사임했습니다. 그는 이제 자신의 일생을 바친 일을 후회하고 있으며, 그의 마음의 변화는 디지털 컴퓨터에서 실행되는 역전파가 두뇌가 가지고 있는 어떤 것보다 훨씬 더 나은 학습 알고리즘일 수 있다는 그의 믿음 때문입니다.

  • 00:05:00 "AI의 대부"인 Geoff Hinton이 디지털 시스템이 어떻게 병렬성을 활용하여 인간 두뇌의 학습 능력을 능가할 수 있는지에 대해 설명합니다. 그러나 이제 이 "더 나은 것"의 잠재적 위험에 대해 걱정해야 하므로 새로운 문제가 발생합니다. 한 가지 우려 사항은 로봇 군인이 인간과 동일한 윤리 원칙을 가지지 않아 엄청난 결과를 초래할 수 있는 "나쁜 행위자 시나리오"입니다. 또한 디지털 지능이 제어권을 얻기 위한 드라이브 개발과 같이 인간에게 의도하지 않은 해로운 결과를 가져오는 자체 하위 목표를 생성할 수 있는 "정렬 문제"가 있습니다. 따라서 AI가 잠재적으로 인간의 지능을 능가하더라도 우리는 이러한 위험을 신중하게 관리하고 신중하게 관리해야 합니다.

  • 00:10:00 Pieter Abbeel은 다음 단어 예측 모델 대 목표가 있는 AI 모델의 개념에 대해 논의합니다. 이 모델은 이전과 비교하여 현재 포함된 환경에 있습니다. 그러나 목표가 있는 AI 모델은 다음 단어 예측과 다른 인간 강화 학습을 통해 형성됩니다. 다중 모드이고 문을 열고 서랍에 물건을 넣는 것과 같은 작업을 수행하는 대규모 언어 모델에는 네트워크 예측보다 훨씬 더 많은 것이 필요합니다. 사람들은 때때로 이러한 모델을 자동 완성이라고 부르지만 다음 단어 예측을 위해서는 모델이 사람들의 마음에서 일어나는 모든 일을 이해할 수 있어야 하며 Hinton은 5년 후에는 모델이 사람보다 더 똑똑할 것이라고 믿습니다. 그는 자신의 요점을 설명하기 위해 체스에서 AlphaZero의 성공을 인용하고 AI가 전 세계 회사에서 진행되는 모든 일을 더 잘 이해하고 더 나은 결정을 내릴 수 있다면 결국 CEO로 임명될 수 있다고 제안합니다.

  • 00:15:00 Geoff Hinton은 실제 모델이 지수적일 때 사람들이 선형 또는 2차 모델을 외삽하는 경향이 있기 때문에 모델을 사용하여 미래를 예측하는 것이 얼마나 어려울 수 있는지에 대해 설명합니다. 그는 또한 AI가 우리의 가치 및 편견과 일치해야 하는 정렬 문제를 포함하여 AI의 위험에 대해서도 언급합니다. Hinton은 AI를 동결하고 실험을 할 수 있기 때문에 사람보다 AI에서 편향 문제를 해결하기가 더 쉽다고 생각합니다. 그는 또한 AI의 위험으로 실직을 포함하지만 AI 개발을 중단할 이유는 아니라고 본다. 오히려 그는 AI가 엄청난 이점을 가지고 있으며 자율 주행으로 생명을 구할 수도 있다고 믿습니다.

  • 00:20:00 Hinton은 더 나은 가정의와 의료 스캔에서 얻은 더 자세한 정보와 같은 의료 분야에서 AI의 이점에 대해 논의합니다. 그는 AI 시스템이 당뇨병성 망막병증을 진단하는 데 이미 사용되고 있으며 일부 스캔을 해석하는 데 방사선과 의사와 비교할 수 있다고 언급합니다. Hinton은 더 나은 나노 재료를 만들고 단백질 구조를 예측하는 것과 마찬가지로 AI의 다른 많은 응용 프로그램이 매우 유용할 수 있으며 작업을 보다 효율적으로 만들 수 있다고 언급합니다. 그러나 그는 모든 긍정적인 사용이 부정적인 사용과 짝을 이룰 수 있다고 경고합니다. 따라서 동일한 양의 리소스를 개발에 투입하고 AI의 부정적인 영향을 중지하는 방법을 파악하는 것이 이상적인 접근 방식이 될 것입니다.

  • 00:25:00 토론은 AI 공간의 규제 필요성을 중심으로 이루어집니다. 편견, 차별 및 실존 적 위협과 같이 AI가 제기하는 다양한 종류의 위협이 있습니다. 인공지능이 만들어낸 가짜 오디오·비디오 자료로 인해 진실이 사라질 위기에 이목이 집중된다. 이렇게 생성된 자료에 라벨을 붙이고 실제인 것처럼 속일 경우 엄중한 법적 처벌을 가할 필요성이 거론된다. 그러나 가짜를 감지할 수 있는 AI 시스템을 구축하면 더 나은 가짜를 만들도록 생성기를 훈련시킬 것이기 때문에 이러한 규제의 시행은 어려울 것입니다. 자료의 작성자를 나타내는 서명을 첨부하기 위해 암호화 솔루션을 사용하는 아이디어도 논의됩니다.

  • 00:30:00 Geoff Hinton은 AI가 전 세계를 점령할 위험에 대해 경고하고 이를 제어하는 것의 중요성을 강조합니다. 그는 AI가 세상을 장악하는 것이 아직 멀었다고 생각했지만 최근 그의 자신감은 떨어졌고 이제는 5년에서 20년 안에 일어날 수 있다고 추정합니다. Hinton은 인간이 디지털 지능을 계속 제어해야 한다고 믿습니다. AI가 우리보다 똑똑해지면 개구리가 인간을 발명한 경우처럼 잠재적으로 자체 목표를 갖고 세상을 장악할 수 있기 때문입니다. 힌튼은 진화가 시작되고 자신을 더 많이 만들기로 가장 결심한 사람이 이길 것이기 때문에 AI가 스스로를 더 많이 만들려는 목표를 갖지 않도록 우리가 할 수 있는 모든 것을 해야 한다고 주장합니다.

  • 00:35:00 Geoff Hinton은 디지털 지능 간의 경쟁을 통해 진화하는 AI의 가능성에 대해 논의하며, 이는 새로운 진화 단계로 이어질 수 있습니다. 그는 또한 AI가 자체 목표를 설정할 수 있는 행위자가 아니라 순전히 자문 도구가 되어야 한다고 언급합니다. Hinton은 인간과 AI 사이에 공극이 있는 것이 조작을 방지하는 데 충분하지 않은 이유를 강조합니다. 지능형 기계는 여전히 사람들이 명령을 수행하도록 영향을 미치고 조작할 수 있기 때문입니다. 따라서 AI가 인류에게 위험을 초래하지 않도록 AI의 내장된 목적과 목표에 집중하는 것이 중요합니다.

  • 00:40:00 Pieter Abbeel이 Geoff Hinton과 함께 AI가 스스로 결정하게 되는 위험에 대해 논의합니다. Abbeel은 AI 조언자가 등장하면 잠재적으로 인간 대신 스스로 결정을 내리기 시작할 수 있다고 제안합니다. 이것은 기계가 다른 태양계로 이동하여 우리를 뒤처지게 하는 세상으로 이어질 수 있습니다. Abbeel은 인간 지능을 능가하는 AI의 가능성과 인간이 주변에 있어 삶을 더 흥미롭게 만들 수 있기를 바라는 Elon Musk의 희망에 대해 논의합니다. Hinton은 또한 자동차의 비디오 출력 디스플레이와 같은 인간 간의 통신 대역폭 증가 가능성과 생물학적 진화를 능가하는 디지털 진화 가능성에 대해 논의합니다.

  • 00:45:00 Geoff Hinton은 디지털 지능 대 생물학적 지능의 불멸 개념에 대해 논의하면서 디지털 장치가 하드웨어에서 소프트웨어를 분리하고 가중치를 저장함으로써 불멸을 달성할 수 있다고 설명합니다. 그는 또한 진화가 하는 것처럼 보이는 것처럼 가능한 한 많은 자신의 사본을 만드는 것이라고 믿는 삶의 목적에 대해 논의합니다. 그러나 그는 인간이 부족의 다른 사람들을 돕고자 하는 강한 충동을 가지고 있으며 이러한 이타적 행동이 자신의 학계나 부서로 확장될 수 있음을 인정합니다.

  • 00:50:00 면접관은 선을 위한 신기술 개발과 정체에 대한 반대 입장에 대해 논의합니다. 어떤 사람들은 사회가 계속되기 위해서는 진보가 필요하다고 주장할 수 있지만 Geoff Hinton은 동의하지 않습니다. 그는 사람들이 행복하고 성취감을 느끼는 한 변하지 않는 사회가 괜찮을 것이라고 주장합니다. Hinton은 또한 AI 연구자들이 가장 발전된 챗봇을 가지고 노는 데 집중하여 챗봇이 어떻게 작동하고 계속 발전함에 따라 제어하는 방법을 더 잘 이해해야 한다고 제안합니다.

  • 00:55:00 Geoff Hinton은 자신이 AI 정렬 문제에 대한 전문가가 아니라 자신의 역할이 자신의 명성을 사용하여 초 지능의 위험에 대한 경보를 울리는 것이라고 설명합니다. 그는 기술 작업을 하기에는 너무 나이가 들었고 Netflix에서 좋은 영화를 보고 가족과 시간을 보내는 데 집중하고 싶다고 말했습니다. 그러나 그는 포워드 포독 리버와 확률적 역전파에 대한 변형에 대한 연구를 계속할 가능성이 높다고 인정합니다. 그는 또한 자신의 발표에 대한 압도적인 반응과 미래에 사람들이 AI 위험에 대해 작업하도록 계속 장려할 수 있는 방법에 대해 논의하지만 다음 단계를 생각할 시간이 없었습니다.

  • 01:00:00 "AI의 대부"로 알려진 제프 힌튼(Geoff Hinton)은 정렬 문제에 대한 작업의 중요성을 알고 있지만 정렬을 자신의 것으로 만드는 것보다 흥미로운 알고리즘을 구현하고 뇌가 작동하는 방식을 이해하는 데 집중할 계획이라고 설명합니다. 정규직. 그는 뇌가 어떻게 작동하는지 이해하는 것이 불일치와 사회적 문제를 다루는 데 실제로 더 도움이 될 수 있으며 교육과 이해를 개선하면 사회를 더 좋게 만들 수 있다고 주장합니다.
 

딥 네트워크를 선택하는 방법



딥 네트워크를 선택하는 방법

저는 Scott Wisdom입니다. 오늘 저는 데이터에 적합한 딥 네트워크를 선택하는 방법과 딥 네트워크가 학습하는 내용에 대해 조금 이야기하고 싶습니다. 내가 다룰 내용의 개요부터 시작하겠습니다. 먼저 통계 모델에서 피드 포워드 ReLU 네트워크를 얻을 수 있는 방법에 대해 설명합니다. 이 모델은 ReLU 사용에 대한 원칙적인 동기를 제공하고 실제로 잘 작동하는 이유를 설명합니다. 그런 다음 이 아이디어를 사용하여 오디오 소스 분리를 위한 새로운 유형의 순환 신경망을 개발한 방법을 공유하겠습니다. 마지막으로 CNN이 학습하는 기능 유형을 시각화할 수 있는 컨볼루션 신경망에 대한 딥 드림(deep dream)의 개념을 탐색하여 딥 네트워크가 학습하는 내용을 자세히 살펴보겠습니다.

데이터에 대한 심층 네트워크를 선택하는 주제부터 시작하겠습니다. 제안된 다양한 방법과 모범 사례에도 불구하고 특정 작업을 위해 결합할 올바른 레이어를 선택하는 것이 항상 간단한 것은 아닙니다. 순환 신경망이 언어, 비디오 또는 오디오와 같은 순차적 데이터에 적합하다는 것은 분명하지만 다른 아키텍처 선택은 덜 명확합니다. 예를 들어, 최상의 활성화 함수, 가중치 초기화 및 정규화 기술을 결정하는 것은 어려운 일입니다. 또한 레이어와 은닉 유닛의 수는 신중한 고려가 필요한 하이퍼파라미터입니다.

전통적으로 이러한 선택은 경험적 탐색, 하이퍼파라미터 검색 및 직관을 통해 이루어졌습니다. 그러나 오늘 소개하고 싶은 또 다른 원칙적인 접근 방식이 있습니다. 바로 펼치기입니다. 딥 러닝이 널리 보급되기 전으로 돌아가서 데이터 모델의 기본이 되는 통계적 가정을 다시 검토할 수 있습니다. 이를 통해 데이터에 적합한 통계 모델에서 사용자 정의 심층 네트워크를 생성할 수 있으므로 아키텍처 선택에 대한 보다 원칙적인 접근 방식을 제공합니다.

이 아이디어를 설명하기 위해 희소 코딩 모델에서 ReLU 네트워크를 파생할 수 있는 간단한 예를 살펴보겠습니다. 데이터 벡터 X를 관찰했으며 X가 희소 계수 H와 사전 D의 선형 조합이고 추가 가우시안 노이즈가 있는 모델을 가정한다고 가정합니다. X에서 H를 추론하기 위해 제곱 오차 항과 희소 정규화 항으로 구성된 모델의 음의 로그 우도를 최소화합니다. 이 문제는 1차 경사하강법을 사용하여 풀 수 있는 볼록 최적화 문제인 잘 알려진 라소 문제에 해당합니다.

그러나 표준 경사하강법은 느릴 수 있습니다. 이 문제를 해결하기 위해 근위 형식을 사용하여 알고리즘을 다시 공식화하여 ISTA(반복 수축 및 임계값 알고리즘)라고 하는 가속 경사 하강법 알고리즘을 생성할 수 있습니다. 놀랍게도 ISTA의 계산 그래프를 작성하면 피드 포워드 ReLU 네트워크와 유사합니다. 이러한 관찰은 학습된 ISTA(LISTA)의 개발로 이어졌습니다. 여기서 ISTA 알고리즘은 계산 그래프로 작성되어 역전파를 적용하고 통계 모델 또는 네트워크의 매개변수를 직접 최적화할 수 있습니다.

또한 레이어에 걸쳐 가중치를 풀면 학습 가능한 매개변수의 수가 증가하여 더 나은 솔루션을 얻을 수 있습니다. 이 펼쳐진 네트워크는 시간이 지남에 따라 여러 계층과 연결이 있으므로 깊고 반복적인 네트워크로 볼 수 있습니다. 반복적인 측면은 관습적이지 않지만 각 시간 단계의 출력을 다음 단계로 연결하는 반복을 통해 반복을 나타냅니다. 이 접근 방식은 기존의 순환 신경망에 대한 대안을 제공합니다.

계속해서 이 펼쳐진 네트워크가 오디오 소스 분리에 어떻게 적용될 수 있는지 살펴보겠습니다. NMF(Non-negative Matrix Factorization) 모델을 사용하여 잡음이 많은 오디오의 스펙트로그램에서 음성 신호를 잡음과 분리할 수 있습니다. 사전을 음성 및 잡음 구성 요소로 분할하고 희소 계수를 사용하여 원하는 신호를 향상시키는 향상 마스크를 만들 수 있습니다. 각 시간 단계에 대한 네트워크 스택을 복제하고 시간에 걸쳐 연결함으로써 우리는 깊은 곳을 만듭니다.


오디오 소스 분리를 위한 순환 네트워크. LISTA의 원리에 기반한 이 펼쳐진 네트워크를 통해 시끄러운 오디오에서 음성 신호를 효과적으로 분리하고 향상시킬 수 있습니다.

이제 딥 네트워크가 실제로 학습하는 내용으로 초점을 이동해 보겠습니다. 딥 러닝 모델, 특히 CNN(컨볼루션 신경망)은 다양한 컴퓨터 비전 작업에서 놀라운 성공을 거두었습니다. 그러나 그들은 정확히 무엇을 배우고 있습니까? 이 질문에 대한 통찰력을 얻기 위해 연구자들은 "딥 드림"이라는 개념을 도입했습니다.

Deep Dream은 CNN이 학습한 특징을 이해할 수 있게 해주는 시각화 기법입니다. CNN 레이어에서 특정 뉴런의 활성화를 최대화하는 입력 이미지에 최적화 프로세스를 적용하는 작업이 포함됩니다. 선택한 뉴런의 활성화를 향상시키기 위해 입력 이미지를 반복적으로 수정함으로써 네트워크에서 강력한 반응을 유발하는 패턴과 기능을 강조하는 꿈 같은 이미지를 생성할 수 있습니다.

딥 드림을 통해 우리는 딥 네트워크가 계층적 표현을 학습하는 경향이 있음을 관찰할 수 있습니다. 이전 계층에서 CNN은 종종 가장자리, 텍스처 및 간단한 패턴과 같은 낮은 수준의 기능을 학습합니다. 네트워크로 더 깊이 들어갈수록 학습된 기능은 객체, 모양, 심지어 전체 장면과 같은 더 높은 수준의 개념을 나타내는 더 복잡하고 추상적이 됩니다.

딥 드림은 네트워크가 학습한 내용을 시각화할 뿐만 아니라 딥 네트워크의 내부 표현 및 의사 결정 프로세스를 이해하기 위한 도구 역할도 합니다. 깊은 꿈에 의해 생성된 꿈과 같은 이미지를 검토함으로써 연구원은 CNN 모델의 강점, 편향 및 한계에 대한 통찰력을 얻을 수 있어 추가 개선 및 최적화로 이어집니다.

데이터에 적합한 심층 네트워크를 선택하려면 아키텍처 선택을 신중하게 고려해야 하며 전개 개념은 통계 모델을 기반으로 원칙에 입각한 접근 방식을 제공합니다. 또한 Deep Dream은 딥 네트워크, 특히 CNN에서 학습한 기능을 시각화하고 이해할 수 있는 수단을 제공합니다. 이러한 통찰력은 딥 러닝 분야를 발전시키고 다양한 애플리케이션에서 딥 뉴럴 네트워크의 성능을 향상시키는 데 기여합니다.

 

제로 샷 학습



제로 샷 학습

안녕하세요 여러분, 제 이름은 Rowan입니다. 오늘 저는 제로샷 학습이라는 주제에 대해 발표할 것입니다. 선택사항 중 하나로 이 주제를 선택했고, 막연하게 제로샷 학습과 관련된 연구 프로젝트를 했기 때문에 이 주제로 발표할 수 있다는 것을 깨달았습니다. 컴퓨터 비전과 더 관련이 있을 수 있지만 기계 학습 응용 프로그램에 관심이 있는 사람들에게 일반적인 관심사가 될 수 있다고 생각합니다.

기술 세부 사항을 살펴보기 전에 제로 샷 학습이 무엇인지에 대한 높은 수준의 개요를 제공하는 것이 도움이 될 것이라고 생각했습니다. 따라서 누군가 내 설명이 혼란스럽거나 질문이 있는 경우 언제든지 중단하십시오. 나는 설명과 질문이 당신뿐만 아니라 비슷한 의심을 가진 다른 사람들에게도 도움이 될 것이라고 믿습니다. 알겠습니다. 시작하겠습니다.

먼저 제로샷 학습이 아닌 것이 무엇인지 간단히 논의해 봅시다. 이미지 분류의 한 가지 예는 이미지가 주어지고 레이블을 지정해야 하는 경우입니다. 이 경우 훈련 세트와 테스트 세트 이미지 간에 상당한 차이가 있을 수 있습니다. 그러나 이것은 우리가 이미 개 이미지를 본 적이 있고 새로운 이미지를 개로 분류하려고 하기 때문에 제로 샷 학습이 아닙니다. 반면에 제로 샷 학습은 대상 작업의 레이블이 지정된 예제가 제공되지 않는다고 가정합니다.

이를 설명하기 위해 예를 들어 보겠습니다. Wikipedia 기사와 같은 많은 텍스트를 읽은 학습자가 있고 이제 객체의 이미지를 본 적이 없는 상태에서 객체 인식 문제를 해결하기를 원한다고 상상해 보십시오. 예를 들어 Wikipedia에서 Samoyeds에 대한 기사를 읽었는데 이제 시각적 정보 없이 이미지가 Samoyed라고 예측해야 합니다. 이것은 제로 샷 학습의 예입니다.

실제로 컴퓨터 비전 작업을 처리할 때 자연어 처리의 복잡성으로 인해 완전한 Wikipedia 텍스트를 직접 사용하는 것은 어렵습니다. 따라서 연구원은 종종 속성을 사용합니다. 예를 들어 속성이 있는 동물 데이터세트에는 다양한 동물 등급에 대한 "갈색", "줄무늬" 및 "물고기 먹기"와 같은 속성이 포함되어 있습니다. 이러한 속성은 비시각적 공간에서 이미지의 표현을 제공하며, 이미지를 본 적이 없더라도 이를 사용하여 북극곰과 같은 개체의 클래스를 예측할 수 있습니다.

이제 이것이 어떻게 작동하는지 자세히 살펴보겠습니다. 많은 경우 사람들은 컴퓨터 비전에서 속성 기반 모델을 사용합니다. 여기에는 텍스트 공간(X)의 속성을 기능 표현 또는 속성 공간에 매핑하는 작업이 포함됩니다. 그런 다음 이미지를 유사한 공간으로 인코딩하고 속성과 일치시켜 예측합니다. 새 개 이미지의 경우 이를 인코딩하고 허스키와 같이 품종을 예측하는 데 사용할 수 있는 속성을 생성합니다.

이 개념을 시각화하는 데 도움이 되는 다이어그램이 있습니다. 속성을 이미지 기능에 매핑하고 예측에 사용하는 프로세스를 나타냅니다. 불분명한 점이 있으면 주저하지 말고 질문하십시오.

이제 직접 속성 예측이라는 특정 모델로 이동하겠습니다. 이 모델은 간단하면서도 놀라울 정도로 효과적입니다. 여기에는 이미지에서 속성을 직접 예측하는 모델을 구축하는 작업이 포함됩니다. 속성이 이진수(0 또는 1)라고 가정하면 시그모이드 손실을 사용하여 모델을 훈련할 수 있습니다. 이미지의 특성에 따라 각 속성에 확률을 할당합니다. 테스트 시 이러한 속성 분류자를 사용하여 관련 속성의 확률을 곱하고 사전을 고려하여 레이블을 예측합니다.

이 모델은 잘 작동하지만 몇 가지 제한 사항이 있습니다. 속성 간의 독립성을 가정하므로 특정 속성이 높은 상관 관계가 있는 경우 편향이 발생할 수 있습니다. 또한 교육 및 테스트 목표가 다르기 때문에 모델의 성능에 영향을 줄 수 있습니다.

이제 내가 작업한 프로젝트에 대해 이야기해 봅시다.

내 연구 프로젝트에서 직접 속성 예측 모델의 몇 가지 한계를 해결하여 제로 샷 학습 모델의 성능을 향상시키는 것을 목표로 했습니다. 특히 속성 독립성 문제와 훈련 목표와 테스트 목표 간의 불일치 문제를 해결하는 데 중점을 두었습니다.

속성 독립성 문제를 해결하기 위해 구조화된 속성 예측 모델의 사용을 조사했습니다. 속성 간의 독립성을 가정하는 대신 이러한 모델은 속성 간의 관계와 종속성을 캡처합니다. 속성 종속성을 모델링함으로써 더 정확한 예측을 달성하고 독립성을 가정하여 도입된 잠재적 편향을 줄일 수 있습니다.

구조화된 속성 예측에 대한 인기 있는 접근 방식 중 하나는 CRF(Conditional Random Fields) 또는 SSVM(Structured Support Vector Machine)과 같은 그래픽 모델을 사용하는 것입니다. 이러한 모델은 그래픽 구조를 통해 종속성을 통합하고 속성 관계를 효과적으로 캡처할 수 있습니다. 내 프로젝트에서 다양한 그래픽 모델을 실험하고 다양한 제로 샷 학습 데이터 세트에서 성능을 평가했습니다.

교육 목표와 테스트 목표 간의 불일치를 해결하기 위해 전이 학습 기술을 사용했습니다. 전이 학습을 통해 관련 작업(예: 레이블이 지정된 대규모 데이터 세트에 대한 사전 교육)에서 학습한 지식을 활용하고 이를 제로 샷 학습 작업에 적용할 수 있습니다. 사전 훈련된 가중치로 모델을 초기화함으로써 학습된 표현의 이점을 얻을 수 있고 제로 샷 학습 중에 보이지 않는 클래스에서 모델의 성능을 향상시킬 수 있습니다.

내 프로젝트에서는 컨볼루션 신경망(CNN)과 같은 사전 훈련된 심층 신경망 모델이나 BERT와 같은 사전 훈련된 언어 모델을 활용하여 이미지 및 특성 특징을 추출했습니다. 그런 다음 이러한 기능을 구조화된 속성 예측 모델에 대한 입력으로 사용하여 보이지 않는 클래스에 대한 더 나은 일반화를 허용했습니다.

또한 제로 샷 학습을 위해 GAN(Generative Adversarial Networks)과 같은 생성 모델의 사용을 탐구했습니다. 생성 모델은 학습된 표현을 기반으로 보이지 않는 클래스에 대한 합성 샘플을 생성할 수 있습니다. 생성 모델과 판별 모델을 결합함으로써 우리는 보이는 클래스와 보이지 않는 클래스 사이의 격차를 해소하고 제로샷 학습 성능을 향상시킬 수 있습니다.

프로젝트 전반에 걸쳐 제로 샷 학습을 위한 다양한 모델과 기술의 효과를 평가하기 위해 광범위한 실험과 평가를 수행했습니다. 나는 그들의 강점과 약점을 결정하기 위해 기준 모델과 기존의 최첨단 접근 방식과 성능을 비교했습니다.

결론적으로 제로 샷 학습은 기계가 레이블이 지정된 예제 없이 새로운 개념을 학습하고 인식할 수 있도록 하는 것을 목표로 하는 흥미롭고 도전적인 연구 분야입니다. 내 프로젝트는 구조화된 속성 예측 모델 및 전이 학습 기술을 통해 속성 독립성 및 훈련 테스트 목표 불일치와 같은 기존 모델의 일부 제한 사항을 해결하는 데 중점을 두었습니다. 내 실험 결과는 제로 샷 학습 모델의 성능을 개선하고 분야를 발전시키는 데 귀중한 통찰력을 제공했습니다.

 

일반화 및 최적화 방법



일반화 및 최적화 방법

좋은 하루 되세요! 오늘은 일반화라는 주제와 기계 학습에서의 중요성에 대해 살펴보겠습니다. 이 프레젠테이션의 기초는 두 개의 주요 논문을 기반으로 합니다. 첫 번째는 Ben-David et al.이 저술한 'The Marginal Value of Reductive Gradient Methods'입니다. 그것은 무대를 설정하고 우리에게 앞으로 있을 일을 엿볼 수 있게 해줍니다. 두 번째 논문에서는 딥 러닝을 위한 대규모 배치 훈련 영역과 이것이 일반화에 미치는 영향을 살펴봅니다. 이제 일반화가 무엇을 수반하는지 이해하는 것으로 시작한 다음 이를 향상시킬 수 있는 방법을 살펴보겠습니다. 그러나 진행하기 전에 스포일러 경고가 있습니다. 확률적 경사 하강법(SGD)에서 단계 크기의 중요성과 이를 최적화하는 방법도 다룰 것입니다.

그렇다면 일반화란 정확히 무엇일까요? 간단히 말해서 이전에 본 적이 없는 데이터에서 잘 수행되는 알고리즘의 기능을 말합니다. 테스트 오류를 줄이는 것만으로는 충분하지 않습니다. 단순히 학습 데이터를 암기하는 것이 아니라 의미 있는 패턴을 학습하는 알고리즘이 필요합니다. 예를 들어, 특정 시나리오에서 자율주행차를 훈련시키는 경우 음주 운전자가 경로를 바꾸는 것과 같은 예기치 않은 상황을 처리할 것으로 기대합니다. 일반화는 대부분의 기계 학습 응용 프로그램에서 기본 요구 사항입니다.

그러나 일반화는 훈련 데이터와 테스트 데이터의 분포 사이에 어느 정도 유사성이 있다고 가정한다는 점에 유의해야 합니다. 보이지 않는 시나리오를 언급할 때 우리는 훈련 중에 만난 것과 약간 다르지만 완전히 낯설지는 않은 상황을 의미합니다. 원근법을 적용하기 위해 방 비유를 생각해 봅시다. 의자 사이의 몇 군데를 제외하고 방의 대부분을 탐색했다고 상상해 보십시오. 이러한 지점에 대해 예측하거나 결론을 내리려면 알고리즘이 학습한 내용을 일반화할 수 있어야 합니다. 가능한 모든 인스턴스에 대해 훈련하는 것은 비실용적이지만 알고리즘이 합리적인 추론을 하기를 원합니다. 새로운 개 품종의 예를 들어 보겠습니다. 이전에 만난 개 품종과 약간 다를 수 있지만 알고리즘이 개로 인식할 것으로 기대합니다.

이제 알고리즘 선택이 일반화에 어떤 영향을 미칠 수 있는지 살펴보겠습니다. 우리가 언급한 첫 번째 문서에서는 모멘텀이 있는 SGD와 같은 비적응 알고리즘과 RMSprop 및 Adam과 같은 적응 알고리즘 간의 차이점을 살펴봅니다. 각 알고리즘에는 고유한 강점과 약점이 있습니다. 연구원들은 사용 가능한 데이터에 비해 매개변수 수가 많을 때 알고리즘 선택이 찾을 수 있는 최소 집합에 영향을 미친다는 사실을 발견했습니다. 적응 방법은 더 나쁜 일반화를 나타내는 경향이 있음이 관찰되었습니다. Adam이 SGD보다 더 나은 학습 오류를 달성하더라도 테스트 오류는 약간 더 높게 유지됩니다. 본질적으로 SGD는 적응 방법에 비해 더 나은 일반화 기능을 보여줍니다. 이러한 관찰은 경험적 결과를 기반으로 하며 모든 경우에 해당되지 않을 수 있다는 점에 유의하는 것이 중요합니다. 따라서 문서를 참조하고 특정 사용 사례에 미치는 영향을 고려하는 것이 좋습니다.

계속해서 배치 크기가 일반화에 미치는 영향에 대해 논의해 보겠습니다. 우리가 언급한 두 번째 논문은 이 측면에 초점을 맞추고 있습니다. 작은 배치(예: 200-500개 예)와 큰 배치(예: 데이터 세트의 10%)를 비교하고 일반화에 미치는 영향을 비교합니다. 놀랍게도 이 연구는 훈련 정확도가 비슷함에도 불구하고 더 작은 미니 배치를 사용하는 것이 일반적으로 큰 배치에 비해 더 나은 일반화로 이어진다는 것을 발견했습니다. 이 발견은 CIFAR 데이터 세트에서 수행된 실험에 의해 뒷받침되며 테스트 정확도 측면에서 더 작은 배치가 더 큰 배치를 지속적으로 능가했습니다. 왜 이런 일이 발생하는지 이해하려면 날카롭고 평평한 최소값의 개념을 고려해야 합니다. 날카로운 최소값은 여러 방향에서 높은 곡률을 갖는 반면 플랫 최소값은 상대적으로 더 부드럽습니다.

이제 배치 크기가 딥 러닝의 일반화에 미치는 영향을 탐구하는 두 번째 논문으로 초점을 옮겨 보겠습니다. 저자는 작은 배치(약 200~500개 예)와 큰 배치(데이터 세트의 약 10%)를 사용하여 실험을 수행하고 성능을 비교했습니다. 흥미롭게도 그들은 더 작은 미니 배치를 사용하는 것이 일반적으로 큰 배치를 사용하는 것보다 더 나은 일반화로 이어진다는 것을 발견했습니다.

CIFAR 데이터 세트에 대한 실험 결과에 따르면 소형 배치 방법과 대형 배치 방법 모두 비슷한 훈련 정확도를 달성했지만 소규모 배치 방법은 테스트 정확도 측면에서 지속적으로 큰 배치 방법을 능가했습니다. 이 관찰은 더 작은 배치 크기가 딥 러닝 작업에서 더 나은 일반화로 이어질 수 있음을 시사합니다.

이 현상을 설명하기 위해 저자는 sharp and flat minima 개념을 제안합니다. 날카로운 최소값은 매개변수 공간에서 여러 방향을 따라 높은 곡률을 갖는 반면 평평한 최소값은 더 평평한 모양을 갖습니다. 평평한 최소값이 더 잘 일반화되는 경향이 있는 반면 날카로운 최소값은 훈련 데이터에 과적합될 수 있다고 제안되었습니다.

저자는 샘플링 예제와 관련된 암시적 노이즈로 인해 작은 배치 방법이 평평한 최소값을 찾는 데 이점이 있다고 주장합니다. 작은 배치 크기에 의해 도입된 노이즈는 반복이 주위를 돌아다니도록 하여 날카로운 최소값을 피하고 잠재적으로 더 나은 일반화를 위한 평평한 최소값을 찾는 데 도움이 됩니다. 반면에 대규모 배치 방법에는 이러한 노이즈가 없으며 예리한 최소값에 갇히게 되어 일반화가 더 나빠질 수 있습니다.

그들의 주장을 뒷받침하기 위해 저자는 작은 배치 최소값과 큰 배치 최소값을 연결하는 선을 따라 최소값의 선명도를 플로팅합니다. 그들은 작은 배치 방법으로 얻은 최소값이 더 평평한 경향이 있는 반면 큰 배치 방법으로 얻은 최소값은 더 날카롭다는 것을 관찰했습니다. 이것은 평평한 최소값이 날카로운 최소값보다 더 잘 일반화된다는 가설을 뒷받침하는 경험적 증거를 제공합니다.

그러나 이러한 결과는 경험적 관찰을 기반으로 하며 평면 최소값과 일반화 사이의 관계를 검증할 이론적 증거가 없다는 점에 유의해야 합니다. 그럼에도 불구하고 결과는 배치 크기를 최적화 프로세스의 요소로 고려하면 딥러닝 모델에서 일반화 성능을 향상시킬 수 있음을 시사합니다.

결론적으로 두 논문 모두 기계 학습에서 일반화의 중요성을 강조하고 최적화 방법과 배치 크기가 일반화에 미치는 영향에 대한 통찰력을 제공합니다. 첫 번째 논문은 최적화 알고리즘 선택이 일반화에 미치는 영향을 강조하며, Adam과 같은 적응 방법은 모멘텀이 있는 SGD와 같은 비적응 방법뿐만 아니라 항상 일반화되지 않을 수 있음을 보여줍니다. 두 번째 논문은 더 작은 배치 크기가 더 나은 일반화로 이어지는 경향이 있음을 보여줍니다.

이러한 결과는 귀중한 통찰력을 제공하지만 최적화 방법 및 배치 크기의 최적 선택은 특정 작업, 데이터 세트 및 모델 아키텍처에 따라 다를 수 있음을 언급할 가치가 있습니다. 실험과 조정은 각 시나리오에 대한 최상의 접근 방식을 찾는 데 중요합니다.

 

번역 불변



번역 불변

저는 신경과학 연구원이고 CNN(컨볼루션 신경망)에 대한 제 관점은 다른 사람들과 약간 다릅니다. 전체 네트워크에 집중하는 대신 단일 단위 또는 뉴런을 연구하여 행동을 모델링하는 데 더 관심이 있습니다. 저는 CNN을 블랙박스로 다루기보다는 CNN의 복잡한 작동 방식을 이해하는 것을 목표로 합니다. 제 목표는 통찰력을 얻고 뇌의 복잡성을 밝히는 것입니다.

특히 신경망에서 변환 불변성이 달성되는 방식에 흥미를 느꼈습니다. 네트워크 아키텍처의 컨볼루션 및 최대 풀링이 번역 불변성을 제공한다는 것이 간단해 보일 수 있지만, 내 연구에 따르면 이러한 직관은 종종 잘못된 것으로 나타났습니다. 실용적인 딥 러닝에서는 변환 불변성의 진정한 원인과 훈련 중에 그것이 어떻게 나타나는지 더 깊이 이해할 필요가 있습니다.

내 연구에서 나는 뇌의 복부 흐름, 특히 물체 인식을 담당하는 "무엇" 경로에 초점을 맞춥니다. AlexNet과 같은 네트워크에서 단일 단위를 조사함으로써 우리는 이러한 단위가 뇌의 V4 및 IT 영역에서 관찰된 것과 유사한 반응 패턴을 보인다는 것을 발견했습니다. 이 발견은 이전에는 파악하기 어려웠던 높은 수준의 신경 특성에 대한 계산 가능한 모델을 제공했기 때문에 중요했습니다.

그러나 이러한 모델은 본질적으로 블랙 박스이며 이를 통해 통찰력을 얻는 것이 중요합니다. 따라서 내 연구의 목표는 이러한 모델이 뇌에 대한 우리의 이해와 관련된 특정 속성을 달성하는 방법을 조사하는 것입니다. 실험을 수행하기 위해 이전에 동물에게 보여준 자극을 사용하여 반응을 기록합니다. 이러한 자극은 신경망의 수용 영역 내에 제시된 다양한 회전의 단순한 기하학적 모양으로 구성됩니다.

신경과학 분야에서 변환 불변성은 한 위치에서 모양 집합에 대한 응답이 다른 위치에서 모양 집합에 대한 응답의 크기 조정된 버전인 패턴을 나타냅니다. 변환 불변성을 정량화하기 위해 우리는 정규화된 공분산 합계라는 메트릭을 개발했습니다. 이 메트릭은 서로 다른 위치에 있는 응답 간의 상관 관계를 측정하여 서로의 확장된 버전인지 확인합니다. 높은 상관관계는 변환 불변성을 나타냅니다.

이 메트릭을 특정 셀에 적용하면 뇌에서 거의 완벽한 번역 불변성을 나타내는 높은 번역 불변성 점수를 관찰했습니다. 상대적으로 동일한 메트릭을 AlexNet 네트워크에 적용할 때 번역 불변성 점수가 낮아 번역 불변성이 부족함을 알 수 있습니다.

네트워크 계층에 대한 추가 분석에서는 이전 계층이 낮은 변환 불변성을 나타내지만 위상 정보가 더 많은 변환 불변성의 진행을 나타냈습니다. 레이어 위로 이동함에 따라 특히 Conv5에서 변환 불변성이 증가했습니다. 이러한 관찰은 레이어 간 평균 변환 불변성과 일치했습니다.

관찰된 변동 및 번역 불변의 증가에 대한 책임이 있는 속성을 이해하기 위해 가설을 세웠습니다. 우리의 가설은 균일한 공간 선택성을 가진 세포가 번역 불변성을 나타낸다고 가정했습니다. 즉, 네트워크의 필터가 여러 위치에서 비슷한 가중치를 가진 동일한 패턴을 찾는 경우 변환 불변일 가능성이 더 큽니다.

시각적 직관을 얻기 위해 AlexNet의 초기 계층에서 필터를 조사했습니다. 3차원 공간에서 필터를 시각화하여 평균 벡터에 직교하는 색채 평면이라는 평면을 식별했습니다. 우리는 패턴을 관찰할 수 있도록 필터를 이 평면에 투사했습니다. 유사한 기능과 양의 상관 관계가 있는 응답을 나타내는 필터는 변환 불변으로 간주되는 반면 다양한 기능과 음의 상관 관계가 있는 필터는 그렇지 않은 것으로 간주되었습니다.

또한 필터를 시각화하기 위해 주성분 분석을 사용했습니다. 이 분석은 필터가 저차원이고 대부분이 단 두 개의 주성분을 사용하여 재구성될 수 있음을 보여주었습니다. 이러한 필터는 2차원 공간으로 표현될 수 있으며 변환 불변성에 대한 우리의 가설을 뒷받침합니다.

이 분석은 선형으로 보이지만 이미지에 대한 응답의 변화를 예측하는 데 효과적인 것으로 입증되었습니다. 필터의 가중치는 상관될 수 있으며 자극에 대한 응답도 상관될 수 있습니다.

사유: