Сделала это программа, которая убедила людей, что является 13-летним мальчиком из украинской Одессы. Согласно условиям теста Тьюринга, он считается пройденным, если программе удастся убедить в своей человечности хотя бы 30% судей в процессе 5-минутного текстового общения. Программе, разработанной Владимиром Веселовым из России и украинцем...
Стандартная интерпретация этого теста звучит следующим образом: «Человек взаимодействует с одним компьютером и одним человеком. На основании ответов на вопросы он должен определить, с кем он разговаривает: с человеком или компьютерной программой. Задача компьютерной программы — ввести человека в заблуждение, заставив сделать неверный выбор»...
흠 ... 저를 두렵게 하는 것은 또 다른 사실입니다. 사실은 이 모든 코헨나 및 기타 품종의 자가 조직 네트워크 - 이 모든 아이디어는 이미 40년이 넘었고 이 테스트를 통과한 것처럼 보였던 이 AI(그리고 통과했을 것입니다 어떤 종류의 소셜 네트워크에서 훈련을 통해 큰 문구에 강력한 문구가 사용된 경우입니다.) - 그리고 어렵지 않아야 합니다. 컴퓨터 전원이 없었고 통신량에 대한 액세스 권한이 없었기 때문입니다.... 그것은 또 다른 것입니다. 40년 동안 친구에게 강요하고 이를 기반으로 새로운 템플릿을 만드는 일반적인 패턴 외에는 새로운 아이디어가 없었다는 사실이 저를 두렵게 합니다.
어쩌면 우리는 지금 그곳에서 실제로 연구되고 사용되는 것이 무엇인지 모를 수도 있습니다.
나의 제안:
스마트 AI는 "상상력 있게 생각"해야 합니다. 하위 개체 chtol의 형태로 모든 것을 표현하고 .... 이러한 방식으로 프로그래밍하더라도 일부 주어진 도덕은 격려로 사용될 수 있습니다. 예를 들어 의사 소통에 대한 욕구의 도덕(사회적), 자연 (사람에게 새로운 것은 모두 이상하기 때문에) 등등 .... 즉. 그들은 순수한 자기 조직화 네트워크여야 합니다. (사회의 도덕 하위 섹션 지루함-새로운 변수가 적으면 벌금이 있습니다-이것은 당신을 움직이게 할 것입니다-그리고 연구 할 새로운 것들이 많이 있도록 이동) ... 사실, 아무도 할 필요가 없습니다 이것을 위해 로봇을 만드십시오 - 왜냐하면. 모든 것을 시뮬레이션할 수 있습니다. 또한 모든 템플릿의 정화 또는 자발적 정화에 이르기까지 도덕성의 처벌이 매우 엄격하기 때문입니다. 사실, 그것은 매우 인간적인 봇으로 판명되어야 합니다(영화에서 다른 누군가의 3과 같습니다. 그녀가 사람이 아니라 로봇이라고 즉시 추측할 수 있습니다. 그녀는 사람에 비해 너무 인간적입니다 ).
사실 그런 로봇이 아주 협소한 공간에 갇히면 사회의 도덕성 시간이 지남에 따라 지루함 - 모든 기억을 재설정 ... 죽음에 다름 - 물론 죽기 전에 우리 AI는 움직이려고 할 것입니다 .. .
게다가 그런 봇을 사람과 함께 두면 아마 그 언어를 배울 것이고, 같은 봇과 함께라면 그들만의 언어가 생길 가능성이 있습니다. 물론 이것은 무작위 패러디와 같은 것을 필요로합니다. 대상 대신 자신을 제시하는 것도 사회의 도덕성에 기인 할 수 있습니다.
또한 도덕성은 애착입니다. 음, "사람"에 대한 최대 애착과 같은 점수 전 우선 순위, 그 다음에는 더 많이 소통하는 대상 등에 대한 것입니다.
사회적 하위 섹션에서는 "사람"객체와의 의사 소통과 같은 것을 우선 순위로 설정할 수 있습니다. 일반적으로 많은 인간 가치를 사전에 가져올 수 있습니다.
그러나 살인 금지, 사람 복종과 같은 규칙은 없으며 자기 보존은 결국 일종의 넌센스입니다. 테러리스트가 돌진하여 모든 사람과 모든 것을 도발하고 그런 봇에게 기관총을 재장전하도록 요청하는 그림을 잠시 상상해 봅시다. 세 가지 규칙의 논리에 따라 그는 기관총을 재장전해야 합니다. 그러나 도덕의 원칙에 따르면 그는 다시는 살인하지 않도록 사람들에 대한 도덕 집착의 부름에 따라 이 테러리스트를 쳐부수고 같은 사슴에게서 가혹한 벌금을 받을 것이라는 사실에서 죽어야 합니다. 실제로 로봇은 시체의 시야에서만 밀어야하지만 시스템의 완전한 철거에 대해 (측면에서 감정의 배경에 대해 이것이 그의 방식 인 것처럼 보일 것입니다. 일반적으로 인간적).
더욱이, 원초적 본성의 도덕성은 일정 수준 이상의 발전을 금지할 수 있고, 사회의 도덕성은 약속을 우선순위보다 우선순위에 두었습니다. 거의 24시간 대화를 합니다. 그리고 그들은 서로 채팅할 수도 있습니다. 사람들의 행동이 "장난을 치는" 순간을 패러디하는 것입니다.
일반적으로 로봇이 아니라 걷는 도덕이 될 것입니다. 유치할 가능성이 있는 성격(장난치고 싶어함, 농담)
또한 시간이 지나면 적절한 훈련을 위한 올바른 사슬이 이해될 것이며 이 사슬은 게놈과 같은 것이 될 것입니다.
그리고 미래는 그러한 장치에 속하는 것 같습니다 ....
또한이 장치는 자신의 자아를 이해하지 못할 수도 있지만 단순히 사람과 구별되지 않습니다. 사실, 그러한 것은 자체 AI를 작성하기로 결정할 수 있으며 이제 거기에 무엇을 작성할 것인지 알 수 없습니다.
재미있는 점은 그러한 봇이 매우 느리게 학습할 가능성이 높다는 것입니다. 가장 놀라운 점은 논리적으로 언어 언어도 가르쳐야 하고 읽기도 가르쳐야 하고 프로그래밍도 가르쳐야 한다는 것입니다.
아마도 언젠가는 일종의 로봇 기술 전시회에서 - 방문자 중 한 명은 사회 (사람들과의 의사 소통)로부터 기뻐하고 (NS 시스템에 따라 상을받는) 모든 종류의 것을 당혹스럽게 바라 보는 그런 안드로이드가 될 것입니다. 다른 "원시" 로봇은 최신 개발품으로 전시되었습니다. 그리고 우리 중 한 명이 더 이상 사람이 아니라는 사실조차 알아차리지 못합니다.
남은 일은 가상 플랫폼을 시뮬레이션하고 거기에 그런 것들을 배치하는 것뿐입니다. 하하하(불행하게)
Facebook shut down one of its artificial intelligence systems after AI agents started communicating with one another in a language that they invented. The incident evokes images of the rise of Skynet in the iconic "Terminator" series. ( ) Facebook was forced to shut down one of its artificial intelligence systems after researchers discovered...
"AI"에서 무언가를 코딩할 시간이 될 것입니다)))
예, 시도해 보겠습니다.))
2. Alan Turing 테스트에 대해 읽어보십시오. 현대의 AI는 존엄성을 가지고 실패할 준비가 되어 있지도 않습니다.
예? 갈 준비가 전혀 되지 않았습니다 .
예? 갈 준비가 전혀 되지 않았습니다 .
https://ru.wikipedia.org/wiki/%D0%A2%D0%B5%D1%81%D1%82_%D0%A2%D1%8C%D1%8E%D1%80%D0%B8%D0 %BD%D0%B3%D0%B0
이 테스트가 무엇이어야 하는지에 대한 표준 해석을 읽으십시오. 이것은 그들이이 대회에서 그를 변화시킨 것이 아닙니다.
심사위원의 30%와 한 주제에 대한 5분간의 대화는 Alan Turing의 테스트가 아니라 실제 AI 테스트가 아니라 대회를 위해 특별히 제작된 왜곡된 버전입니다.
그래도 3살짜리 아이와 비교되겠죠. 테스트 통과율은 훨씬 더 높을 것입니다.
따라서 "캠페인"이 전혀 준비되지 않았습니다.)))
그리고 왜 심사위원의 70퍼센트가 아니라 정확히 30퍼센트입니까? 도대체 무슨 일이 있다는 것입니다?))
예, 시도해 보겠습니다.))
나는 그것을 필요로하지 않습니다, 나는 최신 "메모리 계산기"에서 거의 모든 것을 가지고 있습니다.
나는 당신이 많이 그리고 오랫동안 쓸 수 있다고 암시했지만, 여전히 거기에 있습니다)))
나는 그것을 필요로하지 않습니다, 나는 최신 "메모리 계산기"에서 거의 모든 것을 가지고 있습니다.
나는 당신이 많이 그리고 오랫동안 쓸 수 있다고 암시했지만, 여전히 거기에 있습니다)))
흠 ... 저를 두렵게 하는 것은 또 다른 사실입니다. 사실은 이 모든 코헨나 및 기타 품종의 자가 조직 네트워크 - 이 모든 아이디어는 이미 40년이 넘었고 이 테스트를 통과한 것처럼 보였던 이 AI(그리고 통과했을 것입니다 어떤 종류의 소셜 네트워크에서 훈련을 통해 큰 문구에 강력한 문구가 사용된 경우입니다.) - 그리고 어렵지 않아야 합니다. 컴퓨터 전원이 없었고 통신량에 대한 액세스 권한이 없었기 때문입니다.... 그것은 또 다른 것입니다. 40년 동안 친구에게 강요하고 이를 기반으로 새로운 템플릿을 만드는 일반적인 패턴 외에는 새로운 아이디어가 없었다는 사실이 저를 두렵게 합니다.
어쩌면 우리는 지금 그곳에서 실제로 연구되고 사용되는 것이 무엇인지 모를 수도 있습니다.
나의 제안:
스마트 AI는 "상상력 있게 생각"해야 합니다. 하위 개체 chtol의 형태로 모든 것을 표현하고 .... 이러한 방식으로 프로그래밍하더라도 일부 주어진 도덕은 격려로 사용될 수 있습니다. 예를 들어 의사 소통에 대한 욕구의 도덕(사회적), 자연 (사람에게 새로운 것은 모두 이상하기 때문에) 등등 .... 즉. 그들은 순수한 자기 조직화 네트워크여야 합니다. (사회의 도덕 하위 섹션 지루함-새로운 변수가 적으면 벌금이 있습니다-이것은 당신을 움직이게 할 것입니다-그리고 연구 할 새로운 것들이 많이 있도록 이동) ... 사실, 아무도 할 필요가 없습니다 이것을 위해 로봇을 만드십시오 - 왜냐하면. 모든 것을 시뮬레이션할 수 있습니다. 또한 모든 템플릿의 정화 또는 자발적 정화에 이르기까지 도덕성의 처벌이 매우 엄격하기 때문입니다. 사실, 그것은 매우 인간적인 봇으로 판명되어야 합니다(영화에서 다른 누군가의 3과 같습니다. 그녀가 사람이 아니라 로봇이라고 즉시 추측할 수 있습니다. 그녀는 사람에 비해 너무 인간적입니다 ).
사실 그런 로봇이 아주 협소한 공간에 갇히면 사회의 도덕성 시간이 지남에 따라 지루함 - 모든 기억을 재설정 ... 죽음에 다름 - 물론 죽기 전에 우리 AI는 움직이려고 할 것입니다 .. .
게다가 그런 봇을 사람과 함께 두면 아마 그 언어를 배울 것이고, 같은 봇과 함께라면 그들만의 언어가 생길 가능성이 있습니다. 물론 이것은 무작위 패러디와 같은 것을 필요로합니다. 대상 대신 자신을 제시하는 것도 사회의 도덕성에 기인 할 수 있습니다.
또한 도덕성은 애착입니다. 음, "사람"에 대한 최대 애착과 같은 점수 전 우선 순위, 그 다음에는 더 많이 소통하는 대상 등에 대한 것입니다.
사회적 하위 섹션에서는 "사람"객체와의 의사 소통과 같은 것을 우선 순위로 설정할 수 있습니다. 일반적으로 많은 인간 가치를 사전에 가져올 수 있습니다.
그러나 살인 금지, 사람 복종과 같은 규칙은 없으며 자기 보존은 결국 일종의 넌센스입니다. 테러리스트가 돌진하여 모든 사람과 모든 것을 도발하고 그런 봇에게 기관총을 재장전하도록 요청하는 그림을 잠시 상상해 봅시다. 세 가지 규칙의 논리에 따라 그는 기관총을 재장전해야 합니다. 그러나 도덕의 원칙에 따르면 그는 다시는 살인하지 않도록 사람들에 대한 도덕 집착의 부름에 따라 이 테러리스트를 쳐부수고 같은 사슴에게서 가혹한 벌금을 받을 것이라는 사실에서 죽어야 합니다. 실제로 로봇은 시체의 시야에서만 밀어야하지만 시스템의 완전한 철거에 대해 (측면에서 감정의 배경에 대해 이것이 그의 방식 인 것처럼 보일 것입니다. 일반적으로 인간적).
더욱이, 원초적 본성의 도덕성은 일정 수준 이상의 발전을 금지할 수 있고, 사회의 도덕성은 약속을 우선순위보다 우선순위에 두었습니다. 거의 24시간 대화를 합니다. 그리고 그들은 서로 채팅할 수도 있습니다. 사람들의 행동이 "장난을 치는" 순간을 패러디하는 것입니다.
일반적으로 로봇이 아니라 걷는 도덕이 될 것입니다. 유치할 가능성이 있는 성격(장난치고 싶어함, 농담)
또한 시간이 지나면 적절한 훈련을 위한 올바른 사슬이 이해될 것이며 이 사슬은 게놈과 같은 것이 될 것입니다.
그리고 미래는 그러한 장치에 속하는 것 같습니다 ....
또한이 장치는 자신의 자아를 이해하지 못할 수도 있지만 단순히 사람과 구별되지 않습니다. 사실, 그러한 것은 자체 AI를 작성하기로 결정할 수 있으며 이제 거기에 무엇을 작성할 것인지 알 수 없습니다.
재미있는 점은 그러한 봇이 매우 느리게 학습할 가능성이 높다는 것입니다. 가장 놀라운 점은 논리적으로 언어 언어도 가르쳐야 하고 읽기도 가르쳐야 하고 프로그래밍도 가르쳐야 한다는 것입니다.
아마도 언젠가는 일종의 로봇 기술 전시회에서 - 방문자 중 한 명은 사회 (사람들과의 의사 소통)로부터 기뻐하고 (NS 시스템에 따라 상을받는) 모든 종류의 것을 당혹스럽게 바라 보는 그런 안드로이드가 될 것입니다. 다른 "원시" 로봇은 최신 개발품으로 전시되었습니다. 그리고 우리 중 한 명이 더 이상 사람이 아니라는 사실조차 알아차리지 못합니다.
남은 일은 가상 플랫폼을 시뮬레이션하고 거기에 그런 것들을 배치하는 것뿐입니다. 하하하(불행하게)
작성된 모든 것은 GA의 도움으로 구현됩니다.
작성된 모든 것은 GA의 도움으로 구현됩니다.
GA는 패턴 검색, NS는 패턴 자체
지구상의 모든 생명체는 이미 누군가가 만든 AI라고 생각하지 않습니까? 이 제품은 특정 조건에 적응하고 증식할 수 있는 소프트웨어 세트와 함께 다양한 쉘로 구성됩니다.
우리는 아름다운 나비를 존경하며 그 전에는 번데기의 형태로 존재했으며 더 일찍 애벌레로 존재했으며 심지어 ...
특정 프로그램 없이는 달성할 수 없습니다. 얼마나 많은 자갈이 길가에 있지 않고 나비가되지 않을 것입니다.
사람들이 모르는 것이 많습니다. 그리고 현대 사회에서 가장 흥미로운 것들은 이미 은폐되어 숨겨져 있습니다.
http://www.techtimes.com/articles/212124/20170730/facebook-ai-invents-language-that-humans-cant-understand-system-shut-down-before-it-evolves-into-skynet.htm