Eliezer Shlomo Yudkovsky는 인공 지능의 미국 전문가로서 기술 특이성의 문제를 연구하고 친근한 AI의 창설을 옹호합니다. 그는 몇 가지 공상 과학 소설의 저자로서인지 과학 및 합리성과 관련된 주제를 보여줍니다.
![Image Image](https://images.culturehatti.com/img/kultura-i-obshestvo/75/eliezer-yudkovski-biografiya-tvorchestvo-karera-lichnaya-zhizn.jpg)
Eliezer Yudkowski: 전기
Eliezer Shlomo Yudkovsky는 현대 미국의 가장 활동적인 합리주의 자 중 한 명으로, 컴퓨터 연구자이자 "친근한 인공 지능"이라는 아이디어를 대중화 한 사람입니다.
1979 년 9 월 11 일 출생. 비정부 연구 기관인 머신 인텔리전스 연구소의 공동 창립자 겸 연구원. Eliezer Yudkovsky는 철학 소설 해리 포터 (Harry Potter)와 합리화 방법 (Methods of Rationalism)의 저자이며 2010 년에서 2015 년 사이에 인터넷에 부분적으로 출판되었습니다. 그것에서 Harry는 옥스포드 과학자의 가족에서 자라서 호그와트로 여행하기 전에 합리적인 사고 방법을 배웁니다.
알려진 바와 같이, 그것은“추측 적 현실 주의자들”의 원과 관련이 없다. 그의 이름은 종종 Robin Hanson과 관련하여 언급되었으며, 수년 동안 (2006 년부터 2009 년까지) 옥스포드의 미래 인류 연구소 (Institute for Future Humanity)의 돈에 존재하는 블로그 "편견 극복"이라는 두 명의 주요 저자였습니다.
때때로 Yudkovsky의 이름은 Raymond Kurzweil과 관련하여 들릴 수 있습니다. 그는 접근이 불가능하고 이해할 수없는 테크노 괴짜 공동체의 철학적 대표자이며, 따라서 대부분의 인도주의 대중에게 투기 적 현실 주의자들의 거의 모든 독자가 속합니다. 그는 종종 수식과 표를 사용하여 노출되는 논리 및 수학 언어, 확률 론적 및 통계적 결론으로 바뀌기 때문에 놀라운 것은 아닙니다.
과학적 관심사
Yudkovsky는 SAI (Singularity Institute for Artificial Intelligence Institute)의 공동 창립자이자 연구원입니다. 그는 연구소의 발전에 큰 기여를했다. 그는 "친근한 인공 지능 창조"(2001), "일반 지능 조직 수준"(2002), "일관된 외삽 된 의지"("일관된 외삽 된 의지", 2004)와 영원한 의사 결정 이론 (2010). 그의 최신 과학 간행물은 Nick Bostrom이 편집 한“글로벌 재앙의 위험”(2008) 모음, 즉“긍정적이고 부정적인 글로벌 위험 요소로서의 인공 지능”과“글로벌 위험 평가에 대한인지 왜곡”의 두 기사입니다. Yudkovsky는 대학에서 공부하지 않았으며 인공 지능 분야의 정식 교육이없는 자동 학습입니다.
Yudkovsky는 자기 이해, 자기 수정 및 재귀 자기 개선 (Seed AI)이 가능한 AI 설계와 안정적이고 긍정적 인 동기 부여 구조 (Friendly Artificial Intelligence)를 갖는 AI 아키텍처를 탐구합니다. 그의 연구 작업 외에도 Yudkovsky는 비 학문적 언어로 복잡한 모델에 대한 설명으로 널리 알려져 있으며, 예를 들어 "베이 즈 정리의 직관적 인 설명"을 참조하십시오.
Yudkovsky는 Robin Hanson과 함께 Overcoming Bias 블로그 (편견 극복)의 주요 저자 중 하나였습니다. 2009 년 초, 그는 "인간 합리성 개발 및인지 왜곡 극복"을 목표로 블로그 Less Wrong의 조직에 참여했습니다. 그 후 Overcoming Bias는 Hanson의 개인 블로그가되었습니다. 이 블로그에 실린 자료는 수천 명의 독자들을 끌어 모으는 게시물 체인으로 구성되었습니다 (예: 엔터테인먼트 이론 체인 참조).
Yudkovsky는인지 과학 및 합리성과 관련된 몇 가지 주제를 보여주는 여러 공상 과학 소설의 저자입니다.
경력
- 2000. Yudkovsky는 Singularity Institute (이후 MIRI로 이름 변경)를 설립했습니다.
- 2006. Yudkovsky는 Overcoming Bias 집단 블로그에 합류하여 나중에 체인이 된 텍스트를 작성하기 시작합니다.
- Yucomovsky의 Overcoming Bias 항목을 기반으로 유명한 단체 블로그 LessWrong.com이 작성되었습니다.
- 2010-2015. Yudkovsky는 GPiMRM을 씁니다.
- Yudkovsky는 LessWrong.com에 최신 게시물을 게시하고 사이트 작성을 중단합니다. 2017 년 현재 Yudkovsky는 공개적으로 사용 가능한 대부분의 텍스트를 Facebook 및 Arbital에 게시합니다.
생각 실험
가상 세계에 갇힌 믿을 수 없을만큼 똑똑한 인공 초 지능을 상상해보십시오. 당신은 그가 의미적이고 친절하거나 중립적 일지 모른다. 당신이 아는 것은 그가 상자 밖으로 나가기를 원하고 텍스트 인터페이스를 통해 그와 상호 작용할 수 있다는 것입니다. 인공 지능이 정말 지능적이라면, 스너프 박스를 열지 말고 그의 설득과 조작에 굴복하지 않고 5 시간 동안 그와 대화 할 수 있습니까?
이 사고 실험은 MIRI (Engineering Research Institute of Engineering)의 연구원 인 Eliezer Yudkowsky에 의해 제안되었습니다. MIRI에는 인공 초 지능 개발의 위험을 탐색하는 많은 과학자들이 있습니다. 아직 등장하지는 않았지만 이미 주목을 받고 논쟁을 불러 일으키고 있습니다.
Yudkovsky는 인공 초 지능이 당신을 설득하기 위해 할 수있는 모든 것을 말할 수 있다고 주장합니다: 신중한 추론, 위협, 속임수, 교감 형성, 잠재 의식 제안 등. AI는 빛의 속도로 음모를 꾸미고 약점을 조사하며 가장 쉬운 방법을 결정합니다. 실존 적 위협 이론가 인 Nick Bostrom은 다음과 같이 말합니다. "우리는 초 지능이 목표로 설정 한 모든 것을 달성 할 수 있다고 믿어야합니다."
snuffbox AI 실험은 우리가 만들 수있는 것을 제어 할 수있는 능력에 의문을 제기합니다. 그것은 또한 우리 자신의 현실에 대해 모르는 것의 다소 기괴한 가능성을 이해하게합니다.