Eliezer Shlomo Yudkovsky是一位美国人工智能专家,他研究技术奇异性问题,并倡导创建友好AI。 他是多个科幻小说故事的作者,在其中他阐述了一些与认知科学和理性有关的主题。
Eliezer Yudkowski:传记
Eliezer Shlomo Yudkovsky是现代美国最活跃的理性主义者之一,他是“友好的人工智能”概念的计算机研究者和推广者。
1979年9月11日出生。 非政府研究机构机器智能研究所的联合创始人和研究员,该机构出版了他的著作。 埃里泽·尤德科夫斯基(Eliezer Yudkovsky)是哲学小说《哈利·波特与理性主义的方法》的作者,该小说于2010年至2015年间在互联网上部分出版。 在其中,哈里成长于牛津大学一位科学家的家庭,在前往霍格沃茨之前,向他学习了理性思考的方法。
据了解,它与“投机现实主义者”圈子无关。 他的名字经常与罗宾·汉森(Robin Hanson)一起提及,多年来(从2006年到2009年),他们是博客“克服偏见”的两个主要作者,该博客由牛津大学未来人类研究所赞助。
有时可以与雷蒙德·库兹韦尔(Raymond Kurzweil)一起听到尤德科夫斯基的名字。 他是技术极客社区的哲学代表,因此对于大多数人道主义投机者来说,这是几乎所有投机现实主义者都属于的,无法理解和理解的。 这并不奇怪,因为他经常转向使用公式和表格公开的逻辑和数学语言,概率和统计结论。
科学利益
Yudkovsky是人工智能奇点研究所(SIAI)的联合创始人和研究员。 他为该研究所的发展做出了巨大贡献。 他是《创造友好的AI》(2001年),“一般情报中的组织级别”(2002年),“相干推断的意志”(“相干推断的意志”)一书的作者, 2004年)和《永恒的决策理论》(2010年)。 他的最新科学著作是Nick Bostrom编辑的“全球灾难风险”(2008年)中的两篇文章,分别是“作为积极和消极全球风险因素的人工智能”和“评估全球风险中的认知失真”。 尤德科夫斯基没有在大学学习,并且没有人工智能领域的正规教育就可以自动学习。
尤德科夫斯基(Yudkovsky)探索了能够自我理解,自我修改和递归自我改进(Seed AI)的AI设计,以及具有稳定和积极动机结构的AI架构(Friendly AI)。 除了研究工作外,尤德科夫斯基还以非学术语言对复杂模型的解释而闻名,例如,广泛的读者可以阅读他的文章“贝叶斯定理的直观解释”。
尤德科夫斯基与罗宾·汉森(Robin Hanson)一起是“克服偏见”博客(克服偏见)的主要作者之一。 在2009年初,他参加了博客Less Wrong的组织活动,该博客旨在“发展人类理性并克服认知扭曲”。 在那之后,克服偏见成为汉森的个人博客。 这些博客上呈现的材料被组织成帖子链,吸引了成千上万的读者-例如,参见娱乐理论链。
尤德科夫斯基(Yudkovsky)是多个科幻小说故事的作者,他在其中阐述了一些与认知科学和理性有关的主题。
职业生涯
- 2000年。尤德科夫斯基(Yudkovsky)成立了奇点研究所(后更名为MIRI)。
- 2006年。Yudkovsky加入了Overcoming Bias集体博客,并开始撰写后来成为Chains的文字。
- 2009年。根据尤德科夫斯基在《克服偏见》中的条目,创建了著名的集体博客LessWrong.com。
- 2010-2015。 Yudkovsky编写GPiMRM。
- 2013。Yudkovsky在LessWrong.com上发布了最新帖子,并停止在该网站上撰写。 截至2017年,尤德科夫斯基在Facebook和Arbital上发布了大多数公开可用的文本
思想实验
想象一下,一个难以置信的智能人工超级智能锁定在虚拟世界中,比如说仅仅存在于一个鼻烟盒中。 你不知道他是卑鄙,友好还是中立。 您只知道他想开箱即用,并且您可以通过文本界面与他互动。 如果AI真的是超级智能,您能和他谈谈五个小时而不会屈服于他的说服和操纵-不打开鼻烟盒吗?
这个思想实验是由工程技术工程研究所(MIRI)的研究员Eliezer Yudkowsky提出的。 MIRI有许多科学家正在探索发展人工超智能的风险。 尽管它甚至还没有出现,但已经引起了人们的关注并引发了争论。
尤德科夫斯基认为,人为的超级智能可以说出一切可以说服您的东西:谨慎的推理,威胁,欺骗,建立融洽的关系,潜意识的建议等等。 以光速行进,AI可以建立情节,探查弱点并确定最容易说服您的方式。 正如生存威胁理论家尼克·博斯特罗姆(Nick Bostrom)所说,“我们必须相信,超级智能可以实现它设定的目标。”
鼻烟盒AI实验使人们对我们控制自己可以创造的东西的能力产生怀疑。 这也使我们理解了我们对自己的现实一无所知的可能性。