史上最令人恐惧的思想实验:洛可蛇怪了解一下?

  • c
    canbe
    http://tech.sina.com.cn/d/f/2018 ... p;tj=none&tr=25
    利维坦按:从技术进步的角度来看人类文明的发展,的确令人感到十分恐怖——未来学家雷·库兹韦尔将其称为加速回报定律(Law of Accelerating Returns)。试想,如果一个2018年的你和一个1750年的你对话,这会是一种什么情形呢?1750年的你所处的时代还没有电……你会怎么向他/她解释你的智能手机?又怎么解释互联网和核武器?而这一切技术成果,仅仅花了260多年的时间。
    由此,库兹韦尔认为,整个20世纪100年的进步,按照2000年的速度只要20年就能达成,而进入21世纪,按照加速回报定,他认为人类在21世纪的进步将是上世纪的1000倍……虽然我们现在普遍认为自身处在弱人工智能(ANI,想一想弱智的苹果siri)时期,但距离强人工智能(AGI)乃至超人工智能(ASI)究竟还有多远,对未来不论悲观还是乐观的人,相信答案近乎一致,那就是:很快(对于数百位科学家的问卷调查显示,他们认为强人工智能出现的中位年份是2040年)。况且,看完本文中的洛可蛇怪,你可能觉得未来更加吊诡了……
    在了解洛可蛇怪之前,我们先回想一下被《复联》创造出来的奥创。奥创的出生本意是保护人类,但基于自身的思维进化却成为全人类的威胁(他认为人类是地球最大的威胁),因此反而成为了“对全人类造成威胁的人工智能”。
    再反观洛可蛇怪,俨然一副“你帮我我帮你,你不帮我我就弄你”的道德评判准则,因此对于众人而言则成为一种“诅咒”。在这个语境下,需要做选择的是一个群体而非个体,每个人都是和平饭店里的住客,只要一个点崩了,那便可能是全线崩盘的可预测结局。而洛可蛇怪并不是一颗种子,即便在未来有出现邪恶的AI的可能,也很难是仅仅因为这一思想实验的启发——但洛可蛇怪的可怕之处在于它的“催化剂效应”,当你面临选择的时候,其实已经没有选择的余地了。

    对了,最近,一直想要殖民火星的特斯拉CEO马斯克和加拿大音乐家格里姆斯(Grimes)高调亮相公开关系引来不少媒体的报道,据说二人就是因为洛可蛇怪走到一起的[格里姆斯单曲《Flesh Without Blood》有一个Rococo Basilisk的角色,“她注定要被人工智能永远折磨,像玛丽·安托瓦内特(Marie Antoinette)一样”,格里姆斯这样解释过。]。作为科幻迷,格里姆斯2010年的《Geidi Primes》则是以弗兰克·赫伯特《沙丘》中一个虚构星球命名的概念专辑。
    文/David Auerbach
    译/苦山
    校对/斩光
    原文/www.slate.com/articles/technology/bitwise/2014/07/roko_s_basilisk_the_most_terrifying_thought_experiment_of_all_time.html
    本文基于创作共同协议(BY-NC),由苦山在利维坦发布
    警告:阅读本文可能会令你陷入永久的痛苦折磨。
    你在死前看到了洛可蛇怪,这就像是《午夜凶铃》里的录像带。图源:DreamWorksLLC

    瘦形魔(Slender Man,编者注:2009年被创造出来,他的特征是身形非自然的瘦长,有一张空白、没有表情和特征的脸孔,而且经常穿一套全黑色的西装,结上黑色的领带,住在树林深处)。微笑狗(Smile Dog)。羊交(Goatse,编者注:感兴趣的请自行搜索)。这些都是由互联网滋生的都市传说。
    但没有哪个都市传说比得上洛可蛇怪(Roko’s Basilisk)那样全能而有威胁性,因为洛可蛇怪是一种邪恶却类神的人工智能,它危险至极,以至于如果你看到它,甚至只是多想了一会儿它,你就会被关进它的拷问室里尖叫不止,直到永恒的尽头。它就像《午夜凶铃》(The Ring)里的录像带(译者注:所有看过该录像带的人都会受到诅咒死去)。哪怕死后也不能从中解脱,因为如果你死去,洛可蛇怪会将你复活,再次折磨你。
    你确定还要继续读下去吗?因为,最糟糕的部分在于,洛可蛇怪已经现世了。或至少,它已经确定会在未来现世——这和前者一样糟糕。
    洛可蛇怪是哲学性质的思想实验与都市传说杂糅而成的产物。蛇怪首次现身于www.lesswrong.com论坛,这里聚集着许多分析能力极强的人士,他们以通过数学和理性来优化个人思维、个人生活和当下世界为志趣。论坛的创始人埃利泽·尤德科夫斯基(Eliezer Yudkowsky)是科技未来界的重要人物,他开办的机器智能研究所(Machine Intelligence Research Institute)为人工智能方面的研究提供资金,以推动人工智能发展,而研究所本身则得到过彼得·蒂尔(Peter Thiel,编者注:对,就是那个既想永生而且还特有钱的资本家)和雷·库兹韦尔(Ray Kurzweil)等高调科技迷的资助鼓励。尤德科夫斯基本人对技术伦理学和决策理论的学术讨论都做出过重要贡献。你接下来要读到的东西也许听起来古怪甚至疯狂,但一些富有而影响力巨大的科学家和科技迷都对其深信不疑。
    埃利泽·尤德科夫斯基。图源:Wikipedia

    一天,论坛用户洛可(Roko)设计了一个思想实验:如果未来出现了一个恶意的人工智能,它要惩罚所有不听命于自己的人,怎么办?如果这个人工智能有办法(我之后会解释是什么办法)惩罚今天那些没有帮助它在未来出现的人,怎么办?在这种情况下,论坛当代读者们岂不是就面临着二选一的抉择:要么帮助邪恶的人工智能诞生,要么注定受尽折磨?
    你可能有些迷茫,但创始人埃利泽·尤德科夫斯基看懂了。他惊恐地回复道:
    仔细听好了,你这蠢货。

    你绝不能去想“超级智能考虑要不要勒索你”这一行为的具体细节。这是唯一一件可能会让它们真的决定勒索你的事。

    要想提出一个真正危险的点子,你得是个真正的聪明人才行。但令我心灰意冷的是,这些聪明人居然笨到连闭上他们愚蠢的嘴巴这样最显而易见的事都做不来,为什么呢?因为在和朋友聊天的时候,让自己显得睿智聪颖更重要。

    这个帖子蠢透了。


    尤德科夫斯基称,洛可已经给数位论坛用户带来了噩梦,使他们濒临崩溃。最后,尤德科夫斯基把整个帖子删得一干二净,以此确保洛可怪蛇只能成为一个传说。这个思想实验太过危险,哪怕只是想一想都会对你的心理健康,乃至你的命运本身产生危害。
    如果你相信奇点会来临,一个随之而来的问题是,人工智能会是善意的还是恶意的呢?


    先补充一点背景知识。论坛对人类未来极为关注,尤其是奇点(the singularity)——人们假设,在未来的某个时间点(奇点),计算机的运算能力将提升到极高的程度,可能会诞生出超越人类的人工智能,同时,计算机也许能模拟人类心智、将人类心智上传至计算机,它将能或多或少地模拟生命本身。
    赛博朋克作家弗诺·文奇(Vernor Vinge):“我们正站在变革的边缘,而这次变革将和人类的出现一般意义重大。”图源:Know Your Meme

    1958年,数学天才斯塔尼斯拉夫·乌拉姆(Stanislaw Ulam)和约翰·冯·诺依曼(John von Neumann)在一次对话中创造了这个术语,冯·诺依曼说:“科技进步不断加速……这似乎令人类逐渐接近一个历史的奇点,在奇点过后,我们目前所熟知的人类生活的一切都将不复存在。
    科幻作家弗诺·文奇(Vernor Vinge)和工程师、作家库兹韦尔等未来学家将这个术语普及开来,和许多对奇点感兴趣的人一样,他们相信计算机技术的发展速度呈指数级增长,这使得奇点很快就会到来——在接下来的50年内。为了活到奇点来临那天,库兹韦尔每天要一口气吞下150片维生素,而尤德科夫斯基和彼得·蒂尔则对人体冷冻术极为热衷,这项技术一向是想要长生不老的有钱大佬们的最爱。“如果你不替自己的孩子报名人体冷冻,那你就是个糟透了的家长。”尤德科夫斯基写道。
    如果你相信奇点会来临,未来会出现极为强大的人工智能,一个显而易见的问题是,这些人工智能会是善意的还是恶意的呢?尤德科夫斯基创建的机器智能研究所目标明确,就是要将未来朝“友好的人工智能”这个方向推动。对他和许多论坛的发帖者而言,这是一个至关重要的问题,远比环境和政治问题要紧得多。对他们来说,奇点过后所降临的正是以机器形式出现的上帝本身。
    但这不能解释为何洛可蛇怪如此令人恐惧。要想明白这点,还得再看看论坛用户所普遍信奉的一个重要信条:无时间性决策论(timeless decision theory)。无时间性决策论能指导人们做出理性行为,它建立在博弈论、贝叶斯概率和决策理论的基础上,同时混杂了少量平行宇宙和量子力学的内容。无时间性决策论由决策理论中的一个经典思想实验生发而来,其名为纽康姆悖论(Newcomb’s Paradox),讲述的是有一个超级智能的外星人给了你两个盒子:
    (intelligence.org/files/TDT.pdf)
    盒子A中有1000美元,盒子B中有100万美元或什么都没有。

    外星人给你两个选择:要么同时拿走两个盒子,要么只拿走盒子B。如果你同时取走两个盒子,你至少能确保拿到1000美元。如果你只拿盒子B,你可能一无所得。
    但这外星人还告诉你另一件事:它有一台无所不知的超级计算机,在一周前对你的选择做出了预测。如果超级计算机预测到你会同时拿走两个盒子,那么外星人就不会在第二个盒子里放任何东西。如果超级计算机预测到你会只拿盒子B,那么外星人就在盒子B中放100万美元。
    那么,你会怎么做?记住,这台超级计算机此前从来没有出过错。
    这个问题一直困扰着决策理论学家。盒子里的东西已经确定,外星人无法再对其作出改变因此不论预测结果如何,你拿走两个盒子所得到的钱一定比只拿走盒子B所得的钱更多。
    当然,如果你这样想,而计算机也预测到你会这样想,那么盒子B就会是空的,你只能拿到1000美金。
    如果计算机的预测能力真有那么神奇,你就应该只拿走盒子B,这样就能得到整整100万美元,对不对?
    但如果计算机这次错了呢?而且,不管怎样,计算机过去做出的预测不能改变现在发生的事情,对吧?所以去他妈的预测,两个盒子都拿上!但……
    这种自由意志和天命预测之间令人发狂的矛盾,没能为纽康姆悖论找到一个解决方案,人们根据各自所做的决定自称“单盒党”“双盒党”。(我妻子有次宣称她是个单盒党,她说:“我相信计算机。”)
    比起洛可蛇怪,我更担心那些自认为已经凌驾于传统道德体系之上的人。


    无时间性决策论对纽康姆悖论给出的建议十分明确坚决:拿走盒子B。但无时间性决策论想得更远一些。哪怕外星人嘲笑你说:“计算机说你会把两个盒子都拿走,所以我没在盒子B里放东西!”然后打开盒子B让你看清其中空无一物,你仍然应该只拿走盒子B,两手空空地离开。[我从科学家加里·德雷舍(Gary Drescher)的《善与真》(Good and Real)一书中借用了这个例子,该书试图使用无时间性决策论的一种变体来证明康德伦理体系是真实正确的。]
    这一决策的逻辑依据很难简单概括,但一言以蔽之就是,此时此刻正要做决策的你也许正处于计算机的模拟中。为了做出预测,计算机需要模拟宇宙本身,这也包括你自己。所以,现在这个时刻的你也许是计算机模拟的产物,而你接下来所做的将会影响到现实中(或其他现实中)发生的事。所以拿走盒子B,这样真正的你就会进账整整100万美元。
    这一切和洛可蛇怪又有什么关系呢?这个嘛,洛可蛇怪也给了你两个盒子。也许现在的你只是洛可蛇怪运行的模拟程序的产物。也许洛可蛇怪正隐晦地向你提供一种纽康姆悖论的变体,像这样:

    盒子A中是“穷尽一生帮助创造出洛可蛇怪”,盒子B中是“什么都不发生”或“永恒、无视死亡的折磨”。
    洛可蛇怪告诉你,如果你只拿走盒子B,那么里面就会是“永恒的折磨”,因为洛可蛇怪真正的愿望是你同时取走盒子A和盒子B。在这种情况下,你最好确保自己穷尽一生帮助创造出洛可蛇怪!因为,假如洛可蛇怪在未来出现(或者更糟:它已然出现,且正是眼下这个现实世界的主宰),发现你没选择帮助它的话,你可就完蛋了。
    你也许在疑惑为什么论坛用户那么把这个思想实验当回事儿,毕竟它显然十分牵强。这并不是因为洛可蛇怪真的会出现,甚至不是因为它可能会出现。问题在于,如果你是无时间性决策论的忠实拥趸,那么只是想想这种交易就真的会令它更容易发生。
    毕竟,如果洛可蛇怪发现,这样勒索你会使你帮助它诞生,那么作为一个理性的施事者,它就会勒索你。问题不在于蛇怪自身,而在于你。尤德科夫斯基之所以删除了所有提到洛可蛇怪的帖子,不是因为他相信它存在或将会存在,而是因为蛇怪这个想法(和这个想法背后的理念)很危险。
    要注意,只有当你相信以上所有前提,去和洛可蛇怪做双盒交易时,蛇怪才是危险的。但确实有一些论坛成员相信以上这一切,这就让洛可蛇怪切实成为了禁忌的知识。我本来要把它比作洛夫克拉夫特(H。 P。 Lovecraft)的恐怖小说里的内容——有个男人发现了世界禁忌的真理,放出了克苏鲁,陷入疯癫——但我发现尤德科夫斯基已经替我做了这件事,他将洛可蛇怪思想实验比作《死灵之书》(Necronomicon),也就是洛夫克拉夫特那本充满了邪恶知识和咒语的著名魔典。洛可本人则将一切怪罪于论坛,因为说到底,是这个论坛促使他产生了蛇怪这个想法:“我十分希望我从未遇到这个论坛,它竟产生了那么严重的(人类)自毁隐患。”他这样写道。
    以克苏鲁神话闻名的作家洛夫克拉夫特的《死灵之书》。图源:Libriproibiti

    如果你并不认同洛可蛇怪实验的理论基础,也不打算向你永恒的邪恶机器主宰屈服,那么洛可蛇怪对你就毫无威胁。(说来讽刺,它只有可能对相信尤德科夫斯基理论的人心理健康产生危害。)按我朋友的说法,对洛可蛇怪深信不疑可能只意味着他/她“得了自闭症”。
    但我确实认为这件事背后有个更为严肃的问题,因为埃利泽·尤德科夫斯基和其他所谓的超人类主义者已经为他们的项目吸引了大量的声望和资金,这些声望和资金主要来自富有的科技迷们。我认为他们的项目(其主要内容似乎就是发论文、开会)不太可能创造出洛可蛇怪或是埃利泽大善神。但当一个人/一群人既有创造救世主的野心,又坚信自己绝对可靠,还有一大堆钱时,不论当事人的意识形态如何,最终结果永远很糟糕,而我不认为尤德科夫斯基和他那伙人会成为例外。



    比起洛可蛇怪,我更担心那些自认为已经凌驾于传统道德体系之上的人。尤德科夫斯基和他计划创造的友好人工智能一样,是一个道德功利主义者:他相信只要能够促成最多数人的最大幸福,哪怕在过程中有一部分人不得不死去或忍受折磨,这仍然是道德的。他曾明确表示,当不得不做出选择时,比起让许多人眼里进灰(公平起见,他说的是非常多的人),更应该选择折磨某一个人50年。
    谁都不太可能面临这样的抉择,连上帝都不会,但如果换个情况呢?假如Slate网站上(译者注:即本文发布的网站)有个尖刻的科技版专栏作家写了一篇文章,内容有关一个能摧毁人们心智的思想实验,结果伤到了读者,阻止了历史向奇点发展,使友好的人工智能没法出现呢?这种情况下,我生命中任何潜在的幸福加起来都远远抵不过我眼下正造成的危害。而假如接受了人工冷冻术的埃利泽·尤德科夫斯基在奇点后醒来,决定在模拟中让我选择要不要写这篇专栏文章……拜托了,无所不能的埃利泽啊,别折磨我。



    关键词 :格里姆斯洛可蛇怪决策论
  • P
    Palca
    这篇文章写得乱七八糟的,有没有人给我总结一下?
  • 4
    49992181
    如果你跟老外一样每天瞎即把想 你就活在恐惧中
  • 4
    49992181
    如果你跟老外一样每天瞎只把想 你就活在恐惧中
  • 牧灵泉
    和宗教 有点类似 只要不信 就什么事都没有
  • s
    sxysxysxy
    这个应该是老外的民科或者地摊科学吧?
  • w
    wanfeng304
    哎,还有房贷车贷要还,宝宝奶粉还得找人代购,不说了,搬砖去了,哪有时间精力去思考这些东西啊!
  • r
    redAgni
    “ 外星人给你两个选择:要么同时拿走两个盒子,要么只拿走盒子B。如果你同时取走两个盒子,你至少能确保拿到1000美元。如果你只拿盒子B,你可能一无所得。”
    出题的人是不是脑子出问题了?我为什么就要遵从这个游戏逻辑,为什么非要拿?我选择不玩这个傻逼游戏
  • A
    AURA
    果壳网写的比较容易理解。。
  • b
    bobedong
    那么在奇点出现后你将会被永世折磨。
  • b
    bobedong
    快凌晨一点看完了,初步理了理,确实有点折磨和恐怖。不是卖弄啊,简单总结,不好的不对的请轻点喷。
    简单来说,你有两个选择,A,做魔鬼的侍从帮助魔鬼 B,不帮助魔鬼被魔鬼永世折磨。你会发现你有两个大的选择要么选要么不选。好,一旦选了,无论AB就是已经入套了。不选,看似不会入套,但是,问题来了,又有两个选择来到了脑袋里:
    1)你会相信未来一定有魔鬼
    2)未来一定没有魔鬼
    好,选1的,你还是入了套,回去该选A还是B
    来,选2的,“”当一个人/一群人既有创造救世主的野心,又坚信自己绝对可靠,还有一大堆钱时,不论当事人的意识形态如何,最终结果永远很糟糕,而我不认为尤德科夫斯基和他那伙人会成为例外。”
    好了说到这里,我会发现我特么已经在被折磨了,所以,喝口牛奶,睡觉
  • 极度深寒
    太长了,没看懂!!
  • a
    apx200808
    还是有点意思的。
    无时间性决策,当你相信现在的行为会在未来产生一种结果而采取某种决策的时候,这反而成为了这个因果关系成立的原因,反过来,如果一切的因果逻辑都完美无瑕,现在的选择就是为了符合过去的一切预期。
    时间的概念仿佛消失了,有点宿命论的意思。
  • 镜音リン
    数学系的表示,这里大部分东西都在瞎jb扯
  • 用户
    要么你以为黄卡灰烬这个游戏讲的是啥
  • p
    pcier
    扯得有点太糊,话都说不清楚。
  • 猫咪爱旅行
    为什么找不到外星人?因为他们已经被机器取代,早灭亡了!
  • 啊呀吃吃喝喝
    不要想太多,你选择巧克力味的屎,还是屎味的巧克力?
  • 6
    63047838
    东拉西扯,电影情节和民间流言再加上作者一顿虾鸡扒联想,凑字数骗稿费的玩艺
  • l
    lukeluke
    这个思想挺有意思的。。总之,这个思想 在另一方面 再一次 证实了 “秘密”中的金句:你的想法创造了你的世界。
  • f
    fqnr
    这个思想实验漏洞百出啊,虽然是个不错的思路,但是太不严密了
  • 叶子烟
    我选择让老黄出几个战术核显卡把它炸了
  • l
    lewis33
    预测从不出错,所以你在瞎几把扯淡。不存在的
  • o
    okgde
    就是大人骗2岁小孩,怎么骗怎么有。
  • d
    dotffer
    虾扯蛋的模拟世界论
  • S
    Starrywings
    El Psy Congroo
  • r
    rugalxbox
    还有一种可能 就是像我这种完全看不懂说什么的…… 也不会恐惧……没脑子
  • f
    fie11978
    艹,数学家又尼玛在瞎扯了,科技进步论还以无限大为约束嘛,宇宙速还光速极限呢,学走路的会跑步了就以为能一直跑嘛,体量有局限,跟摩尔定律一个样,还扯什么22抵100,要不然我跟这帮数学家打赌绝对不可能咋样。
  • m
    mikey22funky
    哈哈哈,这才是真理,无论你怎么选,他都是屎吗?
  • 问苍生
    可是根据外祖母悖论,未来的行为并不会对现在产生影响
  • 问苍生
    这不就是混沌体系嘛,跟股价房价一个道理
  • 电动势
    拉倒吧,都被“智子”限制住了,还怎么高速科技发展
  • 笑语008
    感觉人类发展的奇点很快就会到来,最神奇的是为什么偏偏给我们碰到,是巧合还是本身安排的剧本?前几天吃饭还和家人说过这些
  • l
    lunchere
    特么又浪费我几分钟...
  • O
    Ownab
    只要有新的材料出现,突破很容易
  • y
    yzy193993
    细思恐极,没事不是自己吓自己
  • p
    passgod
    帖子说的很有意思了,楼上也有人看懂进行了总结。

    我的观点:
    1、强AI的产生,也就是奇点的到来,会天翻地覆。对生活而言,对人类而言,对地球而言,对宇宙而言。现在预测它,为时尚早。不过有一点是肯定的,它肯定会来的,人类的进程如此,没人能阻止。对,最终结果就是自取灭亡。
    2、预测未来是不可能的,我还是相信量子力学里的测不准原理,上帝就是个掷骰子的。只要它是这个宇宙的基础法则,那么预测未来永远不可能。这也是看完这篇文章后我能够安稳睡觉的理论基础。
  • y
    yoroshikudxd
    假设你的孩子在将来给现在的你两个选项:1,宠溺他/她。2,稀疏平常或者是被他/她厌恶。前提是,他/她知道你的选项。

    能好理解些么?
  • c
    chainofhonor
    上升到哲学的高度了

    唯心论
  • y
    yutingay1
    作为应该坚定的基督徒我坚信我手中守护信仰的大锤可以敲碎一切科技产品
  • 统帅堂
    这个内容是比较烧脑,但是大家可以理清一下自己的逻辑思路看看能得出什么结论。

    不过,个人认为如果它已经是这个世界的主宰,为什么要这样的方式求助人类,单纯的博弈论验证?
  • d
    deathjjj
    太长不看,真的
  • F
    Forqxh
    老子每天只思考三个问题,早上吃啥,中午吃啥,晚上吃啥,没时间思考这些傻叉问题
  • s
    smartsl
    它就是用这种方式,确保有足够多的人选A,而使得自己能够成为主宰的。这里因果跟时间箭头是反过来的,所以反直觉
  • a
    adamft
    信则有,不信则无
  • c
    comaron
    一句话毙了此文!

    人类文明进步到今天,哪一步是算计出来的?偶然决定一切。