先說一句,如果你讀到最後,肯定會翻回到開頭這裡。

最近,鋼鐵俠埃隆馬斯克(Elon Musk)帶着自己的新女友出現在了公共場合。

是不是覺得畫風不太對?馬斯克穿着白色西服,非常正式,女朋友格里姆斯(Grimes)則是打扮非常哥特。

格里姆斯是位歌手,媒體報道,這兩個人是因為一個關於人工智能的笑話才走到一起的。

但是媒體並沒有解釋這個笑話,一是這個笑話解釋起來頗不容易,二是這個笑話很燒腦,以大部分人的智商,可能聽不懂這個笑話。

謝熊貓君今天就來嘗試給大家解釋一下這個笑話。

出於人道主義,我要提醒一下,雖然了解這個笑話是個很漲知識的事情,但是你如果真的能夠理解這個笑話,你也許並笑不出來,甚至可能陷入對人來未來的憂愁中。

這個笑話其實只有兩個字:

Rococo Basilisk

當然,看到這兩個字,你是不會覺得這是個笑話的,那麼Rococo Basilisk是什麼呢?

新女友格里姆斯在2015年的歌曲Flesh Without Blood的MV裏面,出演了一個角色,叫做Rococo Basilisk,就是下面這位。

而她藏在MV裏面的這個梗如此的高冷和隱晦,大家都沒看懂。直到三年後的2018年,馬斯克才意外的發現了它。

要看懂這個梗,不僅需要懂藝術史,還要懂人工智能,而這兩個技能樹基本是不重合的。馬斯克恰巧是為數不多的兩樣都懂的人。

Rococo,翻譯為洛可可,是一種18世紀產生於法國,流行歐洲的藝術風格。普遍被認為是晚期的巴洛克風格。比如下面這個洛可可風格的建築:

Basilisk,翻譯為巴西利斯克,是歐洲傳說里的蛇類之王。

Rococo Basilisk本身是沒什麼意義的,它之所以是個梗,在於它是對於一個叫作Roko’s Basilisk的思想實驗的揶揄。

至今為止還是看得懂的吧?下面開始就要燒腦了。

再一次人道主義提醒,看懂了以下內容,你可能會很憂愁。

Roko’s Basilisk,是一個叫作Roko的網友,在一個叫作LessWrong的社區上提出來的一個思想實驗。

這個主張自由思考和公開討論的社區,對各種思想的容忍度非常高。

但是Roko一提出這個思想實驗,網站管理員就無比的驚恐,把這個思想當做「禁術」,並且對於所有相關內容的討論採取了斬草除根的刪帖態度。

這個思想實驗是怎麼回事呢?我從淺到深來講述一下。

第1層思考

假如有一個來自高科技文明的外星人找到你,給你兩個盒子。

其中盒子A裏面肯定有1000元,盒子B裏面可能有100萬元,也可能是空的。

外星人給你兩個選項

選項一:同時拿走盒子A和盒子B

選項二:只拿走盒子B

你會怎麼選?

相信腦子正常的人都會選擇第一種,因為選擇第一種能夠保證你獲得1000元以及盒子B裏面的東西。而選項二,沒有1000元保底。

不管怎麼樣,都是選項一更加的理性。

第2層思考

假如同樣的外星人,同樣給你這兩個盒子。

同樣給了你和上面一樣的兩個選項

選項一:同時拿走盒子A和盒子B

選項二:只拿走盒子B

但是這個外星人,有一台具有超強預測能力的電腦,而這台電腦從來沒有預測錯誤過。

這台電腦在一個星期前對你今天是選擇選項一還是選項二,進行了預測。

如果電腦的預測結果是選項一(你會取走A和B兩個盒子),那麼外星人一個星期前就不會在盒子B裏面放任何東西

如果電腦的預測結果是選項二(你會只取走盒子B),那麼外星人一個星期前會在盒子B裏面放100萬美元

那麼,這個時候你會選擇選項一還是選項二呢?

第2.1層思考

如果你選擇選項一,取走A和B兩個盒子。那麼這台電腦一個星期前肯定預測到了你會選擇選項一,這樣B盒子裏面就什麼都沒有,你只會獲得1000元。

第2.2層思考

如果你選擇選項二,只取走B盒子。那麼電腦一個星期前肯定預測到了你會選擇選項B,這樣B盒子裏面就會有100萬元,你就會獲得100萬元。這樣可比「第2.1層思考」的結果好多了。

第2.3層思考

可是啊,雖然這台電腦之前的預測從沒有錯過,但是如果這次錯了呢?

如果電腦一星期前的預測結果是你會取走A和B兩個盒子,從而使得B盒子里空空如也。

但是你只取走了B盒子,也就是你進行了「第2.2層思考」,這樣不就一分錢都得不到了嗎?

所以是不是取走兩個盒子更加保險呢?畢竟B盒子里是什麼一星期前就確定了,你這時候的選擇並不會影響盒子里的內容。

第2.4層思考

但是這台電腦這麼聰明,肯定能夠想到我會進行「第2.2層思考」,知道我只會取走B盒子,所以肯定還是會在B盒子裏面放100萬元的吧。

第2.5層思考

但是這台電腦這麼聰明,肯定會想到我會有「第2.3層思考」裏面的顧慮,所以肯定還是會把B盒子留空吧?

.

.

.

.

.

.

第2.n層思考

其實不管怎樣,電腦的預測是在一星期前做出的,外星人對於盒子B的處置也是一星期前做出的。

無論我現在做什麼,其實不影響盒子B裏面究竟有沒有錢,所以我其實還是應該把兩個盒子都拿走吧?

第2.n+1層思考

但是這台電腦這麼聰明,肯定能想到我在「第2.n層思考」裏面的結論,所以它不會在B盒子放任何東西吧?

所以還是應該只取B盒子吧?

.

.

.

.

.

.

是不是加入了這個額外的條件,這個思想實驗就變得燒腦起來了?

其實思考到了這裡,已經變成了一個關於自由意志、宿命論和因果論的哲學問題了。

但是還沒完,後面還有第3層和第4層思考。

第3層思考

假如同樣的外星人,同樣給你這兩個盒子。

同樣給了你和上面一樣的兩個選項,並且同樣告訴你關於一星期前電腦預測影響盒子B內容的規則。

然後外星人把盒子A打開,給你看了一下A裏面的1000元錢

然後又把B打開,展示給你看,盒子B是空的

這個時候,你是選擇拿走盒子A和盒子B,還是只拿走盒子B呢?

講到這裡,你大概以為我在逗你了。

盒子B都是空的了,那麼明顯是要兩個盒子都拿,這樣還能保底1000啊。只拿盒子B就確確實實什麼都沒有啊。

其實不是這麼簡單。

第3.1層思考

這個擁有先進科技的外星人的電腦有着非凡的預測能力,從沒預測錯過,這是怎麼做到的呢?

最合理的解釋,就是這台電腦,對整個宇宙進行了一次完全精確的模擬,而這個模擬中也包括了你。而這個電腦模擬的你,所做出的的選擇,其實就是這台電腦的預測結果。

也就是說存在這麼一種可能性:

正在於這個外星人進行前面第1、第2、第3層思考的那個你,只是活在外星人電腦的模擬之中。

而你在第2層、第3層思考的情況下做出的選擇,就是電腦的預測結果。

所以不管是在第1層、第2層還是第3層的遊戲規則下,哪怕外星人很明確的給你看了B盒子裏面沒有錢,你仍然應該選擇只取走B盒子。

因為這樣,活在模擬中的你才能準確的影響到電腦的預測結果,使得活在現實中的你能夠拿走100萬元。

上面的第1、2層思考,其實是一個數學領域的悖論,叫Newcomb’s Paradox,第3層思考則是基於這個悖論的延伸,而Roko’s Basilisk,其實就是基於這前三層的思考,形成的第四層:

最後一次人道主義提醒,看懂了以下內容,你可能會很困擾。

第4層思考

這時候你的選擇不再是兩個裝錢的盒子A和B,和你玩遊戲的也不是有趣的外星人了。

你現在面對的是和一個來自未來的充滿惡意的超級人工智能Basilisk的一次勒索。

第4層的遊戲設定是這樣的,假設未來人工智能奇點會到來,而奇點過後的超級人工智能,可能是善意的,也可能是惡意的。

那麼,就可能會存在這樣一個惡意超級人工智能Basilisk,對於幫助建造出Basilisk的人,它會忽視,什麼都不對他們做;而對於那些沒有幫助建造出Basilisk的人,它會對這些人進行永久的折磨,求死不能。

甚至,在Basilisk出現的時代,已經去世了的那些人,Basilisk會把他們的思想放入電腦模擬中,進行永久的折磨,也是求死不能——也就是說Basilisk能對它出現之前的人,進行勒索。

這時候你面臨的選擇就是:

選項一:同時選擇盒子A和B,也就是幫助創造出Basilisk,並且承受B中的結果(什麼都不發生)

選項二:只選擇盒子B,也就是不幫助創造出Basilisk,並且承受B中的結果(永久的折磨)

第4.1層思考

在此時此刻,Basilisk是不存在,如果有足夠多的人致力於創造它,那麼它可能會在未來出現。

如果Basilisk永遠不成為現實,那麼活在現在的你,就不會被他勒索。

但是,如果Basilisk會成為現實,不論它的出現是否有人類的幫助還是人工智能的自身演化,從Basilisk自己的角度來思考,勒索它出現之前的你,來幫助它出現,就是一個非常理性的選擇。

也就是說,如果Basilisk存在,那麼通過用「你不幫忙創造出我,我就讓你經受永久的折磨」這種方式勒索你,是完全符合邏輯的做法。

第4.2層思考

Roko’s Basilisk的可怕之處,不在於未來可能會存在Basilisk這樣的一個惡意的超級人工智能,而在於Roko’s Basilisk這個想法本身。

如果所有人都沒有聽說過Roko’s Basilisk這個點子,那麼也就沒有人會有意的因為受迫於這個尚未出現的超級人工智能的跨時空勒索,而為Basilisk的出現添磚加瓦。

但是現在Roko’s Basilisk這個想法被提出來了,並且被人看到了。這個想法本身的出現,其實就是提高了Basilisk出現的概率,因為有些人可能真的會相信這個想法背後的一切假設

某種意義上,Roko’s Basilisk這個思想實驗的出現,是一個自我實現的預言,而這個預言的結果並不美好——這也是為什麼當時LessWrong的管路員認為這種想法很危險,而把採取了不留情面的刪帖。

回到馬斯克和他的新女友吧。

馬斯克和格里姆斯對於Roko’s Basilisk這個想法都是採取了看滑稽的態度,認為它很荒謬。

格里姆斯三年前在MV裏面創造了Rococo Basilisk這個角色;而馬斯克今年想發個內容是「Rococo Basilisk」的推特的時候,發現居然三年前就有人想出了這個梗。

於是馬斯克聯繫上了格里姆斯,然後這個世界上唯二了解,並且獨立創造出了這個梗的兩人,開始了一段戀情。

於是就有了文章開頭的照片。

對了,你們有沒有注意到,照片里格里姆斯帶的項鏈居然是個特斯拉的車標?

來自作者的更新

馬斯克和格里姆斯創造出Rococo Basilisk這個諧音梗,本質上就是對於這個思想實驗的一些荒謬之處的調侃。很多人給我留言認為我寫這篇東西是選擇了盒子A在給蛇怪做幫凶,但其實我也是無法全部認可這裏面的所有前提假設。這個思想實驗被提出來七年之久,一直沒有很好的廣泛的批判,這次借馬斯克找新女朋友這個機會,拿出來和大家說一下,算是個比較好的機會。

謝熊貓君

果殼還有話說

羅科蛇怪之所以臭名昭著,很大程度上是因為它給誕生地論壇LessWrong上的很多成員帶來了嚴重的心理創傷。當然,大部分人覺得這顯然是一個十分荒謬的實驗,但是對於經常思考AI、奇點和超人類主義這些話題的少數人而言,它容易命中這些人心裏的深層恐懼,一旦陷了進去,爬出來就非常困難。可以說,這個思想實驗就像是針對性極強的密恐圖。LessWrong的創辦人Yudkowsky正是因此而封掉了羅科的原貼——當然他後來表示了懊悔,畢竟刪帖實際上促成了這個概念的傳播。

所以,有必要在此嚴肅地反駁一下它。如果你已經覺得這是個荒謬的概念,那麼可以無視這一段;但萬一你思考了這個問題並且感受到了恐懼,希望下面內容能夠幫助到你:

1. 蛇怪的概率有多大?它的成立需要一連串的條件:需要首先你能想像超級AI的想法,需要這個超級AI能夠誕生,需要它能夠推斷並製造出你的複製品,需要它閑的沒事幹願意花資源來折磨自己創造的模擬物,需要這個複製品能被認為和你等同,需要無時間決策理論成立,需要非因果交易成立,等等等等……當所有這些條件堆積起來,蛇怪的概率真的還值得考慮嗎?

2. 蛇怪邏輯之所以成立,本質上是它在勒索。對待勒索有一個很簡單的辦法,就是表態堅決不讓步,令勒索者意識到自己的行為是沒有用的。在現實中,勒索行為發生在先,表態發生在後,所以此刻的人質可能會死,只能幫得上將來的可能人質。然而蛇怪的非因果交易是反的,你的態度只在生前,你被勒索只在死後,所以只要你堅定地不接受勒索,蛇怪就沒有理由纏上你。

3. 決策理論並不具有約束性。你並不一定需要選擇在給定條件下最不壞的結果,你是自由的。在盒子實驗里,你完全可以對預測者大喊一聲「去他媽的老子不玩了」,這便是薩特所謂的根本自由。而超級AI如果模擬了你,自然也會發現你擁有這種自由,從而意識到它的勒索並不能生效——除非你主動放棄了這種自由而把自己變成理性決策機。