譯者註:Amjad Masad 是一位約旦裔美國科技創業家,目前是線上程式設計平台 Replit 的創辦人兼 CEO。近日,他作客美國著名電視主持人 Tucker Carlson 的播客節目,就 AI 發展、科技倫理以及矽谷政治氛圍變化等熱門話題提供了來自內行人的獨到見解。
TL;DR
· Amjad 認為中本聰可能是一名叫Paul Le Roux 的津巴布韋駭客,他創造比特幣是為了儲存犯罪所得。
· Amjad Masad 認為 AI 應該是人類能力的延伸,而非替代。他批評了將 AI 視為威脅的觀點,認為這源自於對人性的失望。他強調人類直覺和理性思考的重要性,質疑將大腦簡單等同於電腦的觀點。
· Amjad 描述了矽谷存在一些類似邪教的群體,如「理性主義者」和「有效利他主義者」。這些群體對 AI 的發展有重大影響,但他們的一些理念和做法值得警惕。他認為這些群體的想法源自於對人性的不滿和傲慢。
· Amjad 認為 AI 在教育、醫療診斷等領域有巨大潛力。他鼓勵人們學習程式設計以利用 AI,但也警告了 AI 可能被濫用於監控和軍事目的。他強調開源 AI 的重要性,以防止技術被壟斷。
· 矽谷正從一黨獨大的民主黨傾向, 逐漸出現更多支持共和黨的聲音。一些知名科技人士如 Marc Andreessen 開始公開支持川普。 Amjad 認為這種變化部分源於對科技監管的擔憂,以及像 David Sacks 這樣的人物的影響。
人機關係:取代還是延伸?
Tucker:你們看起來好像直接參與了 AI 的發展,是這個生態系統的一部分。
Amjad Masad:是的,我們從中受益匪淺。當它開始發生時,很多人都感到驚訝,但我們早就預見了。
Tucker:你預見了 AI 的發展。
Amjad Masad:是的,我預見了。這次 AI 浪潮讓很多人措手不及。 ChatGPT 在 2022 年 11 月發布,許多人都驚呆了,突然之間,電腦能和我對話了。
Tucker:但 AI 根本沒達到那個程度。
Amjad Masad:Paul Graham 是我的好友和導師,他是矽谷的重要人物,也是位作家,寫了很多文章。他討厭 AI,認為它讓人們寫得更差、思考得更差。
Tucker:更差,或者根本不思考,就像 iPhone、Wikipedia 和 Google 所帶來的影響一樣。
Amjad Masad:我們剛才還在討論這個。 iPhone 和 iPad 讓任何人都能使用計算機,但也使得沒人需要學習程式設計。計算機的最初願景是賦予我們超能力。 DARPA 負責人 Jake Licklider 在網路發展期間寫了一篇名為《人機共生》的文章。他談到電腦如何成為我們的延伸,幫助我們成長。這是電腦智慧(高速運算)和人類智慧(直覺)的結合。
Tucker: 沒錯。
Amjad Masad:但自那以後,關於計算的共識發生了變化,人們害怕AI 會取代我們,認為計算機和計算是一種威脅,因為它們直接與人類競爭。這不是我所持的信念,我認為它們是我們的延伸。我認為人們學習編程,這正是我們 Replit 的核心使命之一,它能賦予你超能力。而當你只是點按時,你只是一個消費者,而不是軟體的生產者。我希望更多的人成為軟體的生產者。 Douglas Rushkoff 寫了一本書,叫《編程或被編程》,如果你不是在編程,那就是有人在編程你。這些演算法和社交媒體正在編程我們。
Tucker:對我來說學習程式設計已經太晚了嗎?
Amjad Masad:我不這麼認為。
Tucker:我連支票簿都平衡不了,假設還有支票簿的話。回到你剛才提到的一點,最初 DARPA 的願景是機器做數學運算,人類做直覺判斷。我想知道,隨著機器越來越多地嵌入我們的生活,直覺是否正在消亡,或者人們是否不再信任自己的直覺。在過去幾年裡,我經常看到這樣的情況:明明有一些非常顯而易見的事情發生了,人們卻說,「我可以承認並遵循我眼睛看到的和直覺告訴我的,但數據告訴我的卻是另一回事。所以我在想,這是否是技術進步的結果。
Amjad Masad:我不認為這是科技進步固有的結果,這比較是一種文化議題。計算被視為人類的替代品而不是延伸。伯特蘭·羅素寫過一本關於數學歷史和哲學的書,追溯到畢達哥拉斯等古代人物。從他的寫作中可以看出,他對直覺在科學和數學中發揮的重要作用感到驚訝。而今天的文化是「你必須把直覺放在一邊」。
Tucker:沒錯。
Amjad Masad:人們認為你有偏見,你的直覺是種族主義的,諸如此類。你必須成為一張白紙,只相信數據。但數據其實可以解讀成許多不同的意義。
Tucker:我可以問個完全不相關的問題嗎?我剛剛想到,你是怎麼變得這麼博學的?你在約旦長大,說阿拉伯語,來自一個流離失所的巴勒斯坦家庭。你來美國還沒多久,英文不是你的母語。你是怎麼讀伯特蘭羅素的?你接受了什麼樣的教育?約旦的每個巴勒斯坦家庭都受過這麼好的教育嗎?
Amjad Masad:巴勒斯坦僑民普遍受過良好教育。我們這一代在矽谷開始嶄露頭角,許多 C 級主管和副總裁級的管理者都有巴勒斯坦血統,儘管有些人因為偏見和歧視而不願公開。
Tucker:他們不說自己是巴勒斯坦人。
Amjad Masad:是的,他們有些人是基督徒,特別是那些基督徒,比較容易融入。他們中有很多人在矽谷工作。
Tucker:但你是怎麼讀到讀伯特蘭·羅素的?我猜你是用英文讀的。你是怎麼學會的?你不是在英語國家長大的。
Amjad Masad:約旦某種程度上也算是講英語的國家。
Tucker:真的嗎?
Amjad Masad:約旦曾是英國的殖民地。我記得獨立紀念日大概是在 50 年代或 60 年代。在大英帝國的殖民歷史中,約旦淪為殖民地的時間相對較晚。所以當時英國在約旦有很大的影響。我父親是政府工程師,收入不高,所以我們過著相對簡單的生活,有點像中下階層。但他非常重視教育,把我們送到私立學校了。在這些私立學校裡,我們學習的是英國的文憑體系,像是 IGCSE 和 A-levels,你知道這些嗎?
Tucker:我完全不了解這些。
Amjad Masad:是的,這是英國殖民主義的遺產之一-教育體系國際化了。我認為這是件好事。
Tucker:到處都有英國學校。
Amjad Masad:對,到處都是。這是很好的教育體系,給學生很大自由去選擇有興趣的科目。我學了很多數學和物理,也學了一些奇怪的東西,像是兒童發展。現在有了孩子,我還在用那些知識。
Tucker:在高中學這些?
Amjad Masad:是的,高中。我非常喜歡。
Tucker:這跟民權運動有什麼關係?
Amjad Masad:什麼意思?
Tucker:在美國學校裡,學生花 16 年學習民權運動。大家都知道 Edmund Pettus 橋,但其他知識卻知之甚少。
註:Edmund Pettus 橋是位於美國阿拉巴馬州塞爾瑪市的歷史性橋樑,因1965 年「血腥星期日」事件而成為美國民權運動的重要像徵。
Amjad Masad:哦,天哪,我的孩子不會這樣。
Tucker:太有趣了。你什麼時候來到美國的?
Amjad Masad:2012 年。
Tucker:現在你擁有一家十億美元的公司。這很了不起。
Amjad Masad:美國真是太棒了。我愛這個國家,它給了我們很多機會。我喜歡這裡的普通人。我剛跟司機聊天,她說很抱歉不知道 Tucker Carlson 是誰。我說這很好,表示你只是在過自己的生活。她說是啊,我有小孩、有雞,很滿足。我覺得這很棒。
Tucker:這表示她很快樂。
Amjad Masad:是的,確實如此。
Tucker:抱歉我一直岔開話題。你提到那些書,而你甚至不是美國人,太了不起了。回到直覺的問題,你不認為這是必然的嗎?換句話說,如果我的生活被手機、電腦和各種電子設備中的科技所主導,你不覺得這會讓我更信任機器而不是自己的直覺嗎?
Amjad Masad:你可以選擇這樣做。很多人被引導去這麼做。但最終,你會失去很多自由。不只我這麼說,很早就有駭客和電腦科學家開始敲響警鐘,警告事物發展的趨勢:更多中心化、市場競爭減少。你有一個全球性的社交網絡,而不是多個網絡。現在情況好一些了。很多人開始了加密貨幣運動。我知道你最近參加了比特幣大會,告訴他們 CIA 創造了比特幣,他們在 Twitter 上生氣。
中本聰迷思
Tucker:我不知道,但除非你能告訴我誰是中本聰,否則我就有疑問。
Amjad Masad:其實我對中本聰的身份有自己的看法,但這是另一個主題。
Tucker:不,停下,現在告訴我,誰是中本聰?
Amjad Masad:有一個人叫 Paul Le Roux。
Tucker:順便說一下,對於不知道中本聰是誰的觀眾來說,這是我們用來指稱比特幣創造者的化名,但我們不知道他是誰。
Amjad Masad:讓人不可思議的是,這個東西被創造出來,我們卻不知道是誰創造的。他從未動用過那些錢。也許有一些活動,但有數千億美元被鎖在那裡。我們不知道這個人是誰,這些錢也沒有兌現,非常瘋狂。
Tucker:神奇。所以 Paul Le Roux 是誰?
Amjad Masad :Paul 是羅德西亞(現在的辛巴威)的密碼駭客。他創造了一個叫做「大眾加密」(E4M)的東西。順便說一下,我覺得史諾登在他的駭客行動中使用了 E4M。 Paul 是最早讓密碼學變得更容易被一般人使用的人之一。但後來他成了罪犯。他在馬尼拉成為犯罪頭目,幾乎控制了整個城市,收買了所有警察。他從犯罪活動中賺了很多錢,綽號叫“Toshi”,有很多間接證據表明他可能是中本聰。我有種感覺,他賺了太多錢,不知道怎麼處理,於是創建了比特幣來儲存這些現金。在中本聰消失的同時,他也入獄了。他最近被判 20 到 25 年監禁。法官問他如果出獄會做什麼,他說會製造一個非同步晶片來挖比特幣。這只是我的看法,不一定對。
Tucker:所以他目前在監獄裡?
Amjad Masad:是的,他現在在監獄裡。
Tucker:是在美國還是菲律賓?
Amjad Masad:我想是在美國,因為他的犯罪活動主要發生在這裡。他基本上是在網路上賣毒品。
Tucker:我們應該去監獄看他。
Amjad Masad:是的,可以去看看。
對科技進步的批評
Tucker:抱歉,我只是忍不住想問清楚。讓我們繼續談 AI 吧,你是 AI 生態系統的一部分,你不認為它是威脅,對嗎?
Amjad Masad:不,我完全不認為它是威脅。我聽過你在 Joe Rogan 播客上說要炸掉資料中心之類的話。
Tucker:我有點太興奮了,基於很少的資訊就下結論。
Amjad Masad:嗯,那你告訴我,你對 AI 威脅的理論是什麼?
Tucker:我一直想成為一個坦誠承認自己限制和無知的人。在這個主題上,我確實很無知,但我讀過很多相關內容,包括大部分警告性的文章。你也知道,人們擔心機器變得如此強大以至於獲得某種自主性。雖然它們被設計來服務我們,但最終卻統治了我們。你知道,我對 Ted Kaczynski 的著作很感興趣。他寫的兩本書,當然我要儀式性地說我完全反對郵包炸彈或任何形式的暴力。
註:Ted Kaczynski 是一位曾在加州大學柏克萊分校任教的數學天才,因對現代工業社會和技術的強烈反對而成為“大學航空炸彈客”(Unabomber),在1978 年至1995 年間通過郵寄炸彈造成3 人死亡和23人受傷。
但 Ted Kaczynski 對科技有許多引人深思的見解。這就像有了僕人一樣,人們都想要僕人。但事實是,他們是來服務你的,但你最終反而在服務他們。這就是人們的擔憂。我不想成為機器的奴隸,比我現在已經成為的更甚。就這麼簡單。當然還有其他方面,你比我了解得多,你就在那個圈子裡。但是,這就是我的擔憂。
Amjad Masad:這確實是個很有道理的擔憂。我想把存在主義威脅與我們被機器奴隸的擔憂區分開來。 Ted Kaczynski 對科技的批評其實是最有力的之一。
Tucker:我希望他沒有殺人,因為我反對殺人。我認為這產生了與他預期相反的效果。他這麼做是為了引起人們對他觀點的關注,但結果卻模糊了焦點。但我真的希望每個美國人都能讀讀他的書,不僅是他的宣言,還有他在監獄裡寫的書,因為它們至少很有啟發性,非常重要。
Amjad Masad:是的。簡單來說, 他提出了一個叫「權力過程」的概念,他認為這是人類幸福的內在要素。為生存而奮鬥,經歷人生各個階段,從孩童到成年,結婚生子,然後成為長者,最後死去。他認為現代科技打斷了這個過程,使人們變得痛苦。
Tucker:你怎麼知道這些的?
Amjad Masad:我讀過這些書,我非常好奇。我喜歡閱讀,沒有心理上的自我審查。我喜歡探索一切。
Tucker:你覺得來自另一個國家幫助你維持這種好奇心嗎?
Amjad Masad:是的,我的童年也讓我與眾不同。我有紅頭髮,我的家族有一半都是紅髮。這種與眾不同讓我習慣了不符合主流,我也因此不擔心遵從社會規範。對電腦的興趣和技術能力讓我在生活中走得更遠。我對從眾和盲從幾乎有厭惡感。
Tucker:我完全同意。我有類似的童年經驗。
Kaczynski 的觀點是,奮鬥不僅是人類固有的狀態,也是你作為一個人進化的重要部分。而科技打斷了這個過程,我覺得他說得很有道理。
Amjad Masad:是的,我身為技術專家也很難反駁這一點。就像我說的,這是對科技最有力的批評之一,我們可以花整期節目來深入探討。我認為分歧點在於,我們希望科技是賦能的工具,而不是只取代我們。在 Replit,我們致力於賦能人們學習程式設計、創造新創公司、成為創業家。我認為在這個世界上,你必須創造自己的權力過程,必須經歷奮鬥。這也是為什麼我反對許多技術專家所談論的 UBI(全民基本收入),因為這違反了人性。
Tucker:這是要毀掉所有人,把他們趕出門外。
「邪教」文化溯源
Amjad Masad:是的。所以我不認為科技本質上與權力過程相衝突。我們可以繼續討論存在主義威脅。
Tucker:這就是現況。我有點被說服了,對我來說是有道理的。我本來就比較傾向於關注威脅,像我這樣性格的人總是在尋找即將到來的大壞事,例如小行星撞擊、核戰或 AI 奴役。但我知道一些非常聰明的人,他們更接近 AI 開發的核心,也有這些擔憂。我認為公眾中也有很多人有這些擔憂。在徵求你對此更有見地的看法之前,我想說的最後一點是,關於 AI 的好處的討論非常少。相反,很多人都在說如果我們不做,中國就會做。我認為這可能是真的。但為什麼我應該對此感到興奮呢?對我來說有什麼好處?通常新技術出現時,人們會說「這將會很棒!你再也不用做某些事了」。但關於 AI,我沒有聽到任何這樣的說法。
Amjad Masad:這是一個非常敏銳的觀察。我會告訴你為什麼,但這需要一個稍長的故事。我認為有一個有組織的努力在試圖讓人們害怕 AI。
Tucker:有組織的?
Amjad Masad:是的,有組織的。這要從 90 年代的一個郵件列表說起,叫做“The Extropians”的超人類主義郵件列表。他們相信「奇點」。奇點是指 AI 或技術整體進步如此之快以至於你無法預測會發生什麼的時刻。它是自我進化的,所有的賭注都無效了。我們正在進入一個你無法預測的新世界。
Tucker:科技無法被控制的世界。
Amjad Masad:科技無法被控制,它將重塑一切。那些人認為這是好事,因為現在的世界太糟糕了。我們不完美、不道德、各種不理性。所以他們真的希望奇點發生。有個叫 Eliezer Yudkowsky 的年輕人在這個清單上聲稱他可以寫出這樣的 AI。他寫了很長的文章講述如何建立這個 AI,但可疑的是他從未真正發布過程式碼,全都只是關於他將如何建立 AI 的散文。無論如何,他成功地籌到了資金。他們創立了一個叫「奇點研究所」的機構。很多對未來感到興奮的人投資了,最有名的是 Peter Thiel。他花了幾年時間試圖建立 AI,再次強調,從未發布過程式碼,從未發布過任何真正的進展。然後他得出結論說,不僅無法建立 AI,而且如果你建造了它,它會殺死所有人。所以他從樂觀主義者轉變為認為 AI 肯定會殺死所有人。
Eliezer Yudkowsky
然後他說,我之所以犯這個錯誤是因為我不理性。要讓人們理解我差點殺死所有人,就要讓他們變得理性。於是他創建了一個叫「Less Wrong」的部落格。這個部落格引導你透過步驟變得更理性:審視你的偏見,檢視自己,冥想你所做過的不理性決定並試圖糾正它們。然後他們創建了一個叫做「高級理性中心」(CFAR)的機構,開始舉辦關於理性的研討會。
Tucker:關於理性的強化訓練班是什麼樣的?
Amjad Masad:我從未參加過。但我猜想他們會討論偏見之類的東西。但他們也有一些奇怪的做法,例如一種叫做「調試」的類似鬥爭會的活動。很多人寫部落格說這很羞辱,甚至導致一些人產生精神病。 2017 年,那個社區出現了集體精神病,很多人都有點瘋狂。這些都記錄在網路上。
Tucker:調試。所以這就像你典型的邪教技巧。你必須剝光自己,就像山達基教的聽析(Auditing)一樣。這在邪教中很常見。這就是你所描述的嗎?
Amjad Masad:是的,這是我在那些描述中讀到的。他們會坐下來,像聽析一樣審查你的思想,告訴你哪裡錯了。這常常帶給年輕人巨大的壓力。很多人談到加入那個社區如何帶給他們極大的痛苦。這個社區的一些分支甚至出現了自殺和謀殺等非常黑暗的事件。另一個問題是,他們教你理性思維,並把你招募到高風險的任務中,因為他們認為自己是理性的,他們的小組都是理性的。我們學會了理性的藝術,並且一致認為 AI 會殺死所有人。因此,這個群體之外的每個人都是錯的,我們必須保護他們免受 AI 的危害。但他們也相信其他一些事情,例如他們認為多元戀愛(Polyamory)是理性的。
Tucker:多元戀愛?
Amjad Masad:是的,基本上就是可以和多個伴侶發生性關係。
Tucker:但他們認為這是理性的?我的意思是,如果你是男人,想和更多不同的女人發生關係,這當然是一種自然慾望。但在什麼意義上說這是理性的呢?你從未見過幸福的長期多元戀愛關係。我認識很多這樣的人,一個都沒有。所以這可能是自私的。
Amjad Masad:你認為這是為了招募更多易受影響的人加入他們的組織?
Tucker:是的,還有他們性感的女朋友。
Amjad Masad:沒錯。所以這被認為是理性的。他們說服彼此接受所有這些邪教般的行為。瘋狂的是,這個群體最終變得非常有影響力。因為他們招募了很多對 AI 感興趣的人,而 AI 實驗室和創辦這些公司的人都在讀這些東西。例如 Elon Musk 就廣為人知地讀了很多 Nick Bostrom 的作品,後者是理性主義社群的一個相關人物。他是最初郵件清單的一員。我想他會稱自己為理性社群的一部分。他寫了一本關於 AI 如何會殺死所有人的書。我認為他最近緩和了觀點,但最初他是敲響警鐘的人之一。 OpenAI 的成立就基於許多這樣的恐懼,例如 Elon 擔心 AI 會殺死所有人。他擔心谷歌會這麼做。
我不認為 OpenAI 的每個人都真的相信這一點。但一些最初的創立故事是這樣的。他們從那個社區招募人才。以至於當 Sam Altman 最近被解僱時,解僱他的人就來自那個社區。是一個從有效利他主義開始的人,而有效利他主義是那個社群的另一個分支。所以 AI 實驗室在很多方面與這個社群有著千絲萬縷的關係。最後他們借用了很多社區的說法。但順便說一句,現在很多這些公司都是很棒的公司。我認為他們正在清理門戶。
Tucker:但根據你的描述,這聽起來確實像是邪教。我的意思是,它具有邪教的特徵。我們能更深入地探討一下他們的信仰嗎?你說他們是超人類主義者。那是什麼?
Amjad Masad:我認為他們只是對人性不滿意。對我們目前的構造方式不滿意。他們認為我們不理性、不道德、各種不合理。所以他們渴望一個我們能透過改造自己而變得更理性、更有道德的世界,要嘛透過晶片與 AI 融合,要嘛改造我們的身體。透過改造和與機器融合來解決他們認為人類存在的根本問題。
Tucker:這太有趣了,同時又如此淺薄又愚蠢。我認識的那些人當中很多其實並不聰明,因為最好的事。我是說,理性很重要,我們應該理性,在我看來,這是上帝給我們的。不理性確實是不好的。然而,人類最好的特質和衝動並不是理性的。我認為無私地給予他人、花大量時間幫助別人或愛別人,這些行為都沒有理性的解釋。與別人的漂亮女友上床,我猜這可以被認為是理性的,但實際上這是我們最低級的衝動。
Amjad Masad:等等,你還沒聽過「有效利他主義」。他們認為你剛才提到的我們的自然衝動確實是不理性的。有個叫 Peter Singer 的澳洲哲學家…
Tucker:就是那個支持殺嬰的傢伙。是的,他太道德了,支持殺死兒童。
註:Singer 認為道德決策應基於減少痛苦和增加幸福的原則,而不是簡單地根據物種或個體的身份。例如,他在討論嚴重基因缺陷的胚胎時,認為在某些情況下終止其生命可能是道德上可以接受的,因為這樣可以減少痛苦和資源浪費。
Amjad Masad:他們的哲學是功利主義。功利主義認為你可以計算道德。當你開始應用它時,就會進入非常奇怪的領域。例如有一些思想實驗,如果醫院裡有兩個病人需要器官移植,而另一個來做常規檢查的人剛好有合適的器官。依照功利主義的邏輯,你應該殺死那個健康的人,取出他的器官給另外兩個病人。我不認為人們真的相信這一點,但這是他們理論的邏輯結果。
這個結論源自於一個核心信念-他們認為自己是上帝。而一般人會意識到,雖然殺一個人救更多人在數學上說得通,但我沒有權力這樣做,因為我不是創造生命的上帝,我只是個無法預知未來的普通人。所有這些結論都源自於人們錯誤地認為自己是神。
Tucker:我同意。我認為這反映了他們對人性的深刻失望。他們對人性的缺陷感到失望。從某種程度上說,我們當然應該變得更好。但這種態度我們過去稱之為「判斷」,而現在我們不被允許這樣做了。實際上,他們是在說「你很糟糕」,而從這裡很容易就發展到「你應該被殺死」。這完全缺乏愛。相較之下,一個正常人、一個有愛心的人會說:「你有缺點,我也有缺點,但我還是愛你,你也愛我,我感激你的愛。」
Amjad Masad:沒錯。不過他們會說:「你很糟糕,來加入我們的藝術社群吧,跟我們發生性關係吧。」
Tucker:</ strong>我想澄清一下,這些人不只是公司裡的普通員工,對嗎?
Amjad Masad:你聽過 SBF 和 FTX 吧?他們有一個內部小團體,彼此之間都在發生性關係。
已入獄的FTX創始人SBF 是Singer 有效利他主義思想的追隨者
Tucker:考慮到他們中一些人的長相,這可不是理性的行為。
Amjad Masad:哈哈,確實,沒有正常人會那樣做。
Tucker:確實如此。
Amjad Masad:是啊。你知道更令人不安的是,他們哲學中還有一個叫做「長期主義」的倫理觀念。這來自於理性主義分支中的有效利他主義。
Tucker:長期主義?
Amjad Masad:對,長期主義。他們認為,如果我們採取正確的步驟,未來會有萬億人類,或者說萬億個思維。這些可能不是人類,可能是 AI,但它們都是能夠體驗效用、體驗美好事物的思維。如果你是功利主義者,你必須對此給予很大的權重。即使你對未來的價值有所折扣,但考慮到數量龐大,最終仍會被賦予很高的價值。
所以這些社群最終都專注於 AI 安全,因為他們認為 AI 可能會殺死所有人。我們待會兒可以討論他們的論點。有效利他主義者和理性主義社群的所有分支都專注於 AI 安全,因為他們認為這是最重要的事情——我們希望未來有數兆人口過上美好生活。
但是,當你給予如此高的價值時,這就變成了一種帕斯卡賭注。你可以用這個理由來為任何事辯護,包括恐怖主義,包括做非常糟糕的事。如果你真的相信 AI 會殺死所有人,而未來蘊含的價值遠超當今任何活著的人的價值,你可能會為任何行為辯護。因此,這是一個非常危險的框架。
Tucker:但這與每個種族滅絕運動的框架是一樣的。從法國大革命到現在,都是用美好的未來為血腥的現在辯護。
Amjad Masad:我並不是指控他們有種族滅絕的意圖。我不了解他們,但這些想法很容易導致集中營的出現。我們只是在泛泛而談。如果他們只是一些無關緊要的柏克萊大學生,對世界沒有實際影響,我根本不會在意。但問題是,他們成功說服了許多億萬富翁相信這些想法。
Elon Musk 可能在某個時候改變了想法。我不知道他有沒有給過他們錢,有傳言說他有考慮過。但很多其他億萬富翁給了他們錢,現在他們組織起來,在華盛頓遊說 AI 監管。他們也是加州 AI 監管法案背後的推手,也從中獲利。有報導稱,SB 1047 法案的主要發起人 Dan Hendricks 同時創辦了一家認證 AI 安全的公司。法案規定必須由第三方認證。所以其中有一些「讓我們從中獲利」的成分。順便說一下,這些都是根據一篇文章的說法,我不能確定。
我認為 Scott Wiener 參議員起草這項法案是出於善意,試圖做正確的事情。但他聽了很多這些「邪教成員」的意見,他們組織得非常好。而且其中許多人仍然與大型 AI 實驗室有聯繫,有些甚至在這些實驗室工作。他們想要創造一種沒有 AI 競爭的監管俘虜局面。我不是說所有人的直接動機都是這樣的。他們中的許多人是真正的信徒,但有些人可能會以某種有利於這些公司的方式滲透到這個群體中。
機器能夠思考嗎?
Tucker:我來自華盛頓特區,所以我見過很多這樣的情況:我的銀行帳戶恰好與我的信念一致。謝天謝地,事情總是這樣發展。氣候就是一個完美的例子。從來沒有一個氣候解決方案會讓提出它的人變得更窮或失去權力。從來沒有。
我想知道,機器能夠思考是不是真的?我一直持有這種假設直到現在。
Amjad Masad:讓我們來梳理一下他們的推理鏈。我認為,即使它是一個愚蠢的標誌或可能實際上是一個邪教,也不會自動意味著他們的論點是錯誤的。但你確實需要對一些論點進行一些質疑,因為它們來自瘋狂的人。
他們的推理鍊是這樣的:人類是通用智能。我們有大腦,大腦是計算機,它們是基於我們已知的純物理現象來計算。如果你同意人類是計算體,那麼我們就可以在機器中建構通用智能。如果你同意到這一步,即使我們只在機器中創建了人類級別的通用智能,我們也可以創建十億個這樣的智能體,那麼它們就會變得比我們任何一個人都強大得多。因為它們比我們任何一個人都強大得多,它們會想要控制我們,或者它們不會在意我們,就像我們不在乎螞蟻一樣,我們可以隨意踩死螞蟻。因為這些機器如此強大,它們不會在乎我們。
我在推理鏈的第一步就開始有疑問了。每一個環節我都有問題,第一個環節是:大腦是電腦。這基於什麼?他們的觀點是,如果你不相信大腦是計算機,那你就是在相信某種神祕的精神力量。但是,你得先說服我,你還沒有提出一個有說服力的論點。
認為我們已經對宇宙有了完整的描述,而這個觀點本身就是錯的。我們沒有一個統一的物理學理論。我們有微觀物理學,有宏觀物理學,但我們無法真正將它們統一或結合。所以,僅僅做一個唯物主義者就已經是不連貫的,因為我們根本沒有一個對世界的完整描述。這是一個附帶的論點,我不會詳細討論。
Tucker:不不,這其實是個很有趣的論點。你能為那些不熟悉這方面內容的觀眾解釋一下我們對物理學知識的限制嗎?
Amjad Masad:是的。我們本質上有兩種相互矛盾的物理學理論,這些系統不能結合起來,它們不是一個普遍的系統,你不能同時使用它們。
Tucker:哦,這顯示我們對自然世界的理解有很大的局限性,對嗎?
Amjad Masad:是的。我認為這是理性主義者的另一個錯誤,他們假設我們的科學比實際上先進得多。
Tucker:聽起來他們對科學了解得不多。
Amjad Masad:是的。
Tucker:謝謝,很抱歉打斷你。
Amjad Masad:沒關係,這不是我主要的論點。英國有一位哲學家/數學家/科學家,非常傑出,他的名字是 Roger Penrose 爵士。我喜歡英國人為成就卓著的人加上「爵士」頭銜。他寫了一本書叫《皇帝新腦》,書名是根據「皇帝的新裝」這個故事。在他看來,認為心智是一台計算機的觀點是一種錯誤的共識,就像皇帝其實是赤裸的一樣。
Tucker: 這其實不是一個觀點,而是一種斷言。
Amjad Masad:是的,這是一種根本錯誤的斷言。他透過非常有趣的方法來證明這一點。數學中有一個東西叫做哥德爾不完備定理。它表明在數學中有些命題是真實的,但無法證明。哥德爾建構了一個數論系統,他可以在這個數論系統中做出一些命題。我們的思想能夠理解數學無法描述的東西。我第一次讀到這篇時,我覺得非常有趣。
Tucker:你昨晚跟我提到一個著名的論點,我從未聽過,伯特蘭·羅素的自相矛盾命題。
Amjad Masad:它就像「這個陳述是假的」,這是一個著名的悖論,叫做說謊者悖論論。
Tucker:解釋為什麼這是一個悖論?
Amjad Masad:在數學家之間,這是一件非常震撼的事,因為它顯示我們的系統是不完備的。
Tucker:所以聽起來,你對科學理解得越深,並且越誠實地面對你發現的東西,你就會有更多的問題。這最終把你帶回一個謙遜的姿態。而我看到科學被用於政治領域時,通常是一些無知的人在談論科學。所以,誰在乎呢?實際上,當卡瑪拉·哈里斯跟我講科學時,我根本不想聽。但也有一些聰明人說「相信科學」。這種要求背後的假設是,科學是完整的、可知的,我們已經完全了解它了。如果你忽略它,那麼你就是無知的,無論是故意的還是其他原因,對嗎?
Amjad Masad:在我看來,科學是一種方法,任何人都可以應用。這是民主的,它是去中心化的,任何人都可以應用科學方法,包括那些沒有受過訓練的人。
Tucker:但要實踐這種方法,你必須從謙遜的立場出發。我不知道,所以我使用這種方法來發現。我不能對我觀察到的東西撒謊。
Amjad Masad:沒錯。而今天,科學被用來控制和宣傳。
Tucker:在那些不應該掌握它的人手中,比如說一些有醜惡議程的無知者。但我們在談論你所在的世界,那些非常聰明的人,他們以此為生,真正試圖推進科學進步。我認為你說的是,他們中的一些人,不管是有意還是無意,都沒有意識到他們有多膚淺。
Amjad Masad:是的,他們透過這個推理鏈得出了這個論點。這些論點至少是不完整的,他們理所當然地認為如果你甚至質疑這一點,你就是反科學的。
Tucker:這太愚蠢了。
Amjad Masad:是的。
Tucker:嗯,我來數數大腦和電腦之間的差異。首先,你不能保證記憶對過去的忠實再現。記憶會隨著時間的推移而改變,對吧?這是一種誤導,誰知道為什麼,但這是事實,對吧?這對計算機來說不成立。那我們要如何解釋直覺呢?還有本能?我的問題是,機器能否也具備這些特質?
Amjad Masad:你可以說,神經網路在某種程度上是直覺機器,很多人都這麼說。
也許我該為觀眾解釋一下神經網路。神經網路的靈感來自大腦,其理念是你可以將一系列簡單的數學函數連接起來,透過給它舉例來訓練它。例如,我可以給它一張貓的圖片。假設這個網路需要判斷:如果是貓就說「是」,不是貓就說「不是」。
給它一隻貓的圖片,如果它說「不是」,那就回答錯了。你根據圖片和答案之間的差異來調整權重。你重複這個過程,比如說十億次。然後,網路就會編碼出關於貓的特徵。這就是神經網路的確切工作原理,你調整所有這些小參數,直到它能夠嵌入特徵檢測,特別是在分類器中。
這不是直覺,在我看來,這基本上是自動程式設計。當然,我們可以手動編寫程式碼,你可以登入我們的網站寫程式碼。但我們也可以透過機器學習自動生成演算法。機器學習本質上是在發現這些演算法,有時發現的是非常糟糕的演算法。例如,我們給它的所有貓的圖片都有草,所以它會學到草等於貓,綠色等於貓。然後有一天你給它一張沒有草的貓的圖片,它就不知道發生了什麼事。原來它學到了錯誤的東西。所以,因為它實際上學到了什麼是模糊的,人們就把它解釋為直覺。因為演算法並不明確,而且現在有很多工作在試圖解釋這些演算法,這些工作來自像 Anthropic 這樣的公司,但我不認為你可以僅僅因為它模糊不清就稱其為直覺。
Tucker:那麼它是什麼?和人類直覺有何不同?
Amjad Masad:我們不需要一兆隻貓的例子來學習認識貓。你知道,一個孩子可以用很少的例子學會語言。而現在當我們訓練這些大型語言模型如 ChatGPT 時,你必須給它整個互聯網才能學會語言。這與人類的學習方式完全不同。我們是結合了直覺和一些更高級的東西來學習的。我認為我們還沒有弄清楚如何讓機器也這樣做。
Tucker:你認為從結構上來說,機器有可能做到這一點嗎?
Amjad Masad:這種推理鏈會傷害美國工業,傷害新創公司,使得競爭變得更加困難,給予中國巨大的優勢。基於這些有缺陷的論點會真正傷害我們,因為它們並沒有真正處理這些真實的問題。
Tucker:聽起來它們並沒有真正處理這些問題。讓我猶豫的不是科技本身,而是那些創造科技的人對人的理解。我認為正確的理解方式是,人不是自我創造的存在,人無法創造生命。人是由某種更高力量創造的,在他們的核心有一種無法形容的神聖火花。因此,人不能被奴役或殺害,這是錯誤的。世上有對錯之分。你知道什麼是灰色地帶嗎?這不是一個灰色地帶,因為他們不是自我創造的,對吧?
我認為所有人類行為都源自於這種信念,而歷史上最不人道的行為則源自於相反的信念,即人只是可以和應該被改進的對象,而我對他們擁有完全的控制權。這是一種極權主義的思維方式,它連結了每一個種族滅絕運動。所以,身為一個局外人,我覺得那些創造這項技術的人有這種信念。
Amjad Masad:是的,而且你甚至不需要是一個精神信仰者才能有這種信念。
Tucker:當然不需要。
Amjad Masad:我認為這其實是一個理性的結論,但有趣的是,現代人的本能是在人的內部尋找原因。而我認為更自然、更正確的本能是在人之外尋找原因。我對兩者都持開放態度。是的,我的意思是我不知道答案,因為我確實知道答案,但 hahahaha 我就假裝我不知道。但至少兩種可能性都存在。所以如果你只局限於尋找基因突變或變化,那你就不是一個實證主義者,這實際上不是一種科學的看待問題的方式。你不應該排除任何可能性,對吧?
Tucker:有趣。
Amjad Masad:這非常有趣。
Amjad Masad:我認為這些機器,我把我的業務押注在AI 會越來越好,這將使我們所有人變得更好,讓我們變得更有教養。
Tucker:那麼,現在是時候告訴我為什麼我應該對我一直在聽到的東西感到興奮了。
Amjad Masad:這項技術,大型語言模型,非常棒。我們發現了解決教育問題的方法。我們可以提升所有地球上的人類。問題是我們沒有足夠的教師來進行一對一的輔導。這非常昂貴,沒有哪個國家能負擔得起。所以現在我們有這些可以溝通的機器。它們可以教書,提供訊息,你可以以非常人性化的方式與它互動。你可以與它交談,它可以回應你。我們可以建立 AI 應用程式來一對一地教學。你可以用它服務 70 億人,我們可以讓每個人都變得更聰明。
Tucker:我完全支持這個觀點。這是互聯網的承諾,但它並沒有實現。所以我希望這次能實現。
但我忍不住要問一下,因為我是來自華盛頓的人,當那些掌權的人看到新技術時,他們首先想到的是如何利用它來殺人。那麼這項技術的軍事應用有哪些可能呢?
Amjad Masad:這就是為什麼我對政府監管這項技術的遊說努力持懷疑態度,因為我認為最大的濫用者可能是政府。我看了你和哥倫比亞大學教授 Jeffrey Sachs 的採訪,他是一個非常主流的人物。我認為他被指派進行《刺胳針》關於 Covid 病毒起源的研究,他得出了一個非常異端的結論,認為病毒是由美國政府在實驗室裡創造的。
政府應該保護我們免受這些威脅,但現在他們在談論疫情準備等等。我們應該關注政府在做什麼,如何確保我們有民主進程來確保他們不會濫用這些技術。他們會監管這些技術,使得普通人無法使用這些東西,然後他們就可以自由地濫用這些技術,就像加密技術一樣。
Tucker:就像加密技術一樣。
Amjad Masad:對。加密是另一個例子。沒錯。
Tucker:但他們已經這麼做幾十年了。就像我們獲得隱私,但你不被允許,因為我們不信任你。但是透過使用你的錢和你給予我們領導你的道德權威,我們要對你隱藏我們所做的一切,而你對此無能為力。這就是現在美國的現狀。那麼他們會如何使用AI 來進一步壓迫我們呢?
Amjad Masad:你可以用各種方式,例如自動化無人機。我們已經有自動化無人機了,這可能會變得更糟。有一個雜誌叫《972》發布了一篇大篇幅的曝光文章,講述了以色列如何使用 AI 來定位嫌疑人,但最終殺害了大量平民。這篇文章非常有趣。
Tucker:所以這項技術最後殺害了許多無辜的人,真是黑暗。那監控呢?
Amjad Masad:我認為這也是個問題。我認為它可以用來進行監控,但我不確定這是否賦予了特別的優勢。我認為如果這些遊說團體成功,他們的理想結果之一就是確保沒有人在訓練大型語言模式。要做到這一點,你需要在計算層面插入監控裝置。這可能非常危險,我們的電腦會監視我們,以確保我們不在訓練 AI。我認為,真正擅長監控的 AI 是視覺類 AI,中國已經在這方面做得很好。這已經存在一段時間了。我確信有辦法濫用語言模型進行監控,但我現在想不出來。
Tucker:那製造業呢?
Amjad Masad:它會幫助製造業。現在,人們正在研究如何將這項技術應用於機器人。我投資了幾家公司,他們正在研究如何將這項技術應用於機器人。這還是早期科學,但如果我們能應用這項技術,可能會有巨大的進步。
Tucker:科技的整個目的是取代人類勞動,無論是體力勞動或腦力勞動。我認為,歷史上,蒸汽機取代了手臂等。所以如果這項技術像看起來那麼具有變革性,你將會有大量閒置的人。這就是為什麼你的許多朋友和同事支持 UBI(全民基本收入),他們認為沒有這些人可以做的事情,所以我們必須付錢給他們以維持生活。你說你反對這個,我也堅決反對。但另一方面,答案是什麼?
Amjad Masad:是的,你知道,有兩種看待方式。我們可以看那些失業的個體,這是艱難的,我沒有好的答案。但我們可以從宏觀角度來看。大多數情況下,科技隨著時間的推移會創造更多的工作。你知道,在鬧鐘發明之前,我們有一個叫「叫醒人」的職業。他們會敲你的窗戶,叫你起床。那個工作消失了,但我們在製造業有了十倍的工作,或許更多。因此,總的來說,科技的趨勢是創造更多的工作。
我可以給你幾個例子,說明 AI 如何創造更多的工作,實際上可以創造更有趣的工作。創業是一個非常美國的事情,美國是創業的國家。但實際上新公司成立的數量一直在下降,至少有 100 年的時間在下降。雖然我們對新創公司感到興奮,矽谷是唯一仍在產生新創公司的地方,其他地方並沒有那麼多新公司成立,這有點令人悲傷。因為網路本應是一個偉大的財富創造引擎,任何人都可以使用。但實際上,它只是集中在一個地理區域。
Tucker:回過頭看,網路像是壟斷生成器。
Amjad Masad:但它不一定是這樣。我認為 AI 可以幫助人們創業,因為你有這個易於編程的機器,可以幫助你編程。我給你幾個例子。在 Covid 期間,丹佛的一位教師有點無聊,上了我們的網站,參加了一個免費的程式設計課程。他學會了一些程式設計知識,並利用自己的教學經驗開發了一個幫助教師使用 AI 進行教學的應用程式。一年內,他建立了一家價值數千萬美元的公司,並獲得了大量資金。我認為他籌集了 2000 萬美元。這是一位學會程式設計的教師,迅速建立了這個龐大的業務。我們還有攝影師的故事,他們的收入達到了數百萬美元。所以這是一種,去中心化訪問這項技術的方式。
Tucker:這種承諾對我來說是有意義的。我希望它成為現實。我們有一個共同的朋友,他非常聰明,是一個善良的人,他對這個主題很有研究並參與其中。他告訴我,AI 的一個承諾是,它將讓人們擁有虛擬的朋友或伴侶,它將解決美國顯然存在的巨大孤獨問題。我不想說他不好,因為我非常喜歡他,但這對我來說似乎非常糟糕。
Amjad Masad:是的,我不贊成那些。我認為我們對什麼是黑暗和反烏托邦的東西有相同的直覺。我們有相同的直覺。
Tucker:他是一個了不起的人,但我認為他沒有真正考慮過這些問題。我們意見不一致,但我沒有論據,只是一種本能。我認為人應該與人發生性關係,而不是機器。
Amjad Masad:沒錯。我甚至會說,有些應用程式有點不道德,比如說,利用孤獨者,給他們機會,但這會讓他們實際上沒有動力去外面約會,找個女朋友。就像色情片一樣。
Tucker:對。
Amjad Masad:是的,我認為這對社會來說非常糟糕。所以我認為應用技術可以正面或負面使用。如果有一個邪教組織致力於推動 AI 作為一種正面技術,我會完全支持他們。歷史上,有一些自我修正的文化現象。例如對色情的自我修正,現在正在發生。對垃圾食物的自我糾正,例如 Whole Foods 現在很受歡迎。
Tucker:空氣和水中的化學物質,十年前這還是一個非常冷門的話題,只有怪人才關心,比如Bobby Kennedy 關注這個問題,但現在這已經成為正常對話的一部分。
Amjad Masad:是的,每個人都擔心微塑膠對生殖器官的影響。
Tucker:對,這是一個合理的擔憂。所以,我並不驚訝矽谷有邪教組織,我認為你提到的不是唯一的一個,我認為還有其他邪教組織。這是我的感覺。我不驚訝,因為每個人生來就知道有一種超越自我的力量存在。這就是為什麼每個文明都崇拜某種東西。如果你不承認這一點,你只會崇拜更愚蠢的東西。所以我的問題是,作為一個生活和工作在那裡的你,矽谷的決策者中,有多少人會公開承認宇宙中有一種超越自我的力量?
Amjad Masad:大多數情況下,沒有。我認為大多數人不會承認。我不想說大多數人,但絕大多數的討論都是比較智性。我認為人們理所當然地認為每個人都有世俗的觀點。
Tucker:我認為,真正的聰明人最終會意識到我們知道的不多,我們的力量也不大。這是我的觀點。
Amjad Masad:這是許多深入研究的科學家的觀點。我不記得是誰說的,但有人說過,科學的第一口讓你成為無神論者,但在杯底,你會發現上帝在等你。
Tucker:Mathias Desmet 寫了一本關於這一點的書,雖然據說是關於新冠的,但實際上不是。我強烈推薦這本書。書中提到的觀點正是你剛才說的:你越深入科學,越會發現某種秩序,它不是隨機的。數學中展現的美麗,讓你越發確定這裡有一個設計,這種設計不是人類或所謂的「自然」的,而是超自然的。這是他的結論,我同意。但在你所認識的科學世界中,有多少人會這麼認為?
Amjad Masad:我可以說,這樣的人真的屈指可數。
Tucker:哦,有意思。這讓我擔心,因為我覺得沒有這種認識,傲慢是不可避免的。
Amjad Masad:是的,許多結論都源自於傲慢。例如,很多人認為 AI 是迫在眉睫的生存威脅,很多人相信我們將在五年內全部死去,這種想法就來自於傲慢。
Tucker:真有趣。在遇見你之前,我從來沒想到這一點。實際上,這本身就是傲慢的表現。我從來沒這麼想過。
Amjad Masad:是的,傲慢可以表現為消極的,也可以表現為積極的。我認為積極的一面是好的,例如 Elon 就體現了這種自信,相信自己可以製造火箭和電動車。這種自信可能在某些情況下是妄想,但通常會帶來創造的動力。我認為如果像 SBF 一樣,將這種自信用於不道德的行為,包括偷竊和欺騙,那就會變得病態。
Tucker:我一直不理解,或者說理解得太清楚,但有效利他主義顯而易見地導致人們彼此之間變得更糟,而不是更好。
Amjad Masad:是的,這真是諷刺,但我覺得這就在名字裡。如果你自稱為某種宏大的東西,你通常會表現得很糟糕。例如「伊斯蘭國」既不是伊斯蘭教也不是國家,有效利他主義者既不有效也不利他。
Tucker:聯合國也不團結。這真是智慧之言。我不認為任何大型語言模型或機器能夠得出你剛才說的那種深層真理,因為深層真理總是帶有諷刺意味,而機器不理解諷刺,對吧?
Amjad Masad:目前還不行,也許未來可以。我的立場沒有你那麼強硬。我相信如果你給予足夠的數據,它們可能會理解。
Tucker:說真的,我不知道它們的能力有多大。
Amjad Masad:我認為它們可能無法創造出真正新穎且有深刻見解的諷刺,但如果你在數據中加入大量諷刺,它們就能理解。
Tucker:它們可以模仿人類的諷刺。
Amjad Masad:它們是模仿機器,實際上是在模仿。大型語言模型的訓練方式是給予它們大量文本,然後隱藏一些詞語,它們會嘗試猜測這些詞,並調整神經網路的權重,最終它們會非常擅長猜測人類會說什麼。
Tucker:那麼你實際上是在說,這些機器所說的內容都是輸入資料的總和,包括輸入數據的人們的個性和偏見。那你希望最優秀、最謙遜的人來做這件事,但似乎我們讓最不謙遜的人在做。
Amjad Masad:我認為有些人是謙遜的,我不會說所有從事AI 工作的人都很優秀、善良,想做正確的事。確實有很多人帶著錯誤的動機來做這件事,出於恐懼等原因。
Tucker:完全正確。這是一個自我循環的問題,因為你迎合了人類的低級慾望,並創造了一種激發更多人這種慾望的文化。換句話說,色情越多,人們對色情的需求就越大。我也在想現有產業的反抗,例如醫學領域。你曾提到醫學進步,這對診斷來說是很有意義的,因為診斷其實就是資料排序的問題。機器總是能比任何醫院或醫生更有效、更快速地完成這項任務。診斷是最大的障礙,對吧?這將實際讓很多人失業。如果我能輸入我的症狀到機器裡,並得到比在梅奧診所三天後更準確的診斷,那麼誰還需要梅奧診所?
Amjad Masad:我有一個具體的故事。我曾經有一個慢性問題,花了數十萬美元看醫生,找到世界頂尖的專家,但他們都沒能給出正確的診斷。最後我自己寫了一點代碼來收集數據,用 AI 運行了一次,它給出的診斷是醫生忽略的,結果證明這是正確的診斷。
Tucker:這真是不可思議。
Amjad Masad:是的,非常了不起,改變了我的生活。
Tucker:這是一個你自己寫程式的結果?
Amjad Masad:是的,寫了一點程式碼。
Tucker:這表示我們離公開使用這種技術已經不遠了。
Amjad Masad:是的,順便說一句,我認為任何人現在都可以寫一點程式碼。在 Replit,我們有一個叫「100 天代碼」的項目,如果你每天花 20 分鐘做一點編碼,三個月後你就能成為足夠好的程式設計師,建立一個新創公司。最終你會有人為你工作並提陞技能,但你會有足夠的技能。我想向聽眾發出一個挑戰,如果他們完成這個專案並建立一個可能成為企業的東西,我願意幫助他們推廣,提供一些雲端服務的積分等等,只要在 Twitter 上 @ 我,並提到這個播客。
Tucker:你的 Twitter 使用者名稱是什麼?
Amjad Masad:@amasad。
Tucker:但是有很多既得利益者,我不想深入討論Covid 的事,但我覺得你看到了在Covid 期間,動機總是混合的。我確實認為有高尚的動機與低劣的動機混在一起,因為這就是人性。但在某種程度上,利潤動機壓倒了公共衛生。我認為這是公平的。所以,如果他們願意為了維持股價而傷害人們,他們會怎麼抵制讓人們透過機器免費獲得更精確的診斷呢?
Amjad Masad:在某種程度上,這就是為什麼我認為開源 AI 和人們學習如何自己做一些事情是非常重要的。當然,如果有公司在提供這些服務,會做得更好。但 AI 的存在以及很多是開源的,你可以下載到你的機器上使用,這已經足夠幫助很多人了。當然,你應該總是與醫生溝通,我也是,我並不是給人們建議去自己解決這些問題,但我確實認為這已經在賦能人們了。這是第一步。
Tucker:對於我這樣的人,我不會去看醫生,直到他當面為四年的謊言道歉。我對醫生沒有任何尊重,對任何說謊的人也沒有。我不會從一個騙子那裡獲得生活建議,特別是關於健康的建議,因為這不理智。我不會從無家可歸者那裡獲得房地產建議,也不會從因欺詐而入獄的人那裡獲得財務建議。我確定有醫生會道歉,但我還沒遇到。所以對於像我這樣的人來說,在醫生道歉之前我不會去看醫生,這種 AI 診斷系統可能真的能救命。
億萬富翁向右轉
Amjad Masad:至於是否會有監管俘虜的問題,我認為這就是為什麼你看到矽谷開始涉足政治。矽谷一直在某種程度上參與政治。我記得我 2012 年來到這裡,那時是羅姆尼和歐巴馬的辯論。當時人們只是取笑羅姆尼,他說了一些像「滿滿一文件夾的女性」這樣的話,而歐巴馬藉此機會擊敗了他。我記得問周圍的每個人,你支持誰?他們說,當然是民主黨。我問為什麼這裡沒有人支持共和黨?他們說,因為他們很蠢,只有蠢人才支持共和黨。矽谷就像一個單一黨派的小鎮。
這裡有一些關於公司政治捐款的數據,例如 Netflix 99% 的捐款給了民主黨,只有 1% 給了共和黨。如果你看看北韓的政黨多樣性,實際上情況還要好一點。
Tucker:他們的媒體也比較誠實。
Amjad Masad:但現在你會看到,越來越多的科技人士開始支持共和黨,甚至是川普。特別是Marc Andreessen 和Ben Horowitz,他們錄了兩個小時的播客,討論他們為什麼支持川普</ a>。
Tucker:他們是美國最大的創投公司。
Amjad Masad:我不知道用什麼標準來判斷,但他們肯定在朝著成為最大的方向發展,他們無疑是最好的。
Tucker:他們說了什麼?我應該看的,但我沒看。
Amjad Masad:他們解釋了為什麼他們會投票給川普。順便說一下,他們在 2018 年或 2019 年時絕對不會這樣做。所以這是一種氛圍的轉變。
Tucker:這種轉變的效果如何?
Amjad Masad:反應不一,但比十年前好多了。當時如果他們公開支持共和黨,他們會被取締,沒人會接受他們的錢。
Tucker:我作為一個局外人來看,Andreessen Horowitz 如此大且有影響力,他們被認為很聰明,完全沒有瘋狂的跡象。如果 Andreessen Horowitz 這麼做,那肯定會改變人們的看法。
Amjad Masad:是的,一定會改變人們的看法。我認為這會給很多人勇氣,至少讓他們說出自己支持 Trump 的立場。我認為這確實改變了我的想法。
他們提出了一個「小科技」的議程。你知道,現在有「大科技」在進行遊說,那麼誰在為像我們這樣的小型公司遊說呢?那隻有一兩個人的小公司呢?實際上沒有人。例如,民主黨非常熱衷於監管 AI。最有趣的一件事是,卡瑪拉·哈里斯被邀請參加一個 AI 安全會議,他們在討論生存威脅。她說,有人被拒絕醫療服務,對他們來說是生存威脅。
她把生存威脅解釋為任何風險都是生存威脅。這只是一個例子。但他們在監管方面行動非常快,他們發布了一項行政命令。
Tucker:他們到目前為止所做的調整,從使用者的角度來看,只是確保打擊白人。實際上是推動一種反烏托邦的極權主義社會議程,種族主義的社會議程。這種情況會永久存在嗎?
Amjad Masad:情況已經在改變了,這種情況已經有所逆轉,雖然還不完美,但已經在改變。我認為這是文化變遷的結果。我認為 Elon 收購 Twitter 並讓人們自由討論和辯論,推動了文化朝著更中立的方向發展。這是正面的,因為公司內部的文化原本非常左傾,設計產品的方式讓喬治華盛頓看起來像是黑人喬治華盛頓。
Tucker:這簡直是在說謊,這讓我很反感。我不想聽到謊言,喬治華盛頓不是黑人,國父都是白人新教徒。抱歉,這就是事實。請接受它。如果你要在這件事上說謊,那你就是我的敵人。
Amjad Masad:我認為這是公司的少數人在做這種事,但他們是控制者。我在 2015 年加入 Facebook 時,目睹了文化的改變。小部分激進分子讓公司領導層害怕員工。
Tucker:這真是讓我擔憂的事情。矽谷正在定義我們的未來,而勇氣是領導的第一要素。如果公司的領導者怕那些 26 歲未婚的 HR 女孩,那就太懦弱了。應該要明確告訴他們:「你們不是公司領導,我才是。」這很簡單,不知道為什麼這麼難。
Amjad Masad:我認為這些公司在爭奪人才的時候,完全是瘋狂的競爭。那時的美國經濟是零利率時代,大家都在砸錢給人才。因此即使只是稍微冒犯了員工的感受,你也會害怕他們會離開。我只是試圖為他們找藉口,但這確實是其中一個原因。
Tucker:你可以回答這個問題,因為你是從約旦來到灣區的人,來這裡追求創造力和洞察力。那些能寫程式碼的人,是否像你或 James Damore 一樣,不像政治活動家?
Amjad Masad:大多數程式設計師確實更理性,但我認為學習程式設計並不會自動使人更理性。雖然程式設計可以幫助你變得更理性,但也很容易被情感所左右。
Tucker:所以大腦不是電腦?
Amjad Masad:大腦確實不是計算機,這正是我的觀點。我可能是美國最多人學習程式設計的推動者之一,因為我開發了第一個讓人在瀏覽器中輕鬆編寫程式碼的軟體,它非常受歡迎。後來我加入了 Code Academy,幫助他們教導了大約 5,000 萬人如何程式設計。雖然程式設計是一種工具,但我從未真的相信它能教導人們如何思考。程式設計是一種有趣的工具,可以用來建立、自動化和創作,但我不認為你能透過它使人變得更理性。人們可以透過教育和實踐變得更理性,但不能強制教導他們。
Tucker:我完全同意。我一直以為,寫程式碼的人性格上有些相似,但事實證明並非如此。
Amjad Masad:做程式設計師的人可能確實如此,但任何人都可以學會寫大量程式碼。
Tucker:我們還沒提到 Elon Musk 和 David Sacks。他們也都支持川普。那麼,你認為矽谷的氛圍真的在改變嗎?
Amjad Masad:是的,其實我認為這要歸功於 Sacks,甚至可能比 Elon 的影響更大。你看,這是個一黨統治的地方。舉個例子,沒有人會看任何保守派的觀點,或者說,大多數人沒有接觸過右翼或中間偏右的意見。你只是一直沉浸在自由派民主黨的觀點中。我認為 Sacks 的《All In》播客是許多人第一次每週聽到保守派的對話。
Sacks 的《All In 》播客近日有一期節目嘉賓是川普
Tucker:真有趣。
Amjad Masad:我開始在聚會和其他場合聽到人們把自己的政治觀點描述為「Sacks 主義」。他們會說:「嘿,你知道嗎?我同意你的觀點,大多數時候我同意Sacks 在All In 播客上的觀點。」我說:「是的,你現在可能是溫和派或中間偏右。 ”他非常合理。
Tucker:首先,他在我看來是一個非常好的人。但我不知道那個播客的影響力有多大。直到有一天他邀請我參加他的播客,我說,當然可以,因為我喜歡 David Sacks。我參加了播客後,我認識的每個人都給我發短信說:「哦,你上了All In 播客。」這不是我的領域,我沒有意識到這是一個接觸那些不太政治化但可能會給某個候選人捐款的商業頭腦人的途徑。
Amjad Masad:沒錯。順便說一下,這也是我說的技術可以有集權效果,也可以有去中心化效果的觀點。你可以說 YouTube 是集權的,他們在灌輸我們意見。但現在你在被 Fox 開除後,有了自己的 YouTube 平台。
Tucker:是的。
Amjad Masad:Sacks 也有自己的平台,可以表達這些觀點。我覺得,在 Covid 期間,有一段時間我感覺他們會關閉所有東西。
Tucker:你有這種感覺?
Amjad Masad:是的,也許未來會有一些其他事件讓他們有理由關閉它們。但是,我非常喜歡美國的一點是第一修正案。這是人類史上最重要的製度創新。
Tucker:我完全同意。
Amjad Masad:我們真的應該保護它。我們應該非常珍惜它,就像珍惜妻子一樣。
Tucker:我完全同意。你能重複一下你對其歷史重要性的描述嗎?抱歉,你說得太好了。
Amjad Masad:這是人類史上最重要的製度創新。
Tucker:第一修正案是人類史上最重要的製度創新。是的,我很喜歡這個說法。我覺得完全正確。作為一個從小就生活在有第一修正案保護的國家的人,你不會特別感覺到它的存在。就像重力一樣,它自然存在。但作為一個在沒有這種保護的國家長大的人來說——地球上其他所有國家都是這樣的。
Amjad Masad:只有一個國家有這種保護。
Tucker:你會發現這是美國之所以成為美國的關鍵。
Amjad Masad:是的,它讓我們能夠改變方向。正是因為這個原因,我們擺脫了所謂的「覺醒」文化和盲從的暴民心態。我認為 Elon 買下 Twitter 並讓我們能夠自由討論、辯論,是我們走出這種瘋狂的重要原因之一。
Tucker:這很美好,我是這一點的直接受益者,我認為全國每個人都是。我不是貶低 Elon,我很喜歡他,但有點奇怪的是,一個外國人要來做這件事。這有點讓人失望,為什麼沒有一個美國出生的人來做這件事?也許是因為我們太習以為常了。
Amjad Masad:對,我開始看到菁英治理的價值被削弱了,我想這也是我寫那篇帖子的一部分原因。我意識到這裡的大多數美國人並沒有真正重視這一點。
Tucker:我討厭這麼說,因為我一直認為外國人很棒。我喜歡去外國旅行,我最好的朋友也是外國出生的,儘管我反對大規模移民,但我是反對的。
Amjad Masad:阿拉伯人很喜歡你。
Tucker:哦,我也很喜歡阿拉伯人。我們擺脫了洗腦。插一句,我覺得 23 年前我們和阿拉伯人有過不愉快的經歷,很多美國人沒有意識到這一點,但我從多次中東旅行中知道,那次事件很糟糕。但那並不能代表我在中東共進晚餐的人。有人曾對我說,那些是我們國家裡最糟糕的人。我完全同意這一點,我總是衷心地為阿拉伯人辯護。我想知道,尤其是一些高收入的移民,最近我注意到,他們似乎在學習那些反美的廢話,從學術機構學來的。你知道,你來自旁遮普,上了史丹佛大學,突然間你就有了和史丹佛本地教授一樣腐朽、頹廢的態度。你有這種感覺嗎?
Amjad Masad:我不確定這種分佈情況,但印度裔中有Vivek 這樣的人,他深思熟慮,不僅支持第一修正案,也知道它為什麼重要。
Tucker:對,他是個很好的例子。 Vivek 不僅認為第一修正案好,還明白它為什麼好。
Amjad Masad:你問到矽谷的變化。我想部分原因是,矽谷仍有許多人這樣說這樣做,因為他們理解第一修正案的重要性。
區塊財經BOTD – 廣播組
追蹤BOTD Instagram,獲取最新區塊鏈消息
▸https://www.instagram.com/botd_news/
免責聲明:本文內容僅供參考,投資人應獨立判斷,審慎投資,並自負風險,本文不提供或嘗試遊說觀眾做交易或投資之依據。