You are browsing the Hong Kong website, Regulated by Hong Kong SFC (CE number: BJA907). Investment is risky and you must be cautious when entering the market.
Market News

Market News

HomeMarket NewsDetails

夜讀 | ChatGPT背後

uSMART盈立智投 03-29 20:46

作者:韋青 微軟中國CTO

來源:混沌學園

 

導讀

ChatGPT怎麼突然就火了?
他說,“山中方七日,世上幾千年。當你埋頭在屋子里面,研究最新技術進展,比如現在的最火的ChatGPT,出門一看,好像滿世界的人都把它當成了很新鮮的事情。其實ChatGPT3.0算是一個比較大的突破,但它兩年前就有了。它的結構、基本原理也存在很多年了。”
這輪技術到底是什麼?ChatGPT真的會思考嗎?
他說,“這輪技術,大概率就是把我們的知識進行提煉……機器是不會想的,想這個詞是人類自己發明出來的。如果你硬把這種能力視爲“想”,不能說錯與對,但它會誤導你對機器的判斷、理解和定義。”
ChatGPT究竟是怎麼做出來的?
他說,“Sam Altman(OpenAI CEO)那批人就是堅信大模型大力出奇跡,就能夠表徵人類的知識,就這麼簡單。”
……
ChatGPT的本質是什麼?是否將替代人類工作?我們人類又該如何與之共存?
今天,我們邀請韋青老師,微軟中國CTO做客混沌。他將利用工程師的底層視角,爲大家揭開人工智能的冰山一角,探尋ChatGPT爲何全球爆火。
韋青老師說,“大家有沒有感覺到,每天好像都是見證時代的一天。由於我們的工作背景,在技術領域、在微軟,能看到更多現象,我想跟大家講,首先看到任何現象,先不用感到驚訝。帷幕剛拉開一角,舞臺尚未完全展開。”

01

比真還真的時代

1. 我們需要通過ChatGPT理解什麼?
GPT是現在最熱門的話題,但GPT3模型兩年前就培訓出來了。GPT4的出現讓人驚豔,但去年8月份它就已經被訓練出來了。
什麼意思?ChatGPT實際上是冰山一角。當我們看到某些現象出現的時候,某種意義來講,這件事已經結束了。而這個時代纔剛剛開始,ChatGPT現象會層出不窮。
再追逐冰山已經沒什麼意思了,我們要儘快通過浮起的冰山,去理解我們可能進入了一片冰山叢生的海洋。
從一個本質性的構成來講,人類對世界的認知已經經歷了三個階段:農業時代是物質構成的。有地、有糧、有人就等於有權力,有生存的空間;工業時代如果你有能源、有動力,比有糧食還具備競爭力;到第三階段,人類發現信息也是構成世界的一種本源性的存在。思想受什麼影響?信息。
無論是麥克盧漢,還是鮑德里亞的理論,都已經強調了信息、電子信息的出現,可能會使人類社會的結構、邊界、性質、方式都發生變化。
麥克盧漢最出名的理論是地球村。請想象一下,在父母輩的時代,朋友大部分是單位的同事,來自家族、村子、單位。僅僅過了幾十年,現在你的朋友圈還受公司約束嗎?
鮑德里亞的觀點是,如果人類無止境地或者完全氾濫地利用數字化信息技術,我們很快就會進入一個比真還真的時代,那些由人工智能生成的照片、文字,你覺得它是真的嗎?
鮑德里亞說的“比真還真”的時代,它已經來了。
2. 語言是思想的邊界,技術是思想的實現
這幾個月太熱鬧了,或許先不需要這麼快下結論。當你埋頭在屋子里面,研究最新技術進展,比如現在的最火的ChatGPT,出門一看,好像滿世界的人都把它當成了很新鮮的事情。
ChatGPT3.0算是一個比較大的突破,但它兩年前就有了。它的結構、基本原理也存在很多年了。
語言是思想的邊界,這是維特根斯坦說的,但我要給他再加一句話,技術是思想的實現。
我們忽略了一點,能夠把技術開發出來,先得有一個思想。ChatGPT,實際上它只是一種提取已經被沉澱、被記憶的知識的一種交互方式,底下什麼?是基礎模型。像谷歌的BERT,Facebook的LLaMa。
爲什麼GPT現在那麼火?它背後是OpenAI的技術信仰,再加上微軟的Satya(微軟CEO)、Kevin Scott(微軟CTO)這些人的技術信仰的結合。這些人都相信,靠大量的語料和海量的計算,能夠產生出對於知識的沉澱和應用。
Sam Altman說,GPT走出的第一步,是拿把人類知識先沉澱下來。就像先把玫瑰花蒸餾成玫瑰精油。
但精油太濃了,你要使用的話,需要調和。所以第二步,就是用Instruct(指令)的方法,用提示詞的方法,把精煉的玫瑰精油,滴到沐浴露中去。
但是,這件事沒被證明可行之前,某種意義上是完全要靠信仰支撐的事情。有多少人敢這麼做?又要花人力、花時間、花海量的金錢,結果可能竹籃打水一場空。某種意義上,它的成功也可以理解成倖存者偏差。
我認爲你要讚歎的,不應該是ChatGPT的模型多麼偉大,而是它背後耐得住寂寞、懷疑的這種定力、決心、信心,這已經是一種技術信仰了。
我們有沒有對於工具、對於數字化技術的技術信仰?這纔是我們應該問自己的。
認知達到信仰的層面,才能夠選一條沒有人走過的路。儘管今天還走不通,但你就認爲這條路可以走,因爲第一性原理告訴你,這樣做是對的,只不過人類的技術還沒有發展到那一步,還證明不出來。
另一個例子是SpaceX。它成功了,大家都覺得太牛了。但當馬斯克後來接受媒體採訪時,他哭了。他說當時我認爲火箭可以回收,但NASA、所有大咖級人物、科學家都跟他講,這條路是走不通的。
OpenAI是一樣的,我們認爲它在2023年1月忽然出名,怎麼可能?它背後有太多的辛酸、堅持、疑惑、搖擺,只不過堅持下來了。
3. 現在的機器並不具備真正的思想力
這一輪技術,大概率就是把我們的知識進行提煉。知識哪來的?是我們的所作所爲、所寫所說,落成的文字、視頻、語音,經過數字化之後,被機器去提煉,建成一種模型,變成知識沉澱下來。
爲什麼大家覺得它很神奇呢?因爲沒有任何一個人有這種能力,能記住人類所有的知識。
有些人覺得,機器會涌現出一些思想能力。確實,它會表現成思想能力。但如果你知道它的算法是如何做出來的,你還是會形成自己的判斷。
我要想先聲明一下,每個人都會對這種現象產生不同的解讀。我的解讀是,現在的機器並不具備真正的思想力,是把人類知識記憶之後的一種使用能力。
機器是不會想的,想這個詞是人類自己發明出來的。如果你硬把這種能力視爲“想”,不能說錯與對,但它會誤導你對機器的判斷、理解和定義。
4. 做一個思想實驗,這輪技術到底是什麼?
如果我們發現了,可以通過蒸餾的方式,從植物中蒸餾出它的油性。請問,花園甲跟花園乙的擁有者,做同樣的事情,最後的價值會是怎樣的?他們做出來的東西,對社會的影響力會大不相同。
花園甲的擁有者,會懷疑提純機器不行?還是會痛定思痛,發現原料有問題?
當我們從農業文明進入工業文明,已經受過很多降維打擊了。當物質、能量變成信息的時候,會帶來更加降維式的打擊。
這種競爭方式,已經不是技術能力的競爭,有錢沒錢的競爭……而是文明在一較高低。
你的文明所表現的形式,能否被新一代的會思考的機器學到、吸收到,並且讓它的行爲方式對你有利?
ChatGPT剛火的時候,知乎股價飛漲。在中國,具備語言語料的網站絕對不止知乎。爲什麼它漲得那麼厲害?我沒做過詳細統計,但我認爲,知乎的花園可能類似於花園乙。
我們再捫心自問下,貴公司、貴機構、貴組織,你們的知識的表現形式、呈現方式,更像是左邊還是右邊?你未來如何跟具備這樣能力的公司競爭?
如果你的信息,無法沉澱成能被機器學習的知識。這一輪的機器能力,你能夠利用到的概率就大爲降低。

02

機器文明,冰山一角


時代的鉅變有個好處,不管你多麼先進,多麼落後,在這個時代又拉平了。

微軟CEO Satya說的刷新,Hit Refresh就是此意,重來過一遍。在這一輪的技術潮流下,我們如何重新獲得定位?需要我們每一個人思考。
1. 衝着ChatGPT創新,等於拎包入住而沒有自己的地基
古人有一句話叫“聖人畏因,凡人畏果。” 有了理念、信仰、追求,才能產生結果,如果我們只抓着結果,很容易只見樹木、不見森林。
拿ChatGPT來舉例子。當我們看到這個技術結果的時候,要相信它不是從石頭里蹦出來的。
2023年1月,微軟CEO Satya和Sam Altman(OpenAI CEO)的合照在網上很火,他們跟大家介紹了雙方的合作和技術的進步。但其實在2016年,雙方已經開始探討了。
OpenAI的成長,也是在不斷摸索的。大家可以看一本書,《深度學習革命》,以OpenAI這批人爲代表的深度學習實踐者和探索者們,怎樣從當初對谷歌人工智能產生一些擔憂,到成立這間公司。一切都是有脈絡可循的,是幾十年的摸索、試錯,才走到今天這一步的。
如果我們衝着GPT的模型去了,從創新的角度來講,我把它稱之爲拎包入住。
大家想象一下,一片未開墾的土地,長滿雜草茂木。但有人把它開墾出來了,又根據土地的特點,設計出人類能夠居住的房屋,把樓給造起來了,再找一些設計師精裝修。最後招商引資。
這時我們都看到了趨勢,發現只要找個50層以上的公寓房做生意就能夠大賺特賺,就拎包入住了。當時確實大賺特賺了。但若幹年之後,文明變了,潮流變了,50層以上的房屋不受歡迎了,你怎麼辦?
OpenAI有很多算法,很多工具,它曾經在機器人上投資,現在有人去看它的機器人嗎?ChatGPT只是它在衆多的嘗試中,湊巧發現了一條路可以往前走。你要跟着它這條路走,有點像守株待兔,認爲兔子永遠會撞在這棵樹上。
我認爲,其實各位可以在這一輪,去看OpenAI的理念,最早這些人是怎麼想的、怎麼做的、願景是什麼。
2. ChatGPT的冰山下面是什麼?
如果說我們看到了冰山一角,下面是什麼?
拿ChatGPT舉例,它下層有兩類支柱,產物、產出它的人。別隻關注ChatGPT或GPT4,去看更深層的東西。
一方面是大語言模型,賴以沉澱人類所有的知識,或者是能夠被它學習到的所有知識的機制。是Transformer/RNN/CNN/LSTM,是用數學的方式,表徵物理世界和人類知識與行爲的特徵。
另一方面,OpenAI,也是由人構成。公司就是由一批志同道合者構成的一個組織,去完成一個共同的願景,共同的一個目標。
這些人才是一批有科學修養的,又有工程實現能力的,又對語言學、計算機科學的第一性原理有深刻理解的。更關鍵的是,有一個共同的理想,堅信做這件事是對的,是有用的。
其實有很多人正因爲OpenAI所謂的成功,反而離開了,因爲覺得願景不一樣了。這是它的人才特徵。
人才特徵的背後又是什麼?容錯、合作、開放的文化,不拘一格降人才的用人風格,配合的風格,彼此交流的風格。
如果我們連辦公場所都嚴格要求,老闆、員工分級坐,等級森嚴,是很漠然的羣體,有可能做成這件事嗎?
我自己也是管理者,感觸還蠻深的。各個企業的文化真的不一樣。有開放的、有封閉的、有嚴厲的、有寬鬆的、有說一套做一套的,有說知行合一的,所處的行業特徵,社會的氛圍也真的是不一樣的。
錯誤是成功的前提條件。你公司的環境,整個的社會大環境,允許不允許這種容錯文化的出現?
所以有些人問我,咱們應該怎麼做ChatGPT?
我說如果你要做一個ChatGPT,個人的建議,還是別玩這個遊戲了。就像是打冰球,追着冰球打太難了,你最好天天求什麼?求前面沒人打了。但那時,新的賽道又開出來了。天天在說彎道超車,等你真超過去才發現,前面已經沒車了。
新開闢一條道路,需要建立這種環境,建立這種文化,培養這種人才,這纔是最基本的。Sam Altman那批人就是堅信大模型大力出奇跡,就能夠表徵人類的知識,就這麼簡單。
3. 通用人工智能(AGI)
通用人工智能(AGI)是他們的追求。OpenAI會爲之付出無窮的努力,不懈的追求,直到證明它絕對不行了。只不過,很巧它成了。但就算在AGI上,大家的關注點,也都各有側重。
20年前谷歌剛成立的時候,只是個搜索引擎。你會感到很無釐頭,一個搜索引擎,爲什麼把不作惡作爲標準?現在大家明白了吧,在一個“比真還真的時代”,給你的信息當然可以作惡。     
AI也一樣。微軟明確指出要做負責任的AI,谷歌說的叫不作惡。OpenAI提出UBI,全民基本收入(UBI,是指“無條件”地爲所有個人定期發放一筆現金收入)。    
Sam Altman在採訪中說,需要新思想回答的三個問題是:如何分配通用人工智能產生的利潤?如何分享通用人工智能的訪問權?如何分擔通用人工智能的治理權?
大家想一想,爲什麼Sam Altman想到了這三個問題?
還是因爲AGI一旦推出來,大家馬上就會發現,它的能力太大了,如果不能讓人類在這三個問題上達成共識,有人賺便宜、有人吃虧,就產生動盪的因素了。AGI帶來的這些議題,需要我們去了解。
4. 有些議題其實已經被思考100多年了
建議大家看一下《大都會》這部電影。它1927年上映,到現在馬上100年了,你會發現,我們幾乎在重演歷史。
它出現了三個文明的特質:
1)無用的機器。出現了過度設計的無用的自動機。仔細想一想,它每一個理念,每一個精巧的激發過程和動作,是不是我們現在人工智能、機器人的思想的底蘊?
那麼,我們有沒有可能在不接受,甚至排斥“無用的自動機”前提下,鼓勵工程師,孩子們去創造出這種自動機的文明?當不被鼓勵、允許時候,他們有沒有可能去做自動化的事兒?
我再舉個例子,我們這個文明是不接受多米諾骨牌有任何價值的。但實際上,多米諾骨牌跟無用的自動機,背後都有一個隱含的、對於自動機的一種強烈的發自內心的追求。人工智能沒成功前的所有投入,都是無用的自動機。這就是我們要深思的。
2)魔法師的學徒。名字來源於歌德的戲劇,它在全球技術領域經常被引用,說人類在開創一些魔法式的技術,但魔法需要被制衡,開啓魔法以外,要會關。
3)精靈寶瓶。你不但要關掉魔法,還得把它收回去。留在世上可能也會有問題。
《大都會》結尾有一句經典名言,說在負責思考、籌劃的大腦跟執行任務的雙手之間,必須有一個調節者,這個調節者必須是人心。
我想說,當你爲ChatGPT激動不已,腦補着很多東西的時候,有些議題其實已經被思考100多年了。而且,還沒有定論。一兩百年過去了,大家仍然在探討自動機的普遍流行造成的後果,和相應的人文上的制約。
這就是蓋子揭開之後,人類所面臨的話題。這是遠比所謂的人工智能奇異點,更宏大、更深刻、更嚴峻的話題。

03

如何利用機器?

“教-學”相長,“有-用”相隨


人和機器的關係是什麼?比較理想的狀況,是由機器彌補人類的弱點。那麼,首先機器的優點、弱點是什麼?人類的優點、弱點是什麼?我們知道嗎?

第二,人類怎麼指揮機器?機器怎麼能夠被指揮?怎麼能夠不被指揮?我們考慮過嗎?
第三,教學相長。我們要明白它是怎麼學的,才能明白怎麼去教它。

1. “教-學”相長

這點我特別希望想跟大家強調一下。否則,我們會誤以爲機器真能憑空學到知識。
上圖中有幾個機器智能的關鍵詞,表徵、映射、記憶、應用、學習。
圖中還有從GPT4官方網站上取的一句話,這是它對GPT4的定義。我們把GPT4開發出來,就是讓它去解決困難的問題,靠什麼呢?靠形成的通用知識。
問題是輸入,映射能力就是這種函數關係,產生的結果就是問題被解決掉了。
我認爲它說得恰到好處,沒有說什麼特別花哨的東西,就是由一種知識去解決一種問題。知識是橋樑,問題是輸入,把問題解決了是結果。
如果再優化,這三個等式。
第一個公式在描述什麼?這是一種映射。即通過輸入的變量,在一定參數的配置下,產生你要的Y。
第二個公式:這個Y是永遠不可能完全滿足你的。所以怎麼辦?理想的Y,減去每次產生的Y,產生一個偏差。
第三個公式:你接下來要做的事兒,就是不管用什麼樣的算法,把偏差最小化。
我們如何用機器?不就這三件事兒嗎?
你作爲一個人,是不是同樣也在做這三件事兒?也要根據你的X和Y搭建一種函數,一種能力,也要去配置參數?每次你的Y也會因爲一些小細節,比如這個月的銷售漲了,產品的次品率低了,跟你的理想值之間出現偏差,你也要想辦法把偏差減到最小。
明白機器的做法,你就能知道,我們應對的是怎樣的時代了。
2. 機器的祛魅與魅化
如果再剖開來看,我今天不是在講技術的細節,而是在講它的祛魅。
我們給ChatGPT披了一張畫皮,呈現出一個智者的形象。想象一下,ChatGPT是一個狐仙。我問,它答,你會覺着它是一個神人。但把這畫皮一揭開,原來你提出的問題,就是一段指令,你還會覺得很神奇嗎?
你還會對它有任何的人性化的連接嗎?你還會覺着,它要把我的工作代替掉了嗎?你覺得,是它把你的工作代替掉,還是它所賦能的一個機器或一個人把你的工作代替掉?
我們討論了給它祛魅,它有被魅化的可能嗎?如果基於你喜歡什麼,會對什麼產生情感的共鳴,如果我想給你造成一種它具有人性或神性的印象,也是可以做到的。
比如,給一個機器人取名叫歡歡,或者取一個讓你感覺到很親切的名字,或者讓機器的表達去模擬人的方式,讓你產生情感的綁定。你覺着有多少人能夠受得了這種感情的誘惑?
也就是說,我們的決定和共識,會決定我們的下一代,決定我們自己怎樣看待機器,是祛魅化?還是妖魅化?
這點並沒有達成共識,甚至沒有人去談這件事情。
在英文的語境下的Robots,bots,中文居然把它翻譯成機器人,自然地就把它向人靠了。實際上Robots和bots沒有任何的“人”的含義。
我們這個文明,是否需要主動地把這種機器能力,用語言的方式,用形象的方式,用各種各樣的方式,把它跟人連在一起,這是不是走得有點太大了?這也是一個問題。
3. 機器是不理解概念的,機器理解的是概率分佈
再給大家舉個例子,我對ChatGPT提出了一個問題:“我想去中國旅遊,我從來沒去過,那里的哪座雪山值得去看看?”
它回答說,“我無法判斷雪山的美麗程度”,爲什麼ChatGPT給出了這樣一句答案?這句話相對來講,很符合人性。
但實際上機器怎麼理解的?美字之後,好、妙、麗,各有概率的計算值。其中麗字的概率值最高,所以它就選了美麗。接下來呢,又有幾個字備選。程、景、心,在人類的語言中也都和美相關,比如美麗程度,美麗景色,美麗心情。機器發現“程度”兩個字概率更高。
最後它是自然就選擇了“度”字了嗎?不是的,度字概率最高,所以這句話就出來了。如果你前面問的問題是《三體》的主角是誰,八成它會選擇,心。
我們認爲它很完備,懂人話,說人話。但你發現沒有?人跟機器的理解是不一樣的。如果我們不知道這一點,就被它魅住了。一旦被它魅住,你很難成爲它的主人。
所以,你要明白這一點。
其實機器是不理解概念的,機器理解的是概率分佈。語言,每一個字的出現,都是有概率分佈的。它的答案是基於概率的一種推理,不是概念的推理,這一點我們務必要明白,這是祛魅的一個必要條件。Sam Altman(OpenAI CEO)能夠堅定信念,其實是因爲他對語言的特徵,有深刻的理解。
你覺得機器像人對吧?其實我要說,是我們太不像人了,所以才認爲機器像人。何以爲人?尤其是當我們知道自己有那麼多的誤區、偏差之後,如何去彌補、防範思維誤區和偏差,讓我們做得像個人?這是遠比AI會不會代替掉人,更核心、更本質的一句話。
越是紛紛擾擾,越要守住第一性原理。這個時代,門開了一道又一道,但外界其實一直這樣,是有風險的,只是我們沒有跳出舒適區。
4. 我們應該用AI幹什麼?
下圖是微軟的數字化智能反饋鏈,現在特別出名。基本概念是,幫我們建立起跟世間所有的對象的實時連接。知道它的狀態,反饋回來,進行優化,進行完善。
可以理解成什麼呢?無處不在的智能、計算、感知、決策。但實際你看,除了中間寫了Data AI,其餘圓圈里,寫的都是我們日常的工作、學習、生活。
我想強調的是,AI是幹什麼的?它跟上一世紀出現的電的特點是一樣的,應該是無處不在,通過建模仿真來進行計算和優化,用機器能力去賦能、幫助和完善我們的每一個過程。
但如果喪失掉了人的主觀能動性,如果沒有人的約束、制約、控制,沒有負反饋,全是正反饋,可能讓它自激了。它可能會在瞬間用掉地球的資源,理論上講是可以達到這種情況的。
所以就算是GPT,它也經過培訓,人是在決策鏈里面的。GPT這樣已經有很多知識沉澱的模型,能夠被使用,也是因爲人的主觀能動性在繼續發揮作用。
明白這個道理之後,你會發現實現起來沒那麼複雜。
OpenAI跟微軟合作,現在開放的這四個功能,你發現沒有,嚴格意義來講,都不會被普通用戶使用到。
我們用到的是什麼?是被它這種能力賦能的,所加強的,一種工作的性質和內容。
所以雖然OpenAI的技術很先進,微軟也在大力地推動,我們追求的不是ChatGPT或GPT,而是整個的一個系統觀,是Azure AI。Azure AI里面有除了OpenAI以外的很多功能,有很多技術的同步的實現。

04

知其雄,守其雌

如何面對這個時代?

1. 三個關鍵詞
有三個詞可以供大家參考——“煤氣燈下”、 知識“肥胖症”、知識“智子”。
煤氣燈下。Gas Lighting是2022年,韋伯字典的全球熱詞,是上一世紀40年代一部電影的名稱。電影講述了,一位先生想謀取他太太的財物,一直在給太太洗腦。電影用蒙太奇的手法,煤氣燈搖搖晃晃,讓人感覺到眩暈,感覺到不確定。它爲什麼變成全球熱詞了呢?因爲現在機器生成的虛假消息和錯誤消息,就如同搖晃的煤氣燈,讓我們失去了對什麼是真實的客觀判斷。
知識肥胖症。我們都知道,垃圾食品可能會帶來身體肥胖。但是大家想一想,每天我們通過手機,看了多少知識快餐?
捫心自問一下,我們消化得了嗎?我們的大腦,沒法去理解,也沒法記憶,就是不斷吞下很多信息。帶來了大腦的虛假連接,每個連接都是耗能的。我們天天在消耗那麼大的能量,但由於知識沒有重複,其實什麼也沒記下來。
那麼,我們是願意沉浸在知識的恐懼症中,覺着不學要落伍,還是願意理解能力的侷限或者約束,來學我們能夠消化的知識?這一點,能夠決定我們的生活素質的高低。
知識智子。算法機器,是把人類知識吃進去,消化,把它變成精華提煉出來。如果你沒有不斷給它進入新的知識,或者說,新的知識也是這個引擎產生出來的,大家想象到結果了嗎?
它就變成了一個正反饋,就像狗咬尾巴一樣,不斷在打轉,不斷地去精華同樣的知識。一開始,可能會有一些所謂的涌現現象,但我覺得,如果你不給它添一些額外知識,機器轉得又快,越來越壓縮,你會看到這個模型好像越來越小,越來越精練,越來越有用,但實際上它的知識固化了。
類似於《三體》里的智子,是一種源頭上的約束,讓新的知識無法產生。
這種情況不一定出現,但是有這樣的隱憂。它是受機器能力本身所侷限,尤其當我們人類不加約束去運用的時候,就會出現這種情況。
2. 文明這個話題很關鍵
提煉知識的算法是沒有文明的,但你給它供給的原料是有文明的。我們要給這種技術以文明,我們的文明,讓它能夠沉澱下來,爲我們所用。
文明這個話題很關鍵,我拿幾張圖,給大家展現一下,還是蠻發人深思的。我在中文語境下,試了一些關鍵詞,讓我很警醒。
“開心的農民在廣闊的農田里駕駛着拖拉機收割。”你覺着機器在中文語境中應該給你什麼樣的圖片?
我又試了一些詞彙,當我想讓它產生出一個我希望跟我的文明相吻合的圖像時,它產生的是這樣的圖像,不能說它錯誤,是說它跟文明的背景不兼容。
我有點着急,好歹給我出點跟中國相關的形象吧?所以我輸入了語文老師,符合中國的文化特點的語文老師。
你看它給我產生一個什麼形象。一個非常古舊的、傳統的、沒有現代化文明特徵的一個語文老師的形象。但我們中國的語文老師有這麼古老嗎?他們是不是也在用計算機,穿現代化的服裝,在給一幫活潑的學生在講課?
在算法界,這叫做語料的偏差和偏誤。今天我一直在跟大家講的,不是算法,要比算法大得多。文化、文明的傳承之前要提煉,沉澱下來,讓我們的下一代,包括我們自己,能利用這種知識的沉澱來幫助我們。
我們希望什麼樣的工具,什麼樣的提煉是適合我們的需求的,這是值得我們每一個人警醒的。這是對我們每個人的自勉。

05

Don't Panic,不要驚慌


在小說《沙丘》描述的場景中,人類的技術已經很先進了,可以穿越太空。但人與人之間的打鬥靠什麼?原始武器。

知道爲什麼嗎?在小說中,人類歷史出現過一件什麼事?巴特勒聖戰,有一個種族,特別熱衷於機器能力,發明了很多人工智能和智能機器人,而且把機器能力用在了戰爭上。開始大家不在意,結果越做越先進,這個反噬差點把人類都給滅掉。
爲什麼這本小說在西方影響那麼大?衝的不只是機器,是機械的價值觀。
下面這一段的話,是主角的導師跟他講的,“你就是用了太多的機器能力,結果居然忘了在沙漠里要戴上面罩。”主角跟導師說,那你怎麼不提醒我?導師說,就是因爲你過於依賴機器的提醒能力,把你自己的人的能力都喪失掉了。
我們面臨的是一個偉大的時代,而且大概率在不知不覺中已經跨入了這個偉大的時代,已經是其中一份子了。
那麼怎麼辦?Don't Panic,不要驚慌,別擔心,彆着急。爲什麼?
對機器能力的過度恐懼,實際上是對人類,對我們自己主觀能動性的極度自卑。我們高估了我們記憶的作用與知識的難度,卻低估了我們思想的深度,和人的主觀能動性。
但要保住人類的主觀能動性,還要花一些心思去理解現代化的機器的能力,成爲機器的主人翁,也就讓自己更有可能性,有更大的概率,進化成新一代的人類。