“深度學習三巨頭”之一杰弗里·辛頓請辭谷歌,警示人們人工智能風險緊迫?
新技術總會伴隨新風險,AI為何更棘手?
站在“人類文明的十字路口”,AI何去何從?這是擺在人類面前的一道必答題。自去年底ChatGPT橫空出世、5天突破百萬用戶以來,有關AI與人類未來的討論愈演愈烈,從產業界到學界,至今尚無定論。
回望歷史,科學技術的發展總是在反對和質疑聲中一路前行。新技術總會伴隨新風險,這一次為何更棘手?作為地球文明的主導者,我們似乎遇到了一個前所未有的挑戰:以目前AI的發展速度,人類會否淪為硅基智慧演化的一個過渡階段?這一次人人都是參與者,無人可以置身事外。
——編者
■本報記者 沈湫莎
繼全球千余名業界大佬公開簽名呼吁暫停研發比GPT-4更強大的人工智能(AI)系統后,在業內有“AI教父”之稱的計算機科學家杰弗里·辛頓(Geoffrey Hinton)本月初宣布離職谷歌,進一步加深了人們對AI是否已經失控的擔憂。
現年75歲的辛頓在神經網絡領域長期從事開創性工作,為AI技術的發展奠定了基礎。在3月下旬那封聚集了1000多個簽名的公開信發布時,“深度學習三巨頭”、三位2018年圖靈獎得主表現各不相同。其中,蒙特利爾大學教授約書亞·本吉奧(Yoshua Bengio)高調簽名,臉書首席人工智能科學家、紐約大學教授楊立昆(Yann LeCun)旗幟鮮明地反對,身為谷歌副總裁的辛頓一言未發。
宣布離職谷歌后,辛頓公開表達了自己的觀點。他在接受《紐約時報》采訪時表示,相較于氣候變化,AI可能對人類的威脅“更緊迫”。他甚至表示,之所以離開谷歌,就是為了完全自由地說出AI潛在的風險,向世人提出警示。在5月3日麻省理工技術評論舉行的一場半公開分享會上,辛頓坦言,過去他認為AI風險是遙不可及的,“但現在我認為這是嚴重的,而且相當近,但停止發展AI的想法太天真了。”
人類又一次陷入“科林格里奇困境”
人類歷史上,曾無數次因新技術的誕生而產生擔憂。比如,1863年瑞典化學家諾貝爾發明硝化甘油炸藥,1885年德國人卡爾·本茨和戴姆勒發明內燃機汽車,20世紀40年代人類發明了原子彈……
辛頓如今對AI的情緒,與晚年時期的諾貝爾和愛因斯坦如出一轍。諾貝爾發明炸藥原本是為了提高開礦、修路等工程的效率,當他發現自己的發明被投入到戰場上后,其自責達到了頂點,這也促使他后來創立了諾貝爾獎。
清華大學人工智能國際治理研究院副院長梁正認為,在新技術興起時,人類通常會面臨所謂的“科林格里奇困境”——技術尚未出現,監管者無法提前預測其影響并采取行動;而當它已經出現時,采取行動往往為時已晚或成本過高。
幸運的是,迄今為止,人類通過不斷適應新技術的發展而調整治理手段,一次次走出了“科林格里奇困境”。“比如在汽車大規模上市前,人們就為其安裝上了剎車,之后也一直在完善汽車的安全性,為其提供各類檢測和認證,甚至在汽車發明100多年后,人們還在為其安全‘打補丁’——裝上安全氣囊。”梁正說。
不過,他也承認,這一次AI的來勢洶洶似乎與以往有些不同,“速度太快了。”比如,訓練了幾個月的ChatGPT的性能提升比過去幾年迭代都要快,這意味著生成式AI大模型可以在幾周內將潛在風險轉變為實存風險,進而對人類社會造成不可估量的影響。
另一個不同是,這一次我們似乎無從下手。辛頓坦言,對于氣候變化的風險,人類可以提出一些有效的應對策略,比如減少碳排放,“你相信這樣做,最終一切都會好起來的。但對于AI的風險,你根本不知道如何下手。”
另外,商業競爭也會促使大模型一路“狂飆”。OpenAI深知GPT所蘊含的潛在風險,盡管他們對外表示將審慎推進AI系統的研發,但并不愿意就此暫停或徹底放慢腳步,而是期望社會為此做好準備。今年2月,這家公司剛剛公布了其發展通用AI的雄心與策略。而其首席執行官山姆·阿爾特曼表示,通用AI在AI技術上只能算是一個小節點,他們的遠景目標是創造出遠超人類智能的超級AI。
AI真的擁有人類智能了嗎?
AI失控的故事,一直出現在科幻小說中。在大模型出現前,人們也對AI保持了相當警惕,但從未像今天一樣如臨大敵。那么,能識別出照片中的種種不合理、在各項考試中拿到高分、與人如沐春風般對話的大模型,真的已經擁有人類智能了嗎?
聯合國教科文組織AI倫理特設專家組專家、中國科學院自動化研究所AI倫理與治理中心主任曾毅認為,以ChatGPT為代表的大模型是“看似智能的信息處理”,與智能的本質沒有關系。
“人們之所以覺得它很厲害,因為它的回答滿足了人們的需求,如果這些回答來自于一個人,你會覺得他太聰明了。但如果你跟它說‘我很不高興’,它說‘那我怎么能讓你高興一些’,這讓人覺得它似乎理解了情感,而實際上它只是建立了文本之間的關聯。”曾毅認為,目前的AI系統與人類智能的區別在于,大模型沒有“我”的概念,沒有自我就無法區分自我和他人,就無法換位思考,無法產生共情,也就無法真正理解情感。
清華瑞萊智慧科技有限公司AI治理研究院院長張偉強表示,當前的大模型仍屬于第二代AI,其主要特征為以深度學習為技術、以數據驅動為模式。這使得它在決策鏈路和邏輯上具有天然的不確定性,即便是模型開發者,也無法準確預知模型的輸出結果。當語言大模型“信口開河”時,不能認為是出現了所謂的“自我意識”,而僅僅是技術缺陷使然。
“計算能力當然是智能的一種,但智能的范圍比這大得多,除了計算還有算計。”梁正說,如果把智能看作一個球體,阿爾法狗表現出的智力如同一個針尖般大小,大模型則是球體表面那一層,離真正的智慧內核還差得遠。因此,許多技術派將ChatGPT視作某種“高科技鸚鵡”或人類知識庫的映射。他們并不認為情況已經十分危急,因為與人類智能相比,大模型并沒有觸及認知的底層邏輯。
大模型真正的威脅在哪里?
我們應該允許機器充斥信息渠道傳播謊言嗎?應該將所有工作(包括那些讓人有成就感的工作)都自動化嗎?應該去開發可能最終超越甚至取代我們的非人類智慧嗎?應該冒文明失控的風險嗎?細讀那封千人簽名支持的公開信不難發現,業界大佬們并非為AI的智能即將超過人類而憂心忡忡,而是擔心AI將消解人類存在的意義,解構人類社會的關系。
2017年,AI領域的重磅論文《一種采用自注意力機制的深度學習模型Transformer》發表,這個不到200行代碼的模型開啟了AI發展的新階段。原本分屬不同領域的計算機視覺、語音識別、圖像生成、自然語言處理等技術開始融合。在Transformer的模型下,工程師利用互聯網上的文本進行AI訓練,訓練方法是在一句話里刪除一些單詞,讓模型試著預測缺失的單詞或接下來的單詞。除了文本,此模型也可應用于聲音和圖像。和單詞一樣,工程師可以將聲音和圖像分解成細小的模塊,并利用修補模型進行預測和填補。
“所謂生成式AI,通俗來說就是讓AI能夠像人類一樣說話、寫字、畫畫,甚至分析和理解問題。”張偉強說,基于這種“創作”能力,“人工”與“非人工”的邊界正在消弭,數字世界的信息真偽也越來越難以辨識。目前,已有聊天機器人被用來生成針對性的網絡釣魚郵件。不久的將來,當人們聽到或看到家人的聲音或圖像時,或許首先要問自己一個問題:這是真的嗎?畢竟,最新的AI技術只需3秒就能拷貝一個人的特征。
此外,生成式AI還帶來了其他新風險的挑戰。張偉強舉例說,第一個風險就是加深“信息繭房”。過去,當我們搜索信息時,還能得到多種答案以供選擇。語言大模型則更像一個“繭房”,你將如同《楚門的世界》中的男主角,被動接受模型世界給你的信息。
大模型帶來的第二個新風險是對創新動能的干擾。人類總是會在思考的過程中迸發靈感,在動手的過程中有所收獲,在不斷試錯的過程中走向成功,不少偉大的發明都是研究的“副產品”。而大模型提供了前往正確答案的直通車,人們將由此減少很多試錯機會。正如劉慈欣在科幻作品《鏡子》中描寫的一種人類“結局”,人類因為從不犯錯而走向滅亡。
我們為AI“套籠頭”的速度并不慢
生成式AI的飛速發展,讓人類社會面臨著一場信任危機。當網絡上充斥著越來越多不知真假的圖片和視頻,AI助手幾秒鐘就“洗”出了一篇像模像樣的稿件,大批學生開始用ChatGPT寫作業、寫論文,我們是否有信心用好生成式AI這個工具?
對此,梁正比較樂觀。他認為,新技術總是伴隨著風險,而人類曾無數次處理過這種情況,因此不必太過擔心。在他看來,人類應對這一波生成式AI的速度算得上及時。
去年11月30日,OpenAI推出ChatGPT。今年3月,英國政府發布了第一份AI白皮書,概述了AI治理的五項原則。3月底,意大利個人數據保護局(DPA)宣布從即日起禁止使用ChatGPT,限制OpenAI處理意大利用戶信息數據,同時對其隱私安全問題立案調查。隨后,德國、法國、愛爾蘭等國家也開始準備效仿意大利的做法,加強對ChatGPT的監管。
在生成式AI的立法方面,中國與歐盟基本同步。4月11日,國家互聯網信息辦公室發布《生成式人工智能服務管理辦法(征求意見稿)》。梁正認為,《管理辦法》從三方面給生成式AI的發展戴上了“籠頭”:一是大模型的數據來源要可靠;二是對AI生成的內容應履行告知義務;三是一旦造成損害,相關責任方需要承擔責任。他建議,對生成式AI實行分級分類管理。比如,對某些高風險領域應該謹慎或嚴格控制使用生成式AI,而對一般的辦公娛樂場合,只要標注出AI生成內容即可。
與其焦慮,不如用技術規制技術
如果把生成式AI比作“矛”,那么檢測其安全性的公司就是“盾”。目前,在全球范圍內,“盾”公司的數量并不多。由清華大學人工智能研究院孵化的瑞萊智慧(Real AI)就是一家“盾”公司,他們負責檢測內容是否由AI生成,以及給大模型的安全系統“挑刺”。
“人類需要保持辨識信息真偽的能力,只要能識別出哪些內容是AI生成的,并精準告知公眾,這項技術也沒有那么可怕。”張偉強說,目前他們研發了一套AI內容識別系統,在識別能力上處于國際領先。
比識別AI內容更重要的,是彌補第二代AI本身的安全缺陷。張偉強解釋說,AI的“智力”提高后,需要視其為社會生活中的一位新參與者。但第二代AI本身的運算過程是個“黑箱”,相當于你無法看透這位新伙伴的所思所想(可解釋性差),且他還極易被欺騙犯錯(魯棒性差)。至今在大模型中無法徹底解決的“幻覺”問題就是由此產生,即使數據來源準確可靠,但大模型仍可能會“一本正經地胡說八道”。
不可否認,ChatGPT開啟了一場全球范圍的大模型“軍備競賽”,大廠紛紛發布各自的大模型系統,不少小公司也推出了基于自身領域的“小模型”。張偉強表示,市場的充分競爭固然有利于行業快速發展,但其先天的安全不足同樣需要引起重視。比如,上個月,瑞萊智慧僅通過添加少量對抗樣本,就讓Meta發布的史上首個圖像分割模型SAM失靈,顯示出大模型在安全性方面仍然任重道遠。
梁正認為,未來,當人們回望現在所經歷的這個階段,會清晰認識到AI的工具屬性。為了保證它永遠只是工具,我們必須及時跟進它的動向,敏捷治理,就像歷史上人類曾經一貫為之的那樣。
相關稿件