參考消息網11月1日報道 據法國《回聲報》網站10月27日報道,人工智能對地球構成的風險是否與戰爭或大流行病一樣大?無論如何,這個行業的巨頭們都非常重視這一威脅。創造聊天生成預訓練轉換器(ChatGPT)的開放人工智能研究中心(OpenAI)剛剛組建一支全新團隊,旨在對抗“人工智能的災難性風險”。
這個新團隊將負責監控和評估當前和未來人工智能模型的穩固性,并保護它們免受一切惡意使用。在預期的風險中,OpenAI尤其指出了網絡攻擊(可以通過人工智能大規模自動進行)、化學威脅、生物威脅、放射性和核威脅等……
據領英網上官方頁面顯示,OpenAI公司員工不到500人。公司沒有進一步說明新團隊的規模。團隊將由麻省理工學院教授、前谷歌顧問亞歷山大·馬德里領導。
與此同時,OpenAI啟動了一項“挑戰”:開發者受到邀請來想象攻擊場景和限制其影響的響應。這家企業將為10個“最佳”項目提供2.5萬美元資金。這場競賽還可以讓OpenAI發現能夠加入這個新團隊的人才。
這一舉措出臺之際,正值英國將主辦首屆人工智能安全峰會。包括OpenAI、谷歌以及政府領導人、科技界和學界人士在內的上百參會者將于11月1日齊聚布萊奇利。這次國際會議將會討論人工智能對國家安全的威脅和可能的保障措施。
5月底,包括OpenAI首席執行官薩姆·阿爾特曼在內的350多名知名人士簽署了一封公開信,引發了關于人類對人工智能失去控制的爭論。公開信只有一段話:“降低人工智能帶來的滅絕風險,應該與大流行病和核戰爭等其他大規模風險一起納入全球優先事項。”
類似的這些呼吁主要被視為人工智能巨頭自證清白的一種方式,因為世界各國政府都在尋找監管人工智能的正確方式。其他一些人則認為,這是該行業初創企業夸大這項技術的極端重要性以及它們在生態系統中的作用的一種方式。在媒體、廣告或銀行業,人工智能已經開始威脅就業,但其“災難性風險”目前更加不確定。(編譯/劉卓)
相關稿件