對于濫用生成式人工智能技術的擔憂在世界范圍內都存在。不僅因為其超越一般技術的“創造能力”和“破壞性”,更因為人們發現,生成式人工智能技術發展的速度極快。目前,世界各國對其風險的預判與防范均處于探索階段,有賴于法律體系的進一步完善。?
10分鐘內被騙走430萬元,近期,用AI技術興風作浪的詐騙案件,引起了社會關注。
5月22日,包頭警方發布的一起利用AI實施電信詐騙的案例沖上熱搜。福州市某科技公司法人代表郭先生在接到“好友”微信視頻電話后,考慮到關系好又是真人視頻通話,在10分鐘內直接向對方賬戶匯款430萬元。隨后才意識到自己遭遇了“高端”騙局,“好友”是騙子通過AI換臉技術佯裝而成的。
關于AI技術的爭論不曾停止過。此前,ChatGPT就曾因編寫假新聞而飽受詬病,而近期大量出現的AI詐騙更是令人不得不開始反思,AI生成的虛假信息或許潛藏著巨大的社會風險。
需警惕生成式人工智能技術的濫用
英國媒體《每日郵報》曾報道,2019年3月,英國警方逮捕了一名使用AI語音模仿軟件的詐騙者。他將自己的聲音改變成當地一家能源公司老板的聲音,以“幫助公司避免拖欠罰款”為由要求一位高管向其匯款,通過電話騙取了22萬歐元(約合人民幣170萬元)。據這名高管回憶,當時他也產生了疑心,但他的確聽到了老板的德國口音。此案被認為是全球首例人工智能詐騙案。
其實,模仿一個人的聲音乃至外貌,對AI來說并不是新鮮事。此前,“AI孫燕姿”就曾在B站等網絡平臺走紅,視頻上傳者通過使用AI音色替換技術(Sovits4.0),生成了高度還原孫燕姿音色的翻唱歌曲,其中原唱為周杰倫的歌曲《發如雪》播放量已超過200萬次。近期也有媒體報道了一款網絡上的付費AI換臉軟件,其套餐價格從499元到2888元不等,肉眼來看,換臉之后的“數字人”口型、表情、微小的動作幾乎毫無破綻。
諸如此類生成式人工智能(Generative Artificial Intelligence,簡稱GAI)的大量出現很大程度上得益于深度合成和機器學習的快速發展。而AI詐騙者正是通過這些先進的技術,訓練出能夠模擬人類語言和神態的AI。
蘇州大學競爭政策與反壟斷研究中心研究員方翔指出,近期的AI詐騙案件主要是人工智能技術在圖像領域的應用,其可以將不同人臉圖像中的面部特征相互替換。“擬聲”則是借助深度學習模型,根據已有的語音樣本(如通話錄音、網絡視頻等)生成與其近似的聲音,進而做到與人交談。
5月24日,中國互聯網協會發文提醒,伴隨著深度合成技術的開放開源,深度合成產品和服務逐漸增多,利用“AI換臉”“AI換聲”等虛假音視頻,進行詐騙、誹謗的違法行為屢見不鮮。面對利用AI技術的新型騙局,廣大公眾需提高警惕,加強防范。業內人士普遍認為,“AI換臉”技術的濫用給人們敲響了警鐘,其復雜性、隱蔽性也給科技識別及運用提出了更高的要求。
“對于生成式人工智能,正當適度使用,可以倍增工作效率,有力推動創意產業發展,促進消費者福祉增長。但同時,虛假使用可引發謠言泛濫、侵害權利、壓榨利益,而過度使用可引發踐踏人性、減少就業、貧富懸殊,而惡意濫用甚至成為歪曲真相、撕裂社會、政策干擾、禍亂宇內的罪惡之源。”中國互聯網協會法工委副秘書長胡鋼認為,要堅持依法崇德治理,使全社會形成法網大于互聯網、國法高于算法、人工智能不能成為“人工制人”的共識。
探索構建完善的人工智能法律體系
“我國針對人工智能及數據安全、個人信息保護的立法雖然起步較晚,但日臻成熟。”方翔指出,早在2017年7月,國務院印發《新一代人工智能發展規劃》,其作為我國AI發展的綱領性文件,提出了面向2030年我國新一代人工智能發展的指導思想、戰略目標、重點任務和保障措施,其中特別提到“到2025年初步建立人工智能法律法規、倫理規范和政策體系,形成人工智能安全評估和管控能力”。
2022年12月,國家網信辦、工信部、公安部聯合發布《互聯網信息服務深度合成管理規定》,強調不得利用深度合成服務從事法律、行政法規禁止的活動,要求深度合成服務提供者對使用其服務生成或編輯的信息內容,應當添加不影響使用的標識。提供智能對話、合成人聲、人臉生成、沉浸式擬真場景等生成或者顯著改變信息內容功能服務的,可能導致公眾混淆或者誤認的,應當進行顯著標識。
2023年4月,國家網信辦起草《生成式人工智能服務管理辦法(征求意見稿)》并向社會公開征求意見,提出AI內容必須真實準確,禁止非法獲取、披露、利用個人信息和隱私、商業秘密。
“總的來看,構建完善的人工智能法律體系,我國目前仍在探索階段。”方翔說。中國信息通信研究院云計算與大數據研究所所長何寶宏則指出,2022年12月發布的《互聯網信息服務深度合成管理規定》明確針對在中國境內應用深度合成技術提供的互聯網信息服務進行規制,其中,深度合成技術是指利用深度學習、虛擬現實等生成合成類算法制作文本、圖像、音頻、視頻、虛擬場景等網絡信息的技術。“在上述法律法規的具體落實過程中,存在兩方面的挑戰。”
“一是防范深度合成技術應用生成錯誤價值導向、虛假信息的能力需要進一步提升。《互聯網信息服務深度合成管理規定》要求深度合成服務提供者對輸入數據和合成結果進行審核、建立健全識別違法和不良信息的特征庫、依法處置違法和不良信息的生成合成信息內容。但是,對于深度合成服務提供者如何落實內容管理需要進一步細化,提供者需要不斷提升技管結合的能力;對于內容管理落實的具體效果,也有待進行持續性的跟蹤檢驗。”其次,何寶宏指出,對深度合成信息內容增加標識的具體規范也需要進一步細化,文件中明確深度合成服務提供者提供深度合成服務,可能導致公眾混淆或者誤認的,應當在生成或者編輯的信息內容的合理位置、區域進行顯著標識。“但對于如何增加顯著標識以及增加標識的具體方式需要盡快出臺細化的要求規范。”
超越一般技術的“破壞性”引發擔憂
對于濫用生成式人工智能技術的擔憂在世界范圍內都存在。不僅因為其超越一般技術的“創造能力”和“破壞性”,更因為人們發現,生成式人工智能技術發展的速度極快。
從OpenAI去年11月推出ChatGPT,到今年3月其迭代品GPT-4面世,僅用了幾個月的時間。GPT-4不僅知識面更廣、回答問題更流暢,還可以描述并理解圖片,甚至具備一定自我反思的能力。
OpenAI的首席執行官Sam Altman接受采訪時就曾表示,擔心這些模型可能被用于大規模的虛假信息,也擔心人類被控制。“ChatGPT是一個高度受人類控制的工具。但也許會有人放棄設置我們目前已有的一些安全限制。”他補充,“我認為,社會只有有限的時間來弄清楚如何對此做出反應,如何監管,如何處理它。”
今年3月,美國特斯拉汽車公司首席執行官埃隆·馬斯克曾聯合1000多名業界、學界人士發表公開信,呼吁所有AI實驗室立即暫停訓練比ChatGPT更強大的AI系統,暫停至少6個月。其信中提到,在開發強大的AI系統之前,要確信這些系統的影響是積極的,風險是可控的。
同時公開報道顯示,今年3月31日,意大利個人數據保護局宣布即日起暫時禁止使用ChatGPT,并暫時限制OpenAI處理意大利用戶數據。意大利成為首個禁止ChatGPT的西方國家,歐盟的多個國家也開始跟進,醞釀具體監管措施。
各國政府都在加快出臺人工智能監管法律。據路透社報道,英國競爭和市場管理局正在審查人工智能對消費者、企業和經濟的影響,考慮是否需要新的監管措施。法國隱私監管機構正在調查與ChatGPT有關的幾起投訴。澳大利亞政府正在咨詢科學咨詢機構,來考慮下一步的監管行動。歐洲數據保護委員會已成立ChatGPT特別工作組;歐盟消費者組織則呼吁歐盟消費者保護機構調查ChatGPT技術及對消費者的潛在危害。
“鑒于人工智能的技術復雜性,世界各國對其風險治理均處于探索階段,對其約束和監管仍有賴于法律體系的完善。”方翔介紹,歐盟目前正在推進全球首部人工智能法案。2023年4月,歐洲議會成員就《人工智能法(The AI Act)》提案達成臨時政治協議,強化對生成式人工智能的監管,并將人工智能技術可能帶來的風險細化為極小風險、有限風險、高風險、不可接受風險4個等級。“這一立法動向值得我國關注。”方翔告訴記者。
中青報·中青網記者 李若一 王林 見習記者 裴思童 來源:中國青年報
相關稿件