對于濫用生成式人工智能技術的擔憂在世界范圍內都存在。不僅因為其超越一般技術的“創(chuàng)造能力”和“破壞性”,更因為人們發(fā)現(xiàn),生成式人工智能技術發(fā)展的速度極快。目前,世界各國對其風險的預判與防范均處于探索階段,有賴于法律體系的進一步完善。?
10分鐘內被騙走430萬元,近期,用AI技術興風作浪的詐騙案件,引起了社會關注。
5月22日,包頭警方發(fā)布的一起利用AI實施電信詐騙的案例沖上熱搜。福州市某科技公司法人代表郭先生在接到“好友”微信視頻電話后,考慮到關系好又是真人視頻通話,在10分鐘內直接向對方賬戶匯款430萬元。隨后才意識到自己遭遇了“高端”騙局,“好友”是騙子通過AI換臉技術佯裝而成的。
關于AI技術的爭論不曾停止過。此前,ChatGPT就曾因編寫假新聞而飽受詬病,而近期大量出現(xiàn)的AI詐騙更是令人不得不開始反思,AI生成的虛假信息或許潛藏著巨大的社會風險。
需警惕生成式人工智能技術的濫用
英國媒體《每日郵報》曾報道,2019年3月,英國警方逮捕了一名使用AI語音模仿軟件的詐騙者。他將自己的聲音改變成當?shù)匾患夷茉垂纠习宓穆曇?#xff0c;以“幫助公司避免拖欠罰款”為由要求一位高管向其匯款,通過電話騙取了22萬歐元(約合人民幣170萬元)。據(jù)這名高管回憶,當時他也產生了疑心,但他的確聽到了老板的德國口音。此案被認為是全球首例人工智能詐騙案。
其實,模仿一個人的聲音乃至外貌,對AI來說并不是新鮮事。此前,“AI孫燕姿”就曾在B站等網絡平臺走紅,視頻上傳者通過使用AI音色替換技術(Sovits4.0),生成了高度還原孫燕姿音色的翻唱歌曲,其中原唱為周杰倫的歌曲《發(fā)如雪》播放量已超過200萬次。近期也有媒體報道了一款網絡上的付費AI換臉軟件,其套餐價格從499元到2888元不等,肉眼來看,換臉之后的“數(shù)字人”口型、表情、微小的動作幾乎毫無破綻。
諸如此類生成式人工智能(Generative Artificial Intelligence,簡稱GAI)的大量出現(xiàn)很大程度上得益于深度合成和機器學習的快速發(fā)展。而AI詐騙者正是通過這些先進的技術,訓練出能夠模擬人類語言和神態(tài)的AI。
蘇州大學競爭政策與反壟斷研究中心研究員方翔指出,近期的AI詐騙案件主要是人工智能技術在圖像領域的應用,其可以將不同人臉圖像中的面部特征相互替換?!皵M聲”則是借助深度學習模型,根據(jù)已有的語音樣本(如通話錄音、網絡視頻等)生成與其近似的聲音,進而做到與人交談。
5月24日,中國互聯(lián)網協(xié)會發(fā)文提醒,伴隨著深度合成技術的開放開源,深度合成產品和服務逐漸增多,利用“AI換臉”“AI換聲”等虛假音視頻,進行詐騙、誹謗的違法行為屢見不鮮。面對利用AI技術的新型騙局,廣大公眾需提高警惕,加強防范。業(yè)內人士普遍認為,“AI換臉”技術的濫用給人們敲響了警鐘,其復雜性、隱蔽性也給科技識別及運用提出了更高的要求。
“對于生成式人工智能,正當適度使用,可以倍增工作效率,有力推動創(chuàng)意產業(yè)發(fā)展,促進消費者福祉增長。但同時,虛假使用可引發(fā)謠言泛濫、侵害權利、壓榨利益,而過度使用可引發(fā)踐踏人性、減少就業(yè)、貧富懸殊,而惡意濫用甚至成為歪曲真相、撕裂社會、政策干擾、禍亂宇內的罪惡之源?!敝袊ヂ?lián)網協(xié)會法工委副秘書長胡鋼認為,要堅持依法崇德治理,使全社會形成法網大于互聯(lián)網、國法高于算法、人工智能不能成為“人工制人”的共識。
探索構建完善的人工智能法律體系
“我國針對人工智能及數(shù)據(jù)安全、個人信息保護的立法雖然起步較晚,但日臻成熟。”方翔指出,早在2017年7月,國務院印發(fā)《新一代人工智能發(fā)展規(guī)劃》,其作為我國AI發(fā)展的綱領性文件,提出了面向2030年我國新一代人工智能發(fā)展的指導思想、戰(zhàn)略目標、重點任務和保障措施,其中特別提到“到2025年初步建立人工智能法律法規(guī)、倫理規(guī)范和政策體系,形成人工智能安全評估和管控能力”。
2022年12月,國家網信辦、工信部、公安部聯(lián)合發(fā)布《互聯(lián)網信息服務深度合成管理規(guī)定》,強調不得利用深度合成服務從事法律、行政法規(guī)禁止的活動,要求深度合成服務提供者對使用其服務生成或編輯的信息內容,應當添加不影響使用的標識。提供智能對話、合成人聲、人臉生成、沉浸式擬真場景等生成或者顯著改變信息內容功能服務的,可能導致公眾混淆或者誤認的,應當進行顯著標識。
2023年4月,國家網信辦起草《生成式人工智能服務管理辦法(征求意見稿)》并向社會公開征求意見,提出AI內容必須真實準確,禁止非法獲取、披露、利用個人信息和隱私、商業(yè)秘密。
“總的來看,構建完善的人工智能法律體系,我國目前仍在探索階段。”方翔說。中國信息通信研究院云計算與大數(shù)據(jù)研究所所長何寶宏則指出,2022年12月發(fā)布的《互聯(lián)網信息服務深度合成管理規(guī)定》明確針對在中國境內應用深度合成技術提供的互聯(lián)網信息服務進行規(guī)制,其中,深度合成技術是指利用深度學習、虛擬現(xiàn)實等生成合成類算法制作文本、圖像、音頻、視頻、虛擬場景等網絡信息的技術?!霸谏鲜龇煞ㄒ?guī)的具體落實過程中,存在兩方面的挑戰(zhàn)?!?/p>
“一是防范深度合成技術應用生成錯誤價值導向、虛假信息的能力需要進一步提升?!痘ヂ?lián)網信息服務深度合成管理規(guī)定》要求深度合成服務提供者對輸入數(shù)據(jù)和合成結果進行審核、建立健全識別違法和不良信息的特征庫、依法處置違法和不良信息的生成合成信息內容。但是,對于深度合成服務提供者如何落實內容管理需要進一步細化,提供者需要不斷提升技管結合的能力;對于內容管理落實的具體效果,也有待進行持續(xù)性的跟蹤檢驗?!逼浯?#xff0c;何寶宏指出,對深度合成信息內容增加標識的具體規(guī)范也需要進一步細化,文件中明確深度合成服務提供者提供深度合成服務,可能導致公眾混淆或者誤認的,應當在生成或者編輯的信息內容的合理位置、區(qū)域進行顯著標識?!暗珜τ谌绾卧黾语@著標識以及增加標識的具體方式需要盡快出臺細化的要求規(guī)范?!?/p>
超越一般技術的“破壞性”引發(fā)擔憂
對于濫用生成式人工智能技術的擔憂在世界范圍內都存在。不僅因為其超越一般技術的“創(chuàng)造能力”和“破壞性”,更因為人們發(fā)現(xiàn),生成式人工智能技術發(fā)展的速度極快。
從OpenAI去年11月推出ChatGPT,到今年3月其迭代品GPT-4面世,僅用了幾個月的時間。GPT-4不僅知識面更廣、回答問題更流暢,還可以描述并理解圖片,甚至具備一定自我反思的能力。
OpenAI的首席執(zhí)行官Sam Altman接受采訪時就曾表示,擔心這些模型可能被用于大規(guī)模的虛假信息,也擔心人類被控制。“ChatGPT是一個高度受人類控制的工具。但也許會有人放棄設置我們目前已有的一些安全限制?!彼a充,“我認為,社會只有有限的時間來弄清楚如何對此做出反應,如何監(jiān)管,如何處理它。”
今年3月,美國特斯拉汽車公司首席執(zhí)行官埃隆·馬斯克曾聯(lián)合1000多名業(yè)界、學界人士發(fā)表公開信,呼吁所有AI實驗室立即暫停訓練比ChatGPT更強大的AI系統(tǒng),暫停至少6個月。其信中提到,在開發(fā)強大的AI系統(tǒng)之前,要確信這些系統(tǒng)的影響是積極的,風險是可控的。
同時公開報道顯示,今年3月31日,意大利個人數(shù)據(jù)保護局宣布即日起暫時禁止使用ChatGPT,并暫時限制OpenAI處理意大利用戶數(shù)據(jù)。意大利成為首個禁止ChatGPT的西方國家,歐盟的多個國家也開始跟進,醞釀具體監(jiān)管措施。
各國政府都在加快出臺人工智能監(jiān)管法律。據(jù)路透社報道,英國競爭和市場管理局正在審查人工智能對消費者、企業(yè)和經濟的影響,考慮是否需要新的監(jiān)管措施。法國隱私監(jiān)管機構正在調查與ChatGPT有關的幾起投訴。澳大利亞政府正在咨詢科學咨詢機構,來考慮下一步的監(jiān)管行動。歐洲數(shù)據(jù)保護委員會已成立ChatGPT特別工作組;歐盟消費者組織則呼吁歐盟消費者保護機構調查ChatGPT技術及對消費者的潛在危害。
“鑒于人工智能的技術復雜性,世界各國對其風險治理均處于探索階段,對其約束和監(jiān)管仍有賴于法律體系的完善。”方翔介紹,歐盟目前正在推進全球首部人工智能法案。2023年4月,歐洲議會成員就《人工智能法(The AI Act)》提案達成臨時政治協(xié)議,強化對生成式人工智能的監(jiān)管,并將人工智能技術可能帶來的風險細化為極小風險、有限風險、高風險、不可接受風險4個等級?!斑@一立法動向值得我國關注?!狈较韪嬖V記者。
中青報·中青網記者 李若一 王林 見習記者 裴思童 來源:中國青年報
相關稿件