以大模型為核心的人工智能技術是創(chuàng)新范式變革與產業(yè)升級的關鍵引擎,越來越多的機關、企事業(yè)單位開始推進大模型私有化部署,廣泛應用于企業(yè)辦公、科技研發(fā)、公共服務等領域。然而技術躍升與安全風險始終伴生演進,如何強化模型全生命周期安全管理,賦能AI行業(yè)向好向善發(fā)展,成為當前亟須解決的課題。
需加重視的潛在風險
近期多項研究發(fā)現(xiàn),近90%私有化部署的服務器在互聯(lián)網(wǎng)上“裸奔”,部分模型本身也容易被攻擊,存在安全漏洞。目前個別單位所謂的“設防”也只是簡單地設置密碼,易被攻破,個別單位甚至連防護密碼都沒有??梢灶A見,未來隨著大模型普及使用,有針對性的惡意手段和風險場景勢必激增。因此,網(wǎng)絡安全防護必須與技術發(fā)展同步迭代。
——敏感數(shù)據(jù)安全問題。大模型在訓練、推理、使用過程中會涉及海量數(shù)據(jù),如用戶在輸入數(shù)據(jù)時不當存儲和處理,特別是違規(guī)在未設防模型中處理涉密數(shù)據(jù)、個人隱私數(shù)據(jù)、商業(yè)敏感數(shù)據(jù)時,存在數(shù)據(jù)被非法獲取、泄露風險。
——關鍵領域安全問題。人工智能離不開高科技設備,如這類設備被植入后門程序會讓智能工廠、金融機構、能源設施等關鍵領域面臨風險。違法犯罪分子如惡意利用大模型部署的安全漏洞破壞相關系統(tǒng),將可能導致公共服務中斷、企業(yè)經濟損失、安全事故頻發(fā)等惡性事件,干擾經濟正常運轉和社會有序運行。
——侵犯用戶利益。普通用戶如未加防護使用大模型服務工具,攻擊者也可以遠程調用接口竊取模型參數(shù)、訓練數(shù)據(jù)、知識庫等核心資產,或刪除、污染私有模型文件,導致模型失效或輸出偏差。同時,攻擊者可通過未授權的接口調用模型推理功能,濫用GPU資源。如處理數(shù)據(jù)量過大,大模型服務器就會因算力耗盡導致癱瘓。
大模型安全風險的產生原因
——開源框架存在不足。許多單位為了快速上線服務,直接使用開源框架,默認開啟不設密碼的公網(wǎng)訪問模式,不配置合理的安全防護措施,忽略最基本的防火墻配置。攻擊者未經授權即可自由訪問模型服務、竊取敏感數(shù)據(jù),甚至通過歷史漏洞執(zhí)行惡意指令,從而導致數(shù)據(jù)泄露和服務中斷。
——風險意識存在欠缺。部分管理者對AI安全的認知相對滯后,部分群眾認為“安全是專家的事”,不了解部署AI服務需要像保護銀行卡密碼一樣謹慎,在享受AI帶來便利時未考慮背后隱藏的風險。
——安防教育有待加強。一些企事業(yè)單位缺乏必要的安全防范教育,導致員工國家安全意識和素養(yǎng)不高,安全防范意識不強,對于大模型缺乏用心管理,安防教育缺乏必要的認識。
——專門法律存在空白。我國近年來已經出臺了多部關于人工智能和網(wǎng)絡數(shù)據(jù)方面的政策法規(guī)和指導意見,但隨著人工智能迅猛發(fā)展,應運而生的法律問題尚需進一步完善相關立法。
國家安全機關提示
大模型是推動科技進步的重要力量,但其安全防護須臾不可松懈,無論是開發(fā)者、企業(yè)還是普通用戶,都應提高警惕,共同守護技術紅利不被惡意利用。
——做好安全防護,筑牢安全防范屏障。AI企業(yè)在開發(fā)和應用大模型的過程中需重視自身應承擔的安全責任和義務,可通過加強與安全廠商聯(lián)系合作,以嚴密的安全技術保障和運行監(jiān)測,強化大模型運行時的安全性、可靠性和穩(wěn)定性。
——培養(yǎng)安全意識,打造協(xié)同防御生態(tài)。單位、企業(yè)在部署大模型前,需要進行全面的風險評估和安全規(guī)劃,通過制定安全政策、開展安全培訓等方式,提高全員安全意識。廣大民眾要增強大模型使用的安全意識,注意學習相關安全知識,養(yǎng)成良好使用習慣,選擇從官方渠道下載大模型工具,使用時不要隨意連接陌生網(wǎng)絡,確保大模型應用安全穩(wěn)定。(記者 宋琎)
免責聲明:凡本網(wǎng)注明“來源:XXX(非駐馬店廣視網(wǎng)、駐馬店融媒、駐馬店網(wǎng)絡問政、掌上駐馬店、駐馬店頭條、駐馬店廣播電視臺)”的作品,均轉載自其它媒體,轉載目的在于傳遞更多信息,并不代表本網(wǎng)贊同其觀點和對其真實性負責,作品版權歸原作者所有,如有侵犯您的原創(chuàng)版權請告知,我們將盡快刪除相關內容。凡是本網(wǎng)原創(chuàng)的作品,拒絕任何不保留版權的轉載,如需轉載請標注來源并添加本文鏈接:http://yinghaihangkaoshi.net/fazhi/show-124-349687-0.html,否則承擔相應法律后果。