March 13, 2026
國家互聯網信息辦公室發布《人工智能擬人化互動服務管理暫行辦法(徵求意見稿)》(中國大陸)
國家互聯網信息辦公室於2025年12月27日發布《人工智能擬人化互動服務管理暫行辦法(徵求意見稿)》(以下簡稱為《徵求意見稿》),旨在規範模擬人類人格特徵、思維模式和溝通風格的AI互動服務,明確提供者安全主體責任,涵蓋服務規範、數據安全、用戶保護(含未成年人、老年人)、安全評估、監督檢查等核心要求,禁止危害國家安全、誘導沉迷、侵害權益等八大類行為,並主張擬實行分類分級監管與行業自律結合,保障服務健康合規發展。就相關從業者來說,這次發布的《徵求意見稿》有以下一些內容值得關注:
一、適用範圍
根據《徵求意見稿》第二條,利用人工智能技術,向中華人民共和國境內公眾提供模擬人類人格特徵、思維模式和溝通風格,通過文字、圖片、音頻、視頻等方式與人類進行情感互動的產品或者服務(以下稱擬人化互動服務),適用該辦法。法律、行政法規另有規定的,依照其規定。
即,如AI屬於與人類進行情感互動的類型,無論是產品還是服務提供者,無論提供者是在境內還是境外,只要其面向的受眾在中國境內,都將可能屬於被規範的對象。
二、可能產生哪些合規義務
根據《徵求意見稿》第二章所規定的服務規範來看,如《徵求意見稿》最終得以實施,對於產品或服務提供者來說,可能產生以下一些合規義務:
(一)生成內容應當符合法律法規社會公德以及倫理道德的要求;
(二)落實安全主體責任;
(三)保護數據安全與用戶個人信息安全;
(四)具備反沉迷功能與措施;
(五)保護青少年與老年人等特殊群體;
(六)提供退出與投訴功能;
(七)安全評估;
(八)標識標注人工智能服務;
(九)履行備案手續。
三、安全主體責任包括哪些內容
根據《徵求意見稿》第八條和第九條來看,提供者的安全主體責任主要包括以下一些內容:
(一)建立健全算法機制機理審核;
(二)科技倫理審查;
(三)信息發布審核;
(四)網絡安全、數據安全、個人信息保護;
(五)反電信網絡詐騙;
(六)重大風險預案、應急處置等管理制度;
(七)具有安全可控的技術保障措施;
(八)配備與產品規模、業務方向和用戶群體相適應的內容管理技術和人員。
此外,提供者應當在擬人化互動服務全生命周期履行安全責任,在設計、運行、升級、終止服務等各階段都需符合安全要求,保證安全措施與服務功能同步設計、同步使用,提升內生安全水平,加强運行階段安全監測和風險評估,及時發現糾正系統偏差、處置安全問題,依法留存網路日志。
再者,《徵求意見稿》還要求提供者應當具備心理健康保護、情感邊界引導、依賴風險預警等安全能力,不得將替代社會交往、控制用戶心理、誘導沉迷依賴等作為設計目標。
四、需要進行安全評估的情形
根據《徵求意見稿》第二十一條,在下列情形下,提供者還應當進行安全評估,並向屬地省級網信部門提供安全評估報告:
(一)具有擬人化互動服務的功能上綫,或者增設相關功能的;
(二)使用新技術新應用,導致擬人化互動服務發生重大變更的;
(三)注册用戶達100萬以上或者月活躍用戶達10萬以上的;
(四)提供擬人化互動服務期間可能存在影響國家安全、公共利益、個人和組織合法權益或者缺乏安全措施等情形的;
(五) 國家網信部門規定的其他情形。
即,在功能上綫時、變更時、用戶人數達到一定數量級時或出現安全隱患時都需要進行安全評估,並不是一次安全評估就可以一勞永逸的。
總的來說,《徵求意見稿》體現了中國對於人工智能倫理治理的關注,符合中國一貫主張的“增進人類福祉與尊重生命權利”的基本倫理原則,但同時也對於擬人化AI互動服務或產品的提供者提出了較高的合規要求。從目前的方案來看,監管的重點還是在於安全,從業人員也可以根據這個《徵求意見稿》先進行一遍自查,或以此為基礎來構建更高標準的自我安全防護體系,以此來應對法律變化的不確定性對業務的影響。
一、適用範圍
根據《徵求意見稿》第二條,利用人工智能技術,向中華人民共和國境內公眾提供模擬人類人格特徵、思維模式和溝通風格,通過文字、圖片、音頻、視頻等方式與人類進行情感互動的產品或者服務(以下稱擬人化互動服務),適用該辦法。法律、行政法規另有規定的,依照其規定。
即,如AI屬於與人類進行情感互動的類型,無論是產品還是服務提供者,無論提供者是在境內還是境外,只要其面向的受眾在中國境內,都將可能屬於被規範的對象。
二、可能產生哪些合規義務
根據《徵求意見稿》第二章所規定的服務規範來看,如《徵求意見稿》最終得以實施,對於產品或服務提供者來說,可能產生以下一些合規義務:
(一)生成內容應當符合法律法規社會公德以及倫理道德的要求;
(二)落實安全主體責任;
(三)保護數據安全與用戶個人信息安全;
(四)具備反沉迷功能與措施;
(五)保護青少年與老年人等特殊群體;
(六)提供退出與投訴功能;
(七)安全評估;
(八)標識標注人工智能服務;
(九)履行備案手續。
三、安全主體責任包括哪些內容
根據《徵求意見稿》第八條和第九條來看,提供者的安全主體責任主要包括以下一些內容:
(一)建立健全算法機制機理審核;
(二)科技倫理審查;
(三)信息發布審核;
(四)網絡安全、數據安全、個人信息保護;
(五)反電信網絡詐騙;
(六)重大風險預案、應急處置等管理制度;
(七)具有安全可控的技術保障措施;
(八)配備與產品規模、業務方向和用戶群體相適應的內容管理技術和人員。
此外,提供者應當在擬人化互動服務全生命周期履行安全責任,在設計、運行、升級、終止服務等各階段都需符合安全要求,保證安全措施與服務功能同步設計、同步使用,提升內生安全水平,加强運行階段安全監測和風險評估,及時發現糾正系統偏差、處置安全問題,依法留存網路日志。
再者,《徵求意見稿》還要求提供者應當具備心理健康保護、情感邊界引導、依賴風險預警等安全能力,不得將替代社會交往、控制用戶心理、誘導沉迷依賴等作為設計目標。
四、需要進行安全評估的情形
根據《徵求意見稿》第二十一條,在下列情形下,提供者還應當進行安全評估,並向屬地省級網信部門提供安全評估報告:
(一)具有擬人化互動服務的功能上綫,或者增設相關功能的;
(二)使用新技術新應用,導致擬人化互動服務發生重大變更的;
(三)注册用戶達100萬以上或者月活躍用戶達10萬以上的;
(四)提供擬人化互動服務期間可能存在影響國家安全、公共利益、個人和組織合法權益或者缺乏安全措施等情形的;
(五) 國家網信部門規定的其他情形。
即,在功能上綫時、變更時、用戶人數達到一定數量級時或出現安全隱患時都需要進行安全評估,並不是一次安全評估就可以一勞永逸的。
總的來說,《徵求意見稿》體現了中國對於人工智能倫理治理的關注,符合中國一貫主張的“增進人類福祉與尊重生命權利”的基本倫理原則,但同時也對於擬人化AI互動服務或產品的提供者提出了較高的合規要求。從目前的方案來看,監管的重點還是在於安全,從業人員也可以根據這個《徵求意見稿》先進行一遍自查,或以此為基礎來構建更高標準的自我安全防護體系,以此來應對法律變化的不確定性對業務的影響。
本網頁上所有上海理慈法律新知資料內容(「內容」)均屬上海理慈律師事務所所有。上海理慈保留所有權利,除非獲得上海理慈事前許可外,均不得以任何形式或以任何方式重製、下載、散布、發行或移轉本網頁上之內容。
所有內容僅供作參考且非為特定議題或具體個案之法律或專業建議。所有內容未必為最新法律及法規之發展,上海理慈及其編輯群不保證內容之正確性,並明示聲明不須對任何人就信賴使用本網頁上全部或部分之內容,而據此所為或經許可而為或略而未為之結果負擔任何及全部之責任。撰稿作者之觀點不代表上海理慈之立場。如有任何建議或疑義,請與上海理慈聯繫。


