前言
隨著人工智能技術飛速融入各行各業的日常,“怎么用對 AI、用好 AI” 成為大家關心的話題。上海律協數字科技與人工智能專業委員會(簡稱 “AI 委”)的委員們,結合行業實踐與合規要求,特別推出《用對 AI 指南》系列,圍繞人工智能在數據合規、知識產權保護、倫理治理、業務實務等方面所涉及的應用和開發實踐,用通俗解讀和實操指南梳理相應的合規要素,幫大家輕松掌握 AI的正確打開,讓 AI 以合規的方式助力。
你遇到過這些情況嗎?
?? 打開購物APP,發現推薦的都是你剛搜過的東西——"它怎么知道我想買這個?"
?? 用AI聊天工具問問題,得到一個答案——"它為啥這么說?靠譜嗎?"
?? 同樣的商品,你和朋友看到的價格不一樣——"這是大數據殺熟嗎?"
這些問題的背后,都指向一個核心概念:AI的透明度。
簡單說,就是AI不能當"黑箱",得讓用戶看得懂、信得過。
隨著AI技術飛速發展,國家對AI透明度的要求越來越明確。今天這篇指南,就手把手教你如何讓AI"說人話",既合規又贏得用戶信任。
一、透明度到底是什么?三個關鍵詞說清楚
透明度(transparency),即向外部公開、披露信息,使其處于一個透明、可理解、可追溯的狀態,最初應用在國際貿易、行政法等領域。在我國的人工智能領域,透明度目前暫無明確的定義,根據通常理解而言,透明度意味著使外部可理解AI的工作原理,包括開發、部署、運行等,以避免算法黑箱、算法歧視等問題,幫助相關用戶理解、認同產品并增進信任。簡單說,需要看得見、說得清且查得到:
1 - 看得見:AI怎么工作的,不能藏著掖著
舉個例子:就像餐廳后廚裝了透明玻璃,食客能看到廚師怎么做菜,吃得更放心。AI透明度也是這個道理——用戶有權知道AI是怎么給他們推薦內容、做出決策的。
2 - 說得清:AI的邏輯要能用人話解釋
舉個例子:你問醫生"為什么開這個藥",醫生能給你講清楚病理和原理。AI也一樣,不能只給結果,還得能解釋"為什么"。
3 - 查得到:出了問題能追溯來源
舉個例子:食品出問題了,能通過批次號追溯到生產環節。AI也需要這種"可追溯性",出錯了能找到原因。
?? 特別說明: 透明≠完全公開!
就像可口可樂不會公開配方一樣,AI企業也要保護商業秘密。法律要求的是*"適度透明"*——既讓用戶明白,又不泄露核心技術。。
二、法律怎么規定的?
| 名稱 |
條文 |
| 《關于加強互聯網信息服務算法綜合治理的指導意見》 2021.09.17發布 |
(十三)推動算法公開透明。規范企業算法應用行為,保護網民合理權益,秉持公平、公正原則,促進算法公開透明。督促企業及時、合理、有效地公開算法基本原理、優化目標、決策標準等信息,做好算法結果解釋,暢通投訴通道,消除社會疑慮,推動算法健康發展。 |
| 《中華人民共和國個人信息保護法》 2021.11.01 實施 |
第二十四條 個人信息處理者利用個人信息進行自動化決策,應當保證決策的透明度和結果公平、公正,不得對個人在交易價格等交易條件上實行不合理的差別待遇。 通過自動化決策方式向個人進行信息推送、商業營銷,應當同時提供不針對其個人特征的選項,或者向個人提供便捷的拒絕方式。 通過自動化決策方式作出對個人權益有重大影響的決定,個人有權要求個人信息處理者予以說明,并有權拒絕個人信息處理者僅通過自動化決策的方式作出決定。 |
| 《互聯網信息服務算法推薦管理規定》 2022.03.01實施 |
第四條 提供算法推薦服務,應當遵守法律法規,尊重社會公德和倫理,遵守商業道德和職業道德,遵循公正公平、公開透明、科學合理和誠實信用的原則。 第十二條 鼓勵算法推薦服務提供者綜合運用內容去重、打散干預等策略,并優化檢索、排序、選擇、推送、展示等規則的透明度和可解釋性,避免對用戶產生不良影響,預防和減少爭議糾紛。 第十六條 算法推薦服務提供者應當以顯著方式告知用戶其提供算法推薦服務的情況,并以適當方式公示算法推薦服務的基本原理、目的意圖和主要運行機制等。 |
| 《互聯網信息服務深度合成管理規定》 2023.01.10 實施 |
第八條 深度合成服務提供者應當制定和公開管理規則、平臺公約,完善服務協議,依法依約履行管理責任,以顯著方式提示深度合成服務技術支持者和使用者承擔信息安全義務。 |
| 《生成式人工智能服務管理暫行辦法》 2023.08.15 實施 |
第四條 提供和使用生成式人工智能服務,應當遵守法律、行政法規,尊重社會公德和倫理道德,遵守以下規定:…… (五)基于服務類型特點,采取有效措施,提升生成式人工智能服務的透明度,提高生成內容的準確性和可靠性。 第十條 提供者應當明確并公開其服務的適用人群、場合、用途,指導使用者科學理性認識和依法使用生成式人工智能技術,采取有效措施防范未成年人用戶過度依賴或者沉迷生成式人工智能服務。 |
| 《科技倫理審查辦法(試行)》 2023.12.01實施 |
第三條 開展科技活動應堅持促進創新與防范風險相統一,客觀評估和審慎對待不確定性和技術應用風險,遵循增進人類福祉、尊重生命權利、堅持公平公正、合理控制風險、保持公開透明的科技倫理原則,遵守我國憲法、法律法規和有關規定以及科技倫理規范。 科技倫理審查應堅持科學、獨立、公正、透明原則,公開審查制度和審查程序,客觀審慎評估科技活動倫理風險,依規開展審查,并自覺接受有關方面的監督。涉及國家安全、國家秘密、商業秘密和敏感事項的,依法依規做好相關工作。 第十五條 科技倫理(審查)委員會應按照以下重點內容和標準開展審查:…… (五)涉及數據和算法的科技活動,數據的收集、存儲、加工、使用等處理活動以及研究開發數據新技術等符合國家數據安全和個人信息保護等有關規定,數據安全風險監測及應急處理方案得當;算法、模型和系統的設計、實現、應用等遵守公平、公正、透明、可靠、可控等原則,符合國家有關要求,倫理風險評估審核和應急處置方案合理,用戶權益保護措施全面得當。 |
| GB/T 45654-2025《網絡安全技術 生成式人工智能服務安全基本要求》 2025.11.01實施 |
6.2 服務透明度 對服務提供者的要求如下。 a) 以交互界面提供服務的,應在網站首頁等顯著位置向社會公開服務適用的人群、場合、用途等信息,宜同時公開基礎模型使用情況。 b) 以交互界面提供服務的,應在網站首頁、服務協議等便于查看的位置向使用者公開以下信息: ———服務的局限性; ———服務所使用的模型、算法等方面的概要信息; ———所采集的個人信息以及其在服務中的用途。 c) 以可編程接口形式提供服務的,應在說明文檔中公開 a)和b)中的信息 |
三、 誰需要做這件事?
需履行透明度義務的主體包括:
? 利用個人信息進行自動化決策的個人信息處理者
? 算法推薦服務提供者
? 深度合成服務提供者
? 生成式人工智能服務提供者
? 高等學校、科研機構、醫療衛生機構、企業等,從事生命科學、醫學、人工智能等科技活動的單位,研究內容涉及科技倫理敏感領域的,以及其他有科技倫理審查需求的單位(針對在涉人工智能及數據相關倫理審查過程中如何貫徹透明度,我們會在后續發布的指引中單獨成文,本指南暫不涉及)
具體而言:
? 你是不是在用AI給用戶推薦內容?
比如:短視頻推薦、購物推薦、新聞推薦
→ 你是"算法推薦服務提供者"
? 你是不是提供AI換臉、AI配音等服務?
比如:AI美顏、虛擬主播、智能剪輯
→ 你是"深度合成服務提供者"
? 你是不是提供AI聊天、AI寫作等服務?
比如:智能客服、AI助手、文案生成
→ 你是"生成式AI服務提供者"
? 你是不是用AI做用戶畫像、精準營銷?
比如:大數據風控、個性化定價
→ 你是"自動化決策處理者"
只要中了一條,就得履行透明度義務!
四、具體怎么做
· 適用人群、場合、用途等信息公示
應在網站首頁等顯著位置向社會公開服務適用的人群、場合、用途等信息。一般而言,產品或服務網站首頁需要有對產品或服務的簡要介紹,另外可在《用戶協議》中說明服務適用人群、場合、用途等信息。
示例:
——《騰訊混元官網用戶服務協議》
——AQ產品網站首頁
算法及大模型信息公示
在網站首頁、APP首頁或公告等顯著位置向社會公示服務所使用的模型、算法等方面的概要信息,包括算法備案編號、大模型備案編號,并可以超鏈接至網信辦公示網頁。其中算法備案系統還將對外公示算法機制機理內容。
示例:
——騰訊混元AI服務網站首頁底部公示信息
——算法備案系統公示算法機制機理內容示例
· 基本原理公示
在網站首頁、服務協議等便于查看的位置公示模型或算法的基本原理、目的意圖、主要運行機制等。
示例:
——DeepSeek《模型原理與訓練方法說明》
更多案例可見:首都互聯網協會:北京屬地主要網絡平臺算法規則原理公示
http://www.baom.com.cn/xiehuidongtai/2025-08/22/content_47306.html
· 局限性和風險提示說明
在網站首頁、服務協議等便于查看的位置向使用者公開服務的局限性,并提示使用服務可能存在的風險。
示例:
——《DeepSeek用戶協議》
· 采集個人信息情況公示
公示服務所采集的個人信息及其在服務中的用途。為履行《個人信息保護法》項下義務,服務提供者一般會提示用戶閱讀并同意《隱私政策/個人信息保護規則》,其中將說明服務所采集的個人信息及其在服務中的用途。為了履行《網絡數據安全管理條例》第21條的義務,部分企業可能還會將個人信息收集情況單獨列示在《個人信息收集清單》中,便于用戶查閱。
示例:
——DeepSeek《個人信息收集清單》
五、常見問題Q&A
Q1:透明度越高越好嗎?
A:不是!過度透明可能泄露商業秘密,甚至被不法分子利用(比如研究出對抗算法)。法律要求的是"適度透明"——滿足用戶知情權,但保護核心技術。
Q2:小公司也必須做嗎?
A:是的!只要提供AI服務,不管公司大小,都要履行透明度義務。但可以根據規模選擇簡化版(比如小公司可以不發布獨立說明文檔,在用戶協議里寫清楚就行)。
Q3:做了透明度公示,是不是就不會被罰了?
A:透明度只是合規的一部分。AI合規還包括數據安全、內容審核、算法備案等多個環節,都得做到位。
Q4:用戶根本不看這些條款,有必要做嗎?
A:雖然大多數用戶不會仔細看,但這是法定義務,不履行會被處罰。而且,當出現糾紛時,這些公示內容是證明"企業已盡到告知義務"的重要證據。
Q5:如果做不到"可解釋"怎么辦?
A:確實有些復雜算法很難解釋清楚(比如深度神經網絡)。這種情況下,至少要做到:
? 說明輸入什么、輸出什么
? 說明大致的決策邏輯
? 說明可能的局限和風險
? 提供人工申訴渠道
六、避坑指南:這些錯誤別犯!
| 常見錯誤 |
后果 |
正確做法 |
| ? 把公示內容藏在第N層子頁面 |
被認定"未有效公示" |
? 放在首頁顯著位置 |
| ? 用專業術語寫說明(普通人看不懂) |
不符合"可理解"要求 |
? 用通俗語言+配圖 |
| ? 籠統地說"我們用AI技術" |
透明度不足 |
? 說明具體算法類型和機制 |
| ? 不說明算法局限和風險 |
違反風險提示義務 |
? 明確列出可能的問題 |
| ? 備案信息造假或過期 |
可能構成欺詐 |
? 確保信息真實有效 |
AI透明度不只是合規要求,更是贏得用戶信任的關鍵。在這個"算法即權力"的時代,誰能把AI講清楚、說明白,誰就能在競爭中脫穎而出。透明不是負擔,其實也是一種競爭力!





滬公網安備 31010402007129號