April 2025

企業制定內部生成式AI使用規範之建議(臺灣)

2023年起,以ChatGPT為首之生成式AI(Generative AI)開始蓬勃發展,許多生成式AI的創新應用程式開始百家爭鳴,大家開始頻繁在生活、工作中使用此類工具以提升效率,這個現象在今年2025年更甚,尤其在Deepseek爆紅後,也引發全世界使用生成式AI的熱潮。因此,企業不得不面對員工可能在工作中使用到生成式AI的情形,這也可能引發一連串的風險與擔憂,例如員工可能使用生成式AI製作新產品簡報,導致新產品資訊外流,抑或員工使用生成式AI彙整產業資訊,但生成式AI提供的資訊可能是不正確或虛構而成,這些都可能導致企業在營運中的困難。更重要的是,倘若企業未進行適當的管控,導致員工以錯誤的方式使用生成式AI,更可能衍生侵害個人資料、隱私及著作權的潛在法律風險。

在面對生成式AI工具的浪潮下,企業應該全面禁止員工使用生成式AI嗎?事實上,使用生成式AI是現行趨勢,也有助於提升工作效率,因此全面禁止員工使用生成式AI,實際上是不可能的。反而,企業應該要思考如何建立內部生成式AI使用規範,作為員工集體準則,以避免其可能帶來之資訊安全、隱私、機密外洩、倫理及法律等風險。以下提供制定生成式AI使用規範之建議:

一、劃分適用範圍
企業應明確劃分可使用生成式AI之範圍與用途,例如哪些生成式AI工具是公司允許使用的,而員工可以使用這些生成式AI工具進行何種操作,如市場研究、資料彙整、內容生成、文書撰寫及簡報製作等。此外,企業也應明訂禁止員工將公司營業秘密、客戶資料、新產品技術文件等資訊上傳至生成式AI工具,以避免商業機密外洩風險。

二、確認使用原則
企業內部生成式AI使用原則應該清楚明瞭,例如員工不得使用生成式AI從事違法或違反本公司內部規定之行為。此外,使用生成式AI產出之內容需經人工確認、審核後,方能正式使用,以避免使用到虛假或錯誤的資訊,造成企業形象損害。

三、定期內部訓練
企業應定期舉辦生成式AI使用規範之教育訓練,教育員工如何安全、正確且有效地使用AI工具,並將相關教育訓練記錄建檔保存。

四、建立風險管理機制
企業應透過制定內部規範,建立有效的內部管理機制,包含生成式AI使用審查機制、AI風險事故回報機制,並隨AI技術發展,定期檢視並更新相關規範,以確保規範持續符合企業權益與市場需求。

本事務所提供相關生成式AI規範之制定及法律諮詢服務,協助企業針對自身營運特性量身規劃合適的規範內容與管理機制,保障企業之資訊安全與營運效益。

本網站上所有資料內容(「內容」)均屬理慈國際科技法律事務所所有。本所保留所有權利,除非獲得本所事前許可外,均不得以任何形式或以任何方式重製、下載、散布、發行或移轉本網站上之內容。

所有內容僅供作參考且非為特定議題或具體個案之法律或專業建議。所有內容未必為最新法律及法規之發展,本所及其編輯群不保證內容之正確性,並明示聲明不須對任何人就信賴使用本網站上全部或部分之內容,而據此所為或經許可而為或略而未為之結果負擔任何及全部之責任。撰稿作者之觀點不代表本所之立場。如有任何建議或疑義,請與本所聯繫。

作者