August 2024
臺灣金管會發布「金融業運用人工智慧(AI)指引」
2024.08
蔡毓貞、黃信維
為鼓勵金融機構善用科技,以發展更貼近民眾需求的金融服務,金融監督管理委員會依據其去(2023)年10月公布「金融業運用人工智慧(AI)之核心原則與相關推動政策」當中所揭示之金融業運用人工智慧6項核心原則,於今(2024)年6月20日訂定「金融業運用人工智慧(AI)指引」(下稱「AI指引」),作為金融機構導入、使用及管理人工智慧的參考。AI指引共有七個章節,除了總則為共通事項外,分為六章進行規範,簡述各章重點如下:
本章除主要說明人工智慧(AI)相關定義、AI系統生命週期(即系統規劃及設計、資料蒐集及輸入、模型建立及驗證、系統佈署及監控等四個階段)外,並列舉金融機構運用AI系統時,應就個別使用情境評估之相關風險考量因素,以落實「風險為基礎」之核心原則。針對金融機構委託第三方業者導入AI系統相關作業時,就雙方風險監控的責任分工,明訂金融機構宜採行之監督管理措施,包括就停止委託之情形訂定適當之資料或系統遷移機制等。
金融機構宜對其使用之所有AI系統建立明確之管理架構與全面且有效之風險管理機制與政策,掌握AI系統設置之目的、適用之業務或作業及負責之人員,並有完整之處理錯誤或非預期事件之程序,以承擔內部治理架構之「內部責任」與涉及消費者與社會之「外部責任」。金融機構經評估AI系統風險、內部資源及專業程度後,得視需要建立由具AI專業之獨立第三人進行審查、評測之機制。
金融機構於AI系統生命週期應避免演算法所產生之偏見(bias)並盡可能避免歧視(discrimination),落實「以人為本」與「人類可控」等原則。為控管生成式AI之風險,AI指引明訂「金融機構使用第三方業者開發之生成式AI,如無法掌握訓練過程與確保其數據或運算所得結果符合公平性時,金融機構對其產出之資訊,仍須由其人員就其風險進行客觀且專業的管控」。
金融機構在AI系統生命週期應注意保護客戶或消費者的資訊與隱私權,落實資料治理,妥適管理與運用其資料,避免資料外洩風險,並採用「資料最小化原則」,避免蒐集過多或不必要的敏感資訊。金融機構應尊重客戶選擇是否使用AI服務的權利,並根據客戶與金融機構的風險、替代方案的可行性及成本等,決定是否提供替代方案。
金融機構在AI系統生命週期除應確保其穩健性(robustness)與安全性外,應建立資安防護措施,並持續監控,以確保AI系統之整體安全與穩定運行。若金融機構運用第三方業者開發或營運之AI系統提供金融服務,應對其進行適當之風險管理與監督。
為提升市場對金融機構AI系統的信任度,金融機構在AI系統生命週期應落實(一)可清楚說明自行或委託研發並使用之AI系統係如何運作及其預測或決策過程背後之邏輯之「可解釋性」,以及(二)透過發布報告、技術文件或於網站上揭露相關資訊等方式,主動讓利害關係人知悉其運用AI系統之作法之「透明性」。
金融機構運用AI系統宜將社會、環境等視為利害關係人,兼顧社會公平與生態責任,例如促進普惠金融數位轉型、降低數位焦慮與數位落差、減少水、電等能源消耗問題。金融機構在AI系統運用過程中,宜對一般員工提供適當的教育與培訓,以助其適應AI帶來之變革、維護其工作權益,並追求永續穩定發展。
本網站上所有資料內容(「內容」)均屬理慈國際科技法律事務所所有。本所保留所有權利,除非獲得本所事前許可外,均不得以任何形式或以任何方式重製、下載、散布、發行或移轉本網站上之內容。
所有內容僅供作參考且非為特定議題或具體個案之法律或專業建議。所有內容未必為最新法律及法規之發展,本所及其編輯群不保證內容之正確性,並明示聲明不須對任何人就信賴使用本網站上全部或部分之內容,而據此所為或經許可而為或略而未為之結果負擔任何及全部之責任。撰稿作者之觀點不代表本所之立場。如有任何建議或疑義,請與本所聯繫。
蔡毓貞、黃信維
為鼓勵金融機構善用科技,以發展更貼近民眾需求的金融服務,金融監督管理委員會依據其去(2023)年10月公布「金融業運用人工智慧(AI)之核心原則與相關推動政策」當中所揭示之金融業運用人工智慧6項核心原則,於今(2024)年6月20日訂定「金融業運用人工智慧(AI)指引」(下稱「AI指引」),作為金融機構導入、使用及管理人工智慧的參考。AI指引共有七個章節,除了總則為共通事項外,分為六章進行規範,簡述各章重點如下:
- 總則章說明人工智慧定義等共通事項
本章除主要說明人工智慧(AI)相關定義、AI系統生命週期(即系統規劃及設計、資料蒐集及輸入、模型建立及驗證、系統佈署及監控等四個階段)外,並列舉金融機構運用AI系統時,應就個別使用情境評估之相關風險考量因素,以落實「風險為基礎」之核心原則。針對金融機構委託第三方業者導入AI系統相關作業時,就雙方風險監控的責任分工,明訂金融機構宜採行之監督管理措施,包括就停止委託之情形訂定適當之資料或系統遷移機制等。
- 第一章要求建立內外部治理與問責機制
金融機構宜對其使用之所有AI系統建立明確之管理架構與全面且有效之風險管理機制與政策,掌握AI系統設置之目的、適用之業務或作業及負責之人員,並有完整之處理錯誤或非預期事件之程序,以承擔內部治理架構之「內部責任」與涉及消費者與社會之「外部責任」。金融機構經評估AI系統風險、內部資源及專業程度後,得視需要建立由具AI專業之獨立第三人進行審查、評測之機制。
- 第二章強調重視公平性及以人為本的價值觀
金融機構於AI系統生命週期應避免演算法所產生之偏見(bias)並盡可能避免歧視(discrimination),落實「以人為本」與「人類可控」等原則。為控管生成式AI之風險,AI指引明訂「金融機構使用第三方業者開發之生成式AI,如無法掌握訓練過程與確保其數據或運算所得結果符合公平性時,金融機構對其產出之資訊,仍須由其人員就其風險進行客觀且專業的管控」。
- 第三章注意保護隱私及客戶權益
金融機構在AI系統生命週期應注意保護客戶或消費者的資訊與隱私權,落實資料治理,妥適管理與運用其資料,避免資料外洩風險,並採用「資料最小化原則」,避免蒐集過多或不必要的敏感資訊。金融機構應尊重客戶選擇是否使用AI服務的權利,並根據客戶與金融機構的風險、替代方案的可行性及成本等,決定是否提供替代方案。
- 第四章確保系統穩健性與安全性
金融機構在AI系統生命週期除應確保其穩健性(robustness)與安全性外,應建立資安防護措施,並持續監控,以確保AI系統之整體安全與穩定運行。若金融機構運用第三方業者開發或營運之AI系統提供金融服務,應對其進行適當之風險管理與監督。
- 第五章落實透明性與可解釋性
為提升市場對金融機構AI系統的信任度,金融機構在AI系統生命週期應落實(一)可清楚說明自行或委託研發並使用之AI系統係如何運作及其預測或決策過程背後之邏輯之「可解釋性」,以及(二)透過發布報告、技術文件或於網站上揭露相關資訊等方式,主動讓利害關係人知悉其運用AI系統之作法之「透明性」。
- 第六章促進永續穩定發展
金融機構運用AI系統宜將社會、環境等視為利害關係人,兼顧社會公平與生態責任,例如促進普惠金融數位轉型、降低數位焦慮與數位落差、減少水、電等能源消耗問題。金融機構在AI系統運用過程中,宜對一般員工提供適當的教育與培訓,以助其適應AI帶來之變革、維護其工作權益,並追求永續穩定發展。
本網站上所有資料內容(「內容」)均屬理慈國際科技法律事務所所有。本所保留所有權利,除非獲得本所事前許可外,均不得以任何形式或以任何方式重製、下載、散布、發行或移轉本網站上之內容。
所有內容僅供作參考且非為特定議題或具體個案之法律或專業建議。所有內容未必為最新法律及法規之發展,本所及其編輯群不保證內容之正確性,並明示聲明不須對任何人就信賴使用本網站上全部或部分之內容,而據此所為或經許可而為或略而未為之結果負擔任何及全部之責任。撰稿作者之觀點不代表本所之立場。如有任何建議或疑義,請與本所聯繫。