August 2024
台湾金管会发布「金融业运用人工智慧(AI)指引」
2024.08
蔡毓贞、黄信维
为鼓励金融机构善用科技,以发展更贴近民众需求的金融服务,金融监督管理委员会依据其去(2023)年10月公布「金融业运用人工智慧(AI)之核心原则与相关推动政策」当中所揭示之金融业运用人工智慧6项核心原则,于今(2024)年6月20日订定「金融业运用人工智慧(AI)指引」(下称「AI指引」),作为金融机构导入、使用及管理人工智慧的参考。AI指引共有七个章节,除了总则为共通事项外,分为六章进行规范,简述各章重点如下:
本章除主要说明人工智慧(AI)相关定义、AI系统生命周期(即系统规划及设计、资料搜集及输入、模型建立及验证、系统布署及监控等四个阶段)外,并列举金融机构运用AI系统时,应就个别使用情境评估之相关风险考量因素,以落实「风险为基础」之核心原则。针对金融机构委托第三方业者导入AI系统相关作业时,就双方风险监控的责任分工,明订金融机构宜采行之监督管理措施,包括就停止委托之情形订定适当之资料或系统迁移机制等。
金融机构宜对其使用之所有AI系统建立明确之管理架构与全面且有效之风险管理机制与政策,掌握AI系统设置之目的、适用之业务或作业及负责之人员,并有完整之处理错误或非预期事件之程序,以承担内部治理架构之「内部责任」与涉及消费者与社会之「外部责任」。金融机构经评估AI系统风险、内部资源及专业程度后,得视需要建立由具AI专业之独立第三人进行审查、评测之机制。
金融机构于AI系统生命周期应避免演算法所产生之偏见(bias)并尽可能避免歧视(discrimination),落实「以人为本」与「人类可控」等原则。为控管生成式AI之风险,AI指引明订「金融机构使用第三方业者开发之生成式AI,如无法掌握训练过程与确保其数据或运算所得结果符合公平性时,金融机构对其产出之资讯,仍须由其人员就其风险进行客观且专业的管控」。
金融机构在AI系统生命周期应注意保护客户或消费者的资讯与隐私权,落实资料治理,妥适管理与运用其资料,避免资料外泄风险,并采用「资料最小化原则」,避免搜集过多或不必要的敏感资讯。金融机构应尊重客户选择是否使用AI服务的权利,并根据客户与金融机构的风险、替代方案的可行性及成本等,决定是否提供替代方案。
金融机构在AI系统生命周期除应确保其稳健性(robustness)与安全性外,应建立资安防护措施,并持续监控,以确保AI系统之整体安全与稳定运行。若金融机构运用第三方业者开发或营运之AI系统提供金融服务,应对其进行适当之风险管理与监督。
为提升市场对金融机构AI系统的信任度,金融机构在AI系统生命周期应落实(一)可清楚说明自行或委托研发并使用之AI系统系如何运作及其预测或决策过程背后之逻辑之「可解释性」,以及(二)透过发布报告、技术文件或于网站上揭露相关资讯等方式,主动让利害关系人知悉其运用AI系统之作法之「透明性」。
金融机构运用AI系统宜将社会、环境等视为利害关系人,兼顾社会公平与生态责任,例如促进普惠金融数位转型、降低数位焦虑与数位落差、减少水、电等能源消耗问题。金融机构在AI系统运用过程中,宜对一般员工提供适当的教育与培训,以助其适应AI带来之变革、维护其工作权益,并追求永续稳定发展。
本网站上所有资料内容(「内容」)均属理慈国际科技法律事务所所有。本所保留所有权利,除非获得本所事前许可外,均不得以任何形式或以任何方式重制、下载、散布、发行或移转本网站上之内容。
所有内容仅供作参考且非为特定议题或具体个案之法律或专业建议。所有内容未必为最新法律及法规之发展,本所及其编辑群不保证内容之正确性,并明示声明不须对任何人就信赖使用本网站上全部或部分之内容,而据此所为或经许可而为或略而未为之结果负担任何及全部之责任。撰稿作者之观点不代表本所之立场。如有任何建议或疑义,请与本所联系。
蔡毓贞、黄信维
为鼓励金融机构善用科技,以发展更贴近民众需求的金融服务,金融监督管理委员会依据其去(2023)年10月公布「金融业运用人工智慧(AI)之核心原则与相关推动政策」当中所揭示之金融业运用人工智慧6项核心原则,于今(2024)年6月20日订定「金融业运用人工智慧(AI)指引」(下称「AI指引」),作为金融机构导入、使用及管理人工智慧的参考。AI指引共有七个章节,除了总则为共通事项外,分为六章进行规范,简述各章重点如下:
- 总则章说明人工智慧定义等共通事项
本章除主要说明人工智慧(AI)相关定义、AI系统生命周期(即系统规划及设计、资料搜集及输入、模型建立及验证、系统布署及监控等四个阶段)外,并列举金融机构运用AI系统时,应就个别使用情境评估之相关风险考量因素,以落实「风险为基础」之核心原则。针对金融机构委托第三方业者导入AI系统相关作业时,就双方风险监控的责任分工,明订金融机构宜采行之监督管理措施,包括就停止委托之情形订定适当之资料或系统迁移机制等。
- 第一章要求建立内外部治理与问责机制
金融机构宜对其使用之所有AI系统建立明确之管理架构与全面且有效之风险管理机制与政策,掌握AI系统设置之目的、适用之业务或作业及负责之人员,并有完整之处理错误或非预期事件之程序,以承担内部治理架构之「内部责任」与涉及消费者与社会之「外部责任」。金融机构经评估AI系统风险、内部资源及专业程度后,得视需要建立由具AI专业之独立第三人进行审查、评测之机制。
- 第二章强调重视公平性及以人为本的价值观
金融机构于AI系统生命周期应避免演算法所产生之偏见(bias)并尽可能避免歧视(discrimination),落实「以人为本」与「人类可控」等原则。为控管生成式AI之风险,AI指引明订「金融机构使用第三方业者开发之生成式AI,如无法掌握训练过程与确保其数据或运算所得结果符合公平性时,金融机构对其产出之资讯,仍须由其人员就其风险进行客观且专业的管控」。
- 第三章注意保护隐私及客户权益
金融机构在AI系统生命周期应注意保护客户或消费者的资讯与隐私权,落实资料治理,妥适管理与运用其资料,避免资料外泄风险,并采用「资料最小化原则」,避免搜集过多或不必要的敏感资讯。金融机构应尊重客户选择是否使用AI服务的权利,并根据客户与金融机构的风险、替代方案的可行性及成本等,决定是否提供替代方案。
- 第四章确保系统稳健性与安全性
金融机构在AI系统生命周期除应确保其稳健性(robustness)与安全性外,应建立资安防护措施,并持续监控,以确保AI系统之整体安全与稳定运行。若金融机构运用第三方业者开发或营运之AI系统提供金融服务,应对其进行适当之风险管理与监督。
- 第五章落实透明性与可解释性
为提升市场对金融机构AI系统的信任度,金融机构在AI系统生命周期应落实(一)可清楚说明自行或委托研发并使用之AI系统系如何运作及其预测或决策过程背后之逻辑之「可解释性」,以及(二)透过发布报告、技术文件或于网站上揭露相关资讯等方式,主动让利害关系人知悉其运用AI系统之作法之「透明性」。
- 第六章促进永续稳定发展
金融机构运用AI系统宜将社会、环境等视为利害关系人,兼顾社会公平与生态责任,例如促进普惠金融数位转型、降低数位焦虑与数位落差、减少水、电等能源消耗问题。金融机构在AI系统运用过程中,宜对一般员工提供适当的教育与培训,以助其适应AI带来之变革、维护其工作权益,并追求永续稳定发展。
本网站上所有资料内容(「内容」)均属理慈国际科技法律事务所所有。本所保留所有权利,除非获得本所事前许可外,均不得以任何形式或以任何方式重制、下载、散布、发行或移转本网站上之内容。
所有内容仅供作参考且非为特定议题或具体个案之法律或专业建议。所有内容未必为最新法律及法规之发展,本所及其编辑群不保证内容之正确性,并明示声明不须对任何人就信赖使用本网站上全部或部分之内容,而据此所为或经许可而为或略而未为之结果负担任何及全部之责任。撰稿作者之观点不代表本所之立场。如有任何建议或疑义,请与本所联系。