
1.1. 治理
1.1.1. 涉及AI风险的总体管理,目的是作为CRMP的一部分
1.1.2. 包括创建问责制、发展负责AI使用的内部组织,以及确保AI系统及其使用与企业既定的价值观相一致
1.2. 映射
1.2.1. 是识别和评估与开发、部署和使用AI系统相关的风险
1.2.2. 包括识别所有与AI相关的系统、使用的数据和算法,以及系统被成功攻击后可能导致的潜在后果
1.3. 度量
1.3.1. 衡量AI风险管理控制措施的有效性,方法包括监控系统的合规性,执行渗透测试以及审查事件报告
1.4. 管理
1.4.1. 该功能确保AI风险管理控制措施有效并且被正确实施
1.4.2. 涉及活动包括审查和更新AI风险管理计划和战略,以及开展用户培训
2. 模型风险管理(MRM)2.1. 在金融服务领域的应用极为广泛,涉及识别、评估和缓释使用模型所带来的风险,特别是使用不准确或设计不当的模型而影响决策的风险
2.2. 金融服务行业高度重视风险管理
2.2.1. 银行每天都在评估借款人的信用
2.2.2. 保险公司则评估人们的寿命
2.2.3. 交易员则需预测股票和商品市场的走势
2.3. 建立模型风险管理治理框架
2.3.1. 强有力的治理对模型风险管理的有效性至关重要
2.3.2. 涉及制订战略、流程、资源分配和文档记录
2.4. 采用基于风险的模型风险管理方法
2.4.1. 应对模型风险管理相关的特定风险进行评估,并采取相应的措施来缓释风险
2.5. 确保用于开发和校准模型的数据可靠
2.5.1. AI或许比所有其他技术更依赖于其输入数据的质量来保证输出的准确性
2.6. 严格地开发和验证模型
2.6.1. 企业的AI项目需要稳健的统计方法来构建风险模型,并且这些模型需要进行持续的验证测试
2.7. 谨慎使用模型
2.7.1. 意味着企业的风险模型应使用与其既定的风险偏好和风险容忍度相一致的方式,而在AI领域,风险偏好和容忍度可能会经常面临变化
2.8. 持续监测模型的性能
2.8.1. 必须有流程来识别和解决AI风险模型使用中存在的问题
2.8.2. 对AI模型来说特别紧迫,因为AI本身,及其底层技术和数据源,都在不断变化
2.9. 构建健全的模型变更管理流程
2.9.1. AI的工作模式和应用方式在不断变化,这意味着几乎肯定要对相关的风险模型进行调整
2.9.2. 企业必须建立一个健全的流程来管理这些变更
2.10. 制订模型应急预案
2.10.1. 在任何领域,尤其是像AI这样快速变化的领域,企业必须认识到它们的风险模型可能会变得不足或完全失效
2.11. 高效沟通模型风险
2.11.1. 所有关注AI风险的人都应当以适当且持续的方式了解企业模型的风险
2.12. 积累管理模型风险所需的适当的资源和专业知识
2.12.1. 必须具备适当的内部、外部或两者兼备的资源和专业知识,以开发、验证和高效地使用AI风险模型
2.13. 定期审查模型风险管理框架
2.13.1. 尤其重要的是,考虑到AI及其风险变化速度极快,需要对模型风险管理框架定期审查,以确保它们的有效性
3. 关键AI实施概念与框架3.1. 成为AI领域的专家并不是必选项,但特别关联到AI及其风险的一些概念是需要掌握的
3.2. 公平性与偏见风险
3.2.1. 平等意味着企业应该平等对待所有客户、员工和其他利益相关者
3.2.2. 透明度主张企业应该向所有利益相关者提供关于实践和战略清晰且准确的信息
3.2.3. 责任制则表明企业愿意为自身造成的任何损害承担责任
3.3. 个体公平性
3.3.1. 相似的个体应该被AI系统以同样的方式对待,除非有充分的伦理理由来支持,系统不能基于种族、性别等因素做出决策
3.4. 差异影响
3.4.1. 该原则规定,AI系统不应对任何特定群体产生负面影响
3.5. 可靠性
3.5.1. 可靠性被视为决策过程具有良好基础、合理和可靠的特性,需考虑可行性、可操作性、可持续性和伦理等因素
3.5.2. 准确性(数据完整性和质量)
3.5.2.1. 需要认真并持续关注用于训练AI模型的数据质量、构建模型时所选择的算法和技术,以及模型的实现和使用方式
3.5.3. 一致性
3.5.3.1. AI系统应该提供一致的结果,同样的输入数据应产生相同的结果
3.5.3.2. 要提高AI系统的可靠性可以通过特定的技术、技巧和流程完成
3.5.3.2.1. 数据清洗(从训练数据集中移除“噪声”数据或异常值)
3.5.3.2.2. 算法调整(对AI算法进行持续改进、使AI算法对噪声和异常值更敏感)
3.5.3.2.3. 分析处理(涉及调整AI系统的实际输出,使之更为准确和一致)
3.6. 鲁棒性
3.6.1. 是AI模型在遇到预期之外或具有对抗性的数据输入时,保持其性能和准确性的能力
3.6.2. 模型应该能够处理数据中的异常值和噪声,并能适应环境变化,而不会对其性能产生显著影响
3.6.3. 输入验证
3.6.3.1. AI系统在使用输入数据前应进行验证,检查是否存在错误或恶意内容
3.6.4. 错误处理
3.6.4.1. 错误应当得到优雅的处理
3.6.4.2. AI系统在遇到错误时不应该崩溃,更不应该产生错误或不同的结果
3.6.5. 容错性
3.6.5.1. 容错性是指系统在不丢失数据或功能正常使用的情况下从故障中恢复
3.6.5.2. ChatGPT公开发布后几个月,其输出准确性就出现了下降
3.6.6. 安全性
3.6.6.1. AI系统能够抵御攻击
3.6.6.2. 意味着系统应该受到保护,防止未经授权的访问、修改或破坏
3.6.7. 数据增强
3.6.7.1. 通过故意添加噪声或异常值来人为增加训练数据集的规模,这样做可以使系统在实际环境中更为稳健
3.6.8. 集成学习
3.6.8.1. 这项技术结合了多个AI系统的预测结果,以产生更加稳健的预测,从而使系统更能抵抗单个系统的错误
3.6.9. 对抗训练
3.6.9.1. 在对抗性样本(如经过修改以导致系统出错的输入)上训练AI,可以使AI系统更能抵御恶意攻击者的攻击
3.7. 可解释性
3.7.1. 是指AI系统做出特定决策或采取行动能被人理解的程度
3.7.2. 目的
3.7.2.1. AI系统的可解释性应始终与其预期目的保持一致
3.7.3. 准确性
3.7.3.1. 解释应该是准确的,反映出AI系统做出特定决策的真实原因
3.7.3.2. 意味着解释应该基于AI系统用于训练和预测的实际数据
3.7.4. 透明度
3.7.4.1. 是指能够查看AI系统使用的数据和算法的能力,这是可解释性的一个绝对关键的要素
3.7.5. 相关性
3.7.5.1. 解释应该聚焦于在决策过程中最为关键的因素
3.7.6. 充分性
3.7.6.1. 人们应该掌握足够的信息来理解AI系统做出特定决策的原因
3.7.7. 情境化
3.7.7.1. 解释应当考虑AI系统做出决策的具体情境,并根据受众和请求解释的原因进行定制
3.7.8. 可审计性
3.7.8.1. 定期审计是构成AI系统信任与信心的支柱,通过系统地检查算法、数据输入和输出,确保遵守道德规范、监管要求、组织政策和道德标准
4. 数字前沿永不止步4.1. AI几乎肯定会在未来数年成为人们最关注的风险问题领域
4.2. 量子计算
4.2.1. 量子计算作为一种革命性的技术无疑最有潜力,或许能够像现在的AI一样甚至超过AI,大幅度地改变计算机、网络安全和风险管理
4.2.2. 量子计算是一个新兴的计算领域,它利用量子力学的原理和被称为量子比特的微小、不稳定的数据单元来执行复杂计算任务,并大幅提高计算速度
4.2.3. 量子计算的变革潜力无疑将在众多不同的领域带来深刻且难以预测的进步
4.2.4. 金融机构能够借助量子计算开发出新的市场预测模型,并优化投资组合
4.2.5. 制药公司也能利用量子计算快速而准确地模拟分子行为,加速新药和治疗方法的研发
4.2.6. 制造商能够利用量子计算在材料科学上的应用,设计出更坚固、更轻盈、更节能的产品
4.2.7. 运输和物流提供商(包括航空公司、汽车租赁公司以及航运企业),都可以通过量子计算进行路线优化和车辆管理,以减少能量消耗和碳排放
4.2.8. 量子计算可以更快、更高效、更精确地训练AI模型和大语言模型,这将极大地提升AI决策的准确性和实用性
4.3. 量子计算不仅仅带来了机遇,它也不可避免地引入了一些独特的挑战
4.3.1. 加密风险
4.3.1.1. 量子计算机理论上可以破解目前广泛接受的加密算法,比如那些用于保护个人敏感信息和在线交易的算法
4.3.2. 操作复杂性
4.3.2.1. 量子计算系统的复杂性需要专业的知识
4.3.2.2. 如果没有合适的知识和处理手段,这些系统的复杂性可能导致运行风险
4.3.3. 监管合规
4.3.3.1. 随着量子技术的不断发展,它可能会重塑监管框架
4.3.3.2. 遵守这些不断变化的法律和标准需要对可能出现的风险做好管理,不断调整和对齐计划以确保合规
4.3.4. 战略一致性
4.3.4.1. 将量子计算整合到业务流程中,必须与组织的整体战略方向和风险偏好保持同步,任何的偏差都可能导致财务、声誉或战略风险