定制报告-个性化定制-按需专项定制研究报告
行业报告、薪酬报告
联系:400-6363-638

《赛迪研究院:2024人工智能安全趋势研究报告(34页).pdf》由会员分享,可在线阅读,更多相关《赛迪研究院:2024人工智能安全趋势研究报告(34页).pdf(34页珍藏版)》请在薪酬报告网上搜索。
1、网 络 安 全 研 究赛迪研究院 主办2024 年 12 月 15 日总第 81 期4第期本期主题 人工智能安全趋势研究所长导读近年来,随着人工智能技术的快速迭代与深度应用,其对社会经济和日常生活的变革性影响日益显现。然而,与技术进步相伴的是日趋复杂的安全挑战。如何在推动技术创新的同时,确保人工智能系统的安全、可靠和可控,成为当前全球科技发展的核心议题。本期人工智能安全趋势研究从供应链、数据、算法、应用和伦理五个层面梳理了人工智能的安全风险,分析了高端芯片断供、数据泄露、对抗性攻击、深度伪造以及伦理困境等问题对人工智能技术发展的潜在威胁。同时,介绍了机密人工智能、联邦学习、对抗性机器学习、AI
2、GC 检测、可解释人工智能等技术解决方案,并展望了人工智能安全测评的发展方向。此外,针对我国实际情况,报告提出了完善人工智能治理体系、加快关键技术研发、推动人工智能安全标准建设以及加强公众教育等具体建议,助力我国人工智能实现安全、可持续的高质量发展。在当前人工智能技术加速融入社会经济各领域的背景下,推动人工智能安全发展不仅关乎技术本身,更是构建和谐社会、维护公平秩序的重要前提。希望本期内容能为政府部门、企业机构和社会组织提供参考和借鉴,并欢迎各界读者不吝赐教。赛迪研究院网络安全研究所所长 温晓君2024 年 12 月 15 日本期主题:人工智能安全趋势研究一、人工智能安全1(一)人工智能内生安
3、全1(二)人工智能衍生安全2二、人工智能安全风险分析2(一)供应链安全2(二)数据安全4(三)算法安全5(四)应用安全6(五)伦理安全8三、人工智能安全解决方案和技术趋势10(一)数据安全与隐私保护10(二)算法安全与模型防护13(三)人工智能生成内容检测和溯源15(四)人工智能透明度和信任构建17四、人工智能安全测评趋势21(一)人工智能安全测评标准21(二)人工智能安全测评平台和工具22(三)人工智能安全测评未来展望23目 录 目 录 CONTENTS五、促进我国人工智能安全发展的对策建议24(一)构建多层次的人工智能安全治理体系24(二)加快技术研发与自主生态建设25(三)完善人工智能安
4、全标准与测评体系26(四)加强伦理引导与公众教育27本期主题:人工智能安全趋势研究网络安全研究2024 年第 4 期1一、人工智能安全人工智能作为引领科技革命和产业变革的核心技术,已经深刻改变了社会各领域的运作模式。从 20世纪 50 年代人工智能概念的提出,到 21 世纪初机器学习的兴起,再到近几年深度学习和大模型的迅猛发展,人工智能在语音识别、图像处理、智能驾驶等多个领域取得了显著成果。尤其是 ChatGPT、Sora 等大模型的广泛应用,使得人工智能逐步渗透到人们的日常生活与工作中。然而,随着人工智能技术的普及化与复杂化,其安全问题日益凸显。一旦人工智能系统被滥用、误用或发生故障,不仅可
5、能带来经济损失,还可能对社会秩序、伦理道德乃至国家安全构成威胁。因此,全球各国逐渐将人工智能安全作为重要议题,开展相关研究与政策制定。人工智能安全可分为人工智能内生安全(AI Security)和人工智能衍生安全(AI Safety)。内生安全指的人工智能系统自身存在的脆弱性,可能导致系统运行出现问题,无法达到预设的功能目标。这往往源于新技术的不成熟,或是技术自身的天然缺陷。衍生安全则是指人工智能技术的脆弱性被利用,虽然其自身能够正常运行,但是危及其他领域的安全。这两方面共同构成了人工智能安全的核心内容,决定了人工智能技术能否在安全、可靠、可控的前提下持续健康发展。(一)人工智能内生安全人工智
6、能内生安全包括供应链安全、数据安全、算法安全三个层面。供应链安全:人工智能供应链安全是指在人工智能供应链的整个生命周期中,确保所涉及的训练框架、第三方库、操作系统、数据库、芯片、云服务等软硬件和服务的安本期主题:人工智能安全趋势研究专业就是实力 精准就是品牌网络安全研究2024 年第 4 期2全性、完整性和可靠性。数据安全:人工智能数据安全是指通过采取必要措施,确保人工智能系统使用的数据得到有效保护,并且合法、安全地被利用,同时具备持续保障数据安全状态的能力。算法安全:人工智能算法安全是指在整个人工智能系统的设计、开发、部署和使用过程中,确保算法的公正性、透明性、鲁棒性和抗攻击能力,同时采取必
7、要措施保护算法免受未经授权的访问和篡改,以及确保算法的决策过程和结果合法、合规。(二)人工智能衍生安全人工智能衍生安全包括应用安全和伦理安全两个层面。应用安全:人工智能应用安全是指确保人工智能应用在实际操作中的安全性和可靠性,防止其被滥用或误用,保障应用的输出和行为符合预期。伦理安全:人工智能伦理安全是指在人工智能系统的整个生命周期中,确保其设计和行为遵循以人为本的原则,尊重并保护个人权利,促进社会价值和公共利益,同时避免产生不公平、歧视或责任不清等问题。二、人工智能安全风险分析为全面认识人工智能安全的现状,以下将从内生安全和衍生安全的这五个层面入手,具体分析当前人工智能安全的主要风险和应对手
8、段。(一)供应链安全人工智能的运行依赖硬件与软件两大基础。高端芯片、GPU、FPGA等硬件为人工智能训练与推理提供算力支持,训练框架、操作系统、数据库、云服务和第三方库为模型开发、数据处理与应用落地提供必要环境。一旦供应链中任一环节出现断供或自身安全问题,可能造成研发进度受阻、性能下降、数据泄露或恶意代码植入等后果,从而动摇整个人工智能系统的基础。因此,保障软硬件全链条的安全性,对于人工智能的持续健康发展至关重要。1.硬件供应链安全风险一是高端芯片以及关键器件的断供风险。近年来,围绕高端芯片供应的限制措施不断升级。2022 年10 月,美国商务部产业与安全局本期主题:人工智能安全趋势研究网络安
9、全研究2024 年第 4 期3(BIS)对先进芯片的出口实施管控,包括限制英伟达的 A100 和 H100 两款 GPU 对华输出。随后英伟达为规避管制,在 A100 和 H100 的基础上推出针对中国市场的“降级版”产品 A800 和 H800,但 2023 年 10 月BIS 再次强化限制,将 A800 和 H800纳入出口管制范畴。到 2024 年 12月,BIS 对华半导体出口管制措施进一步扩大,涵盖 24 种半导体制造设备、3 种相关软件工具以及高带宽内存(HBM)芯片等。上述规则的持续收紧表明,高端芯片和存储器等关键硬件的供应链已面临长期不确定性,可能对人工智能系统的算力供给与迭代
10、升级造成制约。二是以智能芯片为代表的硬件本身存在潜在的安全隐患。2024年1月,苹果、AMD、高通等多家主流厂商的 GPU 产品被曝出重大漏洞,攻击者可通过底层缺陷从 GPU 内存窃取数据,对运行在该硬件之上的人工智能模型产生影响。2024 年 10 月,高通公司发布安全警告称,其多达 64 款芯片组中的数字信号处理器(DSP)服务中存在“零日漏洞”,且该漏洞已出现有限且有针对性地利用迹象。2.软件供应链安全风险一是人工智能底层框架等基础软件被少数西方公司垄断带来的供应链脆弱性。谷歌的 TensorFlow 和Meta 的 PyTorch 在中国开发者使用的人工智能框架中超过 60%,英伟达的
11、 CUDA 并行计算架构占据垄断地位。这种格局使得下游研发和应用流程长期绑定于既定工具链,一旦供应方实施限制或技术支持中断,人工智能产业链在模型训练和推理、性能优化等方面将受到明显影响。二是底层框架、第三方库以及开源模型等软件潜在的漏洞与后门问题。随着人工智能应用不断扩张,操作系统、数据库、云服务以及训练框架的安全隐患正逐渐显现。例如,“tensrflwo”恶意代码包通过仿冒 TensorFlow 框架名称进行传播,在下架前累计被下载 870 余次,并通过国内镜像源持续传播。2024 年 10 月,字节跳动出现了一起重大模型投毒事件,攻击者利用HuggingFace 提供的 transform
12、ers代码库中 load_repo_checkpoint 函数的安全缺陷,在模型加载环节实施恶意代码注入,导致模型训练异专业就是实力 精准就是品牌网络安全研究2024 年第 4 期4常。随着人工智能应用的不断推广,系统连接愈发密集,非法入侵的潜在触点也随之显著增加。(二)数据安全人工智能的能力高度依赖高质量且安全可靠的数据资源。然而,在模型训练和推理两个关键环节中,数据面临着多重安全风险,不仅威胁模型的性能和可靠性,还可能引发严重的社会和经济后果。如何有效应对数据安全挑战,已成为保障人工智能系统稳定运行的核心议题之一。1.训练阶段的数据安全风险一是数据投毒风险,攻击者通过植入偏见样本或不当内容
13、,导致模型输出偏差性甚至歧视性结果。2016 年,微软发布了一个名为 Tay的聊天机器人,该机器人能够从与Twitter 用户的对话中在线学习。然而,在短短 24 小时内,Tay 在部分用户的引导下开始发布不当言论,包括脏话和种族歧视等内容。主要是因为在对话数据集中被恶意增加了不当的数据,导致 Tay 学习并模仿这些不当行为。二是数据标注不规范风险。标注质量直接影响模型的有效性与可靠性,但即使是广泛用于人工智能训练的权威数据集,也并非完美无缺。麻省理工学院与亚马逊的研究人员对 10 个主流机器学习数据集进行评估后发现,平均有 3.3%的数据标注存在错误,知名数据集 ImageNet 和 CIF
14、AR-100的错误率甚至接近 6%。这意味着大量模型在无形中继承了错误标注所带来的偏差,进而影响对现实场景的判断与处理。当此类问题在自动驾驶、医疗诊断或公共安全等关键领域出现时,其影响已不再局限于模型性能的微小波动,而可能导致重大决策失误和安全隐患。2.推理阶段的数据安全风险一是用户无意向人工智能服务泄露机密信息。当用户与大模型等人工智能服务交互时,若缺乏安全意识与明确指引,可能将内部文件、商业机密及个人隐私信息直接输入系统,从而被模型记录并潜在扩散。2023 年 4 月,三星被曝光多起数据泄露事件,原因是三星允许半导体部门的工程师使用 ChatGPT修复源代码问题,至少有三名员工直接将新程序
15、的源代码本体、与硬本期主题:人工智能安全趋势研究网络安全研究2024 年第 4 期5件相关的内部会议记录等敏感数据以提问的方式输入给 ChatGPT。数据安全公司 Cyberhaven 调查显示,2.3%的员工会将公司机密数据粘贴到 ChatGPT 中,企业平均每周向ChatGPT 泄露机密材料达数百次。二是攻击者可以从模型中反向恢复训练数据,造成敏感信息泄露。研究发现,黑客可利用新的数据提取攻击方法从当今主流的大语言模型中大规模提取训练数据。现有的对齐与防护技术尚不足以彻底阻断数据提取攻击的途径,在缺乏安全措施的情况下,贸然训练和部署涉及敏感数据的人工智能应用可能引发严重后果。(三)算法安全
16、人工智能系统的底层算法是驱动智能决策和认知能力的核心,然而这一“智能中枢”在复杂现实环境中可能暴露出多重安全隐患,包括内在缺陷、决策过程不透明、对抗样本攻击和知识产权窃取等问题。这些隐患不仅威胁人工智能系统的性能和可靠性,还可能影响其决策的公正性,甚至对相关产业的价值和安全造成严重冲击。1.算法缺陷导致系统偏离预期人工智能系统在面对复杂场景时,可能因算法缺陷而偏离预期目标,造成重大损失。例如,2018 年3 月,Uber 自动驾驶汽车因机器视觉系统未能及时识别行人而发生致命事故。谷歌、斯坦福大学、加州大学伯克利分校和 OpenAI 的研究人员将算法模型设计和实施中的安全问题归纳为三类:一是目标
17、函数定义错误,设计者在设计目标函数时未能充分考虑运行环境的约束条件,导致算法执行过程中对周围环境产生负面影响;二是目标函数计算成本过高,算法被迫采用简化的替代方案,无法达到预期效果;三是模型表达能力不足,在面对训练数据集之外的新场景时容易产生错误结果。这些问题在大模型系统中表现得尤为突出,如 ChatGPT 等大模型在回答专业问题时可能生成貌似专业但实际错误的内容,即“幻觉”问题。目前,即便采用更大规模或更复杂的模型架构,也无法根本解决大模型的幻觉问题,这使得大模型的可靠性和能力备受质疑。专业就是实力 精准就是品牌网络安全研究2024 年第 4 期62.算法黑箱阻碍监管审查随着深度学习等复杂模
18、型的普及,算法决策的不透明性问题愈发突出。即便是开发团队也难以完全解释 GPT 等大语言模型的推理过程。这种不透明性主要由三个因素造成:一是企业出于商业利益考虑而主动封闭算法细节;二是技术复杂度超出了普通用户的理解范围;三是深度神经网络本身的决策机制难以用简单逻辑解释。算法黑箱现象不仅影响了社会对人工智能的信任,也为监管工作带来了巨大挑战。3.对抗性攻击诱导系统错误判断对抗性攻击(Adversarial Attack)是指攻击者通过对输入数据进行精心设计的微小扰动,使得机器学习模型在感知上几乎无法察觉这些变化,但却会导致模型输出错误结果的一种攻击方式。这些扰动可能包括图像的像素级调整、语音信号
19、的微小变化,甚至文本中的无意义字符插入等。清华大学研究团队对主流商用模型的测试表明,通过精心设计的对抗样本,可以达到较高的攻击成功率:针对 GPT-4V 的攻击成功率为 45%,针对 Bard 的攻击成功率为 22%,针对 Bing Chat 的攻击成功率为 26%。除了传统的对抗样本外,提示注入等新型攻击手段也层出不穷。在 Chat with Code 插件事件中,攻击者通过注入特定提示词,成功控制人工智能系统执行未经授权的 GitHub 操作,包括创建仓库、更改代码库可见性等敏感行为。4.算法模型容易被窃取攻击人工智能算法模型作为使用大量数据和算力训练生成的关键数字资产,面临显著的窃取风险
20、。尤其是在云服务环境中,模型的存储、传输和运行均可能暴露于潜在威胁之下,攻击者可能通过物理攻击、网络抓包、内存转储等方式窃取模型核心参数。这不仅威胁模型的机密性,还可能造成知识产权泄露,进一步削弱企业在技术和市场中的竞争力。(四)应用安全人工智能的广泛应用为各行各业注入了前所未有的创新活力,但也伴随着日益突出的安全风险。人工智能的强大能力一旦被不法分子利用,会使传统防御手段逐渐失效,进而威胁用户隐私、社会秩序乃至本期主题:人工智能安全趋势研究网络安全研究2024 年第 4 期7国家安全。随着人工智能技术的复杂化和普及化,其潜在风险正以更广的范围、更深的程度影响社会运行。1.人工智能赋能网络攻击
21、人工智能为黑客带来了全新的攻击手段,使网络攻击更加高效且难以防范。网络安全公司 Home Security Heroes 的研究人员使用人工智能密码破解器 PassGAN 对超过 1568 万个密码进行了测试,发现 PassGAN 能在不到 1 分钟的时间内破解 51%的密码。随着生成式人工智能技术的兴起,基于大模型的网络攻击也在显著增长。网络安全公司 Enea 的数据显示,自 2022 年11 月 ChatGPT 发布以来,网络钓鱼攻击整体增加了 1265%。同时,暗网上出现了 WormGPT、PoisonGPT、EvilGPT 等多种恶意大模型,这些模型基于有害语料库训练,专门用于网络钓鱼
22、、恶意代码生成等非法活动。此外,多个有国家背景的APT 组织已开始将生成式人工智能技术用于网络攻击,显著提高了攻击的隐蔽性和精准性,特别是针对关键信息基础设施的网络攻击正变得更加自动化和智能化。近年来,针对政府、军工、能源、电力、金融、交通、通信等关键领域基础设施的攻击层出不穷。这些情况表明,人工智能技术正在显著改变传统的网络攻击模式,传统的防御体系面临严峻挑战。2.人工智能合成虚假内容人工智能技术的迅猛发展,尤其是生成对抗网络(GAN)等深度学习的应用,大幅提升了虚假内容的生成能力,深度伪造(Deepfake)技术正是其中的典型代表。通过深度学习算法,攻击者能够生成高度逼真的虚假视频、音频或
23、图像,用于多种非法活动,严重威胁社会信任与安全。例如,2024 年香港发生了一起利用深度伪造换脸技术实施的诈骗案,犯罪分子冒充公司高层,通过视频通话骗取了 2 亿港元。此外,生成式人工智能还被用于伪造虚假新闻、虚假身份和虚假广告等,致使大量公众被骗,造成严重经济损失。根据奇安信的数据,2023 年基于人工智能的深度伪造欺诈案件激增了 3000%,显示出不法分子对这类技术的滥用正在迅速扩展。这专业就是实力 精准就是品牌网络安全研究2024 年第 4 期8类虚假内容的生成不仅成本低、效率高,还具有极高的迷惑性,显著增加了公众识别虚假信息的难度,进一步扩大了其传播范围和社会危害。同时,深度伪造技术的
24、广泛应用也对国家安全带来了重大威胁。通过伪造政府领导人发布的虚假视频或言论,可能制造社会恐慌,削弱公众对政府的信任,从而动摇国家治理的基础。3.人工智能带来军事威胁人工智能技术的迅猛发展显著增强了军事领域的攻击能力,正在重塑现代战争形式。以无人武器为代表的智能化军事装备,通过人工智能技术实现了目标的自动识别、跟踪和攻击,大幅提升了作战效率和精准性。例如,攻击型无人机利用图像识别和自主决策技术,能够在复杂战场环境中快速锁定目标并独立完成打击任务,这类无人武器的广泛应用降低了传统军事行动对人力的依赖。此外,人工智能的军事化应用正在引发新一轮的军备竞赛。各国纷纷加速研发和部署人工智能驱动的武器系统,
25、以争夺技术优势。美国的“联合全域指挥与控制”(JADC2)系统将人工智能技术融入指挥和控制系统,提升跨域作战能力;俄罗斯也在积极推进智能无人武器和自动化指挥系统的开发。这种技术竞争不仅加速了武器系统的智能化,也使冲突的门槛显著降低,增加了军事对抗的复杂性。(五)伦理安全人工智能技术的迅猛发展在推动社会生产力提升的同时,也带来了诸多深刻的伦理挑战。这些挑战涵盖了道德观念的冲击、就业结构的改变、算法偏见的显现、自主决策带来的争议以及知识产权纠纷的增加,深刻影响着社会的公平与稳定。1.人工智能冲击传统道德观念人工智能技术的广泛应用在带来便利的同时,也对传统道德观念形成了深刻冲击。利用人工智能技术“复
26、活”逝者的形象或声音,虽然可以缓解亲属的思念之情,但也可能侵犯个人隐私和人格权,甚至引发伦理困境。例如,未经许可复刻逝者的声音或影像,可能被用作商业牟利或误导公众的工具。此外,人工智能伴侣的兴起通过模拟情感本期主题:人工智能安全趋势研究网络安全研究2024 年第 4 期9与人类互动,改变了人际关系的传统模式。这不仅可能导致人与人之间的真实关系淡化,还可能引发社会孤独感加剧、情感依赖失衡等问题。2.人工智能造成群体失业人工智能的广泛应用在提高效率的同时,也对传统就业岗位产生冲击。例如,自动驾驶技术的迅速发展正在改变交通运输行业的就业结构。以中国的自动驾驶出租车服务商“萝卜快跑”为例,该公司通过人
27、工智能技术实现了无人驾驶出租车的规模化运营,在 2024 年已覆盖北京、上海、武汉等多个城市,并获得了显著的市场认可。然而,这种创新模式虽然大幅降低了人力成本和运营费用,却对传统司机岗位构成了潜在威胁。类似的情况还出现在制造业、零售业等其他行业中,人工智能驱动的自动化生产线、智能客服和无人超市等技术正在逐步替代人工劳动力。这一趋势不仅引发了广泛的社会担忧,也对就业结构调整和社会保障体系提出了新的要求。3.人工智能算法含有歧视偏见人工智能算法在处理数据时,常因训练数据的偏差、标注错误或样本不足而产生歧视性结果,这种偏见在招聘、贷款审批、医疗诊断等关键领域表现得尤为明显。例如,一些基于历史数据训练
28、的招聘算法因数据集中男性求职者的比例较高,倾向于优先筛选男性候选人,从而强化了性别歧视的现象。在贷款审批领域,人工智能系统也可能会因为训练数据中的种族或地区偏见,导致某些群体的贷款通过率显著低于其他群体,进一步限制了这些群体的经济机会和社会流动性。4.人工智能带来自主决策风险人工智能在一些关键场景中的自主决策能力正引发伦理与安全领域的深刻关注,尤其是在涉及生死抉择的情况下。例如,在自动驾驶领域,车辆在面对紧急情况时可能需要做出类似“电车难题”的选择是优先保护车内乘客,还是避免对行人造成伤害。这类复杂的决策涉及多方利益和价值观的权衡,无论最终选择如何,都可能引发社会争议,并对人工智能技术的专业就
29、是实力 精准就是品牌网络安全研究2024 年第 4 期10公众信任度造成冲击。在军事领域,自主武器系统的应用进一步放大了这一问题的影响。无人武器通过预设算法独立选择目标并执行致命打击任务,意味着发动致命打击的权力被赋予人工智能,而非人类指挥官,可能加剧军事冲突的不可控性,为人类带来无法预料的后果。5.人工智能引发知识产权争议人工智能技术的应用可能涉及对原创作品的模仿或再创作,进而引发了知识产权领域的复杂问题。一方面,部分人工智能通过大量受版权保护的图片、文字或音乐数据来进行训练,而这些数据的使用常常未经过权利人的许可,成为版权纠纷的核心争议点。另一方面,人工智能生成的作品是否具备独创性以及如何
30、界定创作权,一直是法律和学术界讨论的热点。2024 年 1 月,中国首例人工智能生成图片著作权侵权案判决中,法院认定人工智能生成的图片具有独创性,符合作品的定义,受著作权法保护。三、人工智能安全解决方案和技术趋势当前,业界在数据安全、算法防御、生成内容检测与溯源、模型透明性提升等领域展开了深入探索,通过多样化的技术手段为人工智能系统提供全方位的安全保障。本节将围绕这些技术热点,系统梳理人工智能安全的最新解决方案及其未来发展趋势,探讨如何以技术手段实现更加安全、可靠的人工智能应用。(一)数据安全与隐私保护1.机密人工智能机密人工智能(Confidential AI)是 一 种 使 用 机 密 计
31、 算(Confidential Computing)技术来保障人工智能系统安全的新型解决方案,其核心依赖于可信执 行 环 境(Trusted Execution Environment,TEE)。TEE 是 一 种硬件级的隔离技术,它能够在处理器内部划分出一个独立、安全的区域,用于存储和处理敏感数据。该区域对外完全封闭,即使是操作系统、虚拟机管理程序甚至设备管理员,也无法访问其中的数据和计算过程。通过这种方式,TEE 确保数据在使用过程中始终受到保护,不会被泄露或篡改。机密人工智能通本期主题:人工智能安全趋势研究网络安全研究2024 年第 4 期11过将人工智能模型的训练、推理等任务置于 TE
32、E 中,从而为人工智能的全生命周期提供“使用中”的安全保障,尤其适用于对数据隐私和安全性要求极高的场景。在人工智能模型的训练和推理过程中,数据在进入 TEE 后会被解密以进行计算,而外部环境无权访问 TEE 内部的任何内容,这有效避免了数据在运行中被窃取或篡改的风险。此外,TEE 提供的远程证明(Remote Attestation)功能可以验证运行环境的完整性和可信度,确保模型及其执行环境未被篡改。这一功能在医疗、金融等对数据安全要求极高的场景中至关重要。未来,机密人工智能的发展将沿着以下几个方向逐步推进。一是硬件技术的持续创新。最初 TEE 主要部署在 CPU 上,随着人工智能模型对计算性
33、能和效率要求的不断提升,TEE 的应用已逐步扩展至 GPU。例 如,NVIDIA 的 Hopper 架 构 GPU引入了 GPU TEE 功能,通过硬件隔离创建可信执行区域,使得大规模人工智能模型的训练和推理不仅能保持高效的计算性能,还能实现“使用中”数据的全程加密和保护。这种技术的进一步推广将显著提升人工智能系统在高复杂性和高安全需求场景中的应用潜力。二是标准化建设的不断完善。随着机密人工智能技术应用范围的扩大,对全球技术标准、接口规范和安全评估体系的需求日益迫切。通过建立统一的技术标准,不仅能够提升不同技术和平台之间的互操作性,还能在跨行业和跨机构的数据协作中提供更稳固的信任基础。三是技术
34、协同和场景融合的加深。机密人工智能将与联邦学习、差分隐私等技术紧密结合,通过多种手段共同提升人工智能系统的整体安全性。此外,机密人工智能将在金融、医疗、工业制造等高安全需求领域得到深入应用。2.联邦学习联邦学习(Federated Learning)是一种分布式机器学习框架,旨在在保护数据隐私的前提下,实现多方联合建模。其核心特点是数据不出本地,拥有数据的各方仅通过交换中间计算结果(如模型参数或梯度)完成模型训练,从而实现专业就是实力 精准就是品牌网络安全研究2024 年第 4 期12“数据可用不可见”。这一技术广泛应用于数据隐私保护需求较高的场景,如金融、医疗和政务领域。根据参与各方数据源分
35、布的情况不同,联邦学习可以分为横向联邦学习、纵向联邦学习、联邦迁移学习三类。横向联邦学习适用于参与方数据特征一致但样本不同的场景,如不同地区的银行共享客户行为数据;纵向联邦学习适用于样本重叠但特征不同的场景,如银行与电商企业合作分析客户行为特征;迁移联邦学习则适用于样本和特征均无重叠的场景,依赖迁移学习(Transfer Learning)技 术 提 升模型效果。此外,联邦学习还可按架构分为中心化和去中心化两种模式,前者通过中央服务器协调训练过程,后者则通过分布式协作避免对中央节点的依赖。不同类别的联邦学习为不同行业和场景的联合建模需求提供了多样化解决方案。目前业界有多款主流的联邦学习框架,由
36、不同团队开发,为数据隐私保护和分布式协作建模提供了有力支持。谷歌推出的 TensorFlow Federated(TFF)专注于联邦学习的模拟和研究,提供了灵活的接口来实现分布式环境下的模型训练。PySyft 由 OpenMined 开 发,基 于PyTorch,为联邦学习场景中的多方安全计算和差分隐私应用提供支持。FedML 是初创公司 FEDML 开发的框架,强调联邦学习的统一实现,适合跨设备和大规模分布式联邦学习任务。微众银行主导开发了FATE(Federated AI Technology Enabler),作为一款开源框架,支持横向联邦、纵向联邦以及基于安全多方计算的学习任务,广泛应
37、用于金融和医疗等行业。百度推出的PaddleFL 基于飞桨平台,提供了易用的联邦学习工具,支持多种分布式计算模式。这些框架专注于联邦学习技术的落地应用,推动了数据协作和隐私保护在各行业的实践与发展。随着人工智能和大数据技术的迅速发展,联邦学习正呈现出以下几大趋势。一是算法优化和通信效率的持续提升,为了缓解通信带宽压力,新型压缩算法不断涌现,使模型参数传输更加高效,同时确保训练效果。二是隐私保护机制的不本期主题:人工智能安全趋势研究网络安全研究2024 年第 4 期13断完善,同态加密和差分隐私等技术被逐步引入联邦学习框架,大幅增强数据安全性,为敏感数据的协同计算提供可靠保障。三是多设备、多模态
38、数据融合的发展方向正逐渐成为研究热点。应对异构数据源及设备能力差异的挑战,设计更高效的协作机制,是提升联邦学习实际应用价值的关键。四是与区块链技术结合,提供了全新的信任解决方案,为多方参与的联邦学习创造了更安全可信的环境。随着企业和组织对数据隐私保护与分布式智能需求的日益增长,联邦学习将进一步扩展应用场景,推动技术进步并解决实际问题,为人工智能技术在各行业的落地带来更多可能性。(二)算法安全与模型防护1.对抗性机器学习对抗性机器学习(Adversarial Machine Learning,AML)是 一 个研究机器学习算法攻击与防御的领域,其核心在于揭示对抗性攻击如何威胁模型的性能和可靠性,
39、以及开发有效的防御策略以抵御此类攻击。这一领域随着人工智能技术在自动驾驶、医疗诊断和语音识别等高风险场景中的应用而迅速兴起。对抗性攻击不仅可能导致模型输出错误的预测,还可能泄露敏感数据或对关键系统造成破坏,因此,研究对抗性机器学习对于确保人工智能系统的安全性至关重要。为应对对抗性攻击,研究者提出了多层次的防御策略。在模型训练阶段,对抗性训练被广泛采用,通过在训练数据中引入对抗样本,模型能够更好地应对恶意输入的扰动,提升其鲁棒性。除此之外,模型的鲁棒性优化也是关键策略之一,通过优化损失函数和加入正则化约束,能够有效降低模型对小幅输入变化的敏感性。在模型的运行阶段,输入数据的实时监控和检测同样至关