人工智能安全领域的研究和开发

发布于:2023-09-22 ⋅ 阅读:(94) ⋅ 点赞:(0)

作者:禅与计算机程序设计艺术

1.简介

随着人工智能技术的飞速发展,其对社会生活、经济活动等方方面面的影响日益凸显。近年来,随着信息化的日益普及,科技巨头纷纷布局自身的业务模式和服务领域。作为新一代技术革命的代表性企业之一,腾讯从2013年成立至今已成为国内计算机领域最具影响力的互联网公司。截止到目前,腾讯已经成为中国互联网领域最重要的科技公司。腾讯的高科技创新能力遍及多个领域,其中人工智能领域占据了重要位置。腾讯机器人围绕着图像识别、语音交互、自动驾驶、强化学习等技术领域,应用于电商、金融、保险、医疗等行业,产生了广泛而深远的影响。作为世界上第一家拥有独特技艺的人工智能产品供应商,腾讯当然不会局限于该领域的研究和开发工作。2019年6月,腾讯宣布将自主研发的人工智能系统部署在中国。但同时,腾讯也不断推出新的产品和服务,以应对市场竞争和满足用户需求。由此可见,腾讯在人工智能技术领域的发展已经成为一个深入且持续的过程。

在人工智能安全领域的研究和开发也是腾讯在前进道路上的重要组成部分。近几年,腾讯内部不断有关人工智能相关安全的讨论和研究。首先,腾讯安全部门正致力于深入研究机器学习模型中的“黑客攻击”行为。通过对目前有关机器学习模型的研究,腾讯希望找寻方法来防御“黑客攻击”攻击。其次,腾讯安全部门正在探索边缘计算(Edge Computing)相关的安全策略。腾讯希望在边缘计算环境中部署人工智能系统,以提升资源利用率和数据处理速度,同时兼顾安全和隐私保护。最后,腾讯正在积极参与并引导AI科研人员的研究方向,鼓励他们深入研究AI系统的各个方面,提升科技水平。总之,在人工智能安全领域的研究和开发,还有许多值得探索的方向。

2.基本概念术语说明

2.1 人工智能相关定义

“人工智能”(Artificial Intelligence)是指由人制造出来的智能机器,其可以模仿人的思维方式、解决复杂的问题,并逐渐取代人类成为处理信息、控制机器、运行经济、分配资源的工具。一般来说,人工智能可以分为五大类:规则引擎型、统计学习型、深度学习型、强化学习型和神经网络型。

规则引擎型人工智能:规则引擎型人工智能指的是具有固定决策规则的计算机程序,它们对外界输入的数据进行分析后按照预先设定的条件作出结论,并不需要获取知识和训练,属于非监督学习。目前,比较火热的阿里巴巴的“芒果聊天机器人”就是一种规则引擎型人工智能。

统计学习型人工智能:统计学习型人工智能基于统计的方法,通过构建概率模型和学习算法来实现人工智能。统计学习主要用于处理各种静态、结构化数据,如文本、图片、视频等。它以概率论、数理统计、信息论、优化等理论为基础,以机器学习为手段,从数据中提取有用信息,对规律性和模式进行建模。

深度学习型人工智能:深度学习型人工智能是指机器学习算法的发展方向,它是建立在浅层人工神经网络的基础之上,使用非常有效的特征学习和模型学习算法。深度学习算法可以有效地解决现实世界的问题,是当前最流行的一种人工智能算法。由于模型的深度加深,它可以从原始数据中抽象出特征表示,并且能够学习到数据的本质规律,因此在处理文本、视觉、语音、图像等高维度数据时表现优越。

强化学习型人工智能:强化学习型人工智能与监督学习型人工智能类似,都是对环境、动作、奖赏进行建模,并借助强化学习算法学习如何选择行为以最大化累计回报。与监督学习型人工智能不同的是,强化学习型人工智能的目标是在短期内取得最大化累计回报,而无需对整个目标序列进行预测。强化学习型人工智能可以处理连续空间的任务,如股票交易、预测市场波动等。

神经网络型人工智能:神经网络型人工智能是指具有多个相互连接的神经元网络,并利用学习算法进行训练的机器学习模型。它的特点是高度灵活、容错性强、能够处理非线性关系、易于并行化、自适应应对变化、特征抽取效率高等。目前,比较热门的大规模人工智能、机器学习、深度学习等技术都源于神经网络型人工智能的研究。

2.2 数据安全定义

数据安全是指数据的收集、存储、使用、共享、删除等活动过程中,所发生的信息泄露、丢失、篡改、恶意访问、设备损坏、操作错误等风险,以及对数据的完整性、可用性、真实性、合法性等属性进行有效的保障。

数据安全包括物理性安全、组织性安全、过程性安全、技术性安全、管理性安全以及信息性安全六大领域。下面分别介绍物理性安全、组织性安全、过程性安全、技术性安全、管理性安全以及信息性安全的一些基本概念。

2.2.1 物理性安全

物理性安全是指在计算机硬件、网络设备、通讯信道等基础设施上对数据的保存、运输、传输等环节进行严格控制,防止其被窃取、修改、毁坏等。物理性安全体系包括电脑安全、服务器安全、网络安全、防火墙安全、磁盘安全、U盾安全、身份认证安全等。

2.2.2 组织性安全

组织性安全是指对计算机系统中关键人员及其重要文件进行合理分类、管理、记录、审计、监控,并定期进行安全检查,防范未知威胁,降低社会风险。组织性安全体系包括信息安全、隐私安全、财产安全、人员安全等。

2.2.3 过程性安全

过程性安全是指采用强化学习、模型驱动等方法,在计算机系统的每一个环节引入安全评估机制,降低技术、管理和个人因素导致的安全风险,提升计算机系统的整体安全水平。过程性安全体系包括合规性安全、测试安全、审核安全、漏洞管理安全、供应链安全等。

2.2.4 技术性安全

技术性安全是指采用高级加密标准(Advanced Encryption Standard,AES),统一多用途加密标准(Universal Multiple-Purpose Encryption,UMAC),基于随机采样加密算法(Random Sampling Encryption Algorithm,RSEA)等技术,加强对数据加密、解密、传输等环节的安全防护,提高信息系统的安全性。技术性安全体系包括密码学安全、认证安全、访问控制安全、互操作性安全、可用性安全等。

2.2.5 管理性安全

管理性安全是指对安全事件的响应和处置流程、事件发现和分析能力、对人力资源、财务资源、IT设备的投入等进行有效整合,确保整个计算机系统的安全稳定、高效运行。管理性安全体系包括监管和运营安全、态势感知和分析安全、持续集成和部署安全、沙箱环境安全等。

2.2.6 信息性安全

信息性安全是指保障个人信息、机密信息等重点信息在整个信息系统、网络间、传输过程中不被泄露、篡改、毁坏或被滥用,并符合相关法律法规规定的权限与 obligation,信息性安全体系包括数据分类和标记、安全评价、数据生命周期管理、数据备份和恢复、数据使用分析等。

2.3 深度学习与人工智能安全问题定义

深度学习(Deep Learning)是机器学习的一个子集,也是人工智能领域的一个热门研究方向。深度学习的关键是数据和模型的组合,利用大量数据,通过多层网络结构,自动学习并提取有用的特征,形成有意义的结果。但是,深度学习的应用也带来了新的安全问题。以下列举深度学习与安全问题的一些典型问题。

  1. 攻击者对模型的生成攻击(Model Extraction Attacks):攻击者通过提取目标模型的参数,获得目标模型的部分功能,或者替换掉目标模型的一部分功能,达到数据分析、违反隐私、恶意利用目的等效果。

  2. 对抗样本生成(Adversarial Sample Generation):针对某个目标模型,通过生成伪造样本,让模型难以正确分类,达到欺骗、冒充的效果。

  3. 扰乱攻击(Disruption Attack):针对某个深度学习系统,在某些情况下向正常请求者完全透明,而其他情况返回虚假结果,达到对抗的效果。

  4. 模型压缩攻击(Model Compression Attacks):针对某个目标模型,通过裁剪、压缩模型参数数量,使模型大小减小,达到隐私保护、模型性能下降、推断时间增加等效果。

  5. 敌手攻击(Adversarial Examples):针对某个深度学习系统,构造一些异常数据,让目标模型误判,达到攻击的效果。

  6. 模型不一致攻击(Inconsistency Attacks):针对某个目标模型,对输入进行多种噪声、偏移,使模型在相同输入的情况下输出不同的预测结果,达到模型健壮性不足、鲁棒性差等问题。

在实际应用中,由于深度学习的巧妙设计,使得其有很大的潜在风险。如攻击者可以通过获取目标模型的参数和中间输出等,轻松获取模型的部分功能;对于一些特定攻击,比如敌手攻击、对抗样本生成等,攻击者可以直接通过改变输入,构造出一些特殊的样本,破坏模型的正常推断;甚至,针对某个输入数据,模型的预测结果也会因目标攻击者的修改而出现极端的变化,这就要求深度学习系统需要实时监测和更新模型的健康状态。除此之外,深度学习算法的训练往往依赖于庞大的数据集,当数据集中存在易受攻击的特征时,可能会使模型性能下降或产生过拟合现象,进而导致信息泄露和其他安全问题。因此,深度学习技术在实际应用中,还存在很多需要解决的安全问题。


网站公告

今日签到

点亮在社区的每一天
去签到