重要提示:谷歌和雅虎将从 2024 年 4 月起要求使用 DMARC。
权力管理机构

生成式人工智能的网络安全风险

生成式人工智能的网络安全风险
阅读时间 6 分钟

随着生成式人工智能技术新力量的出现,生成式人工智能的网络安全风险也随之而来。生成式人工智能结合了机器学习(ML)和人工智能(AI)的能力,代表了最前沿的技术领域。

我们正处于技术复兴的边缘,人工智能技术将呈指数级增长。然而,与生成式人工智能网络安全相关的风险不容忽视。让我们从这个角度进行探讨,了解如何防止使用和滥用生成式人工智能所带来的网络安全挑战。

什么是生成式人工智能?

生成式人工智能(Generative AI)是生成式人工智能(Generative Artificial Intelligence)的简称,指的是一类人工智能技术,其重点是创建与现有数据相似或类似的新数据。生成式人工智能模型并不针对特定任务进行明确编程,而是从训练数据中学习模式和结构,然后根据所学知识生成新内容

生成式人工智能的主要目标是生成与真实数据无异的数据,使其看起来像是由人类创建的,或来自与原始数据相同的分布区。这种能力在各个领域都有大量应用,如自然语言生成、图像合成、音乐合成、文本到语音的转换,甚至视频生成。

为什么说生成式人工智能是下一个最大的网络安全威胁?

GPT-3、GPT-4 和其他生成式人工智能工具无法避免生成式人工智能网络安全风险和网络威胁。公司必须实施相关政策,以避免与生成式人工智能相关的重大网络风险。

特伦斯-杰克逊微软首席安全顾问特伦斯-杰克逊(Terence Jackson)在为《福布斯》撰写的一篇文章中强调,ChatGPT 等平台的隐私政策表明,它们会收集 IP 地址、浏览器信息和浏览活动等重要用户数据、 这些数据可能会与第三方共享。

杰克逊还对生成式人工智能带来的网络安全威胁提出了警告、 它扩大了攻击面,为黑客提供了新的可乘之机。

此外、 连线》4 月份的一篇文章揭示了这些工具的漏洞,强调了生成式人工智能的网络风险。

在短短几个小时内,一名安全研究人员就绕过了 OpenAI 的安全系统,操纵了GPT-4,这凸显了潜在的生成式人工智能网络威胁以及采取强有力的网络安全措施的必要性。

揭示生成式人工智能的七大网络安全风险

生成式人工智能是解决问题的强大工具,但也存在一些风险。最明显的风险是它可能被用于恶意目的,如知识产权盗窃或欺诈。

制作网络钓鱼电子邮件

生成式人工智能最大的网络安全风险是制造网络钓鱼。

网络钓鱼的威胁确实存在,而且不会消失。

随着越来越多的公司使用电子邮件和其他形式的数字通信来推销自己的产品或服务,犯罪分子诱骗人们提供个人信息的手段也越来越高明。

最常见的诈骗被称为 "网络钓鱼",因为它们通常涉及从可信来源(如您的银行)发送的虚假电子邮件,其中包含的附件或链接看似合法,但实际上却指向一个虚假网站,您可以在该网站上输入您的凭据以访问您的账户。

模型操纵和中毒

生成式人工智能的一个主要网络安全风险是模型操纵和中毒。这类攻击涉及操纵或改变现有模型,使其产生错误结果。

例如,攻击者可以更改图像,使其看起来像您数据库中的另一张图像,而不是它的本来面目。然后,攻击者就可以利用这些被篡改的图像作为其攻击网络或组织的策略的一部分。

对抗性攻击

由于黑客希望利用这些系统的弱点,针对机器学习算法的对抗性攻击变得越来越常见。

自人工智能研究早期以来,对抗性示例(一种导致算法出错或错误分类数据的攻击)的使用就一直存在。

然而,随着对抗性攻击变得越来越复杂和强大,它们威胁着所有类型的机器学习系统,包括生成模型或聊天机器人

数据隐私泄露

生成模型的一个常见问题是,它们可能会无意中泄露有关个人或组织的敏感数据。

例如,一个组织可能会使用生成模型创建一个图像,却不小心泄露了其客户或员工的机密信息。

如果发生这种情况,可能会导致隐私泄露和损害赔偿诉讼。

深度伪造与合成媒体

生成模型还可用于邪恶目的,生成可用于深度伪造(假视频)或合成媒体(假新闻)的假视频和录音。

这些攻击背后的技术相对简单:有人需要获得正确的数据集和一些基本的软件工具,就可以开始创建恶意内容。

知识产权盗窃

知识产权盗窃是当今科技行业最令人担忧的问题之一,而且随着人工智能的日益发展,这一问题只会越来越严重。

生成式人工智能可以生成在人类看来真实可信的虚假数据。

这种数据类型可用于各行各业,包括医疗保健、金融、国防和政府。它甚至可以在网上创建虚假的社交媒体账户或冒充个人。

恶意使用生成的内容

生成式人工智能还可以通过改变网页或社交媒体平台上文本或图片中单词或短语的含义或上下文来操纵内容。

例如,如果您使用的应用程序可以自动生成图片说明,无需人工干预。这样就可以将标题从 "一只白色的狗 "改为 "一只黑色的猫",而不需要实际改变照片本身的任何内容(只需编辑标题)。

如何加强对生成式人工智能网络安全风险的防御

为了应对这一日益严重的问题,企业必须加强对这些风险的防御。

下面是一些这样做的建议:

转用 DMARC

DMARC是一种电子邮件验证协议,有助于防止冒充自己域名的电子邮件欺骗和网络钓鱼攻击。

通过实施 DMARC 分析仪可确保只有授权发件人才能使用其域进行电子邮件通信,从而最大限度地降低与人工智能生成的网络钓鱼电子邮件相关的风险。

DMARC 提供了更多层次的保护,使域名所有者能够收到电子邮件发送报告,并采取必要行动加强电子邮件安全,从而成为防范人工智能网络安全风险的屏障。

您需要执行 SPFDKIM或两者(推荐)作为实施 DMARC 的先决条件。

进行安全审计

防止黑客访问系统的另一种方法是进行 网络安全审计。

这些审核将有助于识别系统中的潜在弱点,并建议如何在它们变成重大问题之前对其进行修补(例如 恶意软件感染)。

对抗训练

对抗训练是一种模拟对抗攻击并强化模型的方法。它使用一个对手(或攻击者),试图通过给出错误答案来愚弄系统。这样做的目的是找出模型的反应和局限性,以便设计出更强大的模型。

稳健的特征提取

另一种解决方案是鲁棒特征提取(RFE)。RFE 利用深度学习从原始图像中提取相关特征。该技术具有可扩展性,可用于大型数据集。它还可以与其他技术相结合,如采样验证(VTS)和离群点检测(OD),以提高特征提取的准确性。

安全模型架构

安全模型架构 (SMA) 使用安全模型架构来防止利用软件代码、数据文件或 AI 系统其他组件中的漏洞的攻击。SMA 背后的想法是,攻击者必须在代码中找到漏洞,而不仅仅是利用系统本身的弱点。采用全面的 软件代码审计服务 对于识别和缓解人工智能系统中的漏洞,确保生成式人工智能技术的完整性和安全性以应对复杂的网络威胁至关重要。

定期模型审计

多年来,模型审计一直是网络安全的重要组成部分。它包括检查系统中使用的模型,以确保这些模型是健全的、最新的。模型审计还可用于检测模型中的漏洞,以及识别可能已被黑客破坏或篡改的模型。

输入验证和过滤

输入验证是模型开发人员在将模型部署到生产环境之前所能采取的最重要步骤之一。输入验证可确保输入模型的数据不会不准确,也不会被试图利用系统漏洞的黑客恶意篡改。输入过滤允许开发人员指定哪些数据类型应允许通过其模型,同时防止任何其他类型的数据通过。

最后的话

虽然这项技术带来了许多好处和进步,但也为潜在的漏洞和威胁打开了大门。

生成式人工智能能够创建令人信服的虚假图像、视频和文本,这引起了人们对身份盗窃、误导宣传和欺诈的关注。

此外,恶意使用生成式人工智能会扩大现有的网络威胁,如网络钓鱼攻击和社交工程。

随着这项技术的不断发展,组织和个人必须优先采取网络安全措施,包括强大的身份验证、持续监控和定期漏洞评估,以降低与生成式人工智能相关的风险。

通过这样做,我们可以利用这项技术的潜力,同时防范其固有的网络安全挑战。

退出手机版