09-28-2023

AI将在网络安全领域发挥的作用

企业可如何通过应用AI解决方案以领先于对手
Dr. Avesta Hojjati
The Future Role of AI in Cybersecurity

据估算,到2032年人工智能(AI)的市场规模将达到1020亿美元,而众所周知,人工智能正在席卷各行各业。我们都知道AI的基本理念——就像创建真正智能的计算机,方法是给它们展示大量图片,告诉它们图片中的内容,并让它们从这些图片中进行学习,这样它们就可以自己解决问题。

然而,AI需要数据,而这些数据的来源、处理数据的方式,以及处理后产生的结果都将需要身份感和安全感。可以理解的是,许多人担心这些数据的安全性。一项2023年的调查研究显示,81%的受访者担心与ChatGPT和生成式AI相关的安全风险,而只有7%的人对AI工具将增强互联网安全性持乐观态度。因此,对于AI技术而言,强有力的网络安全措施将更为重要。

当然,也有大量机会将AI应用于网络安全,以改进威胁检测、防范和事件响应。因此,企业需要了解AI在网络安全领域的机遇和薄弱环节,以领先于即将到来的威胁。在今天的博文中,我将深入探讨企业在探索将AI应用于网络安全领域时需要了解的重要事项,以及如何防范AI中出现的威胁。

如何使用AI来强化网络安全

从好的方面来看,AI可以通过更有效、更准确和更快的反应来为改变网络安全助力。AI应用于网络安全的一些方法包括:

  • 减少误报的模式识别:AI极为擅长模式识别,这意味着它能够更好地检测异常情况,提供行为分析并进行实时的威胁检测。事实上,Ponemon Institute2022年的一项研究显示,使用AI驱动式入侵检测系统的企业的误报率降低了43%,使得安全团队能够专注于真正的威胁。此外,事实证明AI驱动式电子邮件安全解决方案最多可将误报率降低70%。
  • 通过增强人工能力实现规模的扩大: AI可以用来增强人工能力,实现更快的响应速度并提供可扩展性。规模的唯一限制就将是数据的可用性。此外,AI聊天机器人可作为虚拟助理使用,以提供安全支持,并分担人工客服的部分负担。
  • 加快事件响应与恢复: AI能够根据以前的训练和多点数据收集实现动作和日常任务的自动化,提供更快的响应速度并减少检测差距。AI还可以实现报告的自动化,通过自然语言查询来提供深入解析,简化安全系统,并提供建议以增强未来的网络安全策略。
  • 沙盒网络钓鱼培训: 生成式AI可以为实操类网络安全培训创建逼真的网络钓鱼场景,培养员工的警惕性,并让员工为应对现实世界的威胁做好准备。

AI对数据安全的潜在威胁

我们已经发现攻击者在攻击中使用AI。例如:

  • • AI自动化恶意软件攻击: 网络犯罪分子可以利用生成式AI来创建复杂的恶意软件,调整其代码或行为以避免检测。这些“智能”恶意软件更加难以预测和控制,增加了大范围系统中断和大规模数据泄露的风险。
  • 高级网络钓鱼攻击: 生成式AI能够学习并模仿用户的写作风格和个人信息,使网络钓鱼攻击更具有说服力。量身定制的网络钓鱼电子邮件看似来自可信的联系人或有信用的机构,它们欺骗个人泄露敏感信息,对个人和企业的网络安全构成重大威胁。
  • 逼真的深度伪造: 在生成式AI的帮助下,现在恶意分子能够进行深度伪造——非常令人信服的图片、音频和视频伪造品。对于虚假信息宣传、欺诈活动和假冒行为,深度伪造构成重大风险。想象一下,某位CEO宣布破产的逼真视频,或某位全球领导人宣战的伪造录音。这些场景不再局限于科幻小说的情节,而且有可能造成严重的混乱。

此外,AI需要大量数据,企业需要精准限制被共享的数据,因为它会创建另一个第三方,而数据可能通过第三方泄露。由于Redis开源库中存在漏洞,因此ChatGPT自身也遭遇了数据泄露,用户可访问他人的聊天历史记录。OpenAI迅速解决了这个问题,但它突显了聊天机器人和用户的潜在风险。一些公司已经开始彻底禁用ChatGPT以保护敏感数据,而另一些公司正在实施AI策略,以限制可以与AI共享的数据。

这里的教训是,虽然威胁制造者在不断进化并在新的攻击中使用AI,但企业需要熟悉入侵的潜在威胁,从而防范这些威胁。

关于AI在网络安全中的道德伦理思考

如果对在网络安全领域采用AI进行探讨而不提及道德伦理方面的思考,那就是一种疏忽。使用负责任的AI实践和人工监督来确保安全性和隐私性非常重要。AI只能复制它所学到的东西,而它所学到的部分内容有所缺失。因此,在采用AI解决方案之前,企业应对道德伦理因素进行考虑,包括以下方面:

  • 数据偏差放大:AI算法从历史数据中进行学习,如果用于训练的数据包含偏差,那么算法可能会无意地延续并放大这些偏差。当算法基于有偏差的数据做出决策或预测时,可能会导致不公平或歧视性结果。
  • 无意的歧视:由于训练数据或算法考虑的特征存在偏差,因此AI算法可能会歧视某些群体或个人。这可能会导致招聘、贷款或执法等领域的不公平待遇,这些领域的决策影响着人们的生活,但却基于其无法控制的因素。
  • 透明度和问责制:许多AI算法,尤其是像深度神经网络这样的复杂算法,在解释和理解方面可能具有挑战性。由于缺乏透明度,很难确定偏差被如何引入、决策被如何做出,这导致人们对出现偏见或不公平结果时的问责感到担忧。

虽然目前AI领域有些监管空白地带,但我们会看到要求透明度和问责制的监管规定将会出现,以消除一些对隐私和道德伦理方面的担忧。例如,欧盟委员会已经呼吁谷歌、脸书和TikTok等大型科技公司采取措施,为AI生成的内容贴上标签,作为其打击互联网虚假信息泛滥的工作之一。欧盟数字服务法规定,很快平台就必须要使用明显的指示物清楚地标记深度伪造内容。

网络安全领域的人工-AI合作伙伴关系

鉴于AI的局限性,人应该始终是最终决策者,同时使用AI来加快这一进程。企业可以使用AI来获得多种选择,然后关键决策者可以迅速采取行动,因此AI将补充而不是取代人类决策。AI和人类一起合作能干的事多于二者单打独斗能干的事。

AI

人类

  • 从数据和模式中进行学习
  • 能够模仿创造力但缺乏真实的情感
  • 快速处理和分析
  • 几乎无限的记忆存储
  • 可以扩展以处理海量数据集
  • 缺乏真正的自我意识
  • 缺乏真正的同理心
  • 从经验中进行学习并随着时间的推移而适应
  • 展现创造力和情感理解
  • 与AI相比速度有限
  • 记忆容量有限
  • 无法轻松扩展某些任务
  • 展现自我意识和观念
  • 表达同理心和情感联系

 

使用PKI建立AI中的数字信任

公钥基础设施(PKI)等技术的使用可以在防范新出现的AI相关威胁(如深度伪造)和维护数字通信的完整性方面发挥重要作用。

例如,包括Adobe、微软和DigiCert在内的一个领先的行业参与者联盟正在制定一项名为内容来源和真实性联盟(C2PA)的标准。该计划引入了一个开放标准,旨在应对验证和确认数字文件合法性的挑战。C2PA利用PKI生成无可争辩的线索,使用户能够辨别真伪媒介。此规范为用户提供了确定数字文件的来源、创建者、创建日期、位置和任何修改的能力。此标准的主要目标是促进数字媒介文件的透明度和可信度,特别是考虑到在当今环境中,将AI生成的内容与现实区分开来的难度越来越大。

总之,AI将在网络安全领域创造许多机会,而我们仅仅只触及了其作用的冰山一角。AI将被用作防御和进攻工具,既能防范网络攻击也可引发网络攻击。然而,重要的是企业要意识到风险,并立即开始实施解决方案,同时要记住AI无法完全取代人类。

WeChat: AI将在网络安全领域发挥的作用——企业可如何通过应用AI解决方案以领先于对手