Page 1 of 1

人工智能助手的安全动态

Posted: Wed Jul 09, 2025 5:19 am
by shakib75
人工智能助手运行所需的处理能力以及服务跨设备的特性,可能需要与云端共享数据。由于设备内置芯片计算能力的提升,以及芯片不断发展的特性使其能够更好地处理人工智能相关任务(例如,谷歌拥有张量芯片,苹果拥有 Apple Silicon),设备上处理正变得越来越普遍。然而,一些基于人工智能的任务仍然需要大量的计算能力,而这种能力只有数据中心的大型金属机器才能实现。依赖这种基础设施意味着个人数据会离开你的设备并在外部进行处理,从而为拦截和滥用打开方便之门。如果你想让你的助手存在于你的各个设备之间,那么公司很可能会通过云同步,或者更有可能的是,云处理来应对这种情况。最近,亚马逊宣布用户不再被允许阻止 Amazon Echo 设备向亚马逊发送数据,并告诉 Ars Technica “随着 电报数据 们继续通过依赖亚马逊安全云处理能力的生成 AI 功能扩展 Alexa 的功能,我们决定不再支持此功能。”
一旦我们接受人工智能助手需要跨服务和应用广泛访问我们的个人数据,那么我们也必须考虑安全隐患。我们想在此提出三个问题:

在对设备上运行的传感器、数据和应用程序的访问和控制方面,人工智能助手将更类似于操作系统 (OS) 。传统操作系统花费了数十年时间改进安全模型(但仍然严重失败),并且严格定义软件运行范围以避免受到攻击。操作系统提供商终于学会了采取安全第一的方法,他们使用隔离、容器化和运行级别等技术尽可能地隔离服务和应用程序,并防止或限制侧信道攻击和横向移动攻击。另一方面,人工智能助手可能会以数据、访问权限和处理能力的需求为导向,这可能会激励它们绕过这些安全措施。这将需要新的安全模型。这种范式差异使人工智能助手成为攻击者的宝贵目标,攻击者既可以访问人工智能助手积累的数据,也可以渗透到它们可能连接到的第三方服务。
AI 助手的多模态性和外部连接大大增加了攻击面。由于其性质,AI 模型容易受到无数种攻击,因为它们会“自然地”处理输入的数据。越狱的例子有很多,利用多模态性来绕过指令和安全措施。