与ChatGPT分享敏感信息是危险的。云公司正在与硅供应商合作,通过机密计算来确保数据安全,云安全将是AI芯片竞赛中最大的驱动力之一。 亚马逊警告其员工不要与ChatGPT分享敏感信息。同样,早些时候,在与AIM的对话中,Infosys的Gary Bhattacharjee讨论到,与从网络上抓取所有内容的GPT相比,公司有更好的机会通过像HuggingFace的CodeGen这样的模型来保护他们的知识产权,CodeGen是专门针对开源代码进行培训的。 如果我们看看金融、医疗保健、政府和其他高度监管的行业,ChatGPT之类的技术完全行不通。然而,为了增加这些行业的接入,云公司正在与硅供应商合作,通过机密计算(Confidential Computing)来确保数据安全。 最近,OpenAI发布了其chatbot的ChatGPT API,供用户集成到他们的应用程序和产品中。首席执行官Sam Altman说,提交给OpenAI API的数据不会用于训练。 与此同时,NVIDIA的博客表明,他们正在通过Hopper架构GPU,将虚拟机风格的机密计算GPU加速推向市场。Hopper将能够扩展每个数据中心的AI工作负载,从小企业到exascale高性能计算(HPC)和万亿参数AI。 根据Tom's Hardware的最近报告,NVIDIA已经开始发运H100 (Hopper),这是A100的继任者。虽然媒体报道强调了显著的性能改进和更高的AI训练吞吐量,但出问题的是H100对机密计算的集成。对于OpenAI来说,要实现商业雄心,深入数据隐私方面是绝对关键的——尽管成本高昂(运行该模型需要大约30,000个GPU)。Anjuna Security的区域销售副总裁Kishan Patel表示,“与令牌化或应用级加密技术相比,机密计算是解决ChatGPT相关数据安全或隐私挑战的一种更具可扩展性的方式。” Confidential VMs是一种基于硬件的安全解决方案,允许组织保护其最敏感的数据,即使这些数据正在被处理。该技术利用了基于硬件的可信执行环境(TEE),这基本上是一个硬件强制的安全地带,与系统的其余部分完全隔离。 Register解释了其中的两步过程。首先,为了在GPU上实现机密计算,在通过PCIe总线在CPU和GPU之间传输数据之前,使用在NVIDIA的设备驱动程序和GPU之间交换的安全加密密钥对数据进行加密。其次,一旦数据被传输到GPU,就会在GPU包内受硬件保护的隔离环境中被解密,在那里可以被处理以生成模型或推理结果。 这种隔离可确保应用和数据免受各种类型的攻击,这些攻击可能来自固件、操作系统、管理程序、虚拟机,甚至是计算机上的USB端口或PCI Express连接器等物理接口。 NVIDIA不是唯一的玩家——英特尔和AMD也在稳步前进。去年,英特尔推出了Amber项目,旨在为机密计算提供安全基础,特别是在AI模型训练和部署方面。最近,该公司还在其第四代至强处理器中添加了基于相同虚拟机隔离技术的信任域扩展(TDX)。 同样,AMD已经与谷歌云合作,为其Epyc处理器提供额外的安全层。这是因为当时AMD是主流服务器CPU中唯一提供机密计算能力的公司。 芯片公司有更大的动力与微软、谷歌、IBM、甲骨文等云提供商合作,以便能够购买大量的处理器。这些云公司的安全研究人员将能够仔细检查设备实现及其定制测试的每个细节。尤其是这一点,因为独立研究人员在过去已经多次发现英特尔SGX和AMD SEV的几个缺陷。 此外,RISC-V等开源社区也在不断努力,在一个名为Keystone的开源项目中实现机密计算。 然而,尽管上述努力旨在确保CPU级别的安全性,但NVIDIA的Hopper架构为GPU提供了VM风格的机密计算。考虑到英伟达一直在AI上全力以赴,将机密计算引入GPU使其获得了进一步的优势。 根据一项研究,机密计算市场可能在五年内增长26倍,到2026年将达到540亿美元。因此,说云安全将是AI芯片竞赛中最大的驱动因素之一并不为过。 查询进一步信息,请访问英文网站 http://analyticsindiamag.com/how-confidential-computing-is-changing-the-ai-chip-game/。(镨元素)
|