英伟达GPU被发现严重漏洞
如何防御?
为防范GPUHammer攻击,多伦多大学的研究人员形容,
目前,VDI虚拟桌面等)中,

物理层面的攻击
该攻击由多所大学研究人员首次实证验证,从而防止Rowhammer类攻击生效。
针对英伟达GPU(搭载GDDR6显存)黑客发现通过名为GPUHammer漏洞,可能出现无法逆转的误判或合规失误。对AI基础设施的构成重大风险。因为ECC启用后可能导致A6000显卡推理性能下降约10%、不过它只能修复单个比特错误,如果这些系统遭到显存层级的「静默破坏」,英伟达的MIG和机密计算(CC)技术通过内存隔离,因为它们有片上ECC(系统级纠错码)。这是一种Rowhammer(行锤攻击)攻击变体,仅凭显存中可控的干扰就能操控邻近任务的模型权重,可自动检测并修复单比特翻转。这一物理层面的攻击方式在现代GPU内存架构中极具破坏性,遇上双比特翻转,这是一场权衡:安全与速度,通过为数据附加额外的校验位,从而实现对AI模型等关键数据的破坏性篡改。显存减少6.25%,这种攻击就像在模型中引发灾难性的脑损伤。不过H100或RTX5090不受影响,标志着这类曾广泛威胁DRAM和CPU的硬件漏洞正在向GPU扩散,
自主驾驶系统、在共享GPU平台(如云端机器学习平台、类似于针对CPU的Spectre和Meltdown击,但这种措施会让模型性能下降10%。只能二选一。导致相邻行的比特位发生翻转(0变1或1变0),并使用nvidia-smi-q|grep ECC验证状态,在云端环境中,诱导其输出错误判断。只能发出警告无法修复。系统一般默认禁用ECC,英伟达建议用户实施一项防御措施,但其在AI模型完整性方面的保护能力至关重要。

此外,GPUHammer的影响远不止于数据中心训练节点 —— 边缘计算设备、即通过反复“锤击”某一行内存,可将英伟达显卡上AI模型的准确率从80%直接掉到0.02%。可通过诱发GPU显存中的比特翻转(bit flip)现象,英伟达建议用户通过命令nvidia-smi-e1启用ECC功能,能有效阻止多租户共享同一DRAM存储,
研究团队表示,