大模型热下的冷思考:谁来保护AI的脑子和饲料? 现在的AI圈,大家都在拼算力、拼参数、拼谁家的模型更智能。但有一个话题越来越烫手:AI本身的安全。 你想啊,一个企业内部GPT要想用得好,得拿销售数据、客户资料去喂它、去微调它。可这些核心数据一旦被拿去训练,怎么保证不被模型记住然后泄露出去?还有,你部署在云上的模型文件本身,会不会被偷走? 这就是海光和天翼云这次合作里提到的一个新价值点:为AI模型与数据提供硬件级加密保护。我特意关注了一下,这其实是在解决AI生命周期的两个核心环节。 第一,训练时的数据安全。机密计算云主机可以让AI训练在加密的内存里进行,数据始终以密文形态存在,连云平台都不知道你拿什么在训练模型。这就防止了数据在预处理和训练过程中被侧信道攻击或者内部人员泄露。 第二,推理时的模型保护。训练好的模型是一个资产,部署后放在那里,容易被逆向或窃取。但在海光CSV构建的可信环境里,模型在运行时是加密的,内存里的参数别人读不走。这就好比给AI的脑子也上了一把锁。 前段时间大家热议“StackWarp”漏洞,让很多人意识到虚拟机的安全是多么脆弱 。在这种背景下,大模型这种高价值资产,确实需要海光这种能对“使用中数据”提供保护的硬件技术。否则,AI越智能,泄露的风险可能越大。 安全漏洞 大模型训练
