登录
首页 > 媒体学习 > ICLR 2026 | PIL:基于线性代理的不可学习样本生成方法

ICLR 2026 | PIL:基于线性代理的不可学习样本生成方法

发布时间:2026-02-24 20:41:39

不可学习样本(Unlearnable Examples)是一类用于数据保护的技术,其核心思想是在原始数据中注入人类难以察觉的微小扰动,使得未经授权的第三方在使用这些数据训练模型时,模型的泛化性能显著下降,甚至接近随机猜测,从而达到阻止数据被滥用的目的。

例如,对于摄影师公开发布的作品或用户分享的个人照片,在添加扰动后,图像在视觉上几乎不发生变化;但若这些数据被用于训练图像分类模型,其测试准确率可能会从 90% 降至 10% 左右。

随着深度模型对大规模数据依赖程度的不断提升,不可学习样本逐渐成为数据隐私与模型安全领域的重要研究方向。然而,现有方法在实际应用中仍面临显著的效率瓶颈。

Copyright 2013-2025 今日媒体网 版权所有  京ICP备13154207号-1