
8 月 14 日消息,据科技媒体 AppleInsider 8 月 13 日发布的博文,苹果近日公开了其 2025 年隐私保护机器学习(PPML)研讨会的演讲录播与研究成果,重点聚焦于 AI 处理中用户数据的安全机制。
在为期两天的研讨会活动中,来自苹果、微软、谷歌 DeepMind 等科技巨头的专家,以及各大学府的学者汇聚一堂,围绕隐私与 AI 的交叉挑战展开了深入探讨。
本次活动设置了私有学习与统计、攻击与安全、差分隐私理论基础、大模型与隐私四大议题,旨在推动 “在保护隐私的同时促进创新” 的技术发展。
会议上多项研究聚焦于用户直接防护机制。其中,谷歌的 AirGapAgent 提出通过限制数据访问来防止对话代理信息泄露,能有效抵御 “单次查询上下文劫持攻击”。实验数据显示,此类攻击可使 Gemini Ultra 的数据保护率从 94% 骤降至 45%,但部署 AirGapAgent 后,仍可维持 97% 的高防护水平。
在技术实现层面,苹果介绍了名为 Wally 的可扩展私有搜索系统,该系统支持高效的语义与关键词查询。传统方案因对每条数据库记录执行高开销加密操作而难以扩展,而 Wally 通过优化架构实现了更高的吞吐量。
此外,其他论文还涵盖了差分隐私的理论改进,如 “用于差分隐私全对距离近似的广义二叉树机制” 和 “近乎紧致的黑盒审计方法”,以及 “大象不忘” 机制,用于解决状态连续性下的隐私预算管理问题。这些研究成果均体现了在 AI 发展过程中,对用户数据隐私保护的持续关注与探索。
免责声明:本文仅代表作者个人观点,与朝闻天下无关。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。
本网站有部分内容均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责,若因作品内容、知识产权、版权和其他问题,请及时提供相关证明等材料并与我们联系,本网站将在规定时间内给予删除等相关处理.