抖音集团数据与隐私法务团队联合清华大学数据治理研究中心共同发布《隐私计算法律适用规则报告》(下称《报告》),其中提出,“隐私保护计算技术”与数据保护法律的适配为程序化广告等行业的个人信息保护提供了解决方案。
许多互联网用户有过类似感知:刚从某购物平台浏览过一款商品,再打开另一个资讯类APP时,也刷到了同类商品的广告。这种情况不免引起用户疑虑。其实,这与平台个性化广告的推荐技术相关,购物平台根据用户在其APP内的间接画像,向其他媒体进行智能投放。在此过程中,如果有了隐私保护计算技术提供保障,平台间可以实现仅进行技术对接,而不会获取彼此的用户个人信息数据。
据悉,此类个性化广告推荐已成为程序化广告的一种模式,广告主可以程序化采购媒体资源,并利用技术手段匹配精准的受众人群。
针对大众的疑虑,在日前举办的“构建规范互信数据环境的技术实践及法律适用”研讨会上,中国广告协会副秘书长霍焰分析指出,以往每一次重大的技术进步都会伴随着类似的担忧出现,“这与信息不对称,特别是消费者对于平台个性化广告运营模式、机制和背后的技术原理不熟悉的原因有关”。
谈到“联邦学习”技术在数字广告场景中的运用时,抖音集团数据及隐私法务部副总监高震表示,该技术作为隐私保护计算核心技术之一,可以确保在原始数据不出库的前提下,兼顾个人信息的保护和商业价值的实现。”当广告主、广告投放平台分别在各自环境内部署联邦学习系统,各方输入的数据只在输入方本地的联邦学习系统中计算,两方的系统之间只会传输经过PSI求交后的ID密文、加密的浮点向量或梯度等数据,而用户特征、标签等原始数据均只在本地平台中,从而避免了原始数据的流动。”