8月23日上午消息,近期普林斯顿大学的两位学者表示,他们认为苹果公司儿童性虐待照片(简称CSAM)筛查系统具有一定危险性,因为他们曾构建过一个类似的系统。此前,苹果公司出于保护儿童免受色情内容侵袭,宣布推出三项保护政策。包括:机器筛查Messages信息,当孩子收到色情图片时,图片会变得模糊,并且Messages应用程序会显示一条警告;儿童性虐待内容(简称CSAM)检测,该功能让苹果检测存储在iCloud云端照片中的这类图像特征信息,如果确定有此类图像,苹果会向执法部门报告;Siri和搜索功能改进,人们可询问Siri如何报告儿童性虐待内容或性剥削,Siri将告诉用户在哪可以汇报给有关部门。普林斯顿大学这两位学者说,他们曾经的一个项目工作原理与Apple的方法完全相同,但他们很快发现了明显的问题。助理教授JonathanMayer和研究生研究员AnunayKulshrestha在《华盛顿邮报》的报道中提到,他们与苹果有着同样的善意目标:“我们的研究项目始于两年前,作为一个实验系统,用于识别端到端加密在线服务中的CSAM。作为安全研究人员,我们知道端到端加密的意义,它可以保护数据免受第三方访问。但我们也对CSAM在加密平台上激增感到震惊。而且我们担心,在线服务不愿意在没有额外工具来对抗CSAM的情况下加密。我们试图探索一种可能的中间立场,即在线服务可以识别有害内容,同时保留端到端加密。这个概念很简单:如果有人分享了与已知有害内容数据库相匹配的内容,该服务就会收到警报。如果一个人分享了无关的内容,该系统就不会筛查到。人们无法阅读数据库或了解内容是否匹配,因为这些信息可以揭示执法方法并帮助犯罪分子逃避检测。”在停止项目之前,他们已经做出一个工作原型:经过多次错误的启动,我们构建了一个工作原型。但是我们遇到了一个明显的问题。我们的系统可以很容易地重新用于监视和审查。筛查设计不限于特定类别的内容。例如,外国政府可以强制要求提供服务,将那些分享不受欢迎的政治言论的人找出来。两人表示,他们对苹果公司决定推出这项服务感到困惑,因为目前未能妥善解决他们提出的风险:和我们一样,Apple的动机是保护儿童。它的系统在技术上比我们的更高效、更有能力。但是我们很发现,对于我们提出的难题,Apple几乎没有答案。这也是苹果这些动作引发争议的原因:虽然他们表示不会允许这种滥用,但政府可以依法强制公司这样做。
亚汇网实时消息,北京时间20日凌晨,美股周四收高,科技股领涨。市场正权衡疫苗进展与欧美疫情形势恶化的影响。美联储官员呼吁采取财政刺激措施支持经济。美...
美银证券发研报指,英国反垄断机构竞争与市场部门(CMA)放宽水务项目价格规管,同意准许回报率提升至5.08%,包括长建(1038.HK)旗下NW,回报高于去年英国水资源监管机构的规定。...
9月25日,首届北京国际游戏创新大会(BIGC)在北京举行。开幕式当天,主办方协同伽马数据共同发布了《2020中国游戏创新及发展趋势报告》(以下简称《报告》),对中国游戏整体市...
上市仅半年的伟源控股9月25日午后跳水,暴跌逾90%,单日蒸发逾40亿港元。截至当日收盘,股价报0.236港元,创上市以来新低,跌幅94.11%,总市值2.5亿港元,单日抹去上市以来累计涨幅。...
公司是中国主要专业从事陶瓷电容器研发、生产、销售和技术支持的企业.公司依托二十余年的专业经验拥有多项具有知识产权的核心技术是国家高新技术企业福建省"十一五"规划电子元器件发展支柱企业福建省第二批创新型...
本文“普林斯顿大学学者称苹果 CSAM 筛查系统存隐患,因为他们做过类似项目”由FX112财经网
首发,欢迎转载,转载请带上本文链接。
免责声明:FX112财经网(https://www.942fx.com)发布的所有信息,并不代表本站赞同其观 点和对其真实性负责,投资者据此操作,风险请自担。部分内容文章及图 片来自互联网或自媒体,版权归属于原作者,不保证该信息(包括但不限 于文字、图片、图表及数据)的准确性、真实性、完整性、有效性、及时 性、原创性等,如无意侵犯媒体或个人知识产权,请联系我们或致函告之 ,本站将在第一时间处理。关注FX112财经网,获取最优质的财经报道!