如何防止果照外泄,自己先上传就OK?这是什么奇怪的逻辑?没错,这就是扎克伯格旗下meta给出的最新解决方案。
用户需要先上传照片给AI工具,提取照片的数字指纹,之后这个数字指纹会共享到社交平台,用于检测是否有人分享这些照片。但这里面有个前提条件,就是得先把自己的私密照上传给这个AI工具!
AI检测哈希值,未来大趋势Meta官宣的这项工具,专门是针对报复性私密内容的传播。具体来说,如果你担心自己的果照或不雅视频被人放到网上,那就先自己提前上传到工具上。而Meta宣布支持 StopNCII.org,这正是为了防止在其平台上分享私密照而来的。
事实上,最初版本的工具于 2018 年推出,需要用户通过邮件上传自己的私密照片,由工作人员审核,进行照片的数字指纹提取,用于检测平台上是否存在相似图片。由于是真人审核,所以遭到了很多人的质疑。
终于,全自动审核的AI终于上线了。该工具的工作原理是从用户的私密图像与视频生成哈希值,图像哈希是使用算法为图像分配唯一哈希值的过程,映像的重复副本都具有完全相同的哈希值,因此,它有时被称为"数字指纹"。然后,StopNCII.org与参与公司共享哈希值,以便他们可以帮助检测和删除在线共享的图像。
那么如何从图片中获取哈希值呢?据计算机取证研究专家介绍,"感知哈希算法",它的作用是对每张图片生成一个"指纹"字符串,然后比较不同图片的指纹,结果越接近,说明图片越相似。
理想饱满,现实骨感那么这套AI真的有用吗?对比图片的哈希值真能解决私密照片的问题吗?其实几个月前,苹果为了打击儿童犯罪行为,扫描用户相册使用的也是哈希技术。只要通过对比CSAM(儿童性虐待材料)数据库中已存在的哈希值序列,就可以检测用户手机中是否存在违规照片。
但它只能在广泛流传的文件中奏效,如果想用同样的方法毙掉网上的私密照片,不好意思,服务器上没有你私密照对应的哈希值。很不幸的是,Meta 这次用的就是后面这招,也就是说,虽然后台没有审核人员了,但你依旧需要往服务器上发一张裸照。
这也就意味着,你要么给他们送一份裸照的哈希值,要么就得往服务器上送一份自己的裸照,让他们帮你把哈希值算出来。
Meta 称,该平台是为 "18 岁以上的成年人,他们认为自己的私密照片可能会被分享,或已经被分享,而没有他们的同意。用户上传的私密照片和视频会被标记为 " 数字指纹 ",用于遏制犯罪企图。
而且虽然他们保证自己不会保存照片,但是中间万一被黑客给截了呢?只要联了网,就没有人能保证中间的任何一个步骤,不会被人为的拦截窃取。所以说meta的想法很好,但毕竟是让人自己上传私密照片,操作起来真的不简单啊。
,