父亲上传病儿裸照以配合医生远程问诊,被Google AI误判性虐,惨遭警方调查+账号被封!

父亲上传病儿裸照以配合医生远程问诊,被谷歌 AI误判性虐,惨遭警方调查+账号被封!

一名爸爸为儿子拍下裸体照片以配合医生远程问诊,随后照片被谷歌 AI认定为儿童性虐待与剥削内容,事主帐户惨遭停用,损失大量电子资料!

根据美国纽约的消息,一名来自美国三藩市化名为 Mark 的男子,于 2021 年 2 月因为儿子的生殖器出现感染,于是拍下照片发送给医生。由于是在疫情爆发期间,诊症都改以网上形式进行,护士要求孩子的家长透过 谷歌 云端服务,先行将照片上传给医生。

父亲上传病儿裸照以配合医生远程问诊,被Google AI误判性虐,惨遭警方调查+账号被封!

岂料,谷歌不仅将 Mark 上传的照片认定为儿童性虐待内容(CSAM),更成为了警方调查的目标,最后对他展开了性虐儿童的调查。虽然Mark儿子的身体不适很快就得到治疗,不过他的 谷歌 帐号则因为“有害内容”而遭到冻结。

据了解, 谷歌 在去年检举超过 60 万宗 CSAM 个案,并冻结逾 27 万用户帐号。谷歌 利用人工智能扫描照片,一旦有发现就要按法例要求通报有关机构。一般情况下,当人工智能将相片标记为 CSAM 后,管理人员应该会覆核照片是否符合 CSAM 的原则。

父亲上传病儿裸照以配合医生远程问诊,被Google AI误判性虐,惨遭警方调查+账号被封!

事后尽管Mark 很快就向 谷歌 上诉,但他已经无法使用电邮、联络人、文件和电话合约,三藩市警方也开始就事件展开调查。事件扰攘了数个月,警方认为 Mark 没有犯罪,他被告知有关当局详细检查了他的互联网搜寻记录、位置历史、信息、所有在云端储存的相片和视频,而 Mark 始终未能取回他的 谷歌 帐号

有法律学者直言在最坏的情况下,父母甚至会因此失去孩子的抚养权。

(0)
打赏 微信扫一扫 微信扫一扫

相关推荐

发表评论

登录后才能评论