你跟Siri的对话,不光会被录下来,还会被外包公司监听分析。
这就是今日曝出的苹果隐私大新闻。
据《卫报》得到的苹果外包公司员工爆料,这些包含Siri被误唤醒时的内容,都将被一一记录分析。
录下来的内容包括病人和医生私下沟通的病情、商业机密、毒品等非法交易,甚至可能还有和爱人“嘿嘿嘿”的录音。
而且,这些录音除了声音之外,还附带了用户数据,包括录音发生的位置、联系方式和app应用数据,这些用户数据本来是用来验证你对Siri下的命令有没有被成功执行的。
虽然各种苹果设备里可能都有Siri,但最容易被窃听的是智能音箱HomePod,以及Apple Watch,毕竟手表容易被误触。
随身携带的电子设备,可能记下你说的话、所处的地理位置,以及各种app使用记录,那恐怕对于苹果公司而言,你已经没有什么秘密了。
外包们听到了你的小秘密
收集到之后,这些数据就会被苹果发送到全球各地的外包公司,外包公司靠这些录音来评估Siri的服务质量。
因此,外包公司的人类员工们可以听到各种苹果用户的隐私。
“你肯定能听到医生和病人讨论病史,有时候你还能听到在汽车引擎的轰鸣声里有人似乎在讨论毒品交易,甚至你还会听到有人嘿嘿嘿的时候刚好就被录了音。”爆料的外包公司员工这样说。
当然,传到外包公司的数据里,有一些是用户的正常唤醒,有一些是Siri意外被唤醒。外包公司的领导们让听录音的员工把意外唤醒报告出来,但只是当成一个bug来汇报。如果员工听到类似犯罪、个人隐私等敏感的声音,他们是没有流程来处理这些数据的。
“我们一直被催着干活,尽快完成这些工作,唯一需要汇报的内容是你在哪里听出了技术问题,完全不需要汇报录音内容本身记录了什么。”
听别人的隐私信息,对外包公司员工来说也是十分尴尬的事情。
更严重的是,爆料的员工意识到,外包公司没有什么像样的审核制度,所有人都能轻轻松松接触到大量的数据。而且,想要分辨出录音中的说话人并不是一件困难的事,尤其是Siri意外被唤醒的时候,说话人的地址、名字这些信息都能拿到。
一旦这些外包公司中有人心怀不轨,查明录音主角后,借此作恶并非难事。
苹果诚实吗?
那么,苹果这种把包含误唤醒的录音拿给外包真人听的行为,到底合不合规范?
如果询问Siri:“你是不是一直在听?”Siri会回答:“我只在你跟我说话的时候听。”忽视了意外唤醒的可能。
在隐私文档中,苹果明确说了Siri的数据与用户使用其他苹果应用的数据无关,不会连接到其他应用数据上去,也不会和Apple ID联系起来。
并且Siri的官方网站也说明,Siri会在本地进行离线学习,个人信息也不会被买个广告商等组织,“而端到端隐私加密,确保了他人无法获取你设备之间同步的信息,就连 Apple 也不例外。”
重点来了,苹果的隐私网站上也写着:
在获得你明确同意的前提下,Apple 可通过分析你的 iCloud 使用情况和从你账户收集的数据,进一步改进 Siri 及其他智能功能。我们只会对已经过隐私保护强化技术处理的数据进行分析,这样可确保它们无法关联到你本人或者你的账户。
也就是说,进行分析的数据都是“经过隐私保护强化”的,不应当轻易地被人分辨出事主是谁。
至于拿到数据后分析的过程,苹果没有明确说过是真人在分析,还是机器在分析。
但是,就在今年的CES上,苹果还曾经为保护用户隐私打出宣言:“在iPhone里发生的,就只会留在iPhone上。”
这就尴尬了,很难说,苹果的隐私承诺里是否有猫腻。
针对《卫报》这篇报道,苹果也做出了回应:
Siri的一小部分请求被拿来做分析,以改善Siri的能力。用户的指令和他们的Apple ID无关。Siri的响应在安全设施中分析,所有审核人员都有义务遵守苹果严格的保密要求。只有不到每日Siri响应的1%被用于评估,而且这些录音通常只有几秒钟。
这样看来,借助外包公司雇佣真人听Siri的录音,苹果官方是承认的了。
翻车的不只苹果
让人类听智能助手的录音,苹果不是第一个翻车的。
今年4月,亚马逊就被爆出人工智能语音助手Alexa和用户的沟通都被录下来,亚马逊的员工会听到这些录音,借此来开发新的服务。
另外不久前,Google Assistant也被比利时公共广播公司VRT爆料说,有外包团队负责听智能助手的录音。而且虽然谷歌说只有0.2%的录音会被送去外包公司,但VRT发现,实际上录音没有脱敏,完全可以通过讨论的内容辨别出包括用户的地址、亲友姓名、感情生活之类的隐私信息。
对训练AI来说,标注数据集是逃不开的需要,但如果涉及用户隐私,则总会令人闻之色变。
AI助手厂商们,该行动起来了。
“