滥用行为导致名誉崩塌,Facebook还能洗干净自己吗?
2018-07-20 10:05:06
  • 0
  • 0
  • 0

来源:搜狐科技

文/36氪

编者按:在刚刚过去的一年,社交媒体巨头 Facebook 可以说是经历了最大的挑战,遭到了“帮助假消息传播、操纵美国大选以及加速极端主义”等多项指控。为此,这家社交媒体巨头组建了一个专家团队来应对滥用行为,保护公司声誉,力求在问题出现之前发现问题。对此,安全专家们又有何看法呢?

科技公司一直津津乐道于自己的产品将会带来怎样积极的巨变,像 Facebook 以“赋予人创建社区的权力,让世界联系更加紧密”为使命,Google 则是“将全世界的信息组织起来,使其能被普遍获得和使用”,微软则希望“赋予地球每一人、每一组织做出更大成就的权力”。即便是 Snapchat 这家以“Snap Inc 是一家相机公司”谦逊的形象作为自我介绍语的公司,也不禁自夸道:“我们的产品能够让人们更好地表达自我、活在当下、进一步了解这个世界并且共同享受这其中的乐趣,从而推动人类进步。”

通过以上这些说法,足看见其中的雄心壮志,而这也是科技领域大型企业的常态。但是,却很少见这些企业投入时间或精力去应对这些世界一流的新技术所产生的预料之外的后果。

当然,这其中也有例外。Google 在 2014 年收购总部位于伦敦的人工智能公司 DeepMind 之时,DeepMind 创始人的要求之一就是由 Google 成立一个道德委员会,以确保未来对该技术的任何使用方式与途径都会受到严格道德准则的约束。一年后,埃隆·马斯克带头成立了人工智能研究小组 OpenAI,以“通过最有可能令整个人类受益的方式推进数字智能技术的发展,而不受财务回报的约束”为目标。

但有些时候,一些本意并非是想改变世界性事件发展进程的产品和功能,却可能引发巨大的社会动荡。2017 年,Facebook 决定测试一下将新闻报道放在一个单独的部分,与 News Feed 分开是否会增加用户参与度。在这过程中,Facebook 可能对一些包括Cambodia等在内的发展中民主国家的独立生态媒体系统造成了严重的损害。

但要是拿这与 Facebook 所受到的“可能无意中造成了缅甸罗兴亚少数民族种族清洗”的指责相比可以说就不算什么了。在 Facebook 平台上,我们可以看到各种“假新闻”以及极度拥护各自所属党派的各种社区,这种情况下,如果该国的社会状况不够稳定,无法抵御这种言论和分歧,那就会爆发暴力事件。

现在,Facebook 正努力避免此类事件的再次发生,并且希望能够通过创建“调查行动团队”(IOT)从公司合作商--Cambridge Analytica 用户隐私丑闻一事的负面新闻报道中走出来,旨在防患滥用行为于发生之前。Facebook 商业诚信总监 LyndaTalgo 两周前在接受 Buzzfeed 采访时表示,由广告人员、研究人员以及之前从事过侦查工作的人员组成的一个团队正与公司进行合作“向前看,关注并找出即将发生怎样的事情”。

但其实,即便你不是 Facebook 的内部工作人员,即便你并非身处其位于门洛帕克的办公区内,你也能感受到 Facebook 在不久的将来必须要打一场硬仗。因此,我也组建了自己的“调查运营团队”,团队成员都是那些一直在远远观察这个行业的人,他们也就硅谷当前所出现的问题给出了自己的警示意见。

来自比利时的道德黑客、安全研究员 Inti De Ceukelaire 发现了 Facebook 存在的多个疏忽和漏洞。上个月,他曾披露一款名为 NameTests 的第三方测验应用令 1.2 亿 Facebook 用户面临数据泄露风险,只要用户注册 Nametests.com 网站中的任何一款智力竞赛应用,他们在 Facebook上 的个人数据就会被泄露。他表示这样的问题在 Facebook 网站上其实很常见,虽然 Facebook 急于打击各种不良及滥用行为,但在合作伙伴选择方面似乎太过漫不经心。

Ceukelaire 说道:“整个问题的解决大约用了两个月的时间,而在问题最终解决之前,Facebook 甚至从未阻止过 NameTests 这一应用,哪怕只是短期的停用也没有。但是,当我创建了一款类似的工具之后,几个小时之内就被停用了,之后与我相关的所有域名都被 Facebook 拦截了。”他补充道,同样,这些合作伙伴“也拥有特殊的数据访问权限,能够帮助 Facebook 形成更多的垄断。”

Forrester 的首席分析师 Thomas Husson 认为这其中并不仅仅存在安全问题。他指出,虽然整个行业对于人工智能问题表现出了足够的关注度,但它仍然存在风险。“人工智能的使用和自动化流程的能力将会引发更多的道德问题,像 Facebook 或 Google 等在内的数字平台必须确保自己能够规避有害的偏见和歧视行为的发生。包括面部识别和生物特征识别等在内的人工智能技术将进一步增加消费者对于隐私问题的担忧。”

来自非营利机构 Privacy International 的数据项目负责人 Frederike Kaltheuner 也同样表达了对于面部识别技术的担忧情绪,他提醒道,即便这些公司对于技术所带来的负面结果有所担忧,他们也往往会不当回事。“系统能够反映出数据和社会中所存在的偏见,无处不在的面部识别技术将导致大规模的街道级别监控行为,而这对于那些本来就要面对各种日常歧视的人来说会造成很大的伤害。对于在闭路电视摄像机内部署大规模面部识别系统的行为,社会各群体必须继续采取行动,与之抗争。”

Kaltheuner 认为,这个由于太过麻烦所以大家都不愿去解决的问题其实出在该行业的商业模式身上。“问题就在于数据利用本身成为了一种商业模式。要注意,我所说的并不是产品和服务需要数据来发挥作用这一事实,问题在于他们打着产品和服务的名义来进行数据挖掘。”

然而,该行业面临的最大的一个风险可能就是让 Facebook 当下不得不进行反省的那个问题:信任。De Ceukelaire 指出:“如果一家企业未能保护数百万数据的数据隐私,那你就无法信任他们的公关团队。我们现在正在朝着正确的方向前进,但我们的整体步调已经落后了。我们需要更快地行动起来、采取更透明的保护措施、省去那些冠冕堂皇的废话。这不仅仅适用于 Facebook,也适用于该行业的每一家大型科技公司。”

Forrester 首席分析师 Husson 同样表达了这一观点,只是言辞相对平和一些。他说道:“Facebook 和Google 都是连接消费者和品牌的数字平台,能否得到客户的信任是决定他们未来命运的关键所在。他们在这方面所面临的挑战将会变得日益严峻,这不仅仅是因为像《通用数据保护条例》(GDPR)这样更为复杂的法律条例不断涌现,而且也是因为消费者会越来越多地要求品牌依照价值观来行事。”

对于 Facebook 和 Google 来说,信任是一个尤其重要的资源,因为他们与真实客户—占其收入绝大部分的广告客户之间的关系同样缺乏信任。Facebook 不得不一再由于报告给广告商的指标存在过度夸大的问题而一再道歉,Google 旗下的 YouTube 也由于品牌安全问题(例如,臭名昭著的将客户付费广告投放到极端组织相关内容频道之中)受到广告商的攻击。Husson 指出:“毫无疑问,亚马逊在这方面做的比 Google 和 Facebook 都要好。”

成立一个调查团队显然是赢回信任的一个好方法,但也许是会引起别人猜疑的一个好方法。隐私维权者Aral Balkan 就表示根本不相信 Facebook 目前正在推行的“损失控制和公关行动”。他说道:“这就像是一个人类养殖场,之前曾因对待牲畜的方式而受到公开羞辱,现在正通过内部审计方式来规避未来的公关灾难性事件。”当被问到如果他发现自己也身处类似的团队会怎么做时,Balkan 表示:“首先我绝对不会让自己身处这样的一个团队,因为我根本无意帮助这些监控资本家去改善他们的公共关系。我只是想确保他们的滥用行为得到有效的监管,并帮助他们找到符合道德要求的替代解决方案。”

对于 IOT 团队,我们真正的衡量标准并不在于他们能否发现问题,而是在于他们在直接耕地可能是最有利可图的行动方案这一前提下,能否依然改变公司计划来避开那些雷区。如果 IOT 能够很好地完成他们的工作,那以后我们应该就不会再听到这个名字了。对于 Facebook 来说,这可能是最好的结果。

原文链接:https://www.theguardian.com/technology/2018/jul/07/facebook-notes-from-a-scandal-investigative-operations-team-iot-rohingya-myanmar-cambodia-press

 
最新文章
相关阅读