• Facebook的自杀预防算法引发了道德问题

    2019-04-12 15:30:18

    Facebook的自杀预防算法引发了道德问题 Facebook' s自杀预防算法提出了道德问题健康与安全WellbeingRich Haridy 2019年2月12日.Facebook报道3,500个自我伤害案件已被其算法标记,并导致地

      Facebook的自杀预防算法引发了道德问题

      Facebook' s自杀预防算法提出了道德问题健康与安全WellbeingRich Haridy 2019年2月12日.Facebook报道3,500个自我伤害案件已被其算法标记,并导致地方当局被要求进行干预(图片来源:karkozphoto /)在发表于“内科医学年刊”的新评论中,两名研究人员质疑Facebook的自杀预防系统的道德和透明度。据报道,该算法标记了被认为具有自我伤害风险的用户,激活了公司通知地方当局进行干预的过程。

      早在2017年,Facebook开始测试机器学习算法,该算法旨在跟踪用户在平台上的活动,如果它识别出即将发生自我伤害的风险,则标记该人。一旦被标记,该案例将转移到人类团队评估,如果被认为是紧急Facebook联系地方当局进行干预。

      到2018年底,Facebook称该实验取得了巨大的成功,并将其部署在世界各地的许多国家 - 但不是在欧洲,新的GDPR规则认为这是违反隐私的行为。一年后,该公司报告了约3,500起案件,其中已通知紧急服务可能存在自我伤害风险。这3,500例病例的具体细节尚不清楚。这些比例中有多少导致Facebook实际上阻止致命的自我伤害案件?

      “纽约时报”最近的一份报告,审查了通过Facebook的算法煽动案件的四个特定警方报告,表明该系统远未成功。研究的四个案例中有一个实际上导致Facebook帮助警察识别个人直播的位置另外两起案件来得太晚了,第四起案件完全不正确,警察到达一名声称没有自杀意图的妇女的家门口。警方,不相信这名妇女她的陈述,要求她来当地医院进行心理健康评估。

      开发该算法的Facebook团队的工程师之一Dan Muriello表示,该系统并不意味着Facebook正在进行任何类型的健康诊断,而是只是将有需要的人与相关帮助联系起来。“我们不是医生,我们“不想做出心理健康诊断,”Muriello说,“我们正试图尽快向正确的人们提供信息。

       ”

      宾夕法尼亚大学的研究员Ian Barnett和哈佛医学院的精神病学家John Torous最近写了一篇评论,建议Facebook的自杀预防工具构成医学研究的等同物,并且应该受到相同的影响。道德要求和流程透明度。

      作者引用了Facebook关于自杀预防工作的各种担忧,包括用户对现实世界干预缺乏知情同意,以及该系统在没有明确保护的情况下针对弱势群体的可能性。支持所有这些是严重缺乏透明度。普通公众和医学界都不知道这个系统是多么成功,或者警察是否会因为不知情的公民而产生社会危害.Facebook声称它甚至无法跟踪调用的结果。由于隐私问题,紧急服务,甚至在这里发生什么?

      “考虑到Facebook在确定一个人是否有自杀风险时积累的个人医疗和心理健康信息量,通过呼叫紧急服务激活的公共卫生系统,以及如果系统确实有效,则需要确保平等访问和功效正如所希望的那样,这个范围似乎比公共交易公司更适合公共卫生部门,公司的任务是向股东回报价值,“他们在评论中总结道。 “当谷歌提供基于搜索历史的这种服务,亚马逊的购买历史和微软的浏览历史时,会发生什么?”