如何用AI防盗抓小偷?

  高科技防盗软件在带来便利的同时,也引发道德争议。图片来源:cnn

  欧洲负责数字经济的最高官员玛丽亚-加布里尔。图片来源:new europe.

  防盗软件在全球日趋流行。  图片来源:yellrobot.com

  日本一家公司生产出一种人工智能防盗软件,用以监控购物者的肢体语言、服装等等信息,寻找小偷计划行窃的迹象。但这种防盗技术也引发了道德争议。

  用软件监控购物者表情动作

  最近,一家日本初创公司格外引人注目。因为这家名为Vaak的公司表示,其人工智能软件Vaakeye可以解决商店的防盗问题。

  这家初创公司Vaak位于日本东京,该公司创办人Ryo Tanaka说,他们的人工智能软件Vaakeye与类似产品的不同之处,在于该产品的工作方式不仅与犯罪记录挂钩,而且还可以用来预测犯罪行为。

  Tanaka披露,Vaakeye已经接受了10万小时的录像培训,他的团队向Vaakeye提供如此长时间的监控数据,就是训练它监控购物者,以便发出防盗预警。

  Vaakeye软件使行窃损失下降77%

  Vaakeye软件是Vaak公司的第一款产品,于今年3月推出,它采用订阅制方式收费,每个摄像头价格为162美元(约合人民币1100元),它可以持续监控检测购物者的可疑行为,并立即通知商店员工。

  自从推出以来,Vaakeye软件颇受欢迎,已经在日本各地的50家商店发挥作用。

  它的工作原理是,利用摄像头监控店内购物者的行为,分析购物者的表情、动作、着装,乃至商店所在地区的犯罪率或当下天气条件等宏观数据,对100多种不同因素做研究判断,实时监测任何可疑迹象并提醒商店员工,员工可以立即查看监控,判断是否出现盗窃行为。

  Vaak公司声称,Vaakeye软件在商店测试期间,其运作判断的准确率高达81%,商店的行窃损失因此下降了77%,大大减少了商店因被盗而产生的零售成本。

  入店行窃是全世界商家面对的一个大难题,仅在美国,零售商每年就要为此损失数十亿美元。全球市场调查数据显示,2017年全世界因入店盗窃而蒙受的损失高达340亿美元。

  目前,Vaak公司正在东京地区的几十家商店进行测试,并计划未来三年内在日本各地的10万家商店安装该软件。

  高科技防盗软件引发道德争议

  但是,“针无两头利”,运用人工智能来捕捉窃贼,也引发了各种各样的道德伦理问题。

  “虽然使用Vaakeye目的是为了防止盗窃,但这样做是否合法,是否合乎道德?为了防止某人行窃,就应该让这种防盗软件进入商店?”欧洲商情市场调研公司Euromonitor的零售分析师Michelle Grant说。

  Vaak公司的创办人Ryo Tanaka表示,是否存在道德问题,不应该是软件开发人员要解决的事情。他说:“我们只是提供可疑的、被检测到的图像信息。我们并不确定谁是罪犯,只有商店才有权确定谁是罪犯。”

  但正是这一点引发人们的关注。在英国,一些热心人士正发起一项运动,反对通过人工智能系统甄别盗窃行为。因为无独有偶,英国科技初创企业Third Eye也推出了类似的系统软件。

  Third Eye公司业务发展经理Vera Merkatz表示,全球大部分的零售商店都装有监控摄像头,早就有了监控盗窃软件的存在环境。

  但反对者汉娜·库奇曼表示:“购物场所是私家公司所在地,在这些地方,不应该使用监控盗窃软件,来发挥类似于警察的作用。”

  运用人工智能会助长歧视?

  反对者还担心人工智能的运用会助长歧视现象。美国麻省理工学院和斯坦福大学2018年的一项研究发现,各种运用于商业机构的人脸识别系统,有可能会表现出种族主义和性别歧视倾向。例如,亚马逊公司就因其基于人工智能的面部识别系统存在偏见而受到立法者的抨击。

  对此说法,Vaak公司的创办人Ryo Tanaka解释说,由于Vaakeye软件是基于顾客的行为而不是种族或性别做判断,所以不应该有问题。即使有问题,也应该通过更好的技术手段来解决。

  Tanaka说:“依靠算法的技术——尤其是运用于人类行为方面的科技——歧视的可能性总是存在的……人类必须教算法如何处理歧视问题。”

  但库奇曼对此说法仍然持怀疑态度。

  信息透明度问题与处理

  此外,还有个人信息透明度问题。库奇曼说:“人们知道发生了什么吗?他们同意这样做了吗?数据究竟会发生什么变化?应该如何保护个人信息?个人信息能被共享吗?”

  有人表示,消费者可能愿意为了方便而牺牲一些个人隐私,比如使用人脸识别作为支付认证。但是,消费者有知情权,应该让他们知道商店正在使用的技术,并且征得他们同意,商店才可以使用这种监控盗窃软件。

  对此做法,Vaak公司的创办人Ryo Tanaka没有异议:“在顾客进入商店前,应发出通知,以便他们可以选择退出。”

  Tanaka说:“政府应该制定规则,让商店披露相关信息——在哪里安装监控软件、分析什么内容、如何使用这些软件、使用多久,等等。”

  英国著名的律师事务所Field Fisher有专门研究人工智能相关法律的专家,克里斯托弗·伊斯特森(Christopher Eastham)就是其中之一。他表示,在人工智能监管技术方面,相关的法律目前还没有到位。

  伊斯特森指出,从法律层面看,实施监控软件需要有明确立法,也需要有监管机构的指导,由立法和监控机关确定在何种情况下可以使用这种技术,这是社会公共政策的一个重要方面。

  个人信息保密问题令人担心

  除了道德争议,还有一个“道高一尺魔高一丈”的问题。就是说,尽管Vaak等公司已表示,未来还要将他们的技术用于不同场合,包括车站、机场、学校道路等,检测市民是否具有可疑举止或存在自杀的行为。但与此同时,被监测到的个人信息数据是否安全,能否避免被黑客利用,也成为了人们担心的问题。

  因此,日本Vaak公司和英国Third Eye公司的客户,都纷纷要求供货方不要透露自己已使用了这种监控防盗软件系统。

  欧洲立法规避科技危机

  目前,欧洲已陆续颁布人工智能规则,希望在人工智能技术深入社会之前,把控人工智能的发展,克服监管机构被迫追赶新兴技术的被动模式,避免科技危机出现。

  早在去年,欧盟就推出了一项具有里程碑意义的数据隐私法。今年4月8日,欧盟又公布了正式版的人工智能道德准则《可信赖A I的伦理准则》,提出了相应的法律框架。

  欧盟制定了四项伦理准则、七项指导人工智能发展的原则。四项伦理准则是:尊重人的自主性、预防伤害、公平性和可解释性。

  在七项原则中,透明度和反歧视是两大主要原则。欧洲负责数字经济的最高官员玛丽亚-加布里尔表示,使用人工智能系统的公司应该增强技术的透明度。

  加布里尔说:“当公众接触的是一种算法而不是某个人时,公众需要被告知……算法做出的任何决定都必须经过验证和解释。”

  避免歧视也必不可少。加布里尔指出,科技公司需要确保他们的人工智能系统是公平的。她举例说,某公司在招聘过程中使用一种算法,如果其数据来自一家只聘用男性的公司,那么这种算法可能会拒绝女性候选人。加布里尔说:“如果你的输入数据有偏差,那就真的是个问题。”

  虽然欧盟的上述准则不具约束力,但它们可以成为基础,有利于今后几年人们对人工智能的发展采取进一步行动。

  本版供稿:滢