当前位置:大奖娱乐APP|大奖 > 社会科学 >

上海交大教授回应看脸识罪犯质疑—新闻—科学

发布时间:2017-12-04 阅读:

  上海交通大学教授回应面对罪犯质疑 - 新闻 - 科学网

  通过机器学习,分类器可以更加可靠地区分两类犯罪分子和非犯罪分子。平均而言,犯罪分子的内c角比普通人短5.6%,上唇弯曲率23.4%,鼻角小19.6%。去年11月份在一家印前网站arXiv上传的一篇论文的研究成果引起了学术界和民意界的一片哗然。

  \\ u0026

  许多人害怕和怀疑。这是人工智能时代的“少数派报告”的预测吗?菲利普·迪克(Phillip Dick)的短篇小说“少数派报告”(The Minority Report)描述了2054年的华盛顿特区,司法部的三位先知预言犯罪意图在犯罪发生前逮捕并定罪犯罪分子。

  \\ u0026

  上海交通大学图像传播与网络工程研究所教授吴小林在过去六个月里受到了无数的质疑和批评。最近,他遇到了三位美国学者,以写长字的形式把这个词悄然传开。

  \\ u0026

  当地时间5月6日,名为“相识的新衣”的绰号在新媒体网站“媒体”上发布。2013年,三位着名机器学习工程师Blaise Agra和Arcas从微软转向谷歌;玛格丽特·米切尔也是Google的人工智能研究员; Alexander Todorov是普林斯顿大学神经科学教授。

  \\ u0026

  三位美国学者在六个月的时间里评论道:随着人工智能和机器学习的飞速发展,我们迎来了一个科学种族主义的新时代。不能以面部特征为基础的深度学习作为加速司法公正的工具。如果是这样的话,只会让不公平存在。这样路的尽头。

  \\ u0026

  纳粹种族科学家正在做脸部测量。

  \\ u0026

  5月9日,吴晓林回应了这个滔滔不绝的新闻(www.thepaper.cn),这三位美国作者,无视我们原文中的重复陈述,对社会科学没有兴趣或学术背景来解释我们的结果,原因。没有暗示执法应该使用。他们把这些意义强加给我们。

  \\ u0026

  在价值观上我们与作者没有区别,它们扭曲了我们的初衷,为我们自己找到了一个想象的敌人。吴小林强调。

  \\ u0026

  面对面的罪犯研究是没有可行的

  \\ u0026

  这篇有争议的文章题为“使用人脸图像犯罪的自动推论”。在实验中,吴晓林及其博士生张曦拍摄了1856张中国成年男子的面部照片,其中730张为犯罪身份证照片(330人通过网络逮捕,400人通过派出所提供的不披露协议签名),其余1,126张普通人在互联网上的照片。机器学习后,该算法确定了嫌疑人的准确率为87%。

  \\ u0026

  \\ u0026

  吴晓林摄影样本的使用研究。 A组是一个犯罪组,B组是非犯罪组。

  \\ u0026

  在文章的引言部分,吴小林和张曦声明:在这篇文章中,我们没有讨论社会偏见的想法和资格。我们只是对完全自动化的犯罪推定的准确性感到好奇。起初,我们的直觉是机器学习和计算机视觉将推翻表面,但结果却恰恰相反。

  \\ u0026

  本文的87%的准确性只在学术水平上显着相关。一方面,这并不能解释任何因果关系,即外观是否决定了自然的犯罪性质,或者说人类社会的歧视性外观是否有助于犯罪概率的差异,社会科学。另一方面,这个数据也绝对没有应用的可能性。舆论对其研究的实用性担忧,甚至建议他把这项研究交给纪委,让吴晓林感到哭笑不得,非常偏离。

  \\ u0026

  这是因为,基于中国犯罪率千分之几的背景,如果用于实际目的,实验中真正的正面实验的87%是非常低的。另外,研究本身也有很多开放的问题。例如,实验样本不够大,容易导致学习机过度。

  \\ u0026

  \\ u0026

  平均而言,犯罪分子的内c角比普通人短5.6%,上唇弯曲率23.4%,鼻角小19.6%。

  \\ u0026

  虽然吴小林的研究成果无意中无法用于实际应用,但最近,人工智能领域确实出现了类似的应用迹象,面对人脸识别诉讼中的伦理问题面对的肯定不是没有分号,这次站在政治上的正确性,Blaise Agra和Arcas和Alexander Todorov在Google服务过的时候曾经栽了一个大个子。

  \\ u0026

  黑人被认定为大猩猩

  \\ u0026

  在2015年,Google推出了Google相册相册应用程序。该应用程序除了备份,整理照片外,还自动为照片添加照片,让用户快速找到。

  \\ u0026

  然而,这种基于图像识别技术的自动贴标功能刺激了篮子。一位纽约黑人程序员Jacky Alcine惊讶地发现,他和他的黑色朋友的自拍照被Google照片贴上了大猩猩的标签,他在Twitter上截图,Google第一次道歉,大猩猩这个标签暂时从系统中退出,并解决这个问题的首要任务。

  \\ u0026

  黑人自拍照标签与谷歌照片大猩猩

  \\ u0026

  \\ u0026

  有关技术人员指出,谷歌可能无法提供足够的大猩猩机器学习照片的差异。不过,还有其他用户安慰Alcine Road,他们的照片也被认定为猫或马。

  \\ u0026

  以色列初创公司看到面对面的恐怖分子

  \\ u0026

  有人可能会认为,一个黑猩猩被标记为大猩猩的事件不应该被过分解释,就像日本人的照片被标记为猫一样,只不过是谷歌的一个笑话而已。而国土安全系统也指的是这些系统可能会犯的错误吗?正如美国三位作者在他们的论文中指出的,吴晓霖研究最可怕的一面是两个看似客观和权威的法律和法律的结合。

  \\ u0026

  在2016年夏天,一家名为Northpointe的密歇根公司被推到了舆论的风口浪尖。全国各地法院正在利用该公司的AI COMPAS产品对犯罪嫌疑人再次犯罪的概率进行评估,法院的判决或保释决定参照了COMPAS的评估。

  \\ u0026

  COMPAS评估系统以100多个因素为基础,包括年龄,性别,犯罪历史,给犯罪嫌疑人1至10分的评分。分数越高,危险性越高,但不包括种族因素。然而,非营利性的私人新闻网站ProPublica指出,对于实际上没有重复犯罪的嫌犯,黑人比白人更有可能获得高分。因此,ProPublica指责COMPAS是一个种族歧视的AI系统,不应再作为法庭的参考。

  \\ u0026

  COMPAS预测重复犯罪概率

  \\ u0026

  “华盛顿邮报”的一篇文章指出,如果COMPAS算法在公司的定义中确实是公平的,也就是说,给予相同等级的黑人或白人嫌疑犯的重复性犯罪的概率是相同的,则偏差的实际原因被测量由ProPublica是黑人犯罪嫌疑人重复犯罪的整体比例确实较高。

  \\ u0026

  布莱斯·阿格拉·阿卡斯等三篇文章也评论了一名以色列新创公司Faception的评论。据“华盛顿邮报”报道,该公司已与一个国土安全机构签约,以帮助识别恐怖分子。 Faception声称,他们开发的系统能够通过脸部分析识别80%以上的恐怖分子,并在2015年11月成功识别出11名嫌犯中的8人。

  \\ u0026

  面孔识别面孔

  \\ u0026

  Faception首席执行官Shai Gilboa告诉媒体:我们的个性是由DNA决定的,也反映在脸上。这是一个信号。使用先进的机器学习技术,我们开发了15个分类法,每个分类法都代表个性,是个人特征和行为的集合。我们的算法评分每个人适合这些个性。

  \\ u0026

  除了恐怖分子,Faception声称,他们的算法也可以用来识别恋童癖和白领犯罪分子。

  \\ u0026

  这不是算法的歧视,但人类是有偏见的

  \\ u0026

  由于美国的特殊历史和文化,种族问题往往容易引起敏感的神经。在前面提到的Google脸部识别BUG和COMPAS文件系统中,媒体关注的是黑人少数遭受不平等的算法。布莱斯·阿格拉·阿卡斯等三篇文章也一再强调,不应该洗刷不看似客观公正的人为歧视。

  \\ u0026

  事实上,近年来越来越多的学者认识到算法不够客观。英国巴斯大学教授乔安娜·布赖森上个月在“科学”杂志上发表的一篇研究报告中指出,人工智能还会根据种族,性别,年龄等因素显示各种偏见和歧视。乔安娜·布赖森(Joanna Bryson)表示,人们会说实验表明AI受到了歧视。没有。这实际上表明我们人类已经被AI所歧视。

  \\ u0026

  吴小林也对这个滔滔不绝的新闻(www.thepaper.cn)说,我们说这个机器被判断是没有偏见的,当然这个数据标记是公平的。机器不会纠正输入数据标记中的人的偏差。

  \\ u0026

  人类的偏见通过数据被学习为人工智能,并在聊天机器人上得到最为鲜明的反映。 2016年3月,Twitter上的聊天聊天机器人Tay(美利坚合众国的小姐妹)开始与任何她的Twitter用户聊天。短短24小时后,一个甜美有礼貌的小女孩甚至开始发誓,甚至爆发了种族主义和性别歧视言论。希特勒AI希特勒对互联网的快速适应引起了互联网用户的震惊,微软被关进了黑暗的房间。

  \\ u0026

  \\ u0026

  教坏泰

  \\ u0026

  另一部分研究人员指出,黑人和其他少数民族可能遭受不平等的主要原因是训练数据集中的样本太少,无法代表这些少数民族。因此,该算法还不够成熟,无法训练这一群人,往往得出不准确的结论。许多算法开发人员本身并不知道这一点。

  \\ u0026

  机器人认为白人更美丽?

  \\ u0026

  吴小林告诉“新闻通讯”(www.thepaper.cn),他在学术界听到人工智能伦理会议比人工智能本身更多。

  \\ u0026

  由于犯罪概率研究面临的诸多压力,吴晓林将继续探索计算机视觉模拟人类认知的潜力,而将研究主题转向其他方向。他在arXiv上的研究论文题为“有吸引力的女性面孔的社会心理学印象的自动推论”,在该论文(“有吸引力的女性面孔的社会心理印象的自动推论”)之后发表。

  \\ u0026

  本研究考察了计算机视觉研究人类美学的能力。实验结果表明,训练好的算法可以粗略地区分出可爱的美女,审美与中国男大学生非常接近。

  \\ u0026

  我们必须认识到这一点,那就是人工智能有这个潜力,AI已经到了这个地步。吴晓林说。

  \\ u0026

  但是,他对美国社会电脑的美学研究也可能会遇到一些麻烦。 2016年,人工智能评选的第一届国际选美大赛由NVIDIA和微软支持的青年实验室等多家机构联合主办。世界各地的用户只需在相关APP上传自己的自拍,机器人裁判就会根据面部的对称性,皱纹等因素选择最漂亮的获奖组。令人尴尬的是,在来自100多个国家的近6000幅自画像中,由机器人裁判选出的44名最漂亮的获奖者几乎全是白人,只有一小部分亚洲人,只有一人皮肤黑。

  \\ u0026

  机器人不喜欢黑皮肤。那时候,很多新闻报道都使用这个标题。

  \\ u0026

关键词: 社会科学