AI学会了种族歧视读懂人类社会,还需时日

「本文来源:央广网」

央广网北京9月12日消息据中央广播电视总台中国之声《新闻超链接》报道,近日,有脸书(Facebook)用户称,在他观看了一段黑人视频后收到了一个自动提示,询问他们是否愿意继续观看关于“灵长类动物”的视频。脸书公司得知后立即禁用推送该消息的AI(人工智能)功能。

随后,这家公司进行了道歉,称这是一个“不可接受的错误”,表示:将进一步调查以防止类似事件再次发生。

对此,一些网友评论:脸书AI不学好,把“种族歧视”学会了。

AI真的能学会歧视么?AI会产生超越人类认知的某种“情感”或者是“自我”吗?

图片来源:《每日邮报》报道截图

AI歧视人类?不可能!

AI(人工智能)作为计算机科学的分支,是一种被应用于模拟和扩展人类智能的技术。它在一些专业领域表现出了惊人的能力,比如战胜人类围棋棋手的AlphaGo,以及在破解生物学最大挑战之一——根据氨基酸序列预测蛋白质三维结构方面崭露头角的AlphaFold等等。它们最突出的能力是:自我学习。

但脸书的这项人工智能推荐却似乎犯了个大错:将人误认为“灵长类动物”。尽管人类也属于灵长类动物,但这对于一些地区的用户来说,可能涉及歧视。

3C数码评论员黄浩表示,不必将此次的AI错误识别事件视为种族歧视。在日常生活中,AI识别错误的情况并不少见,更何况灵长类动物与人类在某些核心面部特征上确实具有相似之处。如果AI获得的信息与其他信息有一定相似之处,可能会让一些AI产生误差。

即使是人类,我们在识别过程中也会犯错,但随着经验的积累,错误会逐渐减少。人类“大脑系统”中储存的丰富资料可以帮助人类通过细节判断人种。但对于AI来说,细节的面部特征难以辨识,需要大量的时间和资料进行学习,这是对AI技术算法公司以及应用AI技术公司的巨大考验。

年谷歌图像识别算法也翻过车:发现者杰基·阿尔金表示,谷歌将其黑人朋友分类成了“大猩猩(Gorilla)”

AI是否会产生“自我”,带来麻烦?

一直以来,人工智能是否会产生“自我”,甚至反客为主控制人类是人工智能发展过程中备受

转载请注明:http://www.aomanyupianjians.com/ydjl/17883.html

网站简介| 发布优势| 服务条款| 隐私保护| 广告合作| 网站地图| 版权申明


冀ICP备2021022604号-9
当前时间: