K8000越野电动绞盘 G9000越野电动绞盘 N12000专业电动绞盘 N15000工业电动绞盘 H12000工业液压绞盘 H15000工业液压绞盘 K5000P便携式电动绞盘
K8000 越野绞盘 G9000 4WD绞盘 N12000 专业绞盘 N15000 救援绞盘 H12000 工业绞盘 H15000 工业绞盘 K5000P 便携式绞盘

从一张图片看人工智能的局限

排行榜 收藏 打印 发给朋友 举报 来源: 好奇心日报   发布者:网络转载
热度762票  浏览80次 时间:2016年9月13日 15:58
工业绞盘

上周,挪威作家 Tom Egeland 在 Facebook 上发布了一张以纪念越战为主题的贴文,并附了一张美联社记者拍摄的照片 “烧夷弹的女孩”(Napalm Girl)。

因为这张照片,扎克伯格的算法又成了众矢之的

这是张著名的历史照片。

1972 年,美联社记者尼克·崴在越南捕捉到越南女孩因为被汽油弹炸伤,浑身赤裸奔跑,表情痛苦的场景,并拍摄下来,后来获得了普利策新闻奖。

但荒谬的是,因为发布了这张照片, Egeland 的 Facebook 个人帐号就被禁用了、照片被删除。Egeland 还收到了来自 Facebook 的简讯,解释其删除 “烧夷弹的女孩” 照片的理由是:

“ 任何关于展示了全裸的外生殖器、臀部和完整女性胸部的照片,都会被删除。”

随后,挪威报纸 Aftenposten 的主编 Espen Egil Hansen 给马克·扎克伯克写了一封公开信, 其中指责说 Facebook 的审查算法分不清儿童色情和新闻图片的区别。

后来又有多名挪威人转发了该图片,包括挪威首相索尔伯格,但他们发的内容无一例外都被删除。

因为这张照片,扎克伯格的算法又成了众矢之的

挪威报纸《Aftenposten》在头版刊登公开信,谴责脸书

这件事儿引发了大量媒体的关注。事件发酵两天后,Facebook 最终撤销了照片的封杀令,并表示:听取用户的意见,并肯定了照片的历史意义。

现在,你在 Facebook 上所看到的内容,大多依靠算法根据你的兴趣来进行挑选,前不久,Facebook 就裁撤了“热门话题”人工编辑团队,全权交由算法来决定新闻内容的热门程度。

此次越战女孩儿的照片就被算法自动划归为了儿童色情类,进行系统删除。

这已经不是 Facebook 第一次删除这类照片。此前,它的算法还自动清理了不少与叙利亚、伊拉克和土耳其战乱有关的图片。

Facebook 的算法还挺聪明,一下就能认出照片里是人类裸体。

遗憾的是,战争中的照片许多时候就是不让人们轻松愉快的。它们被战地摄影师拍下,并由媒体刊发,是为了将现场的真实情况告诉世人。

而 Facebook 的算法还领悟不到二者的区别。这大概也是人工智能现在的局限。

TAG: NapalmGirl
顶:65 踩:52
对本文中的事件或人物打分:
当前平均分:-0.72 (228次打分)
对本篇资讯内容的质量打分:
当前平均分:-0.54 (207次打分)
【已经有210人表态】
44票
感动
23票
路过
19票
高兴
28票
难过
38票
搞笑
16票
愤怒
20票
无聊
22票
同情
上一篇 下一篇
工业电动绞盘液压绞盘汇总

欣宇时代

    消防绞盘

欣宇时代

    拓松汽车户外网


    中国汽车绞盘网


    中国宠物医师网