“人工智障”,我们还能忍你多久?
“每年我们都能看到媒体上人工智能失败案例的报道,背后是否反思了为什么会发生这些啼笑皆非的事儿?本文盘点了人工智能的失败事件,与大众与专家看待人工智能的态度,试图找到所谓“...
“每年我们都能看到媒体上人工智能失败案例的报道,背后是否反思了为什么会发生这些啼笑皆非的事儿?本文盘点了人工智能的失败事件,与大众与专家看待人工智能的态度,试图找到所谓“人工智障”的非技术成因。
作者 | Harry Wu 颜安琪
本文授权转载自DT数据侠(微信号:DTdatahero)
2018年11月,小米AIoT(人工智能+物联网)开发者大会上,“雷布斯”雷军骄傲地展示了新品智能音箱“小爱同学”。
图片说明:雷军与AI问答
雷军:“小爱,你能做什么?”
小爱:“人家还小嘛,这个问题太难了……”
... ...
雷军:“三个木叫什么?”
小爱:“木三分……”
雷军:“三个木叫什么?”
小爱:“你是电,你是光,你是唯一的神话。”
雷军:“三个木头的木叫什么?”
小爱:“粘树的木头,感觉你是个乐观……”
雷军:“小爱,是不是每次演示的时候你都要出错?”
尴尬的雷军继续问小爱,“125加357加567等于多少?”但小爱同学直接“下班”,不再回答,全场哄笑一片。
小米代表了中国智能硬件的较高水平,但舞台上小米的人工智能产品,可能只是舞台下观众眼里的“人工智障”吧!
雷军现场略显尴尬,网络上则闹腾着要为雷总写首新歌,毕竟那首洗脑神曲《Are You OK》已经火了三年多了!
事实上,失败人工智能的尴尬又何止“小米”一家呢?
最好的AI时代到来了吗?
2016年,一级市场抱怨没有好项目投,二级市场抱怨没有好股票买。那一年,一个叫“AlphaGo”的机器人击败韩国天才围棋选手李世石;一年后,世界围棋冠军柯洁又哭成了泪人,因为他被这台没有自我意识,压根不知道自己在下围棋的机器三局横扫。
历史上AI与人类在棋牌与游戏对战的重要时刻
就是这件事,我们突然从媒体上了解一个新词——人工智能(Artificial Intelligence,简称AI)。
一场围棋比赛掀起一股AI的浪潮,但这其实是AI有史以来的第三次浪潮了(前两次都无果而终)!
1956年达特茅斯会议首次提出AI概念,经历三起两落,如今因神经网络工程下深度学习的发展,AI正处于第三次浪潮之中
AI是个大词儿,就像“动物”一样,分为无脊椎动物、有脊椎动物,根据一级分类,下设哺乳动物、两栖动物、爬行动物等等。今天我们理解的AI概念太大了,当下的AI可以与机器学习划等号,即为海量数据(标签数据)、强大的电脑计算能力和算法模型的综合体。
当下数据驱动AI的三大要素:算法、算力和大数据
打个比喻,今天的机器学习好比F1赛车,想要夺冠,最好的汽油燃料(大数据)、最快发动机驱动的赛车(算力)和最精益赛车手(算法)一个都不能少。
百度推出开放自动驾驶平台——阿波罗计划,并在春晚上亮相了百度的无人驾驶汽车;阿里巴巴基于计算机视觉技术,控制杭州市的多个红绿灯,并且智能地疏导交通流量,用一个充满智慧的机器大脑辅助城市交通运行;还有腾讯发布的国内首个AI诊疗开放平台,一些拍片子、测血压、测脉搏的活儿,AI医生信手拈来。
相比人类工作者,AI至少有三大优势:
● 不断更新的大型数据库——记忆力强,且学习能力更强
● 比人类算得快多了——计算能力强
● 它永远不会累、 不会饿或生病——没有情绪地工作
但这也只是我们狭义理解的人工智能的优势,距离强AI的还很远。
泰格马克在著作《生命3.0》中阐述了生命发展的三个版本。从简单复制性繁殖的细胞,到会使用工具与两性繁殖的人类,再到能够自我繁衍软件与硬件的强人工智能,似乎生命找到了一个更高级的发展方向。被誉为“爱迪生继承人”、谷歌未来预言家雷·库兹韦尔(Ray Kurzweil)说:2045年,我们将实现奇点(电脑智能与人脑智能兼容的那个神妙时刻)。
生命3.0的定义
也许上帝创造了人,人创造了人工智能,这些伟大的应用与思想让人类膨胀了吗?最好的人工智能时代到来了吗?
不,事实是,AI离我们“这么近”,也“那么远!”
《硅谷百年史》作者皮埃罗·斯加鲁菲教授向DT君表达了自己的观点,今天的科技创新的速度与数量完全比不上上个世纪初叶时的水平。他认为:“人们离真正的智能机器还非常遥远;我不怕人工智能的到来,相反,我怕它来得不够快。”
皮埃罗在DT君的《智能的本质》书上签名写道“AI还不够智能到读懂这本书”
2018年4月,“人工智能泰斗”迈克尔·乔丹(不是打篮球那位)教授发表长文《人工智能——革命远未发生》,给当下火热的人工智能泼了冷水。他写道:“目前AI领域取得的有限进展带给我们的兴奋(恐惧)导致了行业的过度反应和媒体的过度关注,目前AI的成功很有限。”
乔丹教授在Miedum上的文章《人工智能——革命远未发生》
事实上,当下我们还没有“强人工智能”(Artificial General Intelligence),那些辅助人类工作和部分功能替代性的机器只能称为“弱人工智能”(所以有时也会略显弱智)。Facebook首席AI科学家Yann LeCun认为,人类今天接触到的AI系统中没有真正的人工智能,并且都无法与生物系统的能力相配。
未来学家马丁·福特(Martin Ford)在新作《智能建筑师》中,对包括DeepMind(发明AlphGo的公司)创始人戴密斯·哈萨比斯(Demis Hassabis)、谷歌人工智能团队负责人杰夫·迪恩(Jeff Dean)、斯坦福大学教授李飞飞等在内的23位当今人工智能领域最杰出的科学家进行采访,并要求他们猜测一下,到哪一年AGI(强人工智能/通用人工智能)有50%的机会实现。
答案极为两极分化:库兹韦尔的答案是2029年,机器人专家iRobot联合创始人罗德尼·布鲁克斯(Rodney Brooks)认为是2200年。其余的猜测基本分散在这两个极端之间,平均估值为2099年,也就是81年后。
这样的结果似乎并不意外,因为AI技术的广泛应用不仅是科技本身的突破,随之而来的边界问题、责权问题、道德问题——这些在实验室中不会出现的矛盾和忧虑被迅速发酵,也急需要逐一商讨、解决。
人工“智障”的真相
纵观人工智能的发展,“智障”事件比比皆是!
不久之前,“董小姐闯红灯”的新闻登上媒体头条。智能摄像头扫描到通过红绿灯的公交车身广告上的董明珠,并误判为闯红灯,虽然交警部门事后立即进行删除和系统升级,但如此的失误让人们对所谓“智慧交通”产生些许怀疑。
宁波智能摄像头误将正在通过斑马线的公交车广告上的董明珠判别为闯红灯者
误判行人还不算什么大事,如果出了人命就严重了。2018年3月,优步的无人驾驶的在美国亚利桑那州城郊区撞死一位女性,触发全球首例完全自主驾驶汽车致人死亡的事故;之后,谷歌、特斯拉等无人驾驶测试相继出事,美国多地叫停无人驾驶测试。
Uber无人驾驶测试车车祸视频
而早在2015年,德国大众汽车制造厂中一个机器人杀死了一名人类工作人员。当时这名21岁的工人正在安装和调制机器人,机器人突然“出手”击中工人的胸部,并将其碾压在金属板上,这名工人当场死亡。
2015年,电讯报对大众工厂机器人致死案的报道
前文说,机器是没有情绪的,但机器也是没有情感的,没有特殊场景下辨别是非好坏的能力。
人工智能这些年还曝出了“种族歧视”的问题。谷歌图像识别算法将黑人自动添加“大猩猩”的标签,而谷歌解决这个技术问题的方式竟然是禁止“大猩猩”一词的标签;亚马逊的Alexa助手的音箱会无缘无故发出令人毛骨悚然的笑声;微软在Twitter平台的聊天机器人Tay在与人类的对话中,竟然发表不恰当言论,成为一位种族主义机器人,直接“被下岗”……
微软聊天机器人Tay在Twitter上发表偏激言论
总之,在复杂的现实世界,AI做不到的,或者搞砸的事儿很多很多。所以,人们不得不考虑,谁该为“人工智障”负责?
但追问的前提或许是AI为什么会出错?
虽然AI已经发展了70年,但在深度学习(机器学习的前沿技术,一种人工神经网络)被发明至今,十几年没有新技术出现了,且目前AI的核心聚集在数据和算法。对于喜欢买买买的消费者,在淘宝、京东等平台上的商品自动推荐是最直观的感受。
你在购物网站浏览过运动鞋,下次再登录时,有关运动装备的推送就会蜂拥而至。这就是人工智能在大数据采集后,算法用归类的方式给你贴上了标签。尽管如今计算资源不断增强、数据池不断扩增,但数据采集的不完整性(Data Integrity),仍然是深度学习的主要障碍,也是人工智能成为“智障”的直接原因之一。
一个典型案例是,医疗团队使用AI辅助诊断病人的血液样本,却发现AI诊断出阳性结果的数量大大超出预料。而产生偏差的原因是,数据库使用的血液样本大多是健康、年轻的大学生,但医院的病人年龄偏大,以至于人工智能误把“老年血”当成了“有病的血”。
由此可见,正确且全面的数据采集对于AI实践十分重要。
媒体的宣传是造成AI无所不能论调的导火线,在《智能的本质》一书中,皮耶罗就媒体对AI的神化感到不安。在人机围棋大战中,AlphGo每小时耗能约440千瓦,却只能做一件事,而对面的人类棋手只消耗20瓦能量。所以,算个简单的数学题就知道那些神化AI的人算不上“聪明”。
只会迟到,不会错过的AI
通常我们把人类看待AI的态度分成三大类。
第一类是极力反对AI的卢德主义者(工业革命时代打砸机器的收购业者);第二类是类似库兹韦尔的超乐观派;第三类是以吴恩达为代表的一线AI科学家们,他们肯定AI的作用与意义,但却并不认为AI会立刻改变一切。
工业革命中打砸机器的卢德运动 来源:网络
今天的AI在某些特定领域已经开始替代人类工作,创新工场创始人李开复认为,现在那些用5-10秒就能抉择的工作都会被AI取代。所以反抗AI的声音主要来自于重复简单工作的劳动者,真正行业的一线研究人员却对AI既乐观又谨慎。
虽然AI还会犯错,但有这么一批科学工作者正在日以继夜的让AI变得更加智能,更好地帮助人类。这就是我们看到的AI缉毒、AI破案等案例。
警方在张学友演唱会上抓捕到多名逃犯 来源:微博
2010年,美国南卡罗来纳州的多切斯特县,警察通过分析智能电表收集上来的家庭用电数据,抓住了一个在家里种植大麻的人(因为需要把房子密封,把窗子钉起来,就需要大量用电)。2018年,“张学友演唱会抓罪犯事件”就是足够多的数据标签与动态人脸识别技术结合后的完美呈现。
2017年,国务院印发《新一代人工智能发展规划》文件,将AI升级为国家战略,文件一开头这样写道:人工智能的迅速发展将深刻改变人类社会生活、改变世界。
我们应该明确,具备自我认知与不会犯错的强人工智能也许离我们还很远,但未来终究会到来,人类必须面对一个真正的强AI时代。
推荐阅读:
更多推荐
所有评论(0)