公司动态
《人工不智能》你的工作到底会不会被人工智能取代

来源:本站 作者:hope 浏览: 2020-02-11 08:59

我们已经听过太多有关“人工智能”的话题了,什么“人工智能将会改变世界”“人工智能将让大多数人失业”……有些好消息说得太多,就容易让人产生不切实际的希望。
不切实际的希望太强,就容易变成迷思。
高估人工智能会产生什么样的社会问题?自动驾驶这件事到底有多难?现阶段人工智能的社会化应用的根本矛盾是什么?而布鲁萨德将会告诉你,其实计算机没有改变什么。
社会还是这个社会,计算机并没有解决我们的社会问题。
事实上,担心的那种未来离我们还非常遥远,现在所谓人工智能还没有那么厉害,人类已经反应过来了,可以预见的近期内不会有什么人工智能导致的大失业。
我们这次要说的这本书,则是想让你进一步冷静一下。
这本书我只找到了英文版《Artificial Unintelligence : How Computers Misunderstand the World》,作者是人工智能专家、数据记者和纽约大学助理教授梅瑞狄斯·布鲁萨德。
如果用一句话来总结书中精髓,那就是:人工智能想大规模取代人类并不是一件容易的事情,它还有很长的一段路要走,我们对于人工智能的恐慌和其他,其实都是在过度想象。
我们对于人工智能的误解,如果仅仅是观念和想象也就罢了,严重的是,因为人们过分依赖计算机算法,反而带来了一系列社会问题,所以我们需要正确认识人工智能。
这也是作者梅瑞狄斯·布鲁萨德写这本书的用意。
布鲁萨德这个数据记者,最关心的是让那些已经在取代人类做决定的“算法”负责任。
她发现人们过于相信算法。
算法都是人写的,人会犯错,算法就会犯错。
现在的人非常爱说什么“计算机改变了世界”,特别是乔布斯,动不动就“这个产品再一次改变了世界”。
而布鲁萨德将会告诉你,其实计算机没有改变什么。
社会还是这个社会,计算机并没有解决我们的社会问题。
现在有一种情绪被布鲁萨德称为“技术沙文主义”,认为一切社会问题都可以用技术解决,特别是可以用计算机技术解决。
布鲁萨德这本书就是专门跟技术沙文主义唱反调。
布鲁萨德认为,包括人工智能在内的所谓新技术,其实并没有解决真正的社会问题。
中国最穷的地方也没发生过学生上课没有教材的事儿。
但是美国有好几个州,包括纽约、宾夕法尼亚和华盛顿这样比较富的州,却有很多很多学生没有教材可用。
这是一个严重的社会问题,可是却不能用技术方法解决。
几年前布鲁萨德的儿子上小学,一家人住在宾夕法尼亚州。
儿子要准备全州统一的标准化考试,布鲁萨德就研究了一番考试的内容之后发现,这个考试其实可以破解的答案其实都在课本里,你只要把课本的内容参透了,通过考试就非常简单。
反过来说如果你不看课本,哪怕知识面再广,也很难在考试上有好的表现。
美国很多老师痛恨标准化考试。
但这不是我们今天想说的重点,重点在于,这么简单的考试,美国能熟练解题的学生还不到一半,宾夕法尼亚州高中的毕业率只有64%。
而根本原因,就在于很多学生“拿不到课本”。
但美国的教材由私人公司出版,价格很贵。
比如一本中学生用文学教材就要114.75美元。
政府的教育经费往往有限,有时候分到每个学生头上的教材费可能只有30多美元,这样一来就存在很大的缺口。
那你说政府钱不够我自己买一套行不行,对不起没有这个渠道。
布鲁萨德她儿子的教材学校不让带回家,她想给儿子另外弄一套,各处都找不到,连盗版都没有。
现在美国的中小学课本都是由三家大公司出版的,直接供货到学校,同时考试题也是这几家公司出。
换句话说你是用这些公司的课本,然后用这些公司的考试题,一条龙服务,这是个每年几十亿美元的生意。
能不能让学生重复使用旧教材呢?有时候的确就是这么干的,有的学生还在用八十年代师兄师姐的教材。
但这个做法通常不可行,因为教材几乎每年都要随着州政府的教育政策变来变去。
这还不算,有些看似能用技术解决的问题,也解决不了。
比如有时候经费到位了,书也买了,结果书被放置在学校的仓库里,没发到学生手上。
老师以为今年还是没有书,校长不记得书有没有买。
布鲁萨德找到一个类似于“区教委”的机构,说你们知不知道辖区内这些学校今年都开设了什么课程,需要什么教材。
区教委说这个真没有,但是我们有个中央数据库,有各个学校订购教材的数据。
布鲁萨德就把这个数据库拿过来,结果一看,很多学校订购的教材数和学生人数根本对不上。
布鲁萨德又跑到各个学校去现场调查,发现教材的发放和管理都非常混乱。
学校经费有限,人手不够,有些校长要亲自管理教材。
有的校长不愿意使用州里的数据库系统,自己弄了个表格,很难跟别人分享,最后就是一大堆问题。
布鲁萨德就说,数据技术再先进,最初的数据录入,也是由人来完成的。
如果校长根本不愿意录入数据,老师根本统计不清楚自己班需要多少教材,再先进的计算机技术又有什么用呢?这里的主要问题在于,教育,本质上是个因人而异的、混乱的、动态的系统,而公共教育系统,是个统一的、标准化的、最好是不变的系统。
比尔·盖茨和梅琳达基金会一直在美国全国推行一个所谓“共同核心课程”系统,相当于中国那种全国统一的教学大纲和标准化考试,但是在各地受到了老师和学校的抵抗。
其实老师的抵抗有道理,这不仅仅是不民主,而是不同学区的学生水平差异很大,用同一个标准确实不合理。
学校教学没有自由度,而且应试教育的负面影响太大,结果现在美国的公共教育非常混乱。
布鲁萨德说,盖茨这帮人是想把教育当成一个工程问题去解决。
工程问题本质上是数学,需要在一个定义良好的环境里,用定义良好的参数描写一个定义良好的问题。
可是教育问题从来都不是“定义良好”的,其中有各种复杂的情况。
复杂和标准化是一对永恒的矛盾,这就是为什么计算机技术发展了这么多年,美国基础教育几乎没有发生任何进步。
就在分发教材这一件事儿上,计算机人工智能都不能起到很好的作用。
因为计算机和人工智能擅长的是解决工程问题,工程问题要求定义良好,而复杂社会问题恰恰是不能定义良好的。
现阶段所有的人工智能,都有一个根本的弱点。
这个弱点就是它们高度依赖数据,都是对过去经验的总结,它们没有办法预测“没见过”的事情。
所以这种人工智能的应用非常有限。
它最适合常见的、简单的、不变的应用场景,不能直接推广。
一旦遭遇必须推广的场景,就面临各种问题,比如“自动驾驶汽车”。
公众对自动驾驶汽车这个话题已经欢呼了很多年,那现在自动驾驶技术是什么情况呢?国际汽车工程师学会弄了一个标准,把自动驾驶汽车一共分为五个级别。
零级代表完全没有自动化,就是人开车。
一级,是指计算机在某些时候、某种程度上可以给人提供一些辅助性的帮助。
像自动刹车、保持车道、停靠辅助系等等。
二级,是有的时候汽车可以自己开,但是要求人一直盯着,特斯拉已经做到了这个级别。
三级,是说人可以不盯着了,就让车自己开,但是如果车向你发出信号,你要随时接管驾驶。
四级,是指在某些环境和条件下,实现自动驾驶,人去睡觉都没问题。
五级,是完全的自动驾驶,不论什么天气和路况人都不用管车。
任何一家公司的自动驾驶技术都没有超过二级。
而有些专家认为,五级自动驾驶是一个永远都达不到的目标。
这是为什么呢?因为人工智能处理不了意外。
其实你开车的时候并不是简单地把着方向盘控制着油门和刹车,你非常有智能。
你要看交通信号,你要看各种路边的标志物,你要判断路上有什么东西。
如果前面路上有一只小鸭子在慢慢走,你得踩刹车;但是如果是一只鸟,你可以想象车开过去它就会飞走,你就不用减速;如果路上有个塑料袋,你可以直接碾压过去;但如果那是个石头,你就必须绕着走。
计算机只关心这些物体的移动趋势,估算每个物体的速度,预测它的路线,看看跟车的路线会不会发生冲突。
如果有冲突就踩刹车或者绕着走,但真实的路面上会有各种意外。
Google 一直在训练自动驾驶技术,他们遇到过各种各样奇怪的情况。
有一次有几个小孩在高速公路上玩青蛙。
还有一次,一个残疾人,坐着电动轮椅,在路中间追逐一只鸭子。
鸭子绕圈跑,她也绕着圈追。
那你说像这种情况你能一下子就准确预测这些人的行动路线吗?自动驾驶汽车识别路边的物体,都是靠把激光打到各种东西上再反射回来。
可如果在下雪或者下雨,激光可能打到雪花或者雨滴上反射,汽车就可能对周围物体有重大误判。
Google 曾经把奥巴马夫人米歇尔给识别成一只猩猩。
假如标志牌有损坏,或者上面被人贴了小广告,那汽车就很可能无法识别。
还有,现在自动驾驶汽车都高度依赖 GPS 定位。
可是现在美国有一种50美元就能买到的装置,能在周围干扰 GPS 信号。
除了安全,自动驾驶还有道德问题。
比如说你正在以很快的速度开车,突然发现前边有一群小学生在马路上打闹。
要避让这些小学生,你就会撞到路边的建筑物墙上;而如果撞墙,你的生命安全就面临危险。
现在有很多公司正在研究自动驾驶的道德规范,Google 甚至还专门聘请了哲学家,但是没有研究出来什么令人满意的方案。
奔驰公司已经宣布,他们对自动驾驶汽车的设定是优先保证自己车里司机和乘客的安全。
在前面那种情况下,奔驰的车会果断撞向小学生。
自动驾驶技术还有一个经济学问题。
机器学习是高度依赖数据的。
我们知道有个“二八法则”,说的是你花20%的时间就能解决80%的问题,剩下80%的时间解决20%的问题。
对自动驾驶汽车来说,我看更可能是你用2%的数据就能训练一个能解决路面80%的情况的自动驾驶系统,但是剩下那20%的情况,你就是再用98%的数据也未必能解决。
美国50个州都有各自的交通法规,各地的气候条件和路况都不一样,这还不算美国和中国的差别。
这意味着什么呢?这意味着在一个地区训练出来的自动驾驶技术,换一个地方就可能不好使。
所以人工智能模型不能推广,你必须在每一个地区都采集大量的数据才行。
Google 一直都在积累数据,算法都是现成的,真正值钱的是数据。
谁掌握了数据,谁的自动驾驶技术才有市场。
人工智能时代的商业帝国一定是数据帝国,小的创业公司将会越来越难以起步。
即便是在“自动驾驶”这样看上去几乎纯工程领域的问题上,人工智能也有非常大的局限。
有个私人公司叫 NorthPointe,开发了一个算法,叫 COMPAS,专门用来判断一个犯人再次犯罪的可能性大小。
COMPAS 算法会考察一个犯人的100多项指标,然后给他打一个分。
从1分到10分,分数越高,代表将来再犯罪的概率就越高。
这个算法的原理都用大数据,根据以往的经验,你考察若干个关键指标,对一件事作出判断。
训练算法用的都是美国的数据,犯人都是美国的犯人。
美国的犯罪环境变化也不大,这一套完全合理。
而且这个 NorthPointe 公司还非常痛快,把自己用的所有数据都在网上公布了,你可以随便研究。
它具体的算法是保密的,但是如果你不服,你可以自己开发一套算法跟它比。
研究者发现 COMPAS 算法的准确率还真可以,算法给打了1分的犯人,再次犯罪率只有22%;而打10分的犯人再次犯罪率高达81%。
一般这种犯罪率判断,最怕被人指责种族歧视。
众所周知黑人的犯罪率比较高,那有没有可能,仅仅因为犯人是黑人,你就调高他的分数呢?COMPAS 算法在这一点上做得很绝,它根本就不考虑犯人是不是黑人。
100多项指标包括性别、年龄、以前的犯罪历史等等,其中根本就没有种族这个项目。
事实上人们统计发现,算法给打了7分的犯人中,如果是白人,后来的再次犯罪率是60%;而7分的黑人,再次犯罪率是61%,几乎相等。
有人对 NorthPointe 公司提出了种族歧视的指控。
有个专门为了社会责任搞深入新闻调查的非盈利媒体,叫 ProPublic,研究了一下 COMPAS算法。
我们知道算法预测的都是概率而已,哪怕是被打了5分以上的分数,犯人也不一定会再次犯罪。
如果一个犯人明明没有后来再犯罪,却被算法打了个高分,那他就等于被算法冤枉了。
ProPublic 专门统计这种没有再犯罪,却被打了5分以上的情况。
同样是后来没再犯罪的犯人,黑人被打高分的可能性是42%,而白人只有22%。
那这不就是说,算法还是歧视了黑人吗?这个发现引发了轩然大波。
由于具体的推导过程比较复杂,所以我们只说结论。
导致这个差别的原因是,黑人总体再犯罪率高,黑人打高分的比例就必然高。
每个分数代表的人群中被冤枉的比例是固定的,那既然黑人总体打高分的比例高,那么其中被冤枉的黑人就一定更多。
假设现在有个外星人,他根本不知道地球上的人还分为黑人和白人,他以为所有人都是一样的。
那么他拿到数据之后,会认为这是一套公平的打分系统。
可是当我们把黑人白人的标签放进去之后,却发现黑人被冤枉的比例更高。
而个别黑人之所以吃亏,是因为黑人整体的再犯罪率高。
从数学角度根本避免不了。
如果你想保护黑人,给黑人少打一些高分,那你的分数系统就是不准确的。
同样一个分数就不能代表同样的再犯罪率,法官就没法从这个分数系统中获得正确的参考意见。
所以到底什么叫公平?程序员追求的是分数系统的准确性,记者要求的是不能冤枉黑人,而从数学上来说,这两个要求不可能同时满足,这是一个根本的矛盾。
只要用过去的经验去预测未来,就一定有这个矛盾。
产生经验的是一批人,要被预测影响的却是另外一批人。
这就相当于新人要为前人犯的过错承担后果。
其实这个矛盾在生活中普遍存在。
比如在上海这样,基本不存在重男轻女的大城市里,女生的考试成绩普遍比男生好。
那如果根据这个规律,为了提高学校的总体成绩,在高一入学的时候尽量多录取女生,这不就是对男生的歧视吗?你的经验很可能是准确的,但是你是在用以前人的表现去惩罚后来的人。
你是在让一个人为不是他自己的行为付出代价。
这是一切基于经验的这是一切基于经验的决策的本质缺陷。
人工智能再厉害,只要是基于经验的,只要预测不是100%准确,就一定会有人被冤枉。
所谓“公平”,其实是你的主观选择。
选择算法准确度的公平,你就会冤枉一些特定的黑人;选择不冤枉黑人,你的算法就不准确,你就会冤枉别的人。
算法可以根本不考虑种族,但种族就隐藏在数据之中。
丑小鸭定理说,一切分类都是主观的。
有分类就会有歧视,此事古难全。
人工智能能给我们的决策提供很大的方便,但社会还是这个社会,数学还是同样的数学,人工智能改变不了问题的本质。
 

js金沙官方