搜索成功 √ 返回继续
音乐地址
下载链接
音乐ID
音乐歌词
音乐名称
音乐作者
当前位置:首页 >> 骇客武林 >> 骇客武林《《人工不智能》 万维钢解读》[MP3_LRC]
[00:00.00]90听音乐网 www.90T8.com  [00:00.60]你好, [00:01.26]欢迎你每天听本书。 [00:02.98]本期要给你解读的是一本2018年4月份出版的英文书, [00:07.36]题目叫做人工不智能, [00:09.70]计算机如何误解世界。 [00:12.46]这本书的作者是人工智能专家、 [00:14.83]数据记者和纽约大学的助理教授梅瑞迪斯布鲁萨德。 [00:19.70]如果用一句话来总结这本书的精髓呢, [00:22.43]就是人工智能想要大规模的取代人类并不是一件容易的事情, [00:27.32]它还有很长的一段路要走, [00:29.69]而我们对于人工智能的恐慌其实都是在过度想象。 [00:34.46]生活在今天, [00:35.61]相信你已经听说过太多关于人工智能的话题, [00:39.27]什么人工智能将会改变世界啊, [00:41.69]还有人工智能将会让大多数人失业等等。 [00:45.28]但是事实上, [00:46.21]像未来简史那本书里们担心的那种, [00:49.60]数据和算法掌控一切的未来, [00:52.07]离我们还非常遥远。 [00:54.24]现在的人工智能根本就没有那么厉害, [00:57.04]在可预见的近期内, [00:58.68]不会有什么人工智能导致的大失业, [01:01.51]也就是说, [01:02.44]其实我们都高估了人工智能。 [01:05.98]电视剧西部世界里面那样的机器人, [01:08.66]跟现在高科技公司正在研发的那种人工智能完全是两码事。 [01:14.38]我们很多关于未来人工智能的种种想象, [01:17.60]比如说什么取代人类啊, [01:19.58]甚至超越人类, [01:20.84]都只是物理学家的纯理论设想, [01:23.93]或者干脆就是科幻作家的血统。 [01:27.02]现在真实的人工智能其实应该叫人工, [01:30.56]不那么智能。 [01:32.08]阿尔法狗下赢了围棋这件事情其实没有什么大不了的, [01:35.90]它只不过是一个算法机器而已。 [01:38.88]我们对于人工智能的误解, [01:40.66]如果仅仅是观念和想象也就罢了, [01:43.84]更严重的是因为人们过分的依赖计算机算法, [01:47.50]反而带来了一系列社会问题, [01:50.08]所以我们需要正确的认识人工智能。 [01:53.34]这是这本书的作者梅瑞迪斯布鲁萨德写这本书的用意。 [01:57.73]这位布鲁萨德是一位女性, [01:59.58]她毕业于哈佛大学计算机系, [02:01.99]拥有计算机和数学的学位。 [02:04.84]他自己创造过好几个人工智能系统, [02:07.57]而且在MIT的媒体实验室工作过。 [02:10.92]布鲁萨德现在是纽约大学的助理教授, [02:14.14]同时他还是一个记者, [02:16.06]而他的这个记者呢, [02:17.41]是一种非常新型的记者, [02:19.24]叫做数据记者。 [02:21.46]数据记者的工作不是整天采访什么大数据科学家, [02:25.46]而是自己从数据里面挖掘故事。 [02:28.98]布鲁萨德做的事情是自己编写一个人工智能的专家系统, [02:33.85]然后让这个系统替他从数据库里面发现规律, [02:38.20]然后他从中获得洞见, [02:40.39]写成报道。 [02:41.80]也就是说, [02:42.61]布鲁萨德是一个用数据发现真相的人。 [02:46.31]布鲁萨德这个数据记者, [02:47.96]他最关心的是让那些已经在取代人类做决定的算法负责任。 [02:54.54]他发现人们过于的相信算法了, [02:57.58]算法都是人写的, [02:59.17]人会犯错, [03:00.25]算法也会犯错。 [03:01.96]而现在的人们非常爱说什么啊, [03:04.30]计算机改变了世界, [03:05.95]特别是乔布斯啊, [03:07.26]动不动就说, [03:08.02]嗯, [03:08.35]这个产品再一次改变了世界。 [03:10.96]而布鲁萨德会告诉你, [03:12.74]其实计算机并没有改变什么, [03:15.53]社会还是这个社会, [03:17.09]计算机并没有解决我们的社会问题。 [03:20.70]好, [03:21.21]接下来我就通过3个部分来帮你说说这本书的内容。 [03:25.34]第一部分, [03:25.98]我会让你了解高估人工智能会产生什么样的社会问题。 [03:31.06]第二部分, [03:31.63]我会让你明白自动驾驶这件事情到底有多难, [03:35.90]而第三部分, [03:36.79]我会让你看清现阶段人工智能的社会化应用的根本矛盾是什么。 [03:43.48]好, [03:43.90]那我们就先来说第一部分, [03:45.56]高估人工智能会产生什么样的社会问题。 [03:49.26]现在有一种情绪被布鲁萨德称为技术瞎门主义, [03:53.38]认为一切社会问题都可以用技术来解决, [03:56.80]特别是可以用计算机技术来解决。 [03:59.80]而布鲁萨德这本书就是专门跟技术沙文主义唱反调的。 [04:04.96]他认为, [04:05.59]包括人工智能在内的所谓的新技术其实并没有解决真正的社会问题。 [04:11.51]好, [04:11.77]那我们就先来说一个简单的例子。 [04:14.36]假设你任职于某一个贫困地区的教育局, [04:18.15]你负责给本地的中小学生发放课本, [04:22.05]好, [04:22.34]那现在你怎么能保证每个学生都能拿到课本呢? [04:26.10]你肯定会认为这是一个简单的问题, [04:28.77]中国最穷的地方也没有发生过学生上课没有教材的事儿啊。 [04:33.64]好, [04:34.22]但是美国有好几个州, [04:36.22]包括像纽约州、 [04:37.69]宾夕法尼亚州和华盛顿州啊这样比较有钱的州, [04:41.72]那些地方却有很多学生没有教材可以用。 [04:45.74]这是一个严重的社会问题, [04:47.72]但是却不能用技术的方法来解决。 [04:51.22]几年前, [04:52.04]布鲁萨德的儿子上小学, [04:53.87]他们当时一家人住在宾夕法尼亚州, [04:56.54]当时儿子要准备全州统一的标准化考试, [05:00.11]然后呢, [05:00.59]布鲁萨德就研究了一下考试的内容。 [05:03.48]他就发现这个考试其实可以破解的答案全部都在课本里面, [05:08.26]只要你把课本的内容参透了, [05:10.45]那通过考试是非常简单的。 [05:13.00]而反过来说呢, [05:14.11]如果你不看课本, [05:15.48]哪怕你的知识面再广, [05:17.17]也很难在考试上取得好成绩。 [05:19.92]这也就是为什么美国有很多老师痛恨标准化考试啊, [05:24.36]不过我们忽略这点哈, [05:25.60]因为不是我们今天想说的重点。 [05:27.90]重点是在于这么简单的考试, [05:30.31]美国能够熟练解题的学生还不到一半, [05:33.91]而宾夕法尼亚的高中的毕业率只有64%, [05:38.23]而根本的原因就在于很多学生拿不到课本。 [05:42.90]哦, [05:43.29]你可能会觉得这不荒唐吗? [05:45.58]我要是中学生, [05:46.62]那我第一件事儿就是得给自己弄一套课本啊, [05:49.99]但是对不起, [05:50.95]真没有。 [05:52.24]咱们中国的教材是由国家统一出版的, [05:55.10]价格很便宜, [05:56.66]但是美国的教材是由私人公司出版的, [05:59.89]价格很贵, [06:01.16]比如说一本中学生用的文学教材就要114.75美元。 [06:07.36]政府的教育经费往往比较有限, [06:10.13]有时候分到每个学生头上的教材费可能只有30多美元, [06:14.90]那这样一来呢, [06:15.88]就存在很大的缺口。 [06:18.12]好, [06:18.64]那你说哎, [06:19.56]政府钱不够, [06:20.47]那我自己买一套行不行啊, [06:22.36]对不起, [06:23.01]没有这个渠道。 [06:24.64]布鲁萨德儿子的教材学校是不让带回家的, [06:27.95]他当时想给儿子另外买一套, [06:30.34]但是各处都找不到, [06:32.21]就连盗版都找不到。 [06:33.95]现在美国中小学的课本都是由三大公司出版的, [06:38.03]直接供货到学校。 [06:39.80]同时呢, [06:40.43]考试题也是这几家公司出, [06:42.98]换句话说呢, [06:43.82]就是你用的是这些公司的课本, [06:46.31]然后还得用这些公司的考题, [06:48.74]是一条龙服务的, [06:50.45]这个是每年几十亿美元的生意。 [06:54.40]好, [06:54.92]那你说诶, [06:55.85]能不能让学生们重复的使用旧教材呢? [06:59.15]好, [06:59.44]有的时候也确实是这么干的, [07:01.43]有的学生还在用80年代的师兄师姐的教材, [07:05.57]但是这个做法通常不可行, [07:07.94]因为教材几乎每年都要随着州政府的教育政策变来变去。 [07:13.76]好, [07:14.31]这个还不算, [07:15.69]有一些看起来能用技术解决的问题也解决不了。 [07:19.68]比如说有的时候经费到位了, [07:21.74]书也买了, [07:22.68]但是书被放置在学校的仓库里面, [07:25.52]就根本都没有发到学生手上。 [07:28.16]老师呢? [07:28.79]是以为今年还是没有书, [07:30.63]而校长不记得书有没有买? [07:33.60]布鲁萨德找到了一个类似于区教委的机构, [07:37.24]好, [07:37.50]他就问区教委说, [07:39.16]你们知不知道辖区内这些学校今年都开了什么课程, [07:43.20]需要什么教材呢? [07:44.65]好, [07:44.94]然后区教委就说, [07:46.09]呃, [07:46.36]这个真没有, [07:47.44]但是呢, [07:47.97]我们有一个中央数据库, [07:49.75]有各个学校订购教材的数据。 [07:52.38]然后布鲁萨德就把这个数据拿过来, [07:54.73]结果一看, [07:55.44]发现很多学校订购的教材数跟学生的人数根本就对不上, [08:00.76]然后布鲁萨德就跑到各个学校去做现场调查, [08:04.75]发现教材的发放和管理都非踌乱。 [08:08.52]学校经费有限, [08:09.88]人手不够, [08:10.87]而有些校长呢, [08:12.06]要亲自管理教材。 [08:14.10]有的校长不愿意用周里的数据库系统, [08:16.95]就自己弄了一个表格啊, [08:18.76]结果就是很难跟别人区分, [08:21.04]最后是一大堆问题。 [08:22.96]布鲁萨德就说, [08:24.35]数据技术再先进, [08:26.00]最初的数据录入也是由人来完成的。 [08:29.72]如果校长根本就不愿意录入数据, [08:32.33]老师根本就统计不清楚自己的班需要多少教材, [08:36.47]那再先进的计算机技术又有什么用呢? [08:39.84]这里的主要问题在于, [08:41.71]教育本质上是因人而异的、 [08:44.56]混乱的、 [08:45.36]动态的系统, [08:46.69]而公共教育系统是一个统一的、 [08:49.47]标准化的、 [08:50.47]最好是不变的系统。 [08:52.60]比尔盖茨和梅琳达基金会一直在美国推行一个所谓的共同核心课程系统啊, [08:59.48]就相当于中国的这种全国统一的教学大纲和标准化考试。 [09:04.42]但是呢, [09:04.87]这个做法在各地受到了老师和学校的抵制, [09:08.36]其实老师的抵制是有道理的, [09:10.91]这个不仅仅是不***, [09:12.55]而是不同学区的水平差异很大, [09:15.59]用一个标准来要求呢, [09:17.20]确实不合适。 [09:18.50]学校教育就没有自由度了, [09:20.42]而且英式教育的负面影响太大了, [09:23.42]结果现在就是美国的公共教育非踌乱。 [09:28.20]布鲁萨德说, [09:29.41]盖茨这帮人是想把教育当成一个工程问题去解决。 [09:34.78]工程问题本质上是数学, [09:37.22]是需要在一个定义良好的环境里面, [09:40.36]用定义良好的参数描写一个定义良好的问题。 [09:45.05]但是教育问题从来就不是什么定义良好的, [09:49.16]里面是有各种复杂情况的。 [09:51.82]复杂和标准化是一对永恒的矛盾, [09:55.01]这就是为什么计算机技术发展了这么多年, [09:57.92]而美国的基础教育几乎没有发生任何进步。 [10:02.44]所以我们可以看到, [10:04.07]在分发教材这件事儿上, [10:06.47]计算机、 [10:07.13]人工智能都不能起到很好的作用, [10:10.07]因为他们擅长的是解决工程问题。 [10:13.82]工程问题要求定义良好, [10:16.04]而复杂的社会问题恰恰是不能定义良好的。 [10:20.14]那么好, [10:20.72]你说我们不解决社会问题, [10:22.78]我们就应对以工程问题为主的这些事情, [10:26.33]行不行? [10:27.28]好, [10:27.53]这个答案是可能还是不行。 [10:30.02]接下来我们就来说一说在自动驾驶这个看上去是一个纯工程的问题上, [10:36.27]人工智能有多难, [10:38.37]这个也就是我们第二部分的内容。 [10:40.80]我们先来说一个结论, [10:42.60]现阶段所有的人工智能都有一个根本的弱点, [10:46.68]这个弱点就是他们高度依赖数据。 [10:50.04]他们都是对过去经验的总结, [10:52.18]他们没有办法预测没见过的事情。 [10:55.76]所以这种人工智能的应用场景非常有限。 [10:59.42]他们最适合那些常见的、 [11:01.70]简单的、 [11:02.55]不变的应用场景, [11:08.52]那就会面临各种问题, [11:10.60]比如说自动驾驶汽车。 [11:13.70]公众对自动驾驶汽车这个话题已经欢呼了很多年。 [11:18.30]好, [11:18.59]那我们要问, [11:19.53]现在自动驾驶技术是一个什么情况呢? [11:22.71]国际汽车工程学会弄了一个标准, [11:25.62]把自动驾驶汽车一共分成5个级别。 [11:29.50]0代表完全没有自动化, [11:31.73]就是完全是人类在开车。 [11:34.26]1级指的是计算机在某些时候, [11:37.17]在某种程度上可以给人提供一些辅助性的帮助, [11:41.44]比如说像自动刹车呀, [11:43.23]保持车道啊, [11:44.14]还有涂辅助等等。 [11:46.21]而第2集呢, [11:47.20]是有的时候汽车可以自己开, [11:49.51]但是要求人一直盯着。 [11:51.90]这个特斯拉现在已经做到了这个级别, [11:54.88]而3级呢, [11:55.84]是说人可以不盯着了, [11:57.48]就让车自己开, [11:59.20]但是呢, [11:59.74]如果车向你发出信号, [12:01.50]你是要随时接管驾驶的。 [12:04.22]而4级指的是在某些环境和条件下可以实现自动驾驶, [12:09.12]人去睡觉都没有问题。 [12:11.50]第5集呢, [12:12.29]是完全的自动驾驶, [12:14.09]也就是不管什么天气和路况, [12:16.49]人都不用再管车了。 [12:18.90]好, [12:19.15]那截至此时此刻, [12:20.74]任何一家公司的自动驾驶技术都没有超过二级。 [12:25.70]而有些专家认为五级自动驾驶是一个永远都达不到的目标, [12:31.26]好, [12:31.56]那为什么这么说? [12:32.79]因为人工智能它处理不了意外。 [12:36.92]其实你开车的时候并不是简单的把着方向盘, [12:40.52]控制着刹车和油门, [12:42.42]你是非常有智能的。 [12:45.22]比如说你要看交通信号, [12:47.12]你要看路边的各种标志物, [12:49.40]你要判断路上有什么东西, [12:51.83]如果这个时候路上有一只小鸭子正在慢慢的走啊, [12:55.52]那这个时候你得刹车, [12:57.20]但如果是一只小鸟呢, [12:58.81]你可以想象, [12:59.60]如果车开过去, [13:00.61]小鸟就飞走了啊, [13:01.75]那你就不用减速了。 [13:03.38]而如果路上有一个塑料袋啊, [13:05.33]那你是可以直接压过去的, [13:07.35]不过如果是一个石头, [13:09.42]你就必须得绕着走的。 [13:11.72]所以你看你对路面状况是有深刻的理解的。 [13:15.96]这种理解跟你的生活阅历, [13:18.07]还有你平时积累的经验有关, [13:20.68]最起码你得知道塑料袋是什么, [13:23.13]石头是什么好, [13:24.78]但是汽车并不知道啊。 [13:27.28]计算机只关心这些物体的运动趋势, [13:30.29]估算出每个物体的速度, [13:32.48]预测它的路线, [13:33.77]然后看看跟车的路线会不会发生冲突, [13:37.40]如果有冲突呢, [13:38.47]就刹车或者绕着走。 [13:40.49]但是真实的路面上会有各种意外。 [13:43.98]我们都知道, [13:44.73]谷歌一直在训练自动驾驶技术, [13:47.29]他们遇到过各种各样奇怪的情况。 [13:50.50]有一次, [13:51.11]有几个小孩在高速公路上玩青蛙啊, [13:54.71]这个很奇怪吧? [13:56.00]还有一次, [13:56.74]有一个残疾人, [13:58.01]他坐着一个电动轮椅, [13:59.65]然后在马路中间追一只鸭子。 [14:02.62]鸭子在马路上绕圈跑, [14:04.46]然后这位残疾人呢, [14:05.75]也追着绕圈转, [14:07.34]好, [14:07.79]那你说这种情况下, [14:09.23]一下子就能精准的预测这些人的运动路线吗? [14:13.62]自动驾驶汽车识别路边的物体, [14:16.08]是靠把激光打到那些东西上, [14:18.60]再反射回来, [14:19.71]然后感知它们的距离的。 [14:21.79]但是如果这时候正在下雪或者下雨, [14:25.27]那激光就有可能打到面前的雪花或者雨点上, [14:29.44]直接反射回来了, [14:30.82]那汽车可能就对周围的物体产生重大误判。 [14:35.78]计算机能不能保证看懂路边的标记、 [14:38.91]限速, [14:39.38]还有慢行的交通牌呢? [14:41.94]图形识别技术是非常难的, [14:44.49]别忘了谷歌曾经把奥巴马的夫人米歇尔给识别成一只黑猩猩。 [14:50.40]假如标志牌有损坏或者伤疤被人贴了小广告, [14:54.25]那汽车就很可能无法识别。 [14:57.22]还有, [14:57.77]现在自动驾驶汽车都高度的依赖GPS定位, [15:01.79]但是现在在美国有一种50块钱就能买到的装置, [15:05.93]能在周围干扰GPS信号好, [15:09.14]那如果在路上有人使用这个装置, [15:11.63]自动驾驶汽车要怎么办? [15:14.46]2016年, [15:15.61]特斯拉的一个司机违反规定, [15:17.89]把车完全的交给自动驾驶, [15:20.26]结果因为汽车没有识别出来迎面开来的一辆白色卡车, [15:24.94]导致司机死亡啊, [15:27.16]可能当时人工智能以为这个白色卡车是天上的白云或者是什么别的东西。 [15:32.86]当然了, [15:33.56]在这个故事里面, [15:34.63]司机确实犯了错误, [15:36.23]不过这也恰恰说明自动驾驶技术非常容易遭遇预判好, [15:41.45]而除了安全问题, [15:42.86]自动驾驶还有道德问题。 [15:46.20]比如说, [15:46.84]你正在以很快的速度开车, [15:49.03]突然就发现前面有一群小学生在马路上打闹, [15:52.87]而如果你要避让这些小学生呢? [15:55.00]你就会撞到路边的建筑物墙上, [15:57.73]而如果撞墙的话, [15:59.26]你的生命就面临危险。 [16:01.66]好, [16:02.06]那在这种情况下, [16:03.50]你是选择撞墙还是撞小学生呢? [16:07.34]好, [16:07.62]那有道德的人, [16:08.79]比如说我吧, [16:09.90]那肯定是宁可自己面对生命危险, [16:12.48]也不能就这么撞小学生啊。 [16:14.61]现在有很多公司正在研究自动驾驶的道德规范。 [16:19.18]谷歌甚至还专门聘请了哲学家, [16:21.95]但是没有研究出来什么令人满意的方案。 [16:25.60]而奔驰公司已经宣布, [16:27.59]他对自动驾驶汽车的设定是优先保证自己车里面的司机和乘客的安全, [16:34.46]也就是说, [16:35.23]在刚才的情况下, [16:36.71]奔驰车会果断撞向小学生。 [16:40.54]好, [16:41.02]那你说这不是杀手汽车吗? [16:43.18]这种汽车怎么能上路呢? [16:45.20]所以啊, [16:45.68]这就出现了一个道德困境啊。 [16:48.32]人在现场不管做出怎么样的临时反应, [16:51.20]我们都认为这是正常的, [16:53.28]但是不管人工智能怎么事先设定, [16:56.58]我们都觉得别扭。 [16:58.76]自动驾驶技术还有一个经济学问题, [17:01.89]机器学习是高度依赖数据的。 [17:04.71]我们知道有一个所谓的二八法则, [17:07.56]说的是你花20%的时间就能解决80%的问题, [17:12.03]而剩下的80%的时间只能解决20%的问题。 [17:16.88]对于自动驾驶汽车来说, [17:18.81]我看更可能是你用2%的数据就能训练出一个解决路面上80%的情况的自动驾驶系统, [17:27.63]但是剩下的那个20%的情况, [17:30.66]就算是你再用98%的数据也未必能解决。 [17:35.90]美国的50个州都有各自的交通法规, [17:38.76]各地的气候条件和路况也都不一样, [17:41.64]而且这还不算美国和中国的差别好, [17:44.82]那这意味着什么? [17:46.34]这意味着, [17:47.03]在一个地区训练出来的自动驾驶技术, [17:49.83]换一个地方可能就不好使了。 [17:55.33]你必须在每一个地区都采集大量的数据才行。 [17:59.34]好, [17:59.83]那谁拥有这么多数据呢? [18:02.20]现在冒出来很多搞自动驾驶技术的公司, [18:05.32]我就非常怀疑他们怎么跟谷歌竞争。 [18:08.44]谷歌一直都在积累数据, [18:10.45]算法都是现成的, [18:12.13]真正值钱的是数据。 [18:14.56]谁掌握了数据, [18:15.83]谁的自动驾驶技术才有市场。 [18:18.66]人工智能时代的商业帝国一定是数据帝国, [18:22.48]小的创业公司将会越来越难以起步。 [18:26.16]所以我们可以看到, [18:27.36]即便是在自动驾驶这样看上去几乎纯工程领域的问题上, [18:32.13]人工智能也有非常大的局限。 [18:35.28]第一, [18:35.76]它不安全, [18:36.79]第二, [18:37.23]他不道德, [18:38.14]第三, [18:38.71]它不能促进商业平等, [18:41.02]它只会让强大的公司变得更强大。 [18:43.72]因此, [18:44.38]在可预见的未来, [18:45.91]也许我们还是得自己开车。 [18:49.60]好, [18:49.82]这就是我们说的第二部分内容, [18:51.95]接下来我们来说一下第三部分, [18:53.96]也就是现阶段人工智能的社会化应用的根本矛盾是什么? [18:59.78]在这一部分里面, [19:01.04]我们要讲一个小道理和一个大道理。 [19:04.38]大道理很容易理解, [19:05.73]但是这个小道理比较烧脑, [19:08.02]它相当于是一道数学题, [19:09.70]而且是在2016年才被人想明白, [19:12.55]还专门发表了学术论文。 [19:14.90]不过呢, [19:15.38]你并不需要任何高级的数学知识, [19:17.72]我帮你从直观上来理解这个道理。 [19:21.08]这件事儿还得从美国的司法制度说起。 [19:24.84]中国的犯人, [19:25.72]在理论上说, [19:26.64]不管是什么人, [19:27.82]同样的罪行就意味着同样的刑期, [19:31.09]如果你在监狱里表现好呢? [19:33.04]那同样的表现就等于同样的减刑。 [19:36.07]惩罚力度跟你是一个什么样的人是没有多大关系的。 [19:40.34]但是在美国, [19:42.04]法官判决的时候, [19:43.49]会看犯人是一个什么样的人, [19:46.05]同样的罪行, [19:46.92]如果这个人平时表现良好, [19:49.07]就可以得到轻判。 [19:50.94]这个指导思想是看犯人将来再次犯罪的可能性的大小, [19:55.84]如果法官认为这个人将来不会再次犯罪, [19:58.53]那法官就会轻判, [20:00.09]而且呢, [20:00.69]很容易批准假释, [20:02.74]但如果法官判断这个人将来很可能再次犯罪, [20:05.73]那就会从重从严判罚啊, [20:08.52]什么减刑啊, [20:09.43]假释啊, [20:09.96]你都别想了, [20:10.90]你就在监狱里好好待着, [20:12.82]省着出去危害社会。 [20:14.66]好, [20:15.11]那问题就来了, [20:16.14]呃, [20:16.46]怎么能知道一个人是一个什么样的人呢? [20:19.58]在以前都是靠法官的主观判断, [20:22.35]这个肯定不太靠谱, [20:23.79]所以呢, [20:24.30]现在用的是算法来判断。 [20:27.36]在美国有一个公司叫northpoint啊, [20:30.39]他开发了一个算法叫做compass, [20:33.01]这个算法可以专门用来判断一个犯人再次犯罪的可能性大小。 [20:38.26]这个康普算法会考虑一个犯人的100多项指标, [20:41.83]然后给他综合打出一个分。 [20:44.10]这个分值是从1分到10分的, [20:46.69]分数越高, [20:47.55]代表将来再犯罪的概率也就越高。 [20:50.98]那你看这个就比法官的个人判断要强多了, [20:54.41]毕竟哪个法官也不可能同时考虑这么多指标嘛, [20:58.01]算法是冷冰冰的, [20:59.33]但是算法也是客观冷静的。 [21:02.34]这个算法的原理都用大数据, [21:04.63]根据以往的经验, [21:05.88]你考察若干个指标, [21:07.41]对一件事情做出判断。 [21:09.70]训练算法的时候呢, [21:10.94]用的都是美国的数据, [21:12.59]犯人都是美国的犯人。 [21:14.86]美国的犯罪环境变化也不大, [21:17.12]所以这一套完全合理。 [21:19.16]而且呢, [21:19.73]这个northpoint公司还非常痛快, [21:22.16]他把自己用的所有数据都在网上公布了, [21:25.46]等于说你可以随便的研究。 [21:27.72]不过呢, [21:28.23]它具体的算法是保密的啊, [21:30.31]只是数据公开了。 [21:31.60]如果你不服它的算法, [21:33.12]你可以自己开发一套算法跟它比, [21:36.19]结果人们就发现, [21:37.29]这个compass的算法的准确率还是可以的。 [21:40.48]那些算法给打了一分的人, [21:42.39]他们再次犯罪的概率只有22%, [21:45.28]而打了10分的犯人, [21:46.63]他们再次犯罪的概率高达81%。 [21:50.14]一般来说, [21:50.98]这种犯罪率的判断, [21:52.48]最害怕被人指责的就是种族歧视。 [21:55.43]我们都知道黑人的犯罪率是比较高的, [21:58.40]那有没有可能仅仅因为这个犯人是黑人, [22:01.39]那你就调高他的分数呢? [22:03.80]康普算法在这一点上做得很绝, [22:06.29]就是他根本就不考虑这个人是不是黑人, [22:09.51]因为100多项指标, [22:10.91]包括有性别、 [22:12.17]年龄, [22:12.68]还有以前的犯罪历史等等, [22:14.67]其中根本就没有种族这个项目。 [22:17.72]事实上, [22:18.15]人们发现算法给打了7分的犯人里面, [22:21.18]如果这个人是白人呢? [22:22.73]那后来再次犯罪的概率是60%, [22:26.04]而7分的黑人再次犯罪的概率是61%, [22:29.85]所以说你看几乎相等, [22:31.86]所以这个算法是真的没有对黑人有种族歧视的。 [22:35.82]不过, [22:36.61]还是有人对northpoint公司提出了种族歧视的指控。 [22:42.02]有一个专门为了社会责任搞深入新闻调查的非盈利媒体, [22:46.85]叫做, [22:48.69]他就研究了一下这个算法。 [22:51.32]我们知道, [22:52.02]算法预测的都只是概率而已, [22:54.36]哪怕是被打了5分以上的分数, [22:56.61]那这个犯人也不一定会再次犯罪。 [22:59.19]如果一个犯人明明后来没有犯罪, [23:01.61]但是他被算法之前打了一个高分, [23:04.20]那他就等于说被算法冤枉了。 [23:07.08]这个专门统计这种后来没有犯罪, [23:10.93]但是当初被打了5分以上的情况。 [23:14.44]他们就发现, [23:15.44]同样是那些后来没有犯罪的犯人, [23:17.99]而黑人被打高分的可能性是42%, [23:21.86]而白人只有22%。 [23:24.59]诶, [23:24.88]你看, [23:25.30]那这不就是说算法还是歧视了黑人吗? [23:28.73]这个发现就引发了轩然大波。 [23:31.22]好, [23:31.51]由于这里面具体的推导过程比较复杂, [23:34.00]所以我们就只说结论。 [23:35.70]导致这个差别的原因是黑人总体在犯罪的概率高, [23:39.88]而黑人被打高分的比例就必然高。 [23:43.42]每个分数代表的人群中, [23:45.20]被冤枉的比例是固定的, [23:47.06]那既然黑人总体被打高分的比例高, [23:50.00]那么其中被冤枉的黑人就一定更多。 [23:53.92]啊, [23:54.35]可能这么说还是不好理解啊, [23:56.17]我们来打个比方吧, [23:57.89]假设有个外星人, [23:59.09]他根本就不知道地球上的人还分黑人和白人啊, [24:02.81]他以为所有人都是一样的, [24:04.67]那么这个外星人在拿到数据之后呢? [24:07.22]他会认为这是一套公平的打分系统。 [24:10.40]但是当我们把黑人白人的标签放进去之后, [24:14.14]我们却发现黑人被冤枉的比例更高。 [24:17.42]而个别黑人之所以吃亏, [24:19.35]是因为黑人整体的在犯罪率比较高。 [24:23.48]好, [24:23.96]那怎么避免这个现象呢? [24:25.74]这个从数学角度是根本避免不了的。 [24:28.32]如果你想保护黑人, [24:29.64]给黑人少打一些分数, [24:31.35]那么你的分数系统就是不准确的。 [24:34.26]同样一个分数就不能代表同样的在犯罪率, [24:37.75]法官就没有办法从这个分数体系中获得正确的参考意见。 [24:43.56]所以说, [24:44.36]到底什么叫公平呢? [24:46.57]程序员追求的是分数系统的准确性, [24:49.84]记者要求的是不能冤枉黑人, [24:52.42]而从数学上来说, [24:53.88]这两个要求不可能同时被满足, [24:56.74]这是一个根本的矛盾。 [24:58.98]只要用过去的经验去预测未来, [25:01.35]就一定会有这个矛盾产生。 [25:04.08]经验的是一批人, [25:05.19]要被预测影响的却是另外一批人。 [25:08.11]这就相当于新人要为前人犯的过错承刁果。 [25:14.14]其实这个矛盾在生活里普遍存在, [25:17.06]比如说在上海这样基本不存在重男轻女的大城市里边, [25:21.59]女生的考试成绩普遍比男生好, [25:24.56]那如果根据这个规律, [25:26.05]为了提高学校的总体成绩, [25:28.37]在高一入学的时候尽量的多录取女生, [25:32.15]这个不就是对男生的歧视吗? [25:34.78]你的经验很可能是准确的, [25:36.82]但是你是在用以前人的表现去惩罚来的人, [25:41.18]你是在让一个人为不是他自己的行为付出代价。 [25:46.26]这是一切基于经验的决策的本质缺陷。 [25:50.46]人工智能就算再厉害, [25:52.05]只要是基于经验的, [25:53.55]只要预测不是100%准确, [25:56.11]就一定会有人被冤枉。 [25:58.82]所谓公平, [26:00.05]其实就是你的主观选择。 [26:02.28]选择算法准确度的公平, [26:04.22]你就会冤枉一些特定的黑人, [26:06.81]选择不冤枉黑人, [26:08.09]你的算法就不准确, [26:09.81]你就会冤枉别的人。 [26:12.66]算法可以根本不考虑种族, [26:14.82]但是种族就隐藏在数据之中。 [26:17.95]丑小鸭定理说, [26:19.15]一切分类都是主观的, [26:21.37]有分类就会有歧视, [26:23.71]此事古难全。 [26:25.78]人工智能给我们的决策提供很大的方便, [26:29.06]但是社会还是这个社会, [26:31.40]数学还是同样的数学, [26:33.38]人工智能解决不了问题的本质。 [26:36.98]好, [26:37.44]那说到这儿, [26:38.06]这本书的主要内容我们就介绍的差不多了, [26:40.50]下面我们来总结一下。 [26:42.46]我们谈起技术进步, [26:43.93]通常听到的都是好消息, [26:46.01]比如说边远地区不是送货难吗? [26:48.47]那我们可以用无人机送货呀? [26:50.90]农村的教育资源有限是吧? [26:52.87]那我们可以让农民看电视学技术啊。 [26:55.76]技术肯定是能给一部分人带来方便的, [26:58.68]但是要想全面解决一个社会问题, [27:01.47]那就太难了。 [27:02.85]就算是看似成功的实践背后, [27:05.37]也不知道有多少意想不到的情况。 [27:08.90]我在大学的时候曾经选修过一门课, [27:11.58]叫软件工程, [27:13.41]当时软件工程在中国才刚刚起步, [27:16.26]还没有多少个开软件公司的一夜暴富的神话。 [27:20.31]但是给我们讲课的老师当时在外边儿也接了一些小活儿, [27:24.00]他有丰富的实践经验。 [27:26.34]比如说他就分享了一个关于超市的例子, [27:29.41]当时他帮一个超市做进货销售和存货的计算机管理系统, [27:34.60]这个系统是做好了, [27:36.13]但是运行起来之后呢, [27:37.60]发现计算机显示的库存跟实际的库存总是对不上, [27:42.22]然后老板就说, [27:43.36]诶, [27:43.63]你这个系统是不是没弄好啊? [27:45.66]其实根本就不是系统有问题, [27:48.19]而是超市员工一直都在偷拿东西, [27:51.97]那在这样的情况下, [27:53.40]你怎么能把软件做成并且运行起来, [27:57.07]这个也是软件工程的一部分。 [28:00.64]所以说, [28:01.36]技术确实经常能让事情更有效率, [28:04.13]但是写程序的是人, [28:06.11]录入数据的是人, [28:07.70]使用系统的还是人。 [28:10.08]如果解决不了人的问题, [28:12.04]技术始终不能解决真正的社会问题。 [28:16.38]好, [28:16.80]以上就是这本书的全部内容, [28:18.64]你还可以点击音频下方的文稿查收我们给你准备的文稿和脑图。 [28:23.62]恭喜你, [28:24.29]又听完了一本书。 

LRC动态歌词下载

[00:00.00]90听音乐网 www.90T8.com
[00:00.60]你好,
[00:01.26]欢迎你每天听本书。
[00:02.98]本期要给你解读的是一本2018年4月份出版的英文书,
[00:07.36]题目叫做人工不智能,
[00:09.70]计算机如何误解世界。
[00:12.46]这本书的作者是人工智能专家、
[00:14.83]数据记者和纽约大学的助理教授梅瑞迪斯布鲁萨德。
[00:19.70]如果用一句话来总结这本书的精髓呢,
[00:22.43]就是人工智能想要大规模的取代人类并不是一件容易的事情,
[00:27.32]它还有很长的一段路要走,
[00:29.69]而我们对于人工智能的恐慌其实都是在过度想象。
[00:34.46]生活在今天,
[00:35.61]相信你已经听说过太多关于人工智能的话题,
[00:39.27]什么人工智能将会改变世界啊,
[00:41.69]还有人工智能将会让大多数人失业等等。
[00:45.28]但是事实上,
[00:46.21]像未来简史那本书里们担心的那种,
[00:49.60]数据和算法掌控一切的未来,
[00:52.07]离我们还非常遥远。
[00:54.24]现在的人工智能根本就没有那么厉害,
[00:57.04]在可预见的近期内,
[00:58.68]不会有什么人工智能导致的大失业,
[01:01.51]也就是说,
[01:02.44]其实我们都高估了人工智能。
[01:05.98]电视剧西部世界里面那样的机器人,
[01:08.66]跟现在高科技公司正在研发的那种人工智能完全是两码事。
[01:14.38]我们很多关于未来人工智能的种种想象,
[01:17.60]比如说什么取代人类啊,
[01:19.58]甚至超越人类,
[01:20.84]都只是物理学家的纯理论设想,
[01:23.93]或者干脆就是科幻作家的血统。
[01:27.02]现在真实的人工智能其实应该叫人工,
[01:30.56]不那么智能。
[01:32.08]阿尔法狗下赢了围棋这件事情其实没有什么大不了的,
[01:35.90]它只不过是一个算法机器而已。
[01:38.88]我们对于人工智能的误解,
[01:40.66]如果仅仅是观念和想象也就罢了,
[01:43.84]更严重的是因为人们过分的依赖计算机算法,
[01:47.50]反而带来了一系列社会问题,
[01:50.08]所以我们需要正确的认识人工智能。
[01:53.34]这是这本书的作者梅瑞迪斯布鲁萨德写这本书的用意。
[01:57.73]这位布鲁萨德是一位女性,
[01:59.58]她毕业于哈佛大学计算机系,
[02:01.99]拥有计算机和数学的学位。
[02:04.84]他自己创造过好几个人工智能系统,
[02:07.57]而且在MIT的媒体实验室工作过。
[02:10.92]布鲁萨德现在是纽约大学的助理教授,
[02:14.14]同时他还是一个记者,
[02:16.06]而他的这个记者呢,
[02:17.41]是一种非常新型的记者,
[02:19.24]叫做数据记者。
[02:21.46]数据记者的工作不是整天采访什么大数据科学家,
[02:25.46]而是自己从数据里面挖掘故事。
[02:28.98]布鲁萨德做的事情是自己编写一个人工智能的专家系统,
[02:33.85]然后让这个系统替他从数据库里面发现规律,
[02:38.20]然后他从中获得洞见,
[02:40.39]写成报道。
[02:41.80]也就是说,
[02:42.61]布鲁萨德是一个用数据发现真相的人。
[02:46.31]布鲁萨德这个数据记者,
[02:47.96]他最关心的是让那些已经在取代人类做决定的算法负责任。
[02:54.54]他发现人们过于的相信算法了,
[02:57.58]算法都是人写的,
[02:59.17]人会犯错,
[03:00.25]算法也会犯错。
[03:01.96]而现在的人们非常爱说什么啊,
[03:04.30]计算机改变了世界,
[03:05.95]特别是乔布斯啊,
[03:07.26]动不动就说,
[03:08.02]嗯,
[03:08.35]这个产品再一次改变了世界。
[03:10.96]而布鲁萨德会告诉你,
[03:12.74]其实计算机并没有改变什么,
[03:15.53]社会还是这个社会,
[03:17.09]计算机并没有解决我们的社会问题。
[03:20.70]好,
[03:21.21]接下来我就通过3个部分来帮你说说这本书的内容。
[03:25.34]第一部分,
[03:25.98]我会让你了解高估人工智能会产生什么样的社会问题。
[03:31.06]第二部分,
[03:31.63]我会让你明白自动驾驶这件事情到底有多难,
[03:35.90]而第三部分,
[03:36.79]我会让你看清现阶段人工智能的社会化应用的根本矛盾是什么。
[03:43.48]好,
[03:43.90]那我们就先来说第一部分,
[03:45.56]高估人工智能会产生什么样的社会问题。
[03:49.26]现在有一种情绪被布鲁萨德称为技术瞎门主义,
[03:53.38]认为一切社会问题都可以用技术来解决,
[03:56.80]特别是可以用计算机技术来解决。
[03:59.80]而布鲁萨德这本书就是专门跟技术沙文主义唱反调的。
[04:04.96]他认为,
[04:05.59]包括人工智能在内的所谓的新技术其实并没有解决真正的社会问题。
[04:11.51]好,
[04:11.77]那我们就先来说一个简单的例子。
[04:14.36]假设你任职于某一个贫困地区的教育局,
[04:18.15]你负责给本地的中小学生发放课本,
[04:22.05]好,
[04:22.34]那现在你怎么能保证每个学生都能拿到课本呢?
[04:26.10]你肯定会认为这是一个简单的问题,
[04:28.77]中国最穷的地方也没有发生过学生上课没有教材的事儿啊。
[04:33.64]好,
[04:34.22]但是美国有好几个州,
[04:36.22]包括像纽约州、
[04:37.69]宾夕法尼亚州和华盛顿州啊这样比较有钱的州,
[04:41.72]那些地方却有很多学生没有教材可以用。
[04:45.74]这是一个严重的社会问题,
[04:47.72]但是却不能用技术的方法来解决。
[04:51.22]几年前,
[04:52.04]布鲁萨德的儿子上小学,
[04:53.87]他们当时一家人住在宾夕法尼亚州,
[04:56.54]当时儿子要准备全州统一的标准化考试,
[05:00.11]然后呢,
[05:00.59]布鲁萨德就研究了一下考试的内容。
[05:03.48]他就发现这个考试其实可以破解的答案全部都在课本里面,
[05:08.26]只要你把课本的内容参透了,
[05:10.45]那通过考试是非常简单的。
[05:13.00]而反过来说呢,
[05:14.11]如果你不看课本,
[05:15.48]哪怕你的知识面再广,
[05:17.17]也很难在考试上取得好成绩。
[05:19.92]这也就是为什么美国有很多老师痛恨标准化考试啊,
[05:24.36]不过我们忽略这点哈,
[05:25.60]因为不是我们今天想说的重点。
[05:27.90]重点是在于这么简单的考试,
[05:30.31]美国能够熟练解题的学生还不到一半,
[05:33.91]而宾夕法尼亚的高中的毕业率只有64%,
[05:38.23]而根本的原因就在于很多学生拿不到课本。
[05:42.90]哦,
[05:43.29]你可能会觉得这不荒唐吗?
[05:45.58]我要是中学生,
[05:46.62]那我第一件事儿就是得给自己弄一套课本啊,
[05:49.99]但是对不起,
[05:50.95]真没有。
[05:52.24]咱们中国的教材是由国家统一出版的,
[05:55.10]价格很便宜,
[05:56.66]但是美国的教材是由私人公司出版的,
[05:59.89]价格很贵,
[06:01.16]比如说一本中学生用的文学教材就要114.75美元。
[06:07.36]政府的教育经费往往比较有限,
[06:10.13]有时候分到每个学生头上的教材费可能只有30多美元,
[06:14.90]那这样一来呢,
[06:15.88]就存在很大的缺口。
[06:18.12]好,
[06:18.64]那你说哎,
[06:19.56]政府钱不够,
[06:20.47]那我自己买一套行不行啊,
[06:22.36]对不起,
[06:23.01]没有这个渠道。
[06:24.64]布鲁萨德儿子的教材学校是不让带回家的,
[06:27.95]他当时想给儿子另外买一套,
[06:30.34]但是各处都找不到,
[06:32.21]就连盗版都找不到。
[06:33.95]现在美国中小学的课本都是由三大公司出版的,
[06:38.03]直接供货到学校。
[06:39.80]同时呢,
[06:40.43]考试题也是这几家公司出,
[06:42.98]换句话说呢,
[06:43.82]就是你用的是这些公司的课本,
[06:46.31]然后还得用这些公司的考题,
[06:48.74]是一条龙服务的,
[06:50.45]这个是每年几十亿美元的生意。
[06:54.40]好,
[06:54.92]那你说诶,
[06:55.85]能不能让学生们重复的使用旧教材呢?
[06:59.15]好,
[06:59.44]有的时候也确实是这么干的,
[07:01.43]有的学生还在用80年代的师兄师姐的教材,
[07:05.57]但是这个做法通常不可行,
[07:07.94]因为教材几乎每年都要随着州政府的教育政策变来变去。
[07:13.76]好,
[07:14.31]这个还不算,
[07:15.69]有一些看起来能用技术解决的问题也解决不了。
[07:19.68]比如说有的时候经费到位了,
[07:21.74]书也买了,
[07:22.68]但是书被放置在学校的仓库里面,
[07:25.52]就根本都没有发到学生手上。
[07:28.16]老师呢?
[07:28.79]是以为今年还是没有书,
[07:30.63]而校长不记得书有没有买?
[07:33.60]布鲁萨德找到了一个类似于区教委的机构,
[07:37.24]好,
[07:37.50]他就问区教委说,
[07:39.16]你们知不知道辖区内这些学校今年都开了什么课程,
[07:43.20]需要什么教材呢?
[07:44.65]好,
[07:44.94]然后区教委就说,
[07:46.09]呃,
[07:46.36]这个真没有,
[07:47.44]但是呢,
[07:47.97]我们有一个中央数据库,
[07:49.75]有各个学校订购教材的数据。
[07:52.38]然后布鲁萨德就把这个数据拿过来,
[07:54.73]结果一看,
[07:55.44]发现很多学校订购的教材数跟学生的人数根本就对不上,
[08:00.76]然后布鲁萨德就跑到各个学校去做现场调查,
[08:04.75]发现教材的发放和管理都非踌乱。
[08:08.52]学校经费有限,
[08:09.88]人手不够,
[08:10.87]而有些校长呢,
[08:12.06]要亲自管理教材。
[08:14.10]有的校长不愿意用周里的数据库系统,
[08:16.95]就自己弄了一个表格啊,
[08:18.76]结果就是很难跟别人区分,
[08:21.04]最后是一大堆问题。
[08:22.96]布鲁萨德就说,
[08:24.35]数据技术再先进,
[08:26.00]最初的数据录入也是由人来完成的。
[08:29.72]如果校长根本就不愿意录入数据,
[08:32.33]老师根本就统计不清楚自己的班需要多少教材,
[08:36.47]那再先进的计算机技术又有什么用呢?
[08:39.84]这里的主要问题在于,
[08:41.71]教育本质上是因人而异的、
[08:44.56]混乱的、
[08:45.36]动态的系统,
[08:46.69]而公共教育系统是一个统一的、
[08:49.47]标准化的、
[08:50.47]最好是不变的系统。
[08:52.60]比尔盖茨和梅琳达基金会一直在美国推行一个所谓的共同核心课程系统啊,
[08:59.48]就相当于中国的这种全国统一的教学大纲和标准化考试。
[09:04.42]但是呢,
[09:04.87]这个做法在各地受到了老师和学校的抵制,
[09:08.36]其实老师的抵制是有道理的,
[09:10.91]这个不仅仅是不***,
[09:12.55]而是不同学区的水平差异很大,
[09:15.59]用一个标准来要求呢,
[09:17.20]确实不合适。
[09:18.50]学校教育就没有自由度了,
[09:20.42]而且英式教育的负面影响太大了,
[09:23.42]结果现在就是美国的公共教育非踌乱。
[09:28.20]布鲁萨德说,
[09:29.41]盖茨这帮人是想把教育当成一个工程问题去解决。
[09:34.78]工程问题本质上是数学,
[09:37.22]是需要在一个定义良好的环境里面,
[09:40.36]用定义良好的参数描写一个定义良好的问题。
[09:45.05]但是教育问题从来就不是什么定义良好的,
[09:49.16]里面是有各种复杂情况的。
[09:51.82]复杂和标准化是一对永恒的矛盾,
[09:55.01]这就是为什么计算机技术发展了这么多年,
[09:57.92]而美国的基础教育几乎没有发生任何进步。
[10:02.44]所以我们可以看到,
[10:04.07]在分发教材这件事儿上,
[10:06.47]计算机、
[10:07.13]人工智能都不能起到很好的作用,
[10:10.07]因为他们擅长的是解决工程问题。
[10:13.82]工程问题要求定义良好,
[10:16.04]而复杂的社会问题恰恰是不能定义良好的。
[10:20.14]那么好,
[10:20.72]你说我们不解决社会问题,
[10:22.78]我们就应对以工程问题为主的这些事情,
[10:26.33]行不行?
[10:27.28]好,
[10:27.53]这个答案是可能还是不行。
[10:30.02]接下来我们就来说一说在自动驾驶这个看上去是一个纯工程的问题上,
[10:36.27]人工智能有多难,
[10:38.37]这个也就是我们第二部分的内容。
[10:40.80]我们先来说一个结论,
[10:42.60]现阶段所有的人工智能都有一个根本的弱点,
[10:46.68]这个弱点就是他们高度依赖数据。
[10:50.04]他们都是对过去经验的总结,
[10:52.18]他们没有办法预测没见过的事情。
[10:55.76]所以这种人工智能的应用场景非常有限。
[10:59.42]他们最适合那些常见的、
[11:01.70]简单的、
[11:02.55]不变的应用场景,
[11:08.52]那就会面临各种问题,
[11:10.60]比如说自动驾驶汽车。
[11:13.70]公众对自动驾驶汽车这个话题已经欢呼了很多年。
[11:18.30]好,
[11:18.59]那我们要问,
[11:19.53]现在自动驾驶技术是一个什么情况呢?
[11:22.71]国际汽车工程学会弄了一个标准,
[11:25.62]把自动驾驶汽车一共分成5个级别。
[11:29.50]0代表完全没有自动化,
[11:31.73]就是完全是人类在开车。
[11:34.26]1级指的是计算机在某些时候,
[11:37.17]在某种程度上可以给人提供一些辅助性的帮助,
[11:41.44]比如说像自动刹车呀,
[11:43.23]保持车道啊,
[11:44.14]还有涂辅助等等。
[11:46.21]而第2集呢,
[11:47.20]是有的时候汽车可以自己开,
[11:49.51]但是要求人一直盯着。
[11:51.90]这个特斯拉现在已经做到了这个级别,
[11:54.88]而3级呢,
[11:55.84]是说人可以不盯着了,
[11:57.48]就让车自己开,
[11:59.20]但是呢,
[11:59.74]如果车向你发出信号,
[12:01.50]你是要随时接管驾驶的。
[12:04.22]而4级指的是在某些环境和条件下可以实现自动驾驶,
[12:09.12]人去睡觉都没有问题。
[12:11.50]第5集呢,
[12:12.29]是完全的自动驾驶,
[12:14.09]也就是不管什么天气和路况,
[12:16.49]人都不用再管车了。
[12:18.90]好,
[12:19.15]那截至此时此刻,
[12:20.74]任何一家公司的自动驾驶技术都没有超过二级。
[12:25.70]而有些专家认为五级自动驾驶是一个永远都达不到的目标,
[12:31.26]好,
[12:31.56]那为什么这么说?
[12:32.79]因为人工智能它处理不了意外。
[12:36.92]其实你开车的时候并不是简单的把着方向盘,
[12:40.52]控制着刹车和油门,
[12:42.42]你是非常有智能的。
[12:45.22]比如说你要看交通信号,
[12:47.12]你要看路边的各种标志物,
[12:49.40]你要判断路上有什么东西,
[12:51.83]如果这个时候路上有一只小鸭子正在慢慢的走啊,
[12:55.52]那这个时候你得刹车,
[12:57.20]但如果是一只小鸟呢,
[12:58.81]你可以想象,
[12:59.60]如果车开过去,
[13:00.61]小鸟就飞走了啊,
[13:01.75]那你就不用减速了。
[13:03.38]而如果路上有一个塑料袋啊,
[13:05.33]那你是可以直接压过去的,
[13:07.35]不过如果是一个石头,
[13:09.42]你就必须得绕着走的。
[13:11.72]所以你看你对路面状况是有深刻的理解的。
[13:15.96]这种理解跟你的生活阅历,
[13:18.07]还有你平时积累的经验有关,
[13:20.68]最起码你得知道塑料袋是什么,
[13:23.13]石头是什么好,
[13:24.78]但是汽车并不知道啊。
[13:27.28]计算机只关心这些物体的运动趋势,
[13:30.29]估算出每个物体的速度,
[13:32.48]预测它的路线,
[13:33.77]然后看看跟车的路线会不会发生冲突,
[13:37.40]如果有冲突呢,
[13:38.47]就刹车或者绕着走。
[13:40.49]但是真实的路面上会有各种意外。
[13:43.98]我们都知道,
[13:44.73]谷歌一直在训练自动驾驶技术,
[13:47.29]他们遇到过各种各样奇怪的情况。
[13:50.50]有一次,
[13:51.11]有几个小孩在高速公路上玩青蛙啊,
[13:54.71]这个很奇怪吧?
[13:56.00]还有一次,
[13:56.74]有一个残疾人,
[13:58.01]他坐着一个电动轮椅,
[13:59.65]然后在马路中间追一只鸭子。
[14:02.62]鸭子在马路上绕圈跑,
[14:04.46]然后这位残疾人呢,
[14:05.75]也追着绕圈转,
[14:07.34]好,
[14:07.79]那你说这种情况下,
[14:09.23]一下子就能精准的预测这些人的运动路线吗?
[14:13.62]自动驾驶汽车识别路边的物体,
[14:16.08]是靠把激光打到那些东西上,
[14:18.60]再反射回来,
[14:19.71]然后感知它们的距离的。
[14:21.79]但是如果这时候正在下雪或者下雨,
[14:25.27]那激光就有可能打到面前的雪花或者雨点上,
[14:29.44]直接反射回来了,
[14:30.82]那汽车可能就对周围的物体产生重大误判。
[14:35.78]计算机能不能保证看懂路边的标记、
[14:38.91]限速,
[14:39.38]还有慢行的交通牌呢?
[14:41.94]图形识别技术是非常难的,
[14:44.49]别忘了谷歌曾经把奥巴马的夫人米歇尔给识别成一只黑猩猩。
[14:50.40]假如标志牌有损坏或者伤疤被人贴了小广告,
[14:54.25]那汽车就很可能无法识别。
[14:57.22]还有,
[14:57.77]现在自动驾驶汽车都高度的依赖GPS定位,
[15:01.79]但是现在在美国有一种50块钱就能买到的装置,
[15:05.93]能在周围干扰GPS信号好,
[15:09.14]那如果在路上有人使用这个装置,
[15:11.63]自动驾驶汽车要怎么办?
[15:14.46]2016年,
[15:15.61]特斯拉的一个司机违反规定,
[15:17.89]把车完全的交给自动驾驶,
[15:20.26]结果因为汽车没有识别出来迎面开来的一辆白色卡车,
[15:24.94]导致司机死亡啊,
[15:27.16]可能当时人工智能以为这个白色卡车是天上的白云或者是什么别的东西。
[15:32.86]当然了,
[15:33.56]在这个故事里面,
[15:34.63]司机确实犯了错误,
[15:36.23]不过这也恰恰说明自动驾驶技术非常容易遭遇预判好,
[15:41.45]而除了安全问题,
[15:42.86]自动驾驶还有道德问题。
[15:46.20]比如说,
[15:46.84]你正在以很快的速度开车,
[15:49.03]突然就发现前面有一群小学生在马路上打闹,
[15:52.87]而如果你要避让这些小学生呢?
[15:55.00]你就会撞到路边的建筑物墙上,
[15:57.73]而如果撞墙的话,
[15:59.26]你的生命就面临危险。
[16:01.66]好,
[16:02.06]那在这种情况下,
[16:03.50]你是选择撞墙还是撞小学生呢?
[16:07.34]好,
[16:07.62]那有道德的人,
[16:08.79]比如说我吧,
[16:09.90]那肯定是宁可自己面对生命危险,
[16:12.48]也不能就这么撞小学生啊。
[16:14.61]现在有很多公司正在研究自动驾驶的道德规范。
[16:19.18]谷歌甚至还专门聘请了哲学家,
[16:21.95]但是没有研究出来什么令人满意的方案。
[16:25.60]而奔驰公司已经宣布,
[16:27.59]他对自动驾驶汽车的设定是优先保证自己车里面的司机和乘客的安全,
[16:34.46]也就是说,
[16:35.23]在刚才的情况下,
[16:36.71]奔驰车会果断撞向小学生。
[16:40.54]好,
[16:41.02]那你说这不是杀手汽车吗?
[16:43.18]这种汽车怎么能上路呢?
[16:45.20]所以啊,
[16:45.68]这就出现了一个道德困境啊。
[16:48.32]人在现场不管做出怎么样的临时反应,
[16:51.20]我们都认为这是正常的,
[16:53.28]但是不管人工智能怎么事先设定,
[16:56.58]我们都觉得别扭。
[16:58.76]自动驾驶技术还有一个经济学问题,
[17:01.89]机器学习是高度依赖数据的。
[17:04.71]我们知道有一个所谓的二八法则,
[17:07.56]说的是你花20%的时间就能解决80%的问题,
[17:12.03]而剩下的80%的时间只能解决20%的问题。
[17:16.88]对于自动驾驶汽车来说,
[17:18.81]我看更可能是你用2%的数据就能训练出一个解决路面上80%的情况的自动驾驶系统,
[17:27.63]但是剩下的那个20%的情况,
[17:30.66]就算是你再用98%的数据也未必能解决。
[17:35.90]美国的50个州都有各自的交通法规,
[17:38.76]各地的气候条件和路况也都不一样,
[17:41.64]而且这还不算美国和中国的差别好,
[17:44.82]那这意味着什么?
[17:46.34]这意味着,
[17:47.03]在一个地区训练出来的自动驾驶技术,
[17:49.83]换一个地方可能就不好使了。
[17:55.33]你必须在每一个地区都采集大量的数据才行。
[17:59.34]好,
[17:59.83]那谁拥有这么多数据呢?
[18:02.20]现在冒出来很多搞自动驾驶技术的公司,
[18:05.32]我就非常怀疑他们怎么跟谷歌竞争。
[18:08.44]谷歌一直都在积累数据,
[18:10.45]算法都是现成的,
[18:12.13]真正值钱的是数据。
[18:14.56]谁掌握了数据,
[18:15.83]谁的自动驾驶技术才有市场。
[18:18.66]人工智能时代的商业帝国一定是数据帝国,
[18:22.48]小的创业公司将会越来越难以起步。
[18:26.16]所以我们可以看到,
[18:27.36]即便是在自动驾驶这样看上去几乎纯工程领域的问题上,
[18:32.13]人工智能也有非常大的局限。
[18:35.28]第一,
[18:35.76]它不安全,
[18:36.79]第二,
[18:37.23]他不道德,
[18:38.14]第三,
[18:38.71]它不能促进商业平等,
[18:41.02]它只会让强大的公司变得更强大。
[18:43.72]因此,
[18:44.38]在可预见的未来,
[18:45.91]也许我们还是得自己开车。
[18:49.60]好,
[18:49.82]这就是我们说的第二部分内容,
[18:51.95]接下来我们来说一下第三部分,
[18:53.96]也就是现阶段人工智能的社会化应用的根本矛盾是什么?
[18:59.78]在这一部分里面,
[19:01.04]我们要讲一个小道理和一个大道理。
[19:04.38]大道理很容易理解,
[19:05.73]但是这个小道理比较烧脑,
[19:08.02]它相当于是一道数学题,
[19:09.70]而且是在2016年才被人想明白,
[19:12.55]还专门发表了学术论文。
[19:14.90]不过呢,
[19:15.38]你并不需要任何高级的数学知识,
[19:17.72]我帮你从直观上来理解这个道理。
[19:21.08]这件事儿还得从美国的司法制度说起。
[19:24.84]中国的犯人,
[19:25.72]在理论上说,
[19:26.64]不管是什么人,
[19:27.82]同样的罪行就意味着同样的刑期,
[19:31.09]如果你在监狱里表现好呢?
[19:33.04]那同样的表现就等于同样的减刑。
[19:36.07]惩罚力度跟你是一个什么样的人是没有多大关系的。
[19:40.34]但是在美国,
[19:42.04]法官判决的时候,
[19:43.49]会看犯人是一个什么样的人,
[19:46.05]同样的罪行,
[19:46.92]如果这个人平时表现良好,
[19:49.07]就可以得到轻判。
[19:50.94]这个指导思想是看犯人将来再次犯罪的可能性的大小,
[19:55.84]如果法官认为这个人将来不会再次犯罪,
[19:58.53]那法官就会轻判,
[20:00.09]而且呢,
[20:00.69]很容易批准假释,
[20:02.74]但如果法官判断这个人将来很可能再次犯罪,
[20:05.73]那就会从重从严判罚啊,
[20:08.52]什么减刑啊,
[20:09.43]假释啊,
[20:09.96]你都别想了,
[20:10.90]你就在监狱里好好待着,
[20:12.82]省着出去危害社会。
[20:14.66]好,
[20:15.11]那问题就来了,
[20:16.14]呃,
[20:16.46]怎么能知道一个人是一个什么样的人呢?
[20:19.58]在以前都是靠法官的主观判断,
[20:22.35]这个肯定不太靠谱,
[20:23.79]所以呢,
[20:24.30]现在用的是算法来判断。
[20:27.36]在美国有一个公司叫northpoint啊,
[20:30.39]他开发了一个算法叫做compass,
[20:33.01]这个算法可以专门用来判断一个犯人再次犯罪的可能性大小。
[20:38.26]这个康普算法会考虑一个犯人的100多项指标,
[20:41.83]然后给他综合打出一个分。
[20:44.10]这个分值是从1分到10分的,
[20:46.69]分数越高,
[20:47.55]代表将来再犯罪的概率也就越高。
[20:50.98]那你看这个就比法官的个人判断要强多了,
[20:54.41]毕竟哪个法官也不可能同时考虑这么多指标嘛,
[20:58.01]算法是冷冰冰的,
[20:59.33]但是算法也是客观冷静的。
[21:02.34]这个算法的原理都用大数据,
[21:04.63]根据以往的经验,
[21:05.88]你考察若干个指标,
[21:07.41]对一件事情做出判断。
[21:09.70]训练算法的时候呢,
[21:10.94]用的都是美国的数据,
[21:12.59]犯人都是美国的犯人。
[21:14.86]美国的犯罪环境变化也不大,
[21:17.12]所以这一套完全合理。
[21:19.16]而且呢,
[21:19.73]这个northpoint公司还非常痛快,
[21:22.16]他把自己用的所有数据都在网上公布了,
[21:25.46]等于说你可以随便的研究。
[21:27.72]不过呢,
[21:28.23]它具体的算法是保密的啊,
[21:30.31]只是数据公开了。
[21:31.60]如果你不服它的算法,
[21:33.12]你可以自己开发一套算法跟它比,
[21:36.19]结果人们就发现,
[21:37.29]这个compass的算法的准确率还是可以的。
[21:40.48]那些算法给打了一分的人,
[21:42.39]他们再次犯罪的概率只有22%,
[21:45.28]而打了10分的犯人,
[21:46.63]他们再次犯罪的概率高达81%。
[21:50.14]一般来说,
[21:50.98]这种犯罪率的判断,
[21:52.48]最害怕被人指责的就是种族歧视。
[21:55.43]我们都知道黑人的犯罪率是比较高的,
[21:58.40]那有没有可能仅仅因为这个犯人是黑人,
[22:01.39]那你就调高他的分数呢?
[22:03.80]康普算法在这一点上做得很绝,
[22:06.29]就是他根本就不考虑这个人是不是黑人,
[22:09.51]因为100多项指标,
[22:10.91]包括有性别、
[22:12.17]年龄,
[22:12.68]还有以前的犯罪历史等等,
[22:14.67]其中根本就没有种族这个项目。
[22:17.72]事实上,
[22:18.15]人们发现算法给打了7分的犯人里面,
[22:21.18]如果这个人是白人呢?
[22:22.73]那后来再次犯罪的概率是60%,
[22:26.04]而7分的黑人再次犯罪的概率是61%,
[22:29.85]所以说你看几乎相等,
[22:31.86]所以这个算法是真的没有对黑人有种族歧视的。
[22:35.82]不过,
[22:36.61]还是有人对northpoint公司提出了种族歧视的指控。
[22:42.02]有一个专门为了社会责任搞深入新闻调查的非盈利媒体,
[22:46.85]叫做,
[22:48.69]他就研究了一下这个算法。
[22:51.32]我们知道,
[22:52.02]算法预测的都只是概率而已,
[22:54.36]哪怕是被打了5分以上的分数,
[22:56.61]那这个犯人也不一定会再次犯罪。
[22:59.19]如果一个犯人明明后来没有犯罪,
[23:01.61]但是他被算法之前打了一个高分,
[23:04.20]那他就等于说被算法冤枉了。
[23:07.08]这个专门统计这种后来没有犯罪,
[23:10.93]但是当初被打了5分以上的情况。
[23:14.44]他们就发现,
[23:15.44]同样是那些后来没有犯罪的犯人,
[23:17.99]而黑人被打高分的可能性是42%,
[23:21.86]而白人只有22%。
[23:24.59]诶,
[23:24.88]你看,
[23:25.30]那这不就是说算法还是歧视了黑人吗?
[23:28.73]这个发现就引发了轩然大波。
[23:31.22]好,
[23:31.51]由于这里面具体的推导过程比较复杂,
[23:34.00]所以我们就只说结论。
[23:35.70]导致这个差别的原因是黑人总体在犯罪的概率高,
[23:39.88]而黑人被打高分的比例就必然高。
[23:43.42]每个分数代表的人群中,
[23:45.20]被冤枉的比例是固定的,
[23:47.06]那既然黑人总体被打高分的比例高,
[23:50.00]那么其中被冤枉的黑人就一定更多。
[23:53.92]啊,
[23:54.35]可能这么说还是不好理解啊,
[23:56.17]我们来打个比方吧,
[23:57.89]假设有个外星人,
[23:59.09]他根本就不知道地球上的人还分黑人和白人啊,
[24:02.81]他以为所有人都是一样的,
[24:04.67]那么这个外星人在拿到数据之后呢?
[24:07.22]他会认为这是一套公平的打分系统。
[24:10.40]但是当我们把黑人白人的标签放进去之后,
[24:14.14]我们却发现黑人被冤枉的比例更高。
[24:17.42]而个别黑人之所以吃亏,
[24:19.35]是因为黑人整体的在犯罪率比较高。
[24:23.48]好,
[24:23.96]那怎么避免这个现象呢?
[24:25.74]这个从数学角度是根本避免不了的。
[24:28.32]如果你想保护黑人,
[24:29.64]给黑人少打一些分数,
[24:31.35]那么你的分数系统就是不准确的。
[24:34.26]同样一个分数就不能代表同样的在犯罪率,
[24:37.75]法官就没有办法从这个分数体系中获得正确的参考意见。
[24:43.56]所以说,
[24:44.36]到底什么叫公平呢?
[24:46.57]程序员追求的是分数系统的准确性,
[24:49.84]记者要求的是不能冤枉黑人,
[24:52.42]而从数学上来说,
[24:53.88]这两个要求不可能同时被满足,
[24:56.74]这是一个根本的矛盾。
[24:58.98]只要用过去的经验去预测未来,
[25:01.35]就一定会有这个矛盾产生。
[25:04.08]经验的是一批人,
[25:05.19]要被预测影响的却是另外一批人。
[25:08.11]这就相当于新人要为前人犯的过错承刁果。
[25:14.14]其实这个矛盾在生活里普遍存在,
[25:17.06]比如说在上海这样基本不存在重男轻女的大城市里边,
[25:21.59]女生的考试成绩普遍比男生好,
[25:24.56]那如果根据这个规律,
[25:26.05]为了提高学校的总体成绩,
[25:28.37]在高一入学的时候尽量的多录取女生,
[25:32.15]这个不就是对男生的歧视吗?
[25:34.78]你的经验很可能是准确的,
[25:36.82]但是你是在用以前人的表现去惩罚来的人,
[25:41.18]你是在让一个人为不是他自己的行为付出代价。
[25:46.26]这是一切基于经验的决策的本质缺陷。
[25:50.46]人工智能就算再厉害,
[25:52.05]只要是基于经验的,
[25:53.55]只要预测不是100%准确,
[25:56.11]就一定会有人被冤枉。
[25:58.82]所谓公平,
[26:00.05]其实就是你的主观选择。
[26:02.28]选择算法准确度的公平,
[26:04.22]你就会冤枉一些特定的黑人,
[26:06.81]选择不冤枉黑人,
[26:08.09]你的算法就不准确,
[26:09.81]你就会冤枉别的人。
[26:12.66]算法可以根本不考虑种族,
[26:14.82]但是种族就隐藏在数据之中。
[26:17.95]丑小鸭定理说,
[26:19.15]一切分类都是主观的,
[26:21.37]有分类就会有歧视,
[26:23.71]此事古难全。
[26:25.78]人工智能给我们的决策提供很大的方便,
[26:29.06]但是社会还是这个社会,
[26:31.40]数学还是同样的数学,
[26:33.38]人工智能解决不了问题的本质。
[26:36.98]好,
[26:37.44]那说到这儿,
[26:38.06]这本书的主要内容我们就介绍的差不多了,
[26:40.50]下面我们来总结一下。
[26:42.46]我们谈起技术进步,
[26:43.93]通常听到的都是好消息,
[26:46.01]比如说边远地区不是送货难吗?
[26:48.47]那我们可以用无人机送货呀?
[26:50.90]农村的教育资源有限是吧?
[26:52.87]那我们可以让农民看电视学技术啊。
[26:55.76]技术肯定是能给一部分人带来方便的,
[26:58.68]但是要想全面解决一个社会问题,
[27:01.47]那就太难了。
[27:02.85]就算是看似成功的实践背后,
[27:05.37]也不知道有多少意想不到的情况。
[27:08.90]我在大学的时候曾经选修过一门课,
[27:11.58]叫软件工程,
[27:13.41]当时软件工程在中国才刚刚起步,
[27:16.26]还没有多少个开软件公司的一夜暴富的神话。
[27:20.31]但是给我们讲课的老师当时在外边儿也接了一些小活儿,
[27:24.00]他有丰富的实践经验。
[27:26.34]比如说他就分享了一个关于超市的例子,
[27:29.41]当时他帮一个超市做进货销售和存货的计算机管理系统,
[27:34.60]这个系统是做好了,
[27:36.13]但是运行起来之后呢,
[27:37.60]发现计算机显示的库存跟实际的库存总是对不上,
[27:42.22]然后老板就说,
[27:43.36]诶,
[27:43.63]你这个系统是不是没弄好啊?
[27:45.66]其实根本就不是系统有问题,
[27:48.19]而是超市员工一直都在偷拿东西,
[27:51.97]那在这样的情况下,
[27:53.40]你怎么能把软件做成并且运行起来,
[27:57.07]这个也是软件工程的一部分。
[28:00.64]所以说,
[28:01.36]技术确实经常能让事情更有效率,
[28:04.13]但是写程序的是人,
[28:06.11]录入数据的是人,
[28:07.70]使用系统的还是人。
[28:10.08]如果解决不了人的问题,
[28:12.04]技术始终不能解决真正的社会问题。
[28:16.38]好,
[28:16.80]以上就是这本书的全部内容,
[28:18.64]你还可以点击音频下方的文稿查收我们给你准备的文稿和脑图。
[28:23.62]恭喜你,
[28:24.29]又听完了一本书。

更新时间:2022-06-16 所属语言: 所属歌手:骇客武林 所属专辑:每天读一本好书

温馨提示:本站不存储任何音频,版权均属于各音乐门户,如果无意侵犯了你的权益请通过底部联系我们

推荐音乐

最新歌单

声明:本站不存储任何音频数据,站内歌曲来自搜索引擎,如有侵犯版权请及时联系我们删除,我们将在第一时间处理!

自若本站收录的无意侵犯了DJ或DJ所属公司权益,请通过底部联系方式来信告知,我们会及时处理删除!90听吧 

90听吧-免费MP3下载|流行DJ舞曲|抖音热门歌曲|网络热门歌曲|酷狗音乐排行 联系邮箱tamg2352@163.com