为什么Ray Kurzweil的垃圾科学理论能够骗人? 文/@王威廉

2015年2月17日 08:50 阅读 17万+
最近微信朋友圈和微博上有一篇特火的奇葩文章[13],叫做《人工智能达到奇点 - 最强论证文》,里面引用了不少Ray Kurzweil的理论,充满了各种科学臆想,各种没有来源的手绘图表,还包括如“时空穿梭”、“未来预测”、“吓尿单位”、”超人工智能“等吓人的名词,把许多不明真相的群众吓得一愣一愣的。如果是科幻文也就罢了,但是居然还说是论证。请问主要依据在哪?既然原文作者和中文小编硬要和人工智能扯上关系,我就只好帮大家科普一下Ray Kurzweil的其人其事,顺便介绍一下为什么这些人的垃圾科学(Junk Science)理论可以在美国和中国蛊惑人心。

Ray Kurzweil是谁?你如果百度搜索一把,结果真是要吓尿了,感觉就差挖掘机不是他发明的了:
“在人工智能、机器人、深度学习等领域,Kurzweil被视为一个奇才。”
“他曾发明了盲人阅读机、音乐合成器和语音识别系统。"
如果去他主页[12]上搜,首当其冲你会发现一张他和比尔盖茨的合照(咦,这伎俩怎么有点熟悉),然后你会看到他说自己是语音合成等多项技术的发明人。

那现在我们就事论事,事实是否如此呢?

去AAAI(国际人工智能学会)搜索 [ 9 ] 一把,关于Ray Kurzweil的科学论文为0:
那去德国著名的学术论文索引网站DBLP [10]看看?
你会发现Ray Kurzweil最近20年仅有的几篇文章要么是没有技术内容的摘要,要么是没有任何基于数据和科学实验的口水文章。 那你可以说Ray Kurzweil是个实践性发明人才,他不写论文。那事实是否如此?Ray Kurzweil说他发明语音识别这点成立吗?

做过语音研究的人都知道,语音识别技术最早是1932年贝尔实验室开始的 [ 4 ](基于频谱、非连续、限定语者及词汇),后来图灵奖得主Raj Reddy(也就是@李开复 的CMU博士导师)在斯坦福大学读博士期间进一步研究了连续语音识别问题,再到后来DARPA的资助下,Fred Jelinek和James Baker沿着统计的路子走 [ 5 ],做成了比较成功的基于隐马尔科夫模型的连续非特定人语音识别系统。至于语音合成,最早也是贝尔实验室开始研制的vocoder [ 6 ],然后才逐步发展起来的。目前最常用的unit-selection语音合成技术发明人是CMU的Alan Black [ 7 ],另一主流合成技术是HMM语音合成,与Kurzweil没有半毛钱关系。至于”深度学习,机器人技术的奇才“,实在是白日做梦了,不管是学术界还是工业界,从未听说过Kurzweil在这些领域有什么贡献。至于他是不是发明了扫描仪、OCR、盲人阅读器,这些交给各位自己去扒皮把。

那问题来了,Kurzweil没有任何科研和学术背景,他是怎么当上受到媒体追捧的“未来学家”?CBS早在2010年就对Kurzweil推销的垃圾科学的方法做有详尽分析[ 1 ],指出Ray Kurzweil推销的垃圾科学手段主要有:

  • #1: 抓住消费者的恐惧 Kurzweil经常鼓吹要把人脑植入计算机避免死亡,超强人工智能要毁灭人类,其实就是抓住了人们害怕的心理。
  • #2: 抓住流行文化。  他的垃圾科学还有一个重要的特点就是抓住廉价的科幻材料,抓流行文化,让大家更加相信他的理论。
  • #3: 使用社会传播而非科学论证 Kurzweil最常用的做法就是引用其他一些所谓的社会名流的论断(比如当年的千年虫Y2K),而不用科学的手段来论证。
  • #4: 从权威而不从事实出发。从K的网页我们就能看出,他的各种伪造的事迹,奖项,与名人的合影,让大家相信他是权威,所以大家相信他。
  • #5: 伪造证据。 CBS介绍,Kurzweil曾经在2002年引用了一份不存在的Gartner研究报告来佐证自己的观点。
  • #6: 把真实的科学当做垃圾科学。 Kurzweil认为:气候变化,这项大气和环境科学家多年的研究成果,是一个骗局。
  • #7: 用家庭成员来证明自己的可信度。《纽约时报》介绍,K曾经用自己的儿子在一份证词上证明自己可信。
  • #8 引用容易受骗的记者来传播消息。 Kurzweil经常欺骗类似Ashlee Vance这样的记者来传播他的正面新闻.
事实上,Kurzweil可不是一般的小忽悠,他的手段还是很系统,有计划,很高明的。比如,K喜欢提出一些让人在当前无法证明,也无法证伪的吓人论断来蛊惑人心(如”奇点理论“)。不过仔细留意就会发现,他的这些论断往往是没有任何依据的。其实辨别垃圾科学很容易:真正的科学是需要对问题有严格定义、有实际的技术、有验证的标准,有数据的支持。

另外,"未来学家"Ray Kurzweil的公司诈骗在美国证监会是留有案底的。他整日吹嘘“奇点”将近,而其在90年代创立的公司就被美国证监会起诉证券诈骗,见美国《商业周刊》96年文章《Kurzweil诈骗案剖析》[ 2 ] 与美国证监会的文件 [ 3 ] [ 8 ]。 

最后,我来正面回答一个问题:”目前人工智能技术的发展值不值得人类担忧自身的安全?“
我的回答是:“完全没必要担心。” 

目前可以用的人工智能应用无非是语音识别,图像分类,广告点击率预测,机器翻译,简单问答与对话系统等等。其实就算在这些任务中,不少实际使用的开放系统的准确率也往往达不到期望(如Amazon的最新智能家居助理Alexa [11])。再比如,在机器翻译中,西班牙语与英语的翻译已经取得了一些成果,但是中文,阿拉伯语,到英语的自动翻译结果还是差强人意。至于机器人是否能在未来10年超过人类的智商和占领地球,我觉得下面的情况更可能会反复出现:

 
那深度学习呢?深度学习是机器学习的一个重要分支,主要关注的是用神经网络做特征学习。目前深度学习取得进展较大的是语音识别 [14],图像分类 [15],文本分类[16] 等传统问题,主要取得的成果是在这些任务的准确率上:通过大数据,增加模型参数,降低variance,提高机器学习模型的健壮性得到的。首先,我们要肯定这些进步,然而我们也要认识到,当前的深度学习技术在知识推理、逻辑、规划、机器人领域等人工智能核心领域还没有取得重大的突破性科学成果。

那么人工智能的学者是不是只关心技术,不关心法律、经济、社会问题呢?这个答案也是否定的。事实上,每年都有很多关于人工智能与社会福利的研究[17],有很多的学者在从事人工智能对隐私、法律、经济、安全和社会的研究 [ 如 18, 19, 20, 21 ]。最近国际人工智能学会前主席Eric Horvitz也在斯坦福提出了AI一百年研究计划,指出了人工智能未来100年需要涉及人类的方方面面,为人类服务[22]。

比起普通民众的担忧,实际上不少人工智能的学者担忧的往往相反:目前人工智能的应用还比较初级,根本谈不上智能,甚至很多学者认为现在计算机连真正理解人类的语义也无法做到。引用CMU计算机学院Ed Hovy的话:“你们这些做研究的,机器分类的准确率再提高1%有什么用?我根本不关心。我问你,什么是语义? 你的程序能回答吗? 我问你的计算机程序一个简单问题,“小明买了一辆车”,句子里的“买”到底是什么意思,计算机根本无法回答。” 

所以,对于计算机科学家来说,不管是从工程上还是科学上来说,人工智能的研究都还是任重而道远。作为普通民众,也需要坚决抵制垃圾科学。

作者:@王威廉,美国卡内基梅隆大学计算机学院。
文章代表个人观点,转载请注明出处。

[ 1 ] //www.cbsnews.com/news/how-ray-kurzweil-sells-his-junk-science/
[ 2 ] //www.businessweek.com/1996/38/b3493123.htm 
[ 3 ] //www.sec.gov/litigation/litreleases/lr18469.htm
[ 4 ] //www.stokowski.org/Harvey%20Fletcher%20Bell%20Labs%20Recordings.htm
[ 5 ] //mitpress.mit.edu/books/statistical-methods-speech-recognition
[ 6 ] //en.wikipedia.org/wiki/Vocoder
[ 7 ] //ieeexplore.ieee.org/xpls/abs_all.jsp?arnumber=541110&tag=1
[ 8 ] https://www.sec.gov/litigation/litreleases/lr15187.txt
[ 9 ] //www.aaai.org/ocs/index.php/index/index/search/results
[10] //dblp1.uni-trier.de/pers/hd/k/Kurzweil:Raymond
[11] //www.wsj.com/articles/amazon-echo-review-talking-helper-alexa-is-no-match-for-siri-1422997829
[12] //www.kurzweilai.net/ray-kurzweil-biography
[13] //mp.weixin.qq.com/s?__biz=MjM5MTAyNjcyMA==&mid=203679648&idx=3&sn=6f12da9739160d56477426e1e3688a75&scene=1&from=singlemessage&isappinstalled=0#rd
[14] //www.isip.piconepress.com/courses/temple/ece_8527/lectures/2014_spring/lecture_38_spmag.pdf
[15] //papers.nips.cc/paper/4824-imagenet
[16] //nlp.stanford.edu/sentiment/
[17] //dssg.uchicago.edu/
[18] //www.aaai.org/ocs/index.php/AAAI/AAAI14/paper/view/8599
[19] //dl.acm.org/citation.cfm?id=2390629
[20] //www.cs.cmu.edu/~jasonh/
[21] https://css-center.stanford.edu/
[22] //news.stanford.edu/news/2014/december/ai-century-study-121614.html
感谢分享, 严谨有出处, 论点鲜明,资料详实!我分享了@王威廉 的文章 °为什么Ray Kurzweil的垃圾科学理论能够骗人?... ​​​​
AI学者担忧的往往相反:『Ed Hovy的话:“你们这些做研究的,机器分类的准确率再提高1%有什么用?我根本不关心。我问你,什么是语义? 你的程序能回答吗? 我问你的计算机程序一个简单问题,“小明买了一辆车”,句子里的“买”到底是什么意思,计算机根本无法回答。” 』@王威廉 °为什么Ray Kurzweil的垃圾科学理论能够骗人?... ​​​​
逻辑引擎
逻辑引擎:回复@SEED-LAB:So?
2015-7-14 02:30
SEED-LAB
SEED-LAB:Wang就是个骗子。。。
2015-7-14 01:39

正在加载中,请稍候...

UC Santa Barbara计算机科学系助理教授、CMU博士 http://www.cs.ucsb.edu/~william/