【极客挑战】争鸣人工智能“大跃进”

2015年4月30日 00:12 阅读 5275
【静点评】4月16日,我在微信公众号上转发了物理学家马兆远的文章《人工智能大跃进——看看物理学家怎么说:懂了你就不怕了》。当晚,即在极客云集的各个微信群中引发轩然大波。其中,一位名叫阎栋的年青极客更是长啸几声,说会写文章挑战马导的观点。前几天,阎栋的来论寄到。我倒有些纠结,其实作为一个纯文科生,我对哥德尔不完备定律和钱德拉塞卡极限证明实在一筹莫展。但这位极客的写作态度又很认真,人工智能是不是在“大跃进”等议题也确实有必要继续严肃论战下去。

怎么办呢?我想虽然自己无法就马兆远与阎栋之间的论点做出评判,但各位看官中高手如云,还可以就此议题三论、四论,作为对学术讨论与思想辩论的鼓励。

所谓真理不辨不明,今天就以原文+极客挑战+极客来鸿的三明治形式刊载此文。发布此文,不代表我同意论战其中任何一方的观点,我只是为愿意讨论人工智能议题的学者与极客提供平台。极客阎栋也表示他的观点不代表他所服务的公司机构,只是个人的学术意见表达。

各位看官如果对这种热点辩论的形式感兴趣,请在文末点赞。如果不爽,也可以回复消息给微信公众平台表达意见。

极客肖像


【阎栋】毕业于清华大学计算机系,博士期间研究方向为操作系统内核及分布式计算框架优化。现供职于Intel中国研究院的数据共享平台的研发小组,主要参与模块为隐私保护和数据分析。


原文参考【静点评】昨天在中科院自动化所3层报告厅,图像视频大数据产业技术创新战略联盟举办的第二届中国图像视频大数据产业创新论坛上,碰到物理学家马兆远。他在现场提问道:“目前大数据的增长速度已经超过了摩尔定律的硬件迭代速度,人工智能算法能应对这种急剧增长的海量数据么?”实际上,他对人工智能的未来发展持有一种审慎的态度。

换个视角看世界,可能会多一份清醒多一分理性。今天就给大家推荐马兆远的文章【物理学家看人工智能大跃进】。

【马兆远】1997年免试进入北京大学就读,毕业后赴英国牛津大学攻读物理学博士。三年后获得博士学位,并留校工作。2006年赴美国国家标准局联合实验室做博士后;从2007年到2009年在加州大学伯克利分校从事研究工作;2009年被聘为中国科学院百人计划研究员正教授,其研究领域涉及激光冷却量子气体、量子信息技术和精密气体探测装置。中国载人空间站天宫(X-1)号货运飞船冷原子平台首席科学家。他曾师从诺贝尔物理学奖得主威廉•菲利普斯,2009年回国展开科研并创业。

【阎栋】方便起见,在后文中称马兆远教授为马首席。

人工智能大跃进

看看物理学家怎么说:懂了你就不怕了

【马兆远】首先我申明,我不是做人工智能的出身,我做物理的出身,也还在做物理,只是从Common Sense 来看人工智能问题。做物理的说搞数学的是人文科学,因为自然科学的基本原则是实验来检验真理,废话少说,做实验给你看。数学不是不重要,只是数学是逻辑,是研究自然科学的工具。基于有限的假设,这么说OK,那么说也OK,要能在某一个领域里得到应用才有意义。同样某一个物理理论能在某一个实验里得到证实才重要,物理是实证的自然科学,因为它可以被证伪。就像我现在看投资项目,想法是最不值钱的,你一旦能在市场里证明盈利能力,估值会完全不同。

回到正题,物理出身,我看问题会更加基础,不会为人云亦云的说法鼓噪,这也符合我一贯烧冷灶的习惯。关于人工智能,回看历史至少引起过人类社会三次恐慌。

极客挑战


【阎栋】对应用学科缺乏了解的基础学科研究者,才会有这个“基础”优越感,马首席可能不是第一个拥有这种错觉的人。在现代科学体系中,每个学科所研究的问题分属不同的层级和领域,不能说因为你所在学科分工更偏基础的就有权利鄙视在更靠近应用的层级上工作的同事。

物理学家因为更理解物理世界的运行规律就能对计算机科学指手画脚?就好比一个对人体各种构造了如指掌的医生,能够很“基础”的看待各种社会学问题么。按照这种“基础”的逻辑,医生对人类个体的了解程度是所有职业中最高的,而整个人类社会不过是由人类个体组成的,那所有的社会学问题,医生都能提出有价值的更“基础”的观点咯?

第一次是在图灵的年代,美国大片这是个好东西。《模仿游戏》可以去看看。这次恐慌源于计算机的诞生,人们传统认为不可破译的密码,被计算机搞定了。这个趋势发展下去,是不是迟早有一天计算机就可以超过人类?八十年代以后个人电脑的普及带来了又一次恐慌。美国电影《机械战警》、《终结者》都是这个时期的代表。接下来就是这次了,又有《超能陆战队》、《Her》代表这一阶段。

极客挑战

【阎栋】AI的发展历程上确实经历过多个冬天,但说公众对AI技术恐慌则是夸大其词了。这种恐慌不是冷战期间每天一堆B2在天上不间断飞行以保证核报复能力的恐慌,而是回家之后躺在沙发上吃着爆米花看电影遇到恐怖镜头时用手捂住小孩眼睛的恐慌。

前一阵子遇到一个自封”人工智能狂热粉“的投资人,号称从互联网时代就创业投资做高科技,说起来哪个方向都能整几句的主儿。我调侃的问他,为什么人工去年开始又火了。他说,硬件便宜了所以火了。我,呵呵,这么说,硬件总符合摩尔定律,那为啥不是十年前,不是五年前,不是五年后,不是十年后,差那几块钱吗?这一次,我认为更多是因为谷歌和Facebook”应用了“我党提出的互联网+的概念,把云端接入,相当于机器人前端有了一个强大计算能力的后端。于是有了软件机器人和云端的人工智能。当然,这个也能叫深度学习的策动。

这一次也许不过是前两次的重复。

我们直奔主题,简短洁说下面是我觉得大可不必忧心忡忡世界末日的几个观点。

一,哥德尔不完备定律

1931年的时候哥德尔提出了哥德尔不完备证明。哥德尔证明我们以图灵机的方式是制造不出超过人类的计算机的。

极客挑战


【阎栋】 图灵机的原始论文发表于1936年,哥德尔不完备性定理提出于1931年,主要是为了回答希尔伯特二十三个问题中的第二问题,即任意一个包含皮亚诺公设的算数系统本身是否是相容的。马首席,您是打算穿越到1931年去告诉哥德尔老先生,按您的证明五年后发表的一篇论文中提出的数学模型不太行是么。

哥德尔不完备性定理:任意一个包含一阶谓词逻辑与初等数论的形式系统,都存在一个命题,它在这个系统中既不能被证明也不能被否定。第二不完备性定理如果系统S含有初等数论,当S无矛盾时,它的无矛盾性不可能在系统内证明。从数学逻辑的基础上否定了计算机超过人类。

极客挑战


【阎栋】 这一段前面看起来还是蛮靠谱的,毕竟只是引述哥德尔不完备性定理的基本内容。但是,引述完哥德尔不完备性定理的基本内容之后,马首席直接就得出了“从数学逻辑的基础上否定了计算机超过人类”这一结论!您真的不是在开玩笑么…

比如“这句话是错的”,这句话到底是对的还是错的?图灵机是没法说明它是对的还是错的。这就给图灵机开了个后门。这是哥德尔证明的简版。这问题1931年被提出来,图灵机一直没能解决这个问题。现在做线性系统的解决不了这个问题,人类会不断地去用更高维度的东西来解释低维度的东西,你总会在你的体系之外找到你这个体系的漏洞,没法做出一个完全完备的系统。

极客挑战

【阎栋】首先,马首席在这里随手拈来的“这句话是错的”这个例子,是罗素悖论诸多通俗版本中的一种,而不是哥德尔不完备性定理。而且早在1901年,罗素在研究康托尔的证明的时候就发现了罗素悖论,却被马首席硬改成了“这问题1931年被提出来”。此时距哥德尔不完备性定理的发现尚有数十年之久。而图灵机的概念还根本没有被发明出来,怎么就成了“图灵机一直没能解决这个问题”。顺带一提,与本段中“图灵机是没法说明它是对的还是错的”描述最接近的,应当是可计算性理论中的“停机问题”。但停机问题跟“开后门”有毛线关系啊,本文对比喻这一写作手法的运用真是充满想象力。

其次,前文复述的哥德尔不完备性定理中明确提到“包含初等数论的形式系统”,而“这句话是对的还是错的”明显不是一个包含初等数论的形式系统,也完全不是“哥德尔证明的简版”。事实上,马首席在这种简化中所犯的错误,与维基百科中[对哥德尔定理的一些误解]中的描述完全符合。

二,钱德拉塞卡极限证明

另外一个证明就是我最近提出来的所谓Chandrasekhar钱德拉塞卡证明。这个证明并不复杂,买杯啤酒用托盘纸的背面就能演算证明。如果我们认为人类的思维是线性的话,即我们现在计算机的图灵模式,那么我们现在做的计算机接入互联网之后,大概六十万台计算机的计算单元已经与一个人的大脑可比,这也是现在大家炒的深度学习的人工智能的基础。但是我们现在还没有看到互联网这样大规模的互联网有产生像人一样有学习行为。那说明在一定程度上人的思维模式可能不是线性的,不是像计算机这样的图灵机模式。

极客挑战

【阎栋】“如果我们认为人类的思维是线性的话,即我们现在计算机的图灵模式”“那说明在一定程度上人的思维模式可能不是线性的,不是像计算机这样的图灵机模式。”


如上两句话所示,本段的基本假设是图灵机是线性的,这纯粹是来搞笑呢?图灵机的形式化定义中哪里提到图灵机是线性的?遍搜各种资料,没见到一篇论文说图灵机是线性模型。唯一跟线性两字扯得上关系的只有线性有界自动机,是一种受限形式的非确定性图灵机。本段的这个假设实际上颠覆了整个计算机科学的基础理论模型…

那么在物理上存在两种信息模式,一种是所谓经典模式,一种是量子模式。我们的思维有没有可能是量子模式呢?量子本身讲的是关联的事情。用量子模式考虑人的大脑: 大脑到底有多复杂?假设每个脑细胞跟6个脑细胞发生关联,这个关联的数量是多大呢?我用一个经典的存储单元来记录这个关联,先不管它这个关联是怎样工作的,有一个关联你至少需要一个单元来记录这个关联。假设我们可以用一个经典的存储单元就能记录一个这样的关联。我们知道经典计算机,它的存储模式是“热投票”。一个磁体计算单元,它存的到底是0还是1呢?去看这个磁畴的时候,我会看到比方说每个磁畴里面会有一万个小的磁畴,小的磁畴就是小的指南针了,当小的指南针有超过百分之五十的指北的时候我会认为这个磁畴存的是1,当超过百分之五十指向南时,我们认为它存的是0。计算机的存储单元都是这样做的。根据大量的热的平均的行为统计来确定这个单元存的是1或者是0。那么热投票最少需要三个粒子,才能投出大多数来。物理实现上,一个记忆单元我们只选三个电子来构造一个经典的记忆单元,比电子轻的光子是没有意义的,它不能用来做记忆单元。

好,我们计算一下这个数量:130亿的脑细胞,每个脑细胞允许跟6个别的脑细胞发生关联,然后每个关联用3个电子来记忆和存储。这是多大的数字呢?130亿的6次方再乘以3。每个电子都是有质量的,质量是不能忽略的。再把电子质量乘进去,那么这个质量等于多大个数字呢?它等于钱德拉塞卡极限。

钱德拉塞卡极限是什么呢?在1938年,钱德拉塞卡提出来:当一个恒星的质量超过钱德拉塞卡极限时,这个恒星则会自动坍缩成一个黑洞。你明白了吗?这说明如果真的用一个经典的存储计算机去模拟一个人的大脑行为,当这个计算机还没做出来,其本身的质量已经把自己压成一个黑洞了。

极客挑战

【阎栋】在“130亿的6次方再乘以3”这步关键的计算中,马首席犯了个非常基础的错误,混淆了"状态空间"和"实际系统"。

假设每个脑细胞都能够自由的跟所有其他脑细胞相连(事实上,无论在实际的大脑中,还是人工构建的神经网络中,这个假设都是错的,详见后文),则每个连接的可能取值范围是130亿。马首席的“130亿的6次方”事实上只计算了单个脑细胞的六个连接的可能取值范围的组合状态空间的大小。按照马首席的这种计算方法,模拟130亿个脑细胞,每个细胞六个连接的实际系统的状态空间的大小应该是“130亿的(130亿乘6)次方”才对。您自己的计算,自己都没算全,这样真的好么。

马首席假设可以用3个电子来记忆和存储两个脑细胞之间的关联。那么想要构建一个拥有130亿神经元,每个神经元有六个关联的类脑系统,事实上只需要130亿乘6再乘以3个电子就够了。其实根本不用什么计算,有点基本的逻辑就知道马首席是在搞笑。我们希望模拟的大脑本身就是一个包含130亿脑细胞且跟其他六个有关联的实际系统,连接两个脑细胞之间的突触质量肯定远远大于3个电子,我们人类也没变成脖子上顶着个黑洞四处晃悠的种族。

在实际的人脑中,多数情况下神经元也是与其临近的神经元相连,组成一个功能区域,以协同完成某项功能(如视觉、运动控制、语言能力等)。受人脑结构启发而发展起来的人工神经网络,也有类似的特点。人工神经网络的基本结构如下图所示(引自这篇很好的科普文章):




整个神经网络是分层的,每一层的神经元只会与下一层的某些神经元相连,相互之间不是随意连接的。本节的开头,马首席所痛批的深度学习的核心,正是分层神经网络。

这也就给出一个旁证,人的大脑行为不是人类用现在地球上的资源能做出来的。钱德拉塞卡极限这个值大约是1.4倍太阳质量。这里取6作为脑细胞可能产生的关联数,事实上每个神经元有可能跟另外1000个神经元发生关联,6这个数字只是在凑钱德拉塞卡极限。这就是说即使我们可以用最轻的单元----电子去做存储,都没有办法去构建一个够大的系统描述一个人的大脑关联行为。从这个角度想,用经典的图灵机办法做出一个超过人脑的计算机这事情是不太可能的。

三,思维的量子本源。

我们通常用的计算机,扇区坏了你换个新扇区进去,原来上面存的东西就没有了。但我们人的大脑不断的进行这样的更替,通过新陈代谢,脑细胞里一部分原子被新的原子取代,但记忆并没有消失或受到影响。这机制是很不一样的。

大脑的这个行为,更像是量子化的长程关联,就像电子的超导现象。是一种非局域的相互关系,一对电子形成库柏对,在晶格之间穿行,不再消耗能量。超导这事情不是一个单个的粒子做的事情,而是很多粒子的量子化行为,任何一个的变化对整体的量子效应并没有影响。

我本行是做量子模拟的。费曼讲“只有量子系统才能描述量子系统”,如果我们人类的思维真是量子化的,那么就只能用个量子系统来模拟。一个思路是我在北大的实验室在做的量子模拟,另外一个方向是量子计算。一个从上向下,一个从下向上。但我有个暗黑的想法,原谅一个物理学家的孩子气。因为量子系统有退相干的问题,一个纠缠和相干的系统到底能造多大我们并不知道,我们还在十几个量子比特上努力。大概每两年放一个新的量子比特到系统里,要知道这是符合摩尔定律的,因为量子比特每多一个,希尔伯特空间就多一个自由度,简单来说,就是存储能力翻了一倍。我的暗黑想法在于,即使我们最终的搭建了一个够大量子系统来完整的模拟人的思考能力。这个东西,是不是跟我们人一样,也得吃饭,睡觉,也打盹,也犯各种错误和闹情绪。如果这样,是不是生几个孩子成本低?


极客挑战

【阎栋】 相对于计算机学科的其他分支,人工智能更加吸引外界的目光,导致讨论的门槛也相对较低。总是有各式各样身居高位的门外汉,提各种不经过大脑思考的愚蠢问题,给一些自己为是的粗糙类比。

此类问题中出现频率最高的就是“机器会不会思考”。著名计算机科学家Dijkstra在1984年就给出过一个极为经典的回答“问机器会不会思考,相当于问潜水艇会不会游泳一样”。而马首席的这几个“吃饭,睡觉,打盹,闹情绪”的类比,其遵循的逻辑与“皇帝的女儿挑水用的一定是金扁担”如出一辙。

别着急反驳,以上想法要说明一个情怀,就是不必危言耸听,人工智能至少在三百年内还没什么机会超越人脑。这个三百年的估计其实源于我们对物理学进展的了解,从牛顿到量子力学诞生两百年,量子力学到现在一百年,我们突然发现我们还懂得不多,甚至被缴了械(为什么,可关注我关于量子管理的思考,比如CC讲坛),大概还要这么长的时间才有可能在这个基础上了解和使用这些技术。三百年不是个太夸张的时间。三百年内,我们大可放心去跟机器相处。

我们时不时的会搞搞大跃进,炒作一个概念会让不少人有新饭吃,每个人都要让自己的选择正义化,看谁抢到话筒。不能说都是泡沫,泡沫对科普有益。但话说回来,在一个神秘主义有上千年传统的国家里,科普和迷信一样的有害。

极客挑战

【阎栋】回看本文标题“懂了你就不怕了”。在刚刚过去的博鳌论坛上,比尔盖茨推荐给了李彦宏一本书《超级智能-路线图、危险性与应对策略》。无独有偶,同样出席早餐会的“钢铁侠”伊隆马斯克也是这本书的粉丝。无论是花了数年功夫对人工智能进行调研的书籍作者,还是两位科技届的领军人物,都对人工智能的发展持审慎态度。而马首席这篇从计算到逻辑遍地都是漏洞的文章却是“懂了你就不怕了”,真不知道这突破天际的自信从何而来。

事实上,计算机科学界一直是抱着谦虚和学习的态度来跟物理同行们交流的。尤其是人工智能领域,众所周知,深度学习的核心概念受限玻尔兹曼机,正是Hinton老爷子从统计物理中借鉴所来。

而物理届的同仁也有不少真正懂得计算机科学的。来自波士顿大学物理系的Pankaj Mehta教授和和西北大学物理系的David J. Schwab教授,在Arxiv上发表了题为“An exact mapping between theVariational Renormalization Group and Deep Learning”的论文。文章通过在variational renormalization group和基于受限玻尔兹曼机的深度学习结构之间建立映射关系,展示了两者之间的深刻联系。为从理论角度解释深度学习的成功原因,提供了新的视角。

套用马首席的结尾,不懂装懂的门外汉对AI发表意见,无论是吹捧还是烧冷灶,对AI的发展一样的有害。


极客来鸿

【阎栋】如果这篇文章能让你会心一笑,那我的目的就达到了:)下面的部分讲了一点我自己的看法,其价值可能不如您的时间宝贵,请酌情阅读,谢谢。本文所有观点仅代表个人,与我供职的公司无关。

人工智能诸多分支中中目前风头最劲的莫过于机器学习。以计算机视觉中的object detecting的发展为例,在二十年前,如果我们想要从图片中识别一只猫出来,那就需要编程告诉计算机猫的形状。毫不意外的,这条路失败了。因为猫在图片中出现的姿态千奇百怪,还有遮挡等问题需要解决,为所有情况都编程并不现实。所以现代的方法是建立卷积神经网络,然后用海量的图片训练这个网络中的参数。目前,大部分实用的机器学习算法都还是由人类专家建立模型,机器负责从数据中学习具体的参数。今天的机器学习已经非常成功,未来向其他应用领域的拓展也很值得期待,越来越多原先我们认为需要“智能”的工作,都可由机器自动的完成。

相较于前面所描述的机器学习风格的人工智能,更令人感兴趣的是,人工智能是否能直接帮助我们发现新的知识?人类在抽象能力方面远胜计算机,但计算机的精确和高效也让人类难以望其项背。在猫识别的例子中,把猫的形状用代码或参数的形式描述给机器,是一件不需要太多智力活动的重复工作。机器学习算法替代我们完成了这项工作。更进一步的,计算机能否能够帮助我们高效的搜索状态空间以及进行具体的逻辑推理,借助计算机的力量去高效的完成那些“脏活累活”。在这方面,我所知的最好的例子,莫过于四色定理的证明过程。

四色定理是指“如果在平面上划出一些邻接的有限区域,那么可以用四种颜色来给这些区域染色,使得每两个邻接区域染的颜色都不一样”。一名英国制图员于1852年首先提出了这个问题,随后便有多名数学家尝试过证明,但均告失败。但他们并非无果而终,在这个过程中,数学家们发展了可约构型和放电过程等概念,为日后的计算机证明奠定了基础。

计算机出现之后,数学家们开始考虑使用计算机辅助寻找不可避免构型集以及验证构型可约性。但在1967年以前,由于内存的限制,计算机只能验证12环以下的构型,无法覆盖所有情况以获得一个完整的证明。随着时间的推移,复杂的证明过程被不断简化,而更多剪枝策略也被发明出来以降低计算量。到了1976年三月,伊利诺伊大学的数学家凯尼斯•阿佩尔和沃夫冈•哈肯提出了一个包含1936个构型的不可避免集及其所对应的487条放电规则所组成的证明。与此同时,计算机的能力也在摩尔定律的驱动下呈指数级上升。伊利诺伊大学的主电脑换成了大名鼎鼎的IBM 360。在经过1200小时的运行后,他们终于在6月得出结论:1936个构形都是可约构形,这代表着四色定理最终的解决。随后哈肯等人很快将1936个构型缩减到1476个;1994年罗宾•托马斯等人又进一步将其缩减到633个。

但在很长的一段时间内,主流数学界一直不接受这种机器辅助的证明方式。从严谨的角度出发,许多著名的数学家拒绝承认四色定理的证明,因为其机器证明的部分无法手工验证。而在四色定理的手工证明部分中,确实曾出现过关键性错误以及大量缺漏,尽管它们最终都被修复了。从情感上,人们无法接受在智力活动上败给初出茅庐的计算机,尤其是被视作人类心智的荣耀的数学证明。

到了2004年,程序的形式化验证技术为四色定理证明的合法性争论画上了句号。数学家乔治•龚提尔使用证明验证程序Coq验证了四色定理的机器证明部分的正确性。验证表明,四色定理的机器验证程序确实有效地验证所有构形的可约性,完成了证明中的要求。至此,除了机器硬件、软件可能存在问题外,四色定理的理论部分和计算机证明算法部分都得到验证。

在这个例子中我们看到:首先,计算机自诞生起便深刻影响了证明思路;随后,计算机硬件性能的不断进步使得机器证明最终变为现实;最终,程序验证技术为自己的同胞机器证明在数学界确立了合法地位。

我们人类由于个体条件的限制,无法事无巨细的观察这个世界的所有细节。因而我们编制程序,让计算机替我们完成具体考察,而人类则站在更高的抽象层面上进行设计。四色定理的例子完美的展示了将人类专家的抽象设计能力与计算机状态空间搜索和逻辑推理相结合所能爆发出的力量。

人工智能中与这个例子所体现的方法最接近的分支是符号推理学派。事实上,在人工智能的早期历史中,符号推理一直是学界的主流,可惜由于时代的种种限制,符号推理所取得的成果没能达到人们的预期,从而陷入了低潮。目前,想要利用计算机的状态空间搜索和逻辑推理能力不仅需要领域相关知识,而且需要精心的设计与漫长的磨合。但随着近年来深度学习的崛起,自然语言理解、语音和图片处理等几个方面都取得了爆炸性的进展。这将大大降低人机交互的成本,能够更加方便的让计算机理解我们的诉求。在这种前提下,也许能够借助计算机的力量去高效的完成那些“脏活累活”。

如何有效的把人类的知识传授给计算机,又如何把计算机从数据中获得的知识反馈给人类,目前都还是横亘在我们面前的悬而未决的问题。希望把数据直接丢给机器,就能藉由算法自动的去拓展人类知识的前沿,在目前看来还只是一种愿景。但在人类拓展知识的过程中,人工智能将会扮演越来越重要的角色。就像钢铁侠的AI助手一样,承担那些其所擅长的“智力活动”,包括但不限于插科打诨、溜须拍马:)。而且这一天到来的速度也许会比我们想象的更快。(By 阎栋)

【极客挑战】争鸣人工智能“大跃进” °【极客挑战】争鸣人工智能“大跃进” 【阎栋】希望把数据直接丢给机器,就能藉由算法自动的去拓展人类知识的前沿,目前看来还只是愿景。但在人类拓展知识的过程中,人工智能将会承担其所擅长的“智力活动”,而且这一天到来的速度也许会比我们想象的更快。 ​​​​
杨静-新智元
杨静-新智元://@UB_吴斌: 1,此文又一次证明,不要轻易跨领域评论。2,阎栋纯粹是为了反驳而反驳,也没说什么有内容的东西。3,关于计算机做逻辑推理和证明,这是AI早期热衷于干的事情,唯一做成的就是四色定理(这其实是个计算问题),据我所知其他的都失败了,计算机做逻辑推理和命题证明,目前看还是走不通的。
2015-5-4 11:15
UB_吴斌
UB_吴斌:1,此文又一次证明,不要轻易跨领域评论。2,阎栋纯粹是为了反驳而反驳,也没说什么有内容的东西。3,关于计算机做逻辑推理和证明,这是AI早期热衷于干的事情,唯一做成的就是四色定理(这其实是个计算问题),据我所知其他的都失败了,计算机做逻辑推理和命题证明这件事,目前看还是走不通的。
2015-5-4 10:28

微信公众号:【杨静lillian】 发现智慧之本我、探索美好新世界