为什么人工智能下围棋牛,打星际牛,算圆周率更牛,但无法证明数学猜想?

目前的人工智能是有限的,只能在设定的某些方面有智能,其它方面无智能。
例如,当市长就要全方位智能,人工智能机器人当不了市长。

问这个问题,说明对人工智能并不了解。人工智能的重要的一部分,是人类智能,也就是说由人来编程,通过机器学习,实现超常的智能。这就说明了,再牛的智能,如果没有人输入大量的成功实例,也将一事无成。

以下分两部分说明。

下围棋,胜、负、和有明确的规则,算园周率,有具体的计算方法。机器能够按规则进行执行。

下围棋,先把“吃子”规则输入程序中,然后把已知的下棋技巧,如抱吃、门吃、征子、双吃、枷吃、扑吃等技巧也做成程序。另外,把历史上名人赛的著名棋局也输入程序数据库中,用于机器人做参考。

规则明确,经典棋局供机器人参考,这对每秒几百亿次运算的机器人来说,是最拿手的。

圆周率,说白了,就是得到正N边形周长与正N边形外接园半经的关系式。N的值越大,圆周率的值越接近准确值,可以无限制地算下去。

机器人很自信地说,”只要有公式,再累的活我都能干!”。

哥德巴赫猜想,黎曼猜想,以及各种著名猜想,机器人可以无限制算下去,但是,不论怎么算,都是有限个数的证明,无法形成对无穷大∞数都成立的证明。

无穷大数∞,是机器人的大敌。比如,哥德巴赫猜想,我们通过”任一大于2的偶数,都可表示成两个素数之和”这样的规则,可以通过编程,对您输入的任意一个偶数,都能找到两个素数,满足其和为这个偶数。但是软件编程永远解决不了∞数的普遍规律。

对于∞数,只有人类应用自身的智慧,实现从N到∞的严谨数学证明。

总结:人工智能可以根据编程者制定的详细规、范例,挑战人类智力;可以通过计算公式计算无限逼近精确的园周率值。也可以通过算法,把人类所能提供的任一个偶数变成两个素数之和。

但是,它永远无法实现与无穷大∞有关的严密推理证明。也就是说,它永远不会提供一个具有严密推理的证明,使得∞数都适用”1+1=2”这样的经典假设。

真正有大智慧的,是人工,而不是擅长机器学习的AI机器人。

人工智能是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。这个高大上的名词,是当下最火热的一个研究领域。各大科技公司都在人工智能领域投入了巨大的人力物力。仿佛稍微懈怠一下就会失去公司未来一样。

AI技术是用先进的算法来实现本来应该由人工实现的动作,比如无人行驶,智能语音,机器视觉,人脸识别等等。人工智能(AI)最著名的应用就是2016年,DeepMind的AlphaGo大战人类顶尖棋手李世乭,并以4:1的巨大分差几乎横扫了李世乭。到现在我都记得当时看直播的时候激动的心情,也就是在那一年,人工智能彻底流传开来。

虽然现在人工智能显得很智能,已经给我们的生活带来了巨大的改善,但是归根到底,人工智能并不是我们理解的智能。首先AI没有自己的思想,不会对眼下的状态分析给出创造性想法。只不过是我们人类赋予了他们高级算法,他们可以很好地理解并且执行这些算法,执行到最后给我们的感觉就是,AI已经表现得相当聪明了。然而这却远远不够,这仅仅是一个开始。在我看来,人工智能的最终结局就差不多是终结者系列里的红皇后一般,有思维,有逻辑判断,甚至还会有个人情感,除了硬件不是肉体之外,其余跟正常人类无异。这还要有太多太多发展的时间了。

这么一说,那么为什么现在的人工不能破解一些著名的数学难题就比较好理解了。真正的数学难题被困扰了很久很久,很少是因为我们只是在眼下的理论中没有找到方法来解决,基本上都是缺少一种直接有效的数学工具,也就是说你要创造出一种全新的数学工具才有可能解决最后难题。

目前数学界已经达成共识了,无论你用什么精巧的筛法都已经不可能哥德巴赫猜想的1+1了,筛法到了陈景润这里就停止了。要不然,五六十年来,数学界蓬勃发展的年代,不可能在这个问题上没有丝毫进展。大家都期待着新方法新思维的出现。

有创造性思维和想法,这一点对于顶尖的人类科学家都非常困难,更别说是对于当今还处在幼年时期的人工智能了。我们不排除以后人工智能空前强大,强大到理性与创造性思维并存。那个时候,机器才有可能从另外一个方向上给出方法来直接解决这个难题。

也许,那个时代才是人类最幸运的巅峰。

目前的人工智能还处于初级阶段,它能完成的任务都具有一些鲜明的特点。一是人工智能处理结果是精确可描述的。这种可描述是指可以用计算机能懂的,没有歧义的公式或算法来判断结果准确性。二是人工智能擅长做判断题和选择题,却不擅长做问答题

人工智能为什么目前不会证明数学问题,就是因为这是一个问答题,而且结果准确性难以用简单知识或计算机能懂的语言来判断。

人工智能下围棋,围棋的规则是十分明确的,能够简单地让计算机也能懂。人工智能玩竞技游戏,同样也是如此,对胜负的判断不会有任何争议。在规则明确的情况下,人工智能甚至不需要向人类学习,不需要“有监督学习”,自己就可以和自己完成对弈或自己和自己玩游戏。不论是下棋还是游戏,人工智能每一个动作本质上都是在做判断或选择题。下围棋就是每一步棋在最多361*361个点中选择一个最佳点。这个选择看似很多,但却是有限的。

我们用稍专业的语言形容,就是:围棋和竞技游戏,它们的解空间是有限的。或者说,本质上是可以穷举的。当然,这依然必须基于(下棋、游戏)规则的明确性。然而,数学证明的解空间是无限的。

人工智能目前还在图像处理、语音处理、自然语言等方面取得了成绩。拿图像处理来说,经典的问题就是判断一个动物是具体什么动物。你以为它是在做问答题,而事实上,却是做判断题。几乎所有的图像识别都只能识别有限的动物,这些动物是人类提前让人工智能去学习(训练)的。比如某个人工智能可能只能识别猫、狗和鸡。它所做的工作就是根据图像的特征依次判断:是不是猫,是不是狗,是不是鸡?如果提供一个老虎给它识别,它很有可能认为是猫。因为在它脑子里,没有判断“是不是老虎”这样的问题,而只会在猫、狗、鸡中选择一个最“像”的。自然语言处理目前最成功的也就是情感分析和文章分类,也是典型的判断或选择题。注意选项是有限的。

类似人工智能的外语翻译、作诗、作画、换脸等等,看上去已经很接近是在做“问答题”了,这又是怎么回事?实际上这可以理解为它在做一个复杂的判断题:到底像还是不像。拿作画来说,人工智能会选择一些随机因子,在有限的画面像素里填充颜色,然后判断“是否像某画家画的“的网络去告诉它是否需要重画,直到画得很像为止。

好了,我们来分析一下证明数学猜想和上面提到的那些问题有什么异同点

首先,数学证明其结果是否正确很难描述,不容易让计算机搞懂。在这一点上,和围棋、游戏等不同。围棋要精通很难,但胜负规则却非常非常简单。在这一点上,数学证明和猫狗图像识别倒有点相似,一个图像到底是什么动物,也没有容易描述的规则,靠的是难以用语言表达的“感觉“、”经验“。但是和图像识别的区别在于,图像识别的种类是有限的,本质上是做判断题(比如判断是否是猫),而数学证明不是判断题。

那么,数学证明和作诗作画这种带创作性的人工智能区别在哪里呢?区别在于:作诗、作画,用到的变相判断题叫:“像不像“,而不是“对不对“。我们很少听说某个人或某个人工智能作的画是”对“的或”错“的,而只是像不像(比如像画家),好不好。这种东西,没有对与错。但相反,数学证明的特殊性在于,它不能叫”像不像“,而只是能”对不对“。我们可以想像,按现在的人工智能水平,模仿人类大脑去写一篇像模像样的学术论文还是可以的。但只能说很像很像——特别是外行看来。而数学证明要的不是“像”,而是严格证明。当然,这又回到刚才那个问题上了,“对不对”是很难用计算机语言描述的。

我相信,大家搞懂了数学证明和目前人工智能的成熟应用的不同点后,就很容易理解为什么人工智能目前无法证明数学猜想。

未来,人工智能在艺术创作上可能越来越有建树(作品很像艺术家的而不是作品很正确),但是在科学创作上要走的路还很远。它们或许可以创作很多新的数学公式(结果可精确描述),但是却很难创作新的数学理论,数学体系(结论是否正确难以描述)。

这个问题应该补充两个字,为什么现在的人工智能无法证明数学猜想?因为现在的人工智能仍是弱人工智能阶段,类似人类的初诞。

我相信未来的人工智必然会超越我们现在的任何想象。

而我对强人工智能的看法是,它们将是一个由人类创造、有独立学习创造能力、有自主思维、甚至能实现自我进化的新物种。

感谢邀请!希望以下回答能帮到您!

自二十一世纪开始,人工智能这个词就被不断的谈起,从目前的各种情况来看,人工智能也必将是人类的一个主要发展方向,并且人类也正在慢慢的不断依靠人工智能,现在的很多领域都在不断的应用人工智能产品,或者是不断的向人工智能方向接近,那么人工智能是否能够拥有属于自己的意识呢?或者说人工智能是否将会超越人类呢?

人工智能产品的发展越来越快速,其中如何提高人工智能产品的智能程度是很多研发人员所关注的一个重要问题,大多数的研发者都想要研发出更加智能的人工智能,想要将超人工智能产品给研发出来,超人工智能产品简单的理解就是在大多数领域,超人工智能都会比人类做得更好,远超人类,目前这种超人工智能仍然无法实现,所以现阶段,我们并不担心人工智能超越人类的情况发生。

仍然无法实现并不表示永远无法实现,人工智能可以分为弱、强、超三种,现在弱人工智能已经融入到了我们的生活当中,强人工智能也已经研发了出来,未来也将很有可能会研发出超人工智能,而理想状态当中,超人工智能也将会拥有自己的意识,不过人类对于意识这个领域可以说没有任何的进展,连生物是如何拥有意识的都无法了解,所以想要制造出拥有意识的产品就更难如登天了。

现在市场上面已经有一些人工智能产品进行了投入,但是在这些产品当中,也偶尔会有各种问题出现,就比如现在比较高端的智能音箱,其中亚马逊有一款智能音箱,能够自己根据环境来选择音乐,也因此受到很多用户的喜爱,但是不知因为什么原因,个别的音箱在深夜十二点后,有时候会出现一种就好像是尖笑的声音,不知道导致发出这种声音的原因是什么。

当然,也有人可能会认为智能音箱也有可能是出现了某种错误导致的,在脸书的某位科学家设计了两个智能聊天机器人,这两个人工智能机器人能够进行智能交流,就好像是两个人类在互相对话一样,刚开始的时候两个机器人的表现也非常的优秀,但是不知道什么原因,两个机器人所使用的语言慢慢的变成了一种不属于人类的语言,出现这种情况后,科学家也将两个机器人给关闭了。

目前已经有机器人获得了合法公民的身份,这款机器人是由美国所研发制造出来的,在一次对这个机器人访谈采访的时候,当询问她对于人类的想法时,这个人工智能机器人的回答让很多人感到意外,它表示自己一定会消灭人类,它的这个回答不知道是原本设计好的剧本还是它的真实想法。

人工智能机器人的发展速度可以用日新月异来形容,将来也很有可能出现拥有自己的意识的机器人,毕竟这也是科学家研究的一个方向,至于机器人是否将会超越人类,这点相信很多人都有答案的,现在人工智能在越来越多的领域当中已经超越了人类,这点的确是真实的,不过目前所超越的大多数属于计算或者效率方面。

对于人工智能是否有威胁,这点没有人能偶给出准确的答案,大多数的科学家都是认为人工智能是安全的,不会对人类造成威胁,它们将是人类的一个助手,能够更好的服务人类,不过霍金也曾提出过人工智能可能存在的危险,未来的事情谁也不知道,不过从目前的情况来看,人工智能的确为人类带来了很多的帮助。



答:现在出现的人工智能,都是基于算法的,不具备真正意义的人工智能,还无法拥有真正能推理和解决深度问题的能力。


就在前几年里,Google的人工智能“阿尔法狗”横扫整个围棋界,再次把人工智能推向了公众的视野,轰动了全世界,于是人们思考人工智能将会给人类社会带来哪些影响。

近几年,汽车的自动驾驶是人工智能中一个比较火热的关注点,但是自动驾驶技术的不成熟也体现出来,比如特斯拉的自动驾驶功能,也不能很好地适应所有路况。

归根到底,还是目前人工智能的局限性导致的,目前所有的人工智能很大程度上依赖于程序算法,甚至连“弱人工智能”都算不上,顶多算是表现出智能的程序而已。


在上世纪,计算机之父图灵提出一个图灵测试,让一个真人和计算机做黑箱对话,如果计算机的表现让真人无法确定对方是真人还是计算机时,就算计算机通过了图灵测试。如果按照图灵测试,目前所有的计算机都无法达到标准,哪怕是计算机伪装得很完美,但还是无法模拟真人的行为表现。

计算机能打游戏、计算圆周率、下围棋等等,其实是计算机针对性的程序完成的,就拿下围棋来说,理论上只要计算机的计算能力足够大,它就能计算出当前围棋之后的所有步数,然后选择最佳的下棋策略,在目前计算能力有限的时候,计算机得益于算法的优化,来大大降低计算量,所有才有了阿尔法狗。


但是数学证明不一样,绝大部分复杂的数学猜想,可能需要新的数学工具,甚至新的数学概念,这些都是当前计算机无法完成的,因为目前的计算机不具备“自主意识”,也不具备真正能推理和解决深度问题的能力。

但是也有例外,近代数学的三大难题之一——四色定理,目前就是计算机基本完成证明的,只是在数量上取得了成功,数学上还没有完成四色定理的逻辑证明。


我的内容就到这里,喜欢我们文章的读者朋友,记得点击关注我们——艾伯史密斯!

人工智能,永远不能代替人脑?但确有神奇?为什么?象超级计算机,电子,你就指一碰就知道你所需要什么了!数字与编程是否是机器智能的指令?人体思维来自眼睛的观察?耳朵,口腔,舌头,鼻吼,七巧八舌反映给人大脑,智能只是科学家没一个道,所以智能机器人不如人灵活!但机器人思维己超过人类平均人类思维百分之九十。百分之十的人类精英机器人胜不了!

人工智能它就算再智能,也是在人给它设计编程以后才有的智能。

它是由人来操控的所谓智能,它只是总结综合人类科研成功基础上的全面智能。

但它是不具有对未来未知领域进行猜想的超人类智慧的能力。至少目前不具备。

未经允许不得转载:创速极风 » 为什么人工智能下围棋牛,打星际牛,算圆周率更牛,但无法证明数学猜想?

搞事情!那些不能说的秘密都在这里   关注公众号:创速极风  

         

赞 (0) 打赏

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

微信扫一扫打赏