人工智能中的图表推理| 耗时:0.267秒|431658条结果

哪一种编程语言适合人工智能?--Python在人工智能作用

编程语言都可以是人工智能开发语言。 人工智能程序可以使用几乎所有编程语言实现,最常见有:Lisp,Prolog,C/C++,近来又有Java,最近还有Python. LISP 像LISP这样高级语言在人工智能备受青睐,因为在各高校多年研究后选择了快速原型而舍弃了快速执行。垃圾收集,动态
http://www.itnose.net/detail/6719733.html 2017-02-17 15:54   [perl/python]

人工智能简史

      前期,人工智能使用知识(句法、逻辑等规则)来搜索问题解,主要用在数学和逻辑领域,比如证明数学定理、计算函数、逻辑推理等。中期,人工智能强方法盛行,在具体领域有独立地应用。当下,人工智能正以神经网络、概率和决策等连接主义理论为基础,以机器学习、数据挖掘等为工具,迈向产业性强、覆盖面广发展方向,将会深刻影响人们生活方式。 1 孕育期(1943-1955) 1)        Warren McCulloch和Walter Pitts在1943年提出了一种人工神经元模型,并且证明了任何逻辑连接词(与、或、非等)和可计算函数都可以通过相连神经元某个网络来实现。 2)        唐纳德·赫布(Donald Hebb)在1949年展示了一条简单用于修改神经元之间连接强度更新规则,现在称为赫布型学习。 3)        两名哈佛大学本科生,马文·明思基(Marvin Minsky)和Dean Edmonds,在1950年建造了第一台神经网络计算机,称为SNARC。明思基还研究了神经网络一般计算。 4)        阿兰·图灵在1947年发表了人工智能主题演讲,并在1950年文章“计算机器与智能(Computing Machinery and Intelligence)”清晰地表达了有说服力应办之事:图灵测试、机器学习、遗传算法和强化学习,还提出了儿童程序(Child Programme)思想。 2 诞生(1956) 1)        1956年夏天,约翰·麦卡锡组织了十位对自动机理论、神经网络和智能研究感兴趣研究者们召集在一起,在达特茅斯组织了一个为期两个月研讨会,被认为是人工智能领域诞生标志,达特茅斯大学也成为了公认的人工智能领域诞生地。 3 第一轮循环成功:早期热情,巨大期望(1952-1969) 1)        早期人工智能在有限方面充满成功; 2)        通用问题求解器或GPS继承并发扬了纽厄尔和西蒙早期成就(逻辑推理程序),他们构想出著名“物理符号系统”假设; 3)        在IBM,内森尼尔·罗切斯特和他同事们制作了一些最初的人工智能程序,如几何定理证明器、西洋跳棋程序(驳斥了计算机只能做被告知思想); 4)        约翰·麦卡锡从达特茅斯搬到了MIT,在1958年做出了三项至关重要贡献:①定义了高级语言Lisp,在后来30年成为了占统治地位的人工智能编程语言;②发明了分时技术;③发表了题为“有常识程序”(Programs with Common Sence)论文,文中描述了意见接受者(Advice Taker),这个假想程序可以被看成是第一个完整的人工智能系统; 5)        1963年,麦卡锡在斯坦福创办了人工智能实验室。1965年,J.A.Robinson归结方法发现促进了麦卡锡使用逻辑来建造最终意见接受者计划; 6)        明斯基指导了一系列学生,研究了诸如闭合式微积分问题、几何类推问题、代数问题等微观世界问题。最著名微观世界是积木世界; 7)        基于McCulloch和Pitts神经网络早期工作也十分兴旺。 4 第一轮循环失望:现实困难(1966-1973) 1)        早期人工智能系统在简单实例上令人鼓舞性能使研究者们过于自信,然而,当用于更宽问题选择和更难问题时,结果证明都非常失败; 2)        第一种困难:早期程序对其主题一无所知,仅依靠简单句法、逻辑等规则使用获得成功; 3)        第二种困难:人工智能试图求解问题难解性,放大到更大更复杂问题不只是更快硬件和更大存储器。 4)        第三种困难:用来产生智能行为基本结构某些根本局限。比如,明斯基证明了:感知机能够学会他们能表示任何东西,但是它们能学会东西很少。 5 基于知识系统(1969-1979) 1)        上一轮成功和失望,皆因为AI研究采用是通用搜索机制,试图串联基本推理步骤来寻找完全解,称为弱方法。不能扩展到大规模或困难问题实例; 2)        强方法:使用更强有力、领域相关知识,以允许更大量推理步骤,且可以更容易地处理狭窄专门领域里发生典型情况。如:DENDRAL程序,根据质谱仪提供信息推断分子结构问题;医疗诊断,诊断血液传染;特定领域自然语言理解。 6 成为产业(1980—) 1)        第一个成功商用专家系统R1开始在数据设备公司(DEC)运转,该程序帮助为新计算机系统配置订单; 2)        总来说,AI产业从1980年区区几百万美元暴涨到1988年数十亿美元,包括几百家公司研发专家系统、视觉系统、机器人以及服务这些目标专门软件和硬件。 7 神经网络回归(1986—) 1)        在20世纪80年代中期,至少4个不同研究组重新发明了由Bryson和Ho于1969年首次建立反传(BP神经网络)学习算法,属于连接主义模型; 2)        当前观点认为,连接主义方法和符号主义方法(纽厄尔、西蒙和麦卡锡等人主张方法)是互补,不是竞争; 3)        现代神经网络研究分离成了两个领域:一个是建立有效网络结构和算法并理解它们数学属性,另一个关心是对实际神经元实验特性和神经元集成建模。 8 采用科学方法(1987—) 1)        在方法论方面,AI最终成为坚实科学方法:假设必须遵从严格经验实验,结果重要性必须经过统计分析; 2)        语音识别和机器翻译领域都发生了方法论变革:隐马尔可夫模型(HMMs)主导前者,基于单词序列方法主导后者; 3)        通过改进方法论和理论框架,神经网络领域达到一个新理解程度,可以和统计学、模式识别和机器学习等领域对应技术相提并论; 4)        《保卫概率》和《智能系统概率推理》开启了AI对概率和决策理论新一轮接纳:贝叶斯网络对于不确定知识进行有效表示和严格推理,主导着不确定推理和专家系统AI研究,结合了经典AI和神经网络最好部分 5)        类似温和革命也发生在机器人、计算机视觉和知识表示领域。 9 智能agent出现(1995—) 1)        研究者们再一次审视“完整Agent”问题。Allen NeWell、John Laird和Paul Rosenbloom在SOAR系统上工作是最有名完整Agent结构例子,智能Agent最重要环境之一就是Internet; 2)        试图建立完整Agent,需要把以前被孤立AI子领域重新组织; 3)        一些有影响AI创建者,包括John McCarthy、Marvin Minsky、Nils Nilsson和Patrick Winston都表达了对AI进展不满。他们认为AI应该少把重点放在改进对特定任务表现很好应用,例如驾驶汽车、下棋或者语言识别。转而,应该回到它根:会思考、会学习、会创造人类级AI(HLAI); 4)        和HLAI相关思想是人工通用智能(AGI)子领域,寻找通用在任何环境学习和行动算法。 10 极大数据集可用性(2001—) 1)        采用更多训练数据带来性能提升超过选用算法带来性能提升; 2)        Yarowsky在1995年论文提到,在词语歧义消除方面工作,一个普通算法使用一亿个单词未标注训练数据,会好过最有名算法使用100万个单词; 3)        Hays和Efros在2007年讨论了照片中补洞问题,发现如果他们只用一万张照片,那么他们算法性能会很差,但如果增加到两百万张时,算法会一跃而表现出极好性能。 11 最新发展水平 无人驾驶汽车、语音识别、自主规划与调度、博弈、垃圾信息过滤、后勤规划、机器人技术、机器翻译等。
http://www.itnose.net/detail/6478097.html 2016-03-29 14:52   [其它]

什么是人工智能(AI)?

在2012年3月6日,我在短文“2012年:人工智能(AI)在全球范围内大普及”说过这样一句话:“人工智能(即“人造智能”)早已存在于我们周边。现在,我们稀里糊涂地已经进入了”人工智能普及年”(也可称为“AI普及年”)。如今,3年过去了,情况怎么样? 记得,在2011年2月19日,我在短文
http://www.itnose.net/detail/6203757.html 2015-01-31 05:46   [其它]

人工智能:实现人工智能是是不可能吗?

产生了深远影响,至今仍是许多人所坚持衡量机器智能标准。 当然也会存在反对声音,一些站在“强人工智能”观点上一些哲学家甚至坚称“实现人工智能是不可能”。哲学家约翰.塞尔勒就曾是著名反对者,他于1980年设计了“中文屋思想实验”来证明自己观点。 在中文屋思想实验,一个完全不懂中文
http://www.itnose.net/detail/6475465.html 2016-03-25 08:43   [其它]

人工智能未来》摘录

  人工智能已经发展了半个多世纪了。就其本质而言,就是对人思维信息过程模拟。机器智慧能否超越人类是一个备受争议话题,就连著名物理学家霍金,Tesla CEO 马斯克,未来学家库兹韦尔都在警告人类,人工智能即将超越人类。人工智能未来到底会是怎样?太可怕了,谁也说不清,未来却一步步逼近。最近看了下 Jeff Hawkins / Sandra Blakeslee 书 On Intelligence,中文书译作人工智能未来。内容不错,推荐阅读。以下为书中摘录。 On Intelligence 真正认识人类大脑是开发智能机器必由之路!    ??Jeff Hawkins     第一章 人工智能 Artificial Intelligence     他(指 France Crick,DNA结构发现者之一)认为神经学只是一堆没有任何理论数据。他说:“最明显是在概念上缺乏一个总框架。”       计算机无法智能化。对此我无法证明,但直觉告诉我这是对,就像人们对一些事情有直觉一样。最终文凭得出结论:用传统方法研究出的人工智能可以生产出实用产品,但绝不可能 制造出真正智能机器。       今天,许多人认为人工智能是一个即成事物,只待计算机具有足够能力后,即可实现其美好前景。只要计算机有足够内存和处理能力,思维能力就会发展,人工智能编程人员就可以造出智能机器。对此我不敢苟同。人工智能正面临着一个根本性错误,因为它无法圆满地解决什么是智能问题,或者说“理解某个事物”到底意味着什么。       万能计算:尽管建构细节有所不同,但从根本上讲所有计算机都是等效。       图灵开创了人工智能研究领域,其核心是:大脑就是另一种形式计算机,无论你如何设计它的人工智能系统,这台计算机都可以做出类似人行为。       行为学家认为,大脑内部运转过程是不可知,称之为“无法穿越黑匣子”;但是人们可以观察和测量动物所处环境和行为。       在任何情况下,无论多么成功的人工智能程序也只是擅长于那些经过专门设计领域。它们不会总结归纳,缺乏灵活性;甚至它们创造者也认为它们不会像人一样思考。       图灵机将会改变世界----而且它已经改变了世界,但不是通过人工智能。       理解是无法用外部行为测量,它是对大脑如何记忆、如何利用这些记忆进行判断内部度量。   第二章 神经网络 Neural Networks     神经网络不同于计算机,它没有 CPU,不能对信息进行中央存储;整个网络知识和记忆都分散在所有连接之上----就像真正大脑一样。       对于大脑解读,有三种标准必不可少。大脑功能时间概念。反馈重要性。任何大脑模型或理论都应该能够解释大脑物理结构。       有一种最普通神经网络,被称为BP网络,可以学会将输出单元错误传输回输入单元,并将它记住。你可能认为这是一种反馈,而事实并非如此。这种错误反向传播只会发生在学习过程,而当经过训练神经网络工作正常时,信息只会向一个方向传输,冲输出到输入没有产生反馈。除此之外,模型也没有时间概念。       人工智能和神经网络研究者都认为智能存在于行为之中,,而这种行为是执行一个输入后,由一个程序或神经网络产生出来。电脑程序和神经网络最重要属性就是能否进行正确、令人满意输出,就像阿兰·图灵所说智能等同于行为。       所有机器,无论是建造出来还是想象出来,都必须能做些事情;世界上没有会思考机器,只有能干活机器。甚至当我们在观察自己同类时,所关注也是他们外在行为,而不是内在思想。       道理很容易理解,但从直觉上看却是错误。       对于大脑作用以及工作原理仍然没有形成全面理论和框架。它会不会因为大脑复杂而极为复杂呢?是否要用写满100页纸数学公式才能描述清楚大脑大脑是如何工作?我们是否要画出成百上千线路图才能做出一个有意义解释呢?我不这样认为。从历史上看,对于科学问题最完美解决办法往往是简单而精确地。尽管细节工作可能令人生畏,通往最后理论道路可能充满险阻,但最终概念框架体系通常是简明。   第三章 人脑 The Human Brain     仍然有一些解剖学家估计人类大脑皮层包含大约300亿个神经元,但我觉得,及时这一数字再大上很多或小上很多,也不会有人对此表示惊讶。       曾经在《科学美国人》发表文章 France Crick 在许多年后又写了一本关于大脑书----《惊人假设》(The Astonishing Hypothiesis)。所谓惊人假设,是指我们思想就是大脑细胞产物,没有魔力,也没有特殊浆汁,思想就是由神经元和闪动信息流构成。       神经科学家认识到任何有助于大脑皮层回路发挥作用东西之前,意识到某些心理功能是固定在一定区域里。如果脑中风损坏了某人右脑顶叶,他就会失去知觉,甚至整个左侧身体失去知觉,对身体左侧空间也没有任何感觉。如果中风发生在左前脑Broca 区,他就会丧失使用语法功能,而同时他词汇和理解词汇能力却不会有任何改变。如果纺锤体脑回发生中风,他就不再拥有辨别面孔能力----就不能认出自己妈妈和孩子,甚至连照片上自己面孔也会变得陌生。这些奇特功能紊乱,使早起神经学家意识到大脑皮层包含许多不同功能区。       Vernon Mountcastle 所说大脑皮层区域之间微小差异正是他们之间连接差异,而不是基本功能差异。他总结说,所有大脑皮层功能区域都遵循一个共同算法,视觉、听觉、甚至运动输出之间没有任何差异。他还认为,大脑皮层连接方式是由基因决定,这正是功能和物种独特之处,而脑皮层组织本身在各个区域都担负着相同功能。       神经科学家还发现,大脑皮层回路具有令人惊异可塑性,也就是说,它可以根据流经输入信息类型进行改变和重组。       大脑各区域是根据传入信息种类而发展出专门功能。大脑皮层并不是严格地运用不同算法完成不同功能,正如目前地球上各个国家区域划分并不是先天注定。       大脑皮层是极其灵活,而且输入大脑都是模式。这些模式来自哪里并不重要,只要它们在时间上以固定方式彼此联系,大脑就能感觉到它们存在。       我们能相信这个世界就是我们看到样子吗?我认为,世界确是以一个绝对形式存在,和我们感受到非常接近,但我们大脑不能直接认识这个绝对世界。   第四章 记忆 Memory     不论从并行还是其他方面,大脑皮层都不像计算机,它不会计算问题答案,而是用存储记忆来解决问题,做出反应。虽然计算机也有记忆,且是以硬盘驱动器和记忆芯片形式出现,但大脑皮层记忆和电脑记忆有以下四点根本区别: 大脑皮层可以存储模式序列; 大脑皮层以自联想方式回忆起模式; 大脑皮层以恒定形式存储模式; 大脑皮层按照层级结构存储模式。       你也许已经注意到,有些人在讲故事时不能立刻切入主题,而是??嗦嗦地讲一些无关细节。这让人很恼火,甚至想大叫:“讲正题吧!”但他们只会按照发生时间,而不是其他方式来讲述他们故事。       下一次洗澡时候,请留心你用毛巾擦干身体过程。我发现我在擦干身体时候,几乎每次都是相同程序----擦干、拍净以及相应姿势。通过有趣观察,我还发现我妻子淋浴之后也遵循基本上一成不变方式。你或许也是一样。如果有一定顺序,就试着改变它。你可以强迫自己去改变,但必须集中注意力,因为稍一走神,你又会落入习惯方式中去。       记忆之所以能够被存储是抓住了相互关系精髓,而不是某个瞬间细节。当你在看、在感觉、在听某个东西时,大脑皮层就接收到详细高度特化输入信息,并将它们转化成一种恒定模式。实际上,被存储是恒定模式,与每一个新输入模式相比较也是恒定模式。记忆存储、记忆唤醒以及记忆识别都发生在恒定形式基础之上。在计算机却没有相同概念。   第五章 智能理论新架构 A New Framework of Intelligence     因此,只有一种办法可以解释你对改变了门所做出反应----你大脑对于某个特定社科将要看到、听到和感觉到东西进行了低级感觉预测,而且是并行,脑皮层各个区域都会自动地预测下一步感觉。视觉区对边缘、形状、物体、位置和动作做出预测;听觉区对音调、声音来源以及声音模式做出预测;体觉区则对触摸、质地、轮廓以及温度进行预测。       我们都有这样经历:当某些连续背景声音,比如远处风钻发出持续噪音,或是在餐馆、商店、工厂等播放绵绵背景音乐时,我们会毫不在意;然而一旦它们停下来,我们会马上注意到。你听觉区域预测是音乐连续性,只要它不变化,你就不会留意,而一旦它停下来,就破坏了这种预测,于是就吸引了你注意力。       科学本身就是一种预测。我们进行一系列假想和实验,从而不断改进我们对世界看法。这本书也是对什么是智能以及大脑工作原理预测。真挚连产品设计也是一种基本预测过程。不论是设计服装还是设计手机,工程师们都会猜测竞争对手做法、消费者需求、新产品成本以及什么样款式是市场需求。       人类脑皮层很大,因而有相当巨大记忆容量,它能够不断地预测你将要看到、听到和感觉到东西,而且多数都是在你不自觉地情况下发生。这些预测就是我们思想,与感觉输入信息流结合之后就形成了我们知觉。我认为对于大脑这个认识,就是智能记忆和预测框架。       现在我们可以清楚地看到阿兰·图灵错在哪里----智能证据是预测,而不是行为。   第六章 大脑皮层工作原理 How the Cortex Works     与照相机记忆所不同是,你大脑记住是世界本质,而不是它看上去那个样子。当你对世界进行思考时,你是在提取那些对应于世界上物体存在和表现方式模式,而不是它们在某一刻通过你任何感官所表现出来样子。你用以体验世界万物顺序反映就是世界恒定结构。你体验世界各部分顺序是由世界结构所决定。       许多年来,大多数科学家都忽视了这些反馈连接。如果我们对大脑了解仅仅集中在脑皮层是如何接受所输入信息、如何加工信息,然后如何对它做出反应话,就不需要反馈,而仅仅是连接着感觉器官和脑皮层运动区前馈连接。但是当我们开始认识到脑皮层核心功能是做出预测时,就会不得不将反馈纳入我们模型里来了。大脑要将信息送回最先接受输入区域。预测就是在实际发生了什么和我们期待发生什么之间进行比较。信息向上流动,我们期待向下流动。       还有一点,所有预测都是从经验中学习。我们期待着钢笔夹现在和将来都会发出“噼啪”声,这是因为它们过去就是这样。自行车在车库碰撞而发出“??”声音,我们都是以可以预测方式看到、感觉到并且听到。你不是生来就具有这些知识,这些都是通过学习而得来,这得归功于你脑皮层有令人难以置信大容量,从而可以记住各种模式。如果传入大脑输入中有一贯相同模式,脑皮层就会将它们用来预测未来事情。       如果脑皮层区域能够说话,它们也许会说;“我体验到了许多不同模式。有时候我预测不到接下来会看到什么模式。但是这些模式集合肯定是彼此联系着。它们总是一同出现,我能够可靠地在它们之间跳来跳去。因此每当看到这些事件任何一个,我都会用同一个名字来指称它们。我传递给皮层更高区域就是这样组名,而不是单个模式。”       在我们日常体验时刻都能遇到这样现象。当人们说话时,脱离了具体上下文,他们所说单个词语就可能让人听不懂。然而,当你听到一个句子某个模糊不清词时,不会因为这个词而使整个理解过程受阻,你照样能理解这个句子。同样地,离开了上下文,手写字也经常有认不出时候,但是,如果将它放到一个完全手写句子,你就能认出来了。在多半情况下,你是意识不到自己在利用大脑中序列记忆来填充模棱两可或不完全信息。你听到了你所期待听到,看到了所期待看到----至少当你所听到和所看到符合过去经验时是这样。       如果你反复研究某一类事物,你大脑皮层将在较低层级形成对它们记忆表征,这就把皮层较高层级给释放出来了,可以利用它来学习更细微、更复杂关系。根据这一理论,专家就是这样被培养出来。专家和天才有着比普通人更能观察结构之结构、模式之模式大脑。你也能通过练习而成为专家,但这其中当然也还包含遗传方面因素。       在新皮层下游相互能沟通三大脑结构,它们是基底神经节、小脑和海马。这三大结构都限于新皮层而存在。粗略地说,基底神经节是原始运动系统,小脑主要学习事件间精确时间关系, 海马则储存具体事件及与地点有关记忆。       如果你失去了左、右两半海马,你就失去了形成新记忆能力。没有了海马,你可以照常说话、走路、看东西和听东西,乍一看你几乎就是个正常人。但实际上,你受了很大损伤:你记不住所有新事物;你能记起失去海马前许多年认识朋友,但你却记不住一个新遇见人;及时在一年里,你每天去看
http://www.itnose.net/detail/6223853.html 2015-03-14 10:23   [其它]

人工智能调研分享

发展前景有哪些,下面就按照下面大纲简单说明一下: 人工智能现状 人工智能开源项目 智能手表智能 智能穿戴设备产品化 人工智能现状 目前人工智能就有以下几个大方向,基本上也是国际大公司青睐领域: - 智能搜索 - 深度学习 - 人机交互 - 可穿戴设备 - 无人驾驶和智能机器人 智能搜索
http://www.itnose.net/detail/6216094.html 2015-03-02 13:07   [其它]

?於人工智能?想

我?以後的人工智能核心是自?建立???,和各?表-----???器人不?接?新事物,不??事物?行自???,抽象出各?表和字段,自?把各?信息填入表,形成??,?能自?建立索引,形成?件反射,??到更多知道?,?改?原?表??,形成新表???更加符合????,?能?各?查??行
http://www.itnose.net/detail/798441.html 2014-02-21 14:23   [程序员]

是不是人工智能

很多游戏都可以和电脑对战,请问是什么原理!是属于人工智能吗? 在我们代码如何实现 回复讨论(解决方案) 一般都是if then else 这和人工智能貌似关系不大 游戏ai ... 有些是用 人工智能   包括
http://www.itnose.net/detail/658342.html 2014-02-19 14:29   [程序员]

游戏开发的人工智能 复习

游戏开发的人工智能 复习 (个人复习,一些仅是给自己复习提示(=w=),转载注明出处:) 配套教材:游戏开发的人工智能 知识点 移动 Bresenham,视线(略),拦截 // Bresenham if (deltaCol > deltaRow) { fraction
http://www.itnose.net/detail/6194517.html 2015-01-17 23:22   [其它]

人工智能要取代人类了?

*围棋人机大战引发热议,在今天比赛,AlphsGo 再一次展现了它可怕一面。然而对于大多数人来说,关心并不是棋法,而是人工智能发展竟然如此迅速,未来人工智能究竟是会对人类有威胁?还是帮助人类生活得更好?* 北京时间 3. 9 日下午,在一场引起全世界关注,号称“堵上人类尊严”围棋大战
http://www.itnose.net/detail/6466959.html 2016-03-11 10:48   [其它]

浅谈特定型人工智能设计

。我看到网上文章,也有人将这一块称为“自我学习”,或者“智能统计”。但是不管怎么理解,其实质都在即有数据基础上,进行数据分析和数据计算。为了便于精确人工智能计算,在数据采集过程,录入数据,在进入数据存储环境前,都会按照各种不同特定要求,分割成较小数据元组。这些小数据元组,通常会贴上
http://www.itnose.net/detail/6493216.html 2016-04-25 07:44   [其它]

WARP-CTC - 人工智能软件

WARP-CTC 是百度硅谷 AI 研究所 (SVAIL) 开源百度关键人工智能 (AI) 软件。 connectionist temporal classification (CTC) 方法可以追溯到 2006 年,在 Swiss AI 研究所 IDSIA 论文上有记载。 百度研究所开发
http://www.itnose.net/detail/6441338.html 2016-01-20 12:21   [其它]

Facebook如何用“我们”数据构建人工智能

Mark接洽,我想他们也许喜欢我向他们讲述东西”,LeCun在接受《Popular Science》采访说道:“他们试图说服我来运作这个实验室……当像Mark 那样人跑过来和你说:‘好吧,你基本上接受了全权委托。你能组建世界一流研究室,我希望你建立起全世界最好的人工智能研究实验室’。我回答将会
http://www.itnose.net/detail/6381576.html 2015-10-03 13:56   [互联网]

混沌,分形与人工智能

。这就造成了群体混沌属性。对于人工智能来说,个人认为也有这样情况。在训练网络进行学习时,我们并不清楚它是如何学习,它是如何抽象出各种概念(可参考文章深度神经网络灰色区域:可解释性问题)。混沌属性很可能会让人工智能出现某些未知不可预测行为。正如《疑犯追踪》芬奇所说,“We don’t
http://www.itnose.net/detail/6377325.html 2015-09-24 14:33   [其它]

  1  2  3  4  5 下一页>