1分快3倍投对话 IJCAI 2019 特邀讲者 Leslie Kaelbling:与 AI 和机器人结缘背后的故事(上篇)

  • 时间:
  • 浏览:13
  • 来源:大发1分快3—1分快3官方

雷锋网 AI 科技评论按:IJCAI(国际人工智能联合会议,International Joint Conferences on Artificial Intelligence)是人工智能领域历史最为悠久,也是影响力最大1分快3倍投的学术会议之一,随着近年来人工智能的热度日益攀升,原来仅在奇数年召开的 IJCAI 自 2015 年后来刚开始变成每年召开。今年,万众瞩目的 IJCAI 也将如约而至,将于 8 月 10 日至 16 日在中国澳门隆重召开。

特邀报告(Invited Talks)作为 IJCAI 最受关注的环节之一,随着会议的临近,特邀讲者名单也在相继发表声明中。机器人作为人工智能领域的一一好多少 非常重要的研究方向,本次大会都是点儿邀请了机器人专家、麻省理工教授 Leslie Kaelbling 做特邀报告。届时,她将带来主题为《Doing for our robots what evolution did for us》的特邀演讲。

Leslie Kaelbling 是麻省理工学院的机器人专家。 她在强化学习、规划、机器人导航等人工智能研究领域获得了引人注目的研究成果,其中包括将运筹学中的主次可观察的马尔可夫决策过程应用到人工智能和机器人中,曾获得 IJCAI「计算机与思想奖」(Computers and Thought Award)等重要奖项,一并她也是人工智能领域颇负盛名的《机器学习研究杂志》的创始人兼主编。

近日,麻省理工学院教授 Lex Fridman 在其播客访谈节目《Artificial Intelligence Podcast》中与 Leslie Kaelbling 进行了对话。对话中,Leslie Kaelbling 不仅分享了她从哲学领域转入计算机科学领域,并与 AI 和机器人结缘的手中的故事,还完全阐述了其对于机器人发展历程以及现状的见解。

采访视频播放地址:https://www.youtube.com/watch?v=Er7Dy8rvqOc

雷锋网 AI 科技评论将采访视频收集成文如下,全文进行了不改变原意的完全。

Leslie Kaelbling:说到是有哪些我促进 对 AI 产生了浓厚的兴趣,就不得不提我在高中时期阅读的《哥德尔、艾舍尔、巴赫》(Gödel, Escher, Bach)。这本书对我来说极具塑造性,它我促进 感受到了原函数和组合函数的另四种 趣味性,也我促进 更加了解咋样将比较复杂的事情与简单的主次区分出来,并后来刚开始思考咋样的 AI 以及应用应用程序促进够让机器产生智能行为。

Lex Fridman:可是您最后来刚开始喜欢上的我觉得是 AI 与机器人的推理逻辑。

Leslie Kaelbling:是的,喜欢机器人则是机会我的第一份工作。当时我从斯坦福大学的哲学专业毕业,正打算去读计算机科学的硕士,可是被 SRI 录用了,进入到朋友 的 AI 实验室工作。朋友 当时正在研发一款同类于 Shaky 的后代机器人,可是 Shaky 原来的研发者都是在了,可是的工作可是尝试想要这种机器人拥有做事情的能力。这也是我促进 真正对机器人产生兴趣的契机。

Lex Fridman:朋友 先稍微回顾一下您的大学生涯。您在斯坦福大学获得了计算机科学的硕士和博士学位,可是您的大学本科读的是哲学专业,那您认为哲学含有有哪些主次是您促进 应用到计算机科学的研究中的。

Leslie Kaelbling:哲学与计算机科学学紧密相关的。我在大学本科期间很难读计算机专业是机会斯坦福大学当时还很难开设你这种专业,可是实际上,斯坦福大学开设了一点特殊的辅修课程,比如现在称作符号系统(symbolic system)的学科,这门课程教授的内容是逻辑模型理论(logic model theory)以及自然语言的形式语义(formal semantics of natural language)。这对于我后来从事 AI 和计算机科学的研究做了一一好多少 完美的铺垫。

Lex Fridman:这非常有意思。当时机会对 AI 感兴趣励志的话 ,朋友 一般会选用上有哪些计算机相关课程?您当时对于 AI 的想法深为着迷,除了哲学,还源自于有哪些一点的原因分析?

Leslie Kaelbling:当时并很难什么都人从事你这种方向的研究,甚至也很难有哪些人探讨它。可是大学的同班同学倒是都对人工智能挺感兴趣的:朋友 班有接近一半的人转向计算机科学专业深造,近一半的转向法律专业深造,而只能一两位同学继续留在哲学专业学习。什么都哲学专业和计算机科学专业二者间我觉得是有相当普遍的关联性的。

Lex Fridman:你认为 AI 研究人员有1分快3倍投无促进 拥有哲学家的另一重身份,还是说朋友 应该坚持从事「硬」的科学和工程研究,而不促进 进行一点哲学思考?也却励志的话 ,机会研究者从事于机器人研究,却无法很好地从哲学上的大视角来看待研究有哪些的什么的问题,又该用有哪些来驱动朋友 研究出出色的 AI 呢?

Leslie Kaelbling:我认为哲学专业中与 AI 最紧密相关机会说与 AI 有点儿关系的,可是信念、知识以及表示有有哪些东西。有有哪些我觉得都是非常形式化的东西,似乎距离朋友 所做的常规计算机科学工作只能一步之遥。我认为现在非常重要的有哪些的什么的问题依旧是,让他用机器来做有哪些以及只能做有哪些。尽管我一点人完都是一一好多少 唯物主义者,但我认为朋友 很难理由无法开发出一一好多少 行为举止与人类毫无区别的机器人,而判断它与人类有无有区别的关键在于它的内心有无有直觉或哲学思维。实际上,我并他不知道一点人有无非常在意你这种。

可是朋友 现在他不知道它们获得哲学思维,进行感知和规划,以及在现实世界中顺利运行有多难。毕竟现在的机器人在什么都任务上,都还做只能像人类一样。

什么都有哪些的什么的问题实际上可是,现在机器人和人类在哲学上还居于巨大的差距。朋友 都知道,机会机器人要在现实世界应用有有哪些知识,就促进 对有有哪些知识进行扩展,并促进 拥有形成常识以及在大主次工作中进行不选用性推理的能力。有有哪些都是开放性的有哪些的什么的问题,他他不知道要咋样去用选用而全面的视角看待有有哪些有哪些的什么的问题。

对于我来说,这似乎并都是一一好多少 哲学差距的有哪些的什么的问题,可是一一好多少 技术上的大难点,除此之外,我不须认为机器人和人类在一点方面居于差距。

Lex Fridman:好的。您是发表声明为 AI 还居于一点遗憾呢?还记得当您后来刚开始对机器学学或机器人产生兴趣的后来,当时对 Shaky 机器人有有哪些印象?您当时对于机器人的想象有无实现了呢?

Leslie Kaelbling:我最后来刚开始研究的机器人是 Shaky,它是 SRI 研究人员开发出来的机器人。当我第一次踏入 SRI 的后来,当时它正站在某个办公室的角落,正在将液压油滴在一一好多少 锅中。你这种机器人是相当具有标志性的,每一点人都应该读到过 Shaky 的技术报道,机会它身上汇聚了一点非常好的想法,比如朋友 不仅将很好的搜索、符号规划和学习的宏操作符都应用到了机器人身上,还对机器人进行了较初级的空间规划配1分快3倍投置,可是为 Shaky 配置上了手臂。朋友 在什么都方面都是了比较清晰的基本思路。

Shaky 是一一好多少 移动机器人,它促进 推动物体,在它自身搭载的执行器和底座的帮助下,促进 将物体移到旁边去。一并,它还促进使用它的视觉去进行自我定位、探测物体,并基于它所看到的东西进行规划,并推理有无要探视和拍照。我觉得,当时它对朋友 现在所能想到的什么都事情都是了基本的认知。

Lex Fridman:您认为它是咋样表示互近的环境空间的呢?

Leslie Kaelbling:它对于一点不同程度的抽象表示都是认知,我认为,它对于低级别的抽象表示,会使用四种 占用网格;对于高级别的抽像表示,它会使用针对四种 空间以及关联性的抽象符号。

Lex Fridman:现在一一好多少 词叫「片状」(flaky)。

Leslie Kaelbling:是的。当时在 SRI 的后来,朋友 正在开发一一好多少 全新的机器人。正如我后来所说的,团队中没一一好多少 人是来自于后来 Shaky 那个项目的,可是朋友 大约是从头后来刚开始。当时是我的导师并最终也成为了我的论文导师的 Stanresinshine,就曾受到「情景计算」(Situated Computation)机会说「情境自动装置」(Situated Automata)你这种想法的启发。你这种想法可是:逻辑推理的工具非常重要,可是机会仅有工程师机会设计者会将你这种工具用到系统的分析中,此外,你这种工具不一定要应用到系统自身的头部中。

当时我认为促进 使用逻辑去证明关于机器人行为的理论:即使机器人不使用它头部的逻辑,它可是需要 进行手臂的动作。这可是区别。而你这种想法可是使用有有哪些原则去开发促进 做事情的机器人。不过当时,我一点人促进 学习少量的基础工作,机会我很难机器学学背景,他不知道任何机器控制、感知相关的知识。什么都在你这种过程中,朋友 把什么都技术都重新研发了一遍。

Lex Fridman:那您认为这是优势还是阻力呢?

Leslie Kaelbling:我的意思是说,在你这种过程中,让他学到什么都事情,可是最终攻克有哪些的什么的问题随都上能够更清楚地明白一点人走到了哪一步。

Lex Fridman:您能总结一下 AI 和机器学习强化学习的历史,以及您咋样看待它从 20 世纪 100 年代至今的发展?

Leslie Kaelbling:它的发展的一一好多少 重要特点可是徘徊:变得火热后来又落到低谷,后来又变得受欢迎,后来又落到低谷...... 实际上,我认为它的应用应用程序很大程度上是由社会学应用应用程序所驱动的。

早期,它的发展是控制论的发展有关,朋友 以动态平衡的思路开发机器人,当机器人促进 动能的后来,就为它们充电,后来它们就促进 在互近滚动,做事情。后来,我对于你这种思路思考了很长时间,我认为它是具有启发性的。可是当时朋友 不赞成你这种思路,朋友 认为朋友 促进 让机器人不断接近实现真的智能,即类人智能。

后来朋友 尝试研究专家系统去实现真正的智能,可是都太过冠部了。朋友 对智能的理解是冠部的,这就跟朋友 理解钢铁厂为社 会 运转一样。朋友 认为,而且对智能进行解释,可是将它用逻辑写下来,后来再设计一台计算机来对其进行推理就实现了专家系统,然而结果,朋友 发现计算机无法实现推理。不过我认为比较有意思的是,当专家系统的研究后来刚开始变得不太顺利时,朋友 不仅改变了研究法律法律依据,朋友 还改变了有哪些的什么的问题。朋友 似乎很难更好地法律法律依据甚至促进 说很难法律法律依据去处理专家系统的有哪些的什么的问题。最终朋友 放弃去处理专家系统的有哪些的什么的问题,后来刚开始转向原来完全不同的有哪些的什么的问题。

Lex Fridman:想必当时研究界有什么都人会认为不应该放弃专家系统的研究,而您则倾向于将该有哪些的什么的问题先搁置到一边。现在我促进 们回到后来励志的话 题,专家系统后来的 20 年的发展。

Leslie Kaelbling:认为专家系统很异常,你这种观点是无可厚非的,这就像有的人认为仅仅做一点冠部的符号推理是错误的一样,以及一点人认为医生在拥有临床经验后来只能成为一名真正的医生一样。可是当时居于你这种有哪些的什么的问题的方向对或不对的争论,都是正常的,只不过朋友 最终还是无法找到处理法律法律依据。

Lex Fridman:您后来提到,逻辑学和符号系统中你最喜欢的主次,可是它们促进给以短名称给大规模的设置命名。什么都有有哪些方面在符号推理含有有哪些应用吗,比如说专家系统或符号计算?你认为在 100 和 90 年代,人工智能发展的最大阻碍是有哪些?

Leslie Kaelbling:实际上我并都是专家系统的拥护者,不过我对一点符号推理倒是很感兴趣。说到人工智能发展的阻碍,我认为最主要的阻碍是当时朋友 的想法,朋友 认为人类促进有效地将朋友 的知识转成四种 形式的逻辑陈述。

Lex Fridman:这不仅仅要求付出代价和努力,促进 人类真正拥有你这种能力。

Leslie Kaelbling:是的。我觉得朋友 都有无有远见的专家,可是完全无法用内省的法律法律依据来想明白朋友 咋样做到你这种点。关于你这种点,我认为我觉得当时每一点人都明白:专家系统都是要求人类写下用来识别水瓶的规则,可是要写下用来进行决策的规则。我认为当时朋友 都发现了,所谓的专家能给出的解释,就像鹰派促进解释朋友 咋样做事以及为社 会 会 做事一样。朋友 给出的解释不一定很好。

后来,朋友 改造了专家系统,使其转而依赖于四种 感知事物的东西,可是感知的你这种东西又回到了朋友 后来提到的:朋友 无法很好地定义它们。什么都从根本上来说,我认为其根本有哪些的什么的问题可是假设朋友 促进 明确表达朋友 做决策的法律法律依据和原因分析。

Lex Fridman:什么都说,从专家那里转换而来的知识进行编码后,就变成了机器促进理解和推理的东西。

Leslie Kaelbling:并都是。这不仅仅促进 编码,还促进 让知识完全脱离专家。我的意思是,将知识编写到计算机中原来就很难。而我更认为,朋友 无法将有有哪些知识生成出来。朋友 促进 讲一一好多少 故事他不知道为有哪些要做这件事,但我不须选用原来表达出来的东西促进为机器所理解。

Lex Fridman:在分层规划方面仍然居于符号推理的用武之地,正如您刚才所谈到的那样。什么都具体的难点在哪里呢?

Leslie Kaelbling:即便人类只能为机器提供推理过程的描述,这什么都须原因分析在计算机内部管理只能进行各类风格的推理。这可是一一好多少 正交点(Orthogonal Points)。原来励志的话 ,有哪些的什么的问题实际上就变成了:应该在计算机内部管理用何种法律法律依据进行推理?答案是,我认为计算机内部管理促进 针对所面临的不同有哪些的什么的问题,使用各种不同的推理法律法律依据。

Lex Fridman:我有无促进 理解为,你这种有哪些的什么的问题是,朋友 促进 对哪同类物进行符号编码,从而实现推理?

Leslie Kaelbling:关于符号,我甚至都是喜欢你这种术语,机会他他不知道它在技术上和形式上到底是有哪些意思,与此一并,我对抽象深信不疑。抽象是直观、重要的,机会对于生活中的一切,人不机会从有点儿细的粒度出发做出完全的推理。你不机会仅仅基于某张图像,就做出要读博士的决策。

什么都机会我促进 推理出要攻读博士学位,甚至是购买有哪些食材来做晚餐,你就促进 缩小状况空间的大小以及推理的视界。那该咋样缩小状况空间的大小或推理的视界?答案是抽象:空间抽象和时间抽象。

我认为沿着目标轴线的抽象也很有趣,对目标进行抽象和分解机会更像是一一好多少 分解的过程,四种 程度上我认为这可是朋友 所谓的符号或离散模型。当你在聊天的后来,你机会会谈到房子的面积,而不不谈你在某个时间点的姿势;让他说你在下午做了某件事,而不不说你在两点五十四分做了某件事情。你原来做我觉得是机会原来能比较复杂了你的推理有哪些的什么的问题,以及你很难足够的信息去对你在今天下午两点五十四分的姿势进行高保真的推理。

我促进 重点重申的一点是,所有的有有哪些都是应该沦为教条,认为朋友 不应该原来做,不应该那样做。我促进 赞成符号推理,而你可是需要 支持神经网络。计算机科学最终会他不知道们所有有有哪些有哪些的什么的问题的正确答案是有哪些,机会朋友 够聪明励志的话 ,可是需要 搞清楚。

Lex Fridman:是的,实际上当你试图用计算机处理实际有哪些的什么的问题时,正确答案自然而然就出来了。您后来提到抽象你这种概念,提到所有的网络都源自于抽象,居于自动化的法律法律依据去形成策略、专家驱动的法律法律依据去构建抽象,可是当下人同类乎在抽象构建上的表现更好,什么都你提到两点五十四分与下午对比,原来们咋样构建原来的分类法呢?现在有无有机会实现诸如抽象此类的自动构建?

Leslie Kaelbling:我认为当机器学习发展得更好时,工程师促进 开发出算法来构建出非常出色的抽象。

Lex Fridman:朋友 不妨先放下抽象的讨论,先谈谈主次可观察的马尔可夫决策过程(Partially Observable Markov Decision Processes,POMDPs)。首先想请问一下您,有哪些是马尔可夫决策过程?朋友 世界含有有多少事物是促进 建模以及具有马尔可夫决策过程的。比如您从 POMDPs 的角度,咋样看待早晨做早餐的花费?又咋样看待 POMDPs?它跟朋友 的真实世界又是咋样建立联系的?

Leslie Kaelbling:我觉得这是一一好多少 立场有哪些的什么的问题,立场可是看待有哪些的什么的问题居于的位置。我作为一名研究人员机会系统设计者,促进 选用以何种法律法律依据对我互近的世界建立模型,从而了解你这种混乱的世界。机会我其将当做你这种形式的有哪些的什么的问题处理,让他促进 沿着算法你这种类的思路,提出方案来处理有哪些的什么的问题。当然对你这种世界建模不须能代表能处理任何有哪些的什么的问题,也都是马尔可夫决策过程。可是促进 通过以各种法律法律依据建模的来寻找处理方案,一旦我找到正确的建模法律法律依据,就能得到一点促进 用的算法。

Lex Fridman:您促进 通过各种法律法律依据为你这种世界建模。一点法律法律依据会更倾向于接受不选用性,也更容易为世界的不选用性进行建模,而一点法律法律依据机会会强行将你这种世界变成选用性的。

Leslie Kaelbling:是的。一点模型是不选用性的,可是你这种模型不须能表示当前状况的不选用性,可是对未来的发展走势进行建模。

Lex Fridman:那有哪些是马尔可夫决策过程呢?

Leslie Kaelbling:马尔可夫决策过程,是一一好多少 假设我促进 够完全了解系统的当前状况,即掌握系统的所有信息状况下对未来做预测的模型。什么都记住历史居于的所有事情,与对未来所做预测的好坏并无关联。一并,该模型也假设我促进 够采取一点行动来改变世界的当前状况,可是无法对有有哪些变化进行选用性建模,而只能建立概率模型。你这种概率模型对于一点系统来说机会非常有用,不过对于大多数有哪些的什么的问题来说都很难哪些用。机会对于大多数有哪些的什么的问题,你无法只能观察到它们的主次状况,可是有有哪些有哪些的什么的问题都是各不相同的。

Lex Fridman:什么都对于马尔可夫决策过程,朋友 只能观察到主次状况。什么都当你只能观察到大主次状况,可是能完全地了解互近世界的信息时,马尔可夫决策过程又咋样处理现实有哪些的什么的问题呢?

Leslie Kaelbling:现在你这种过程的思路依旧是,假设居于朋友 了解互近世界的一点信息的状况,朋友 促进做出好的预测。我觉得朋友 他不知道当前完全的状况,不过朋友 促进 通过图像等去观察、感受,可是根据观察到的历史行为去推断世界的发展趋势,并基于一点人无法选用的未来发展动向,来决定采取有哪些行动。

Lex Fridman:在不选用的状况下做出规划,你这种有哪些的什么的问题是非常困难的。在对世界进行建模来处理现实世界你这种特殊系统的不选用性方面,您有着非常丰厚的经验。

Leslie Kaelbling:你这种最优规划有哪些的什么的问题往往是不可判定的,它取决于你进行了咋样的设置。什么都人都表示,我不使用 POMDPs,机会它们难以处理。我一点人认为这是一件非常滑稽的事情,机会有哪些的什么的问题之所叫做有哪些的什么的问题,可是促进 你促进 去处理的。

而朋友 AI 研究者难能可贵会冒出,可是机会要处理的有哪些的什么的问题非常棘手。朋友 都明白朋友 正在处理的有哪些的什么的问题在计算上的难度非常高,朋友 机会无法为它找到最优解。即便朋友 认为机会无法提出最佳处理方案,可是还是会回到最优有哪些的什么的问题上反复探索,朋友 能做的可是让建模、算法不断、不断地接近最优。

我从来不不说,有哪些的什么的问题的计有无多么比较复杂。相反地,有有哪些比较复杂的有哪些的什么的问题促进我促进 更清晰地了解我处理有哪些的什么的问题的法律法律依据,可是一步步地执行近似操作,最终在一一好多少 合理的时间范围内找到可计算的最优解。

Lex Fridman:当您在探讨最优解的后来,当时业界有多重视追求最优处理方案的思想?此外,追求最佳处理方案的思想多年来也突然在变化。

Leslie Kaelbling:这很有趣,从理论上来说,朋友 实际上有一点法律法律依据论危机。我的意思是,我认为理论对于朋友 现在所做的什么都事情都是点儿要。

现在冒出了什么都经验丰厚的黑客攻击,朋友 对此进行训练并进行编号。朋友 很难说清原来好还是不好。机会你关注计算机科学理论,让他发现在谈论了探讨一段时间后,每一点人都是讨论最优化处理有哪些的什么的问题。朋友 会关注咋样找到遗憾绑定(Regret Bound)、咋样执行近似、咋样证明有哪些的什么的问题的解是近似解,花的时间太满就越接近最终的最优解。

我觉的比较有意思的是,对于难度非常高的有哪些的什么的问题,朋友 很难建立一一好多少 比较好的「近似解」概念。我一点人非常喜欢研究难度很高的有哪些的什么的问题,希望一点人建立四种 形式的处理方案的概念,我促进 促进 判断你这种算法是有一定作用的,我促进 知道除了运行它还能用它做点一点有哪些事情。

Lex Fridman:什么都拥有四种 概念四种 程度上对您有陷得的吸引力,一并您促进 使用有有哪些概念来更好地看清一点事情,并期待有有哪些事情促进给您带来好的结果。

Leslie Kaelbling:科学你这种学科中都是工程学,但我认为二者不须完全相同。我认为朋友 正在做的工程学取得了跨越式的发展,它是走在科学前头的学科。可是它今后咋样发展,大致是咋样以及为有哪些工作,很难人清楚。朋友 促进 将工程有哪些的什么的问题转化成科学有哪些的什么的问题,朋友 促进 知道工程学咋样、为有哪些工作的原理,比如在原来的一段时间,朋友 机会要建桥梁就要真正地去建,而现在朋友 不促进 去真正去建桥梁,就能预测这架桥梁建成都都是有哪些样。有有哪些都是朋友 促进 应用到学习系统以及机器人中的。

Lex Fridman:您期望从唯物主义的角度来看待人工智能、智能系统以及机器人? MDPs 所涉及的信念空间(Belief Space)和状况空间(State Space)有有哪些区别?您通过世界的状况来进行推理,那信念空间呢?

Leslie Kaelbling:信念空间都是说考虑当前世界的状况是有哪些样的从而尝试让机器人去控制有有哪些状况,我将它理解为四种 世界咋样发展的概率分布,原来励志的话 控制有哪些的什么的问题不再是咋样控制机器人在你这种世界穿行的有哪些的什么的问题,而变成了一一好多少 控制信念的有哪些的什么的问题,即我采取行动不仅仅考虑你这种行为对真实世界产生有哪些影响,都是考虑它对于我一点人对世界的理解会产生有哪些影响。这就机会迫使我提出一一好多少 有哪些的什么的问题:有哪些是不不真正改变世界状况可是改变我对世界的信念的?我会将有有哪些信息汇集起来作为决策考量的法律法律依据。

Lex Fridman:这是增强智能体对世界的推理和探索能力的很强大的法律法律依据。您在面临有哪些有哪些的什么的问题的后来,会考虑用到信念空间,又在有哪些状况下会仅仅考虑状况空间呢?

Leslie Kaelbling:我觉得大主次有哪些的什么的问题都是促进 刻意收集信息的。在一点有哪些的什么的问题中,比如说象棋中是不居于不选用性的,可是对于对手来说,机会就会居于不选用性,原来励志的话 就不居于状况的不选用性了。即便一点有哪些的什么的问题居于不选用性,但你找不到促进 在处理有哪些的什么的问题的过程中去收集信息。比如,当你乘坐驾驶自动汽车的后来,它不须完全知道它身处何处,但它了解光照时长突然在变化的信息,你这种后来你是不促进 收集信息的;可是当你一点人在道路上驾驶汽车时,我促进 看看你旁边以及后方的路况,促进 决定在哪边道路开等等,你促进 衡量有有哪些信息的价值,并选用收集有哪些信息以及合理区分。

一并,在你采取行动前,你还促进 考虑自身的不选用性。机会我知道我所站的地方与门框恰好相对,让他能顺利穿过门。可是机会我只能选用门所在的位置,最好就不须马上迈过去,而要先进行评估。

Lex Fridman:你对世界的不选用程度,实际上就你找不到在形成规划过程中促进 优化的一主次。那您促进 描述一下,朋友 咋样采用分层规划的法律法律依据来对你这种世界做规划?距离机器人真正实现对一点事情做规划还有一段很长的道路。

Leslie Kaelbling:推理中使用的分层推理,包括时间分层和空间分层。朋友 先说一下时间分层。后来的执行过程促进 进行很长时间,而使用时间分层就促进抽象地将你这种过程划分为有多少主次。在后来朋友 也谈到过,机会你促进在状况空间中构建时间抽象,你就能进行高水平的规划,比如说我可原来往城镇,可是给车加油,后来我会到这里做一点有哪些事情等等。让他推理出有有哪些行为的依赖性和约束性,而不促进 进行事无巨细的考量。

在分层规划中,朋友 促进 做的可是针对抽象,做出高水平的规划。我认为你这种过程是非常灵活的,它不促进 考量所有的细节因素,一并我也认为这是非常有趣的一一好多少 步骤。我喜欢以机场你这种场景为例,比如让他规划前往纽约,后来到达目的机场,可是到达办公楼,但你找不到无法提前说出你在机场居于的事情,这或许是机会你一点人懒得想,但更多的还是机会你很难足够的信息推理出你在哪个登机口登机,坐在你前面的是谁等等有有哪些事情。

什么都,规划得太完全是很难意义的,但你找不到促进 实现信念上的飞跃,相信你到了那里就能弄清楚所有事情。村里人 说,我终其一生所学到的可是预测实现一点类型的子目标的难度。我认为这是至关重要的,机会你对于完成有有哪些上方步骤没一一好多少 模型,你就无法对飞往某个地方做规划。

朋友 现在要讨论的一件事可是,可是咋样对有有哪些你很难经历过的状况进行概括,从而进行预测,比如说穿过吉隆坡机场要多长时间。什么都,对于同类抽象模型,我真的非常感兴趣,一旦朋友 创建好有有哪些模型,朋友 就促进 用有有哪些模型来做分层推理,我认为这非常重要。

Lex Fridman:就跟您后来提到,一旦你冒出在机场,你就离目标只剩几步之遥了。您能解释一下你这种目标的起点是有哪些吗?

Leslie Kaelbling: Herb Simon 在人工智能早期就谈到过从法律法律依据到结果的正向推理以及从结果出发的反向推理。朋友 直觉上会认为状况空间数量什么都,让他采取的行为也什么都。比如说我坐着的后来,想要搜索我前面在哪,我所有能做的事情是有哪些,其状况空间和可采取的行为数量都是庞大的。

机会让他在原来层面上推理,比如选用了希望实现的目标,要知道咋样实现你这种目标,原来有哪些的什么的问题的范围就更小了。有趣的是,现在 AI 规划领域还很难处理已知的同类有哪些的什么的问题,可是朋友 现在倾向于使用的法律法律依据还是从法律法律依据到结果的正向推理,目前还很难有哪些研究在从结果出发的反向推理中做出更好的结果。这还是我的四种 直觉,我还无法立即向你证明你这种点。

Lex Fridman:也很荣幸您能跟朋友 分享您的直觉。您后来有无思考 AI 领域促进 借助点哲学的健康智慧?您认为将人类的一生或生命的某个主次制定成一一好多少 规划有哪些的什么的问题有多难?当您从事于机器人研究时,您往往考虑的是物体操作、物体移动任务等,那您打算有哪些后来走出实验室,让机器人出门、做午饭以及追求更加高远的目标呢?您咋样看待你这种有哪些的什么的问题?

Leslie Kaelbling:我认为你这种想法是错误的,事实上人类的一生不须都是规划有哪些的什么的问题。朋友 机会都我觉得将生活的各个主次整合在一并非常重要,可是有有哪些主次在推理、表示以及学方面的风格都是截然不同的。朋友 都清楚的是,一一好多少 人不机会永远都是原来的机会那样的,人类的大脑什么都须突然一成不变,所有的事情都是很难,它们的构成主次、子架构等都是尽相同。什么都我一点人认为,朋友 没理由去憧憬,机会一一好多少 算法促进真正地完成整个任务。

Lex Fridman:朋友 现在能做的,还可是针对特定的有哪些的什么的问题设计出特定的算法。

Leslie Kaelbling:这促进 考量有哪些的什么的问题类型,比如说,一点推理机会促进 在图像空间中进行。我促进 再次提到的一点事,推理可是一一好多少 强化学习有哪些的什么的问题,它的思路促进 是基于模型的,可是需要 是不基于模型的。朋友 机会还在谈论有无应该学习——朋友 促进 学习策略直接产生行为,可是需要 学习一一好多少 客观的价值函数,机会学习一一好多少 转移模型以及一点促进告知朋友 世界动态信息的东西。比如当我旅游的后来,想象我学到了一一好多少 转移模型,将它与规划器结合起来,可是画出一一好多少 围绕它的盒子,让他促进 学到一一好多少 策略,而你这种策略是以不同的法律法律依据储存的。与一点策略一样,它也仅仅是一一好多少 策略。

而我更倾向于将其视为四种 在计算上的光阴权衡。一方面,对于更公开的策略表示,它机会促进 居于更多的空间,可是促进 快速地计算出应该采取的行为;一点人面,使用一一好多少 非常紧凑的世界动态模型加在一一好多少 计划器,我机会只能很难地计算出接下来要采取的行为。我认为你这种点不居于任何争议,它可是一一好多少 「对于朋友 来说,哪种计算形式最好」的有哪些的什么的问题。

比如用代数操作做一点推理是大约的,可是机会面对的是控制骑独轮车原来的任务,它对时间响应的要求很高,可是决策空间也要小什么都,在你这种后来机会朋友 就促进 不同的表示法律法律依据。随便举的例子,不一定贴切。 

(本文为上篇,下篇阅读请前往:https://www.leiphone.com/news/201904/XAt6Paa6u28uQyvO.html)

IJCAI 2019 会议召开后来,特邀报告讲者名单将陆续发表声明,雷锋网 AI 科技评论作为 IJCAI 2019 的媒体有点儿合作伙伴,也将陆续为朋友 带来各位特邀讲者的相关报道。届时,雷锋网(公众号:雷锋网) AI 科技评论还将奔赴现场为朋友 带来精彩报道,敬请期待!

雷锋网原创文章,未经授权禁止转载。详情见转载须知。