0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

AI智能体学习如何跑步、躲避跨越障碍物

DPVg_AI_era 来源:未知 作者:李倩 2018-10-22 08:58 次阅读

AI智能体学习如何跑步、躲避跨越障碍物

近年来,深度学习受到全球关注。成就最为突出的便是深度强化学习,例如Alpha Go等。本文作者Artem Oppermann基于此,对深度强化学习训练AI智能体所需要的数学背景知识——马尔科夫链做了深入浅出的介绍。

近年来,世界各地的研究员和媒体对深度学习极其关注。而深度学习方面成就最为突出的就是深度强化学习——从谷歌Alpha Go击败世界顶级棋手,到DeepMind的AI智能体自学走路、跑步以及躲避障碍物,如下图所示:

图2:AI智能体学习如何跑步、躲避跨越障碍物

图3:AI智能体学习如何跑步、躲避跨越障碍物

还有一些AI智能体打破了自2014年以来人类玩家在雅达利游戏中的最高纪录。

图4:AI智能体学习如何玩儿雅达利游戏

而这一切最令人惊奇的是这些AI智能体中,没有一个是由人类明确编程或者指导他们如何完成这些任务的。他们仅仅是通过深度学习和强化学习的力量在自学!

本文作者Artem Oppermann在Medium中开设了《自学AI智能体》的“连载”课程,本文是其第一篇文章,详细介绍了AI智能体自学完成任务这一过程背后需要了解的数学知识——马尔可夫链。

Nutshell中的深度强化学习

深度强化学习可以概括为构建一种算法(或AI智能体),直接从与环境的交互中学习。

图5:深度强化学习示意图

环境可以是真实世界,电脑游戏,模拟,甚至棋盘游戏,比如围棋或象棋。就像人类一样,人工智能代理人从其行为的结果中学习,而不是从明确的教导中学习。

在深度强化学习中,智能体是由神经网络表示的。神经网络直接与环境相互作用。它观察环境的当前状态,并根据当前状态和过去的经验决定采取何种行动(例如向左、向右移动等)。根据采取的行动,AI智能体收到一个奖励(Reward)。奖励的数量决定了在解决给定问题时采取的行动的质量(例如学习如何走路)。智能体的目标是学习在任何特定的情况下采取行动,使累积的奖励随时间最大化。

马尔可夫决策过程

马尔可夫决策过程(MDP)是一个离散时间随机控制过程。

MDP是迄今为止我们对AI智能体的复杂环境建模的最佳方法。智能体要解决的每个问题都可以看作是S1、S2、S3、……Sn(状态可以是围棋/象棋的棋局配置)的序列。智能体采取行动并从一个状态移动到另一个状态。

马尔可夫过程

马尔可夫过程是一个描述可能状态序列的随机模型,其中当前状态仅依赖于以前的状态。这也被称为马尔科夫性质(公式1)。对于强化学习,这意味着AI智能体的下一个状态只依赖于最后一个状态,而不是之前的所有状态。

公式1:马尔可夫性质

马尔可夫过程是一个随机过程。这意味着从当前状态s到下一个状态s'的转变“只能在一定概率下发生”(公式2)。在马尔科夫过程中,一个被告知向左移动的智能体只会在一定概率下向左移动,例如0.998。在概率很小的情况下,由环境决定智能体的最终位置。

公式2:从状态s到状态s'的转变概率

Pss '可以看作是状态转移矩阵P中的一个条目,它定义了从所有状态s到所有后续状态s'的转移概率(公式3)。

公式3:转移概率矩阵

马尔可夫奖励(Reward)过程

马尔可夫奖励过程是一个元组。这里R是智能体希望在状态s(公式4)中获得的奖励。这一过程的动机是基于AI智能体是“需要达成一定目标”这样的一个事实,例如赢得国际象棋比赛,在某些状态下(游戏配置)比起其它状态来说赢得比赛的概率会更大一些。

公式4:在状态s中期望获得奖励

总奖励Gt(公式5),它是智能体在所有状态序列中所获得的预期累积奖励。每个奖励都由所谓的折扣因子γ∈[0,1]加权。

公式5:所有状态的奖励总额

价值函数(Value Function)

另一个重要的概念是价值函数v(s)中的一个。价值函数将一个值映射到每个状态s。状态s的值被定义为AI智能体在状态s中开始其进程时将得到的预期总奖励(公式6)。

公式6:价值函数,从状态s开始的期望返回值

价值函数可以分解为两个部分:

处于状态s时,智能体收到的即使奖励(immediate reward)R(t+1);

在状态s之后的下一个状态的折现值(discounted value)v(s(t+1));

公式7:价值函数的分解

贝尔曼方程

马尔可夫奖励过程的贝尔曼方程

分解后的值函数(公式8)也称为马尔可夫奖励过程的贝尔曼方程。

该函数可以在节点图中可视化(图6),从状态s开始,得到值v(s)。在状态s中,我们有特定的概率Pss '到下一个状态s'中结束。在这种特殊情况下,我们有两个可能的下一个状态为了获得值v(s),我们必须总结由概率Pss'加权的可能的下一个状态的值v(s'),并从状态s中添加直接奖励。 这就产生了公式9,如果我们在等式中执行期望算子E,那么这只不是公式8。

公式8:价值函数分解

图6:从s到s'的随机转变

公式9:执行期望算子E后的贝尔曼方程

马尔可夫决策过程——定义

马尔可夫决策过程是一个有决策的马尔可夫奖励过程。

马尔可夫决策过程是马尔可夫奖励过程的决策。 马尔可夫决策过程由一组元组描述,A是智能体可以在状态s中采取的一组有限的可能动作。 因此,现在处于状态s中的直接奖励也取决于智能体在这种状态下所采取的行动(公式10)。

公式10:期望奖励取决于状态s中的行为

策略

在这一点上,我们将讨论智能体如何决定在特定状态下必须采取哪些行动。 这由所谓的策略π(公式11)决定。 从数学角度讲,策略是对给定状态的所有行动的分配。 策略确定从状态s到智能体必须采取的操作a的映射。

公式11:策略作为从s到a的一个映射

该策略导致状态价值函数v(s)的新定义(公式12),我们现在将其定义为从状态s开始的预期返回,然后遵循策略π。

公式12:状态值函数

动作价值函数

除状态值函数之外的另一个重要功能是所谓的动作值函数q(s,a)(公式13)。 动作值函数是我们通过从状态s开始,采取行动a然后遵循策略π获得的预期回报。 请注意,对于状态s,q(s,a)可以采用多个值,因为智能体可以在状态s中执行多个操作。 Q(s,a)的计算是通过神经网络实现的。 给定状态作为输入,网络计算该状态下每个可能动作的质量作为标量(图7)。 更高的质量意味着在给定目标方面采取更好的行动。

图7:动作价值函数说明

公式13:动作价值函数

状态值函数v(s)可以分解为以下形式:

公式14:状态价值函数分解

同样的分解也适用于动作价值函数:

公式15:动作价值函数分解

在这一点上,我们讨论v(s)和q(s,a)如何相互关联。 这些函数之间的关系可以在图中再次可视化:

图8:v(s)和q(s,a)之间关系的可视化

在这个例子中,处于状态s允许我们采取两种可能的行动a,根据定义,在特定状态下采取特定的行动给了我们动作值q(s,a)。价值函数v(s)是概率q(s,a)的和,由在状态s中采取行动a的概率来赋予权重。

公式16:状态值函数是动作值的加权和

现在让我们考虑图9中的相反情况。二叉树的根现在是一个我们选择采取特定动作的状态。 请记住,马尔可夫过程是随机的。 采取行动并不意味着你将以100%的确定性结束你想要的目标。 严格地说,你必须考虑在采取行动后最终进入其他状态的概率。 在采取行动后的这种特殊情况下,你可以最终处于两个不同的下一个状态s':

图9:v(s)与q(s,a)关系的可视化

为了获得动作值,你必须用概率加权的折现状态值来最终得到所有可能的状态(在本例中仅为2),并加上即时奖励:

公式17:q(s,a)和v(s)之间的关系

既然我们知道了这些函数之间的关系,我们就可以将公式16中的v(s)插入公式17中的q(s,a)中。我们得到公式18,可以看出当前的q(s,a)和下一个动作值q(s,a)之间存在递归关系。

公式18:动作值函数的递归性质

这种递归关系可以再次在二叉树中可视化(图10)。

图10:q(s,a)递归行为的可视化

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 智能体
    +关注

    关注

    1

    文章

    123

    浏览量

    10554
  • 强化学习
    +关注

    关注

    4

    文章

    265

    浏览量

    11196

原文标题:AlphaGo等智能体是如何炼成的?你需要懂得马尔科夫链

文章出处:【微信号:AI_era,微信公众号:新智元】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    遇到障碍物自动返回?

    为什么有些东西,遇到障碍物会自动返回,是哪一种传感器吗?哪里有没有这类的电路图介绍下,非常感谢
    发表于 09-10 21:14

    强悍版智能小车

    ` 智能小车一直以来都是电子设计大赛题目的座上宾。尤其是难度高的那一类题目,让不少单片机爱好者和参加大赛的学生头疼。小车在各个模块的协同作用下,可以上坡、测量和障碍物的距离,跨越障碍物如履平地。完美
    发表于 03-09 17:04

    设计完PCB后走线不能躲避障碍物时什么情况

    本帖最后由 gk320830 于 2015-3-8 20:36 编辑 设计完PCB后走线不能躲避障碍物时什么情况?已经设置了躲避障碍物还是不能
    发表于 12-20 08:47

    求教 障碍物感应类开关

    本帖最后由 gk320830 于 2015-3-8 14:20 编辑 急需用到2米内障碍物感应器,带开关功能或者高手帮忙设计个辅助开关电路,24V电源供电,多谢
    发表于 03-07 21:58

    越障小车电机、轮胎选择

    本帖最后由 化雨眠66 于 2013-4-3 12:48 编辑 [table=98%][tr][td]题目:越障竟速小车场地:草地、距离30m,宽度1m,直线场地障碍物:木棍、小石块、小土块,障碍物高度
    发表于 04-03 12:43

    智能壁障车

    项目说明:本小车采用智能控制,能够按照设定程序自行躲避障碍物,实现自身的特色。传统的无线遥控汽车只能通过人为的干涉躲避行驶途中的障碍物,但人
    发表于 10-26 23:40

    基于AT89S52芯片的简易智能小车的设计

    为了使小车具有简易智能,在自动行驶的同时完成检测金属位置,显示行驶路程,记录并显示行驶时间,躲避障碍物等任务。通过传感器采集外部环境信号,在经过单片机对信号进行处理并对执行机构进行控制,小车可以实现
    发表于 10-31 14:49

    障碍物时 语音提示 前方危险,请注意。

    障碍物时语音提示前方危险,请注意。语音模块是isd1820单片机51 求帮忙
    发表于 02-24 21:43

    基于labview机器视觉的障碍物时别

    通过摄像头对周围环境信息的实时采集,如果当镜头前方出现障碍物时候,以一定的方式(声音或振动之类的)反馈出来。主要考虑的是实现盲人室内导盲作用,不需要太过于考虑实际使用,只要能实现判定到障碍物,自动提醒就行啦。怎么判定前方出现障碍物
    发表于 03-14 07:58

    新人求教AD中Pullback(障碍物)到底是一个什么概念或作用?

    边界有一个安全间距,根据设置,内电层边界将自动从板边界回退。 本来第二种说法让我觉得这个“障碍物”是个非铜的区域,但看第一种说法却是指铜构成的一种区域?请懂的大神抽空指点小菜2句?不胜感激
    发表于 11-04 11:27

    ANYmal机器人具有腿和脚,可跨越障碍物

    ANYmal机器人的实验版本具有腿和脚,苏黎世联邦理工学院步行,有腿的机器人可能擅长于越过障碍物,但车轮在光滑地面上行驶仍然更有效率。这就是苏黎世联邦理工学院的工程师向其现有的ANYmal四足机器人
    发表于 08-30 08:02

    障碍物检测实验

    障碍物检测实验 一、实验目的“旋风”小车在运动过程中要成功避开障碍物必须在一定距离外就探测到障碍物。在小车上探测障碍物
    发表于 03-23 10:47 2772次阅读
    <b class='flag-5'>障碍物</b>检测实验

    障碍物方位检测实验

    障碍物方位检测实验 一、实验目的小车在运动中要成功避开障碍物,除了要检测是否有障碍物外,还需要判断障碍物的方位,以便小
    发表于 03-23 10:48 1983次阅读
    <b class='flag-5'>障碍物</b>方位检测实验

    猎豹机器人配备新的算法_没有摄像头也可以躲避障碍物

    麻省理工学院最新发布的新研究视频显示,该学院研制的Cheetah 3猎豹机器人不需要直视而爬上楼梯台阶。视频显示,这个90磅重的机器人配备了新的算法,即使没有摄像头的帮助也可以躲避障碍物,机器人通过触感来适应整个环境并完成任务。
    的头像 发表于 07-08 10:07 3199次阅读

    嵌入式AI新技术助力无人机躲避移动障碍

    能够实现自动躲避的无人机并不新颖,例如大疆的无人机一直拥有这样的功能。但是有没有可以躲避快速移动障碍物的无人机呢?
    发表于 06-13 11:06 957次阅读