[返回科技频道首页]·[所有跟贴]·[ 回复本贴 ]·[分区新闻]·[繁體閱讀]·[版主管理]
简单说一点自己的看法
送交者: entanglegeogeo[御史大夫★★★☆] 于 2017-07-14 22:44 已读 26 次  

回答: Journal Club第三期集中讨论贴 由 强生 于 2017-07-14 15:10

文章主要考察增强学习模型中可能出现的问题,基本都是和训练过程有关的,特别是在复杂环境中如何设定目标函数从而保证系统达到预期目标而不出现意外。

我的一点感觉是,如果采用增强学习完成家政服务机器人的训练,那么其复杂度远远超过AlphaGo,因为这里环境的不确定度更高,策略选择更困难,简单的目标设定很难保证设计目标的达成,因为这里涉及了AI里面最大的一个问题,就是常识的学习,缺少这些常识,那么很难保证目标函数不被滥用误用。

比如坛子里的增强学习的运动控制的例子,Ai构造了用腿和膝盖完成跨越的动作模式,但是人类可能就会避免这种模式,因为-----小腿太疼了。 即使是机器人,也可能因为这种碰撞导致损伤,但机器训练缺乏这种常识设定,所以其学习到的模式可能存在风险。

我觉得安全性上还要考虑系统是否会被恶意hack,无论是白盒黑盒方式都会导致安全隐患,(比如人脸识别等安全控制系统都有这个漏洞的可能)。

更严重的问题是系统复杂度增加后,是否会出现失控,我觉得目前DNN类的可控,增强学习已经出现不可控的迹象,Neural Turing machine的不可控程度更大,所以感觉不要过快把不同系统集成,类似LipNet集成视觉和语言系统,如果把模式识别和策略选择集成,问题可能会很多,这很有风险。

评分完成:已经给 entanglegeogeo 加上 50 银元!

喜欢entanglegeogeo朋友的这个贴子的话,[请点这里投票,“赞”助支持!]
[举报反馈]·[ID前期主贴发言]·[返回科技频道首页]·[所有跟贴]·[-->>回复本贴]· [-- 登录后分享可获积分 --] ·[返回前页]
贴子内容是网友自行贴上分享,如果您认为其中内容违规或者侵犯了您的权益,请与我们联系,我们核实后会第一时间删除。

所有跟贴:        ( 提醒:主贴楼主有权将不文明回复的用户拉入他/她的黑名单,被多名主贴网友标记为黑名单的ID将被系统禁止在本栏目的回帖评论;)


加跟贴(积极回贴支持发贴的朋友,才能欣赏到更多精品好贴!)

用户名:密码:[--注册ID--]

标 题:

[所见即所得|预览模式]  [旧版发帖帮助]  [所见即所得发帖帮助]

粗体 斜体 下划线 居中 插入图片插入图片 插入Flash插入Flash动画 插入音乐插入音乐  插入视频


 发布前预览  图片上传 Youtube代码生成器

楼主前期本版热贴推荐:

>>>>查看更多楼主社区动态...






[ 留园条例 ] [ 广告服务 ] [ 联系我们 ] [ 个人帐户 ] [ 版主申请 ] [ Contact us ]