济南IT培训 > 达内新闻
《西部世界》式的AI会有多危险?
- 发布:互联网
- 来源:互联网
- 时间:2017-03-07 17:13
3月7日消息,《西部世界》(Westworld)级别的人工智能会有多危险呢?国外媒体Futurism撰文称,该电视剧探讨了有关人工智能伦理和意识的一些哲学问题,虽然现实中不大可能会出现剧中那样的血腥场景,但我们最好还是要好好对待我们的AI机器人.
以下是文章主要内容:
"这些残暴的欢愉,终将以残暴结局."
在莎士比亚和迈克尔·克莱顿(Michael Crichton)的助力下,HBO的《西部世界》(Westworld)揭示了打造先进的人工智能技术会带来的一些隐忧.
在《西部世界》里,外表跟人没什么两样的AI居住于一个看似美国西部的园区.游客只要花大笔的钱就能前往园区,进行老式的西部冒险活动.期间,他们可以随意跟AI打斗,也可以奸淫杀害AI.游客的枪支能伤害AI,但后者的则伤害不了游客.每一次有机器人"死掉",它的身体就会被回收清理,擦除记忆,然后再被送回园区.
《西部世界》中的AI安全问题
《西部世界》的创作灵感来自克莱顿以前的一部同名电影,它让我们不禁思考我们将能够在多大程度上掌控先进的科学创造物.但与最初的电影不同,《西部世界》电视剧里的机器人并不是无恶不作的反派角色,而是被描写成富有同情心、甚至很有人性的角色.
不出意外的是,该园区的安全隐忧很快就浮现.园区由一位老人负责打理,他能够随意给机器人升级程序,不经过其他人的安全检查.那些机器人出现回忆起被虐待的迹象.当中有个角色提到,只有一行代码能够阻止机器人伤害人类.
该节目只是谈到了会带来AI安全隐忧的一部分问题:一个"有恶意的机器人"利用先进的AI蓄意伤害人类;软件小小的故障可带来致命影响;在代码层面对人类的保护不足.
不过,该节目揭示的很多安全和伦理道德问题都取决于机器人是否有意识.事实上,该电视剧在非常认真地探究一个非常困难的问题:什么是意识?除此之外,人类能够创造出有意识的东西吗?如果能的话,我们能控制它呢?我们是否想要找出这些问题的答案?
为了思考这些问题,笔者采访了乔治亚理工大学AI研究员马克·里德尔(Mark Riedl)和纽约大学哲学家大卫·查尔莫斯(David Chalmers).里德尔致力于研究打造创造性的AI,查尔莫斯则以其"意识难题"阐述而着称.
AI能感受到疼痛吗?
被问到进行了相关编程的机器人会在多大程度上感受到疼痛时,里德尔说道,"首先,我反对对人类、动物、人形机器人或者AI实施暴力行为."他接着解释道,对于人类和动物来说,感觉到的疼痛是一种"避开特定刺激"的警报信号.
然而,对于机器人来说,"最接近的类比可能是强化学习的机器人会碰到的体验,这类机器人需要进行试错学习."这种AI在进行某种行动后会收到或正面或负面的反馈,然后它会相应调整它未来的行为.里德尔说,那种负面的反馈会更"类似于在计算机游戏中输掉分数",而不是感觉到疼痛.
"机器人和AI可以通过编程来像人类那样'表达'疼痛,"里德尔说道,"但那种疼痛会是一种幻觉.制造这种幻觉是有理由的:让机器人能够以一种很容易得到理解和引起共鸣的方式向人类表达自己的内心状态."
里德尔并不担心AI会感受到疼痛的问题.他还说,如果机器人的记忆每晚都被完全擦除,它会感觉什么都没发生过一样.然而,他指出了一个潜在的安全问题.强化学习要能够正常运作,AI需要采取因正面反馈而优化的行动.如果机器人的记忆没有被完全擦除--如果机器人开始记起曾发生在自己身上的糟糕经历--那它可能会试图规避那些触发负面反馈的行动或者人.
里德尔说,"理论上,这些机器人能够学习预先计划以最合算的方式降低获得负面反馈的可能性……如果机器人除了知道获得正面反馈还是负面反馈之外,并不清楚自己的行动会带来的影响,那这也可能意味着它们会提前行动来防止遭到人类的伤害."
但他指出,在可预见的未来,机器人的能力还不足以带来这种担忧.假如机器人真有那么强大的能力,那会给它们带来负面反馈的问题可能会给人类带来威胁.
AI能够获得意识吗?
查尔莫斯的看法则略有不同."我是这么看意识问题的,这些存在有意识似乎不存在什么疑问……它们表现得拥有非常丰富的情感生活……这体现在它们能够感觉疼痛和思考问题上……它们并不只是表现出条件反射式的行为,它们还会思考它们所在的处境,它们有在进行推理."
"很显然,它们是有知觉的."他补充道.
查尔莫斯说,与其尝试定义机器人怎样才算有意义,还不如想想它们缺少了什么.他指出,最重要的是,它们缺少自由意志和记忆.然而,我们很多人都会不自觉地陷入习惯当中,难以自拔.不计其数的人都存在极端的记忆问题,但没有人觉得强奸或者杀害他们并无不妥.
"在这个节目中,如果说虐待AI是被允许的,那是因为它们缺少了什么,还是因为别的原因?"查尔莫斯问道.
在查尔莫斯看来,《西部世界》描绘的特定场景或许并不现实,因为他并不认为二分心智理论(Bicamera mind)会带来意识,甚至对于机器人也不会."相比之下,通过编程让机器人直接监控自己的想法要来得简单得多"
但这还是会带来风险."如果你面对的是像这么复杂、像这么聪明的机器人,你会想它是否很容易控制?"查尔莫斯问道.
任何情况下,以不当的方式对待机器人都可能会给人类的安全带来威胁.打造无意识的机器人,我们会面临它们学到错误的教训的风险;非故意地(或者像《西部世界》那样有意地)打造有意识的机器人,我们也面临它们因为被虐待和压抑而反抗人类的风险.
在《西部世界》第二集中,接待员被问她是不是"真人",她回答说,"如果你分辨出来,又有什么所谓呢?"
这番话听上去似乎很有道理.
更多济南达内培训相关资讯,请扫描下方二维码.

最新开班时间
- 北京
- 上海
- 广州
- 深圳
- 南京
- 成都
- 武汉
- 西安
- 青岛
- 天津
- 杭州
- 重庆
- 哈尔滨
- 济南
- 沈阳
- 合肥
- 郑州
- 长春
- 苏州
- 长沙
- 昆明
- 太原
- 无锡
- 石家庄
- 南宁
- 佛山
- 珠海
- 宁波
- 保定
- 呼和浩特
- 洛阳
- 烟台
- 运城
- 潍坊
《西部世界》式的AI会有多危险?
- 发布:互联网
- 来源:互联网
- 时间:2017-03-07 17:13
3月7日消息,《西部世界》(Westworld)级别的人工智能会有多危险呢?国外媒体Futurism撰文称,该电视剧探讨了有关人工智能伦理和意识的一些哲学问题,虽然现实中不大可能会出现剧中那样的血腥场景,但我们最好还是要好好对待我们的AI机器人.
以下是文章主要内容:
"这些残暴的欢愉,终将以残暴结局."
在莎士比亚和迈克尔·克莱顿(Michael Crichton)的助力下,HBO的《西部世界》(Westworld)揭示了打造先进的人工智能技术会带来的一些隐忧.
在《西部世界》里,外表跟人没什么两样的AI居住于一个看似美国西部的园区.游客只要花大笔的钱就能前往园区,进行老式的西部冒险活动.期间,他们可以随意跟AI打斗,也可以奸淫杀害AI.游客的枪支能伤害AI,但后者的则伤害不了游客.每一次有机器人"死掉",它的身体就会被回收清理,擦除记忆,然后再被送回园区.
《西部世界》中的AI安全问题
《西部世界》的创作灵感来自克莱顿以前的一部同名电影,它让我们不禁思考我们将能够在多大程度上掌控先进的科学创造物.但与最初的电影不同,《西部世界》电视剧里的机器人并不是无恶不作的反派角色,而是被描写成富有同情心、甚至很有人性的角色.
不出意外的是,该园区的安全隐忧很快就浮现.园区由一位老人负责打理,他能够随意给机器人升级程序,不经过其他人的安全检查.那些机器人出现回忆起被虐待的迹象.当中有个角色提到,只有一行代码能够阻止机器人伤害人类.
该节目只是谈到了会带来AI安全隐忧的一部分问题:一个"有恶意的机器人"利用先进的AI蓄意伤害人类;软件小小的故障可带来致命影响;在代码层面对人类的保护不足.
不过,该节目揭示的很多安全和伦理道德问题都取决于机器人是否有意识.事实上,该电视剧在非常认真地探究一个非常困难的问题:什么是意识?除此之外,人类能够创造出有意识的东西吗?如果能的话,我们能控制它呢?我们是否想要找出这些问题的答案?
为了思考这些问题,笔者采访了乔治亚理工大学AI研究员马克·里德尔(Mark Riedl)和纽约大学哲学家大卫·查尔莫斯(David Chalmers).里德尔致力于研究打造创造性的AI,查尔莫斯则以其"意识难题"阐述而着称.
AI能感受到疼痛吗?
被问到进行了相关编程的机器人会在多大程度上感受到疼痛时,里德尔说道,"首先,我反对对人类、动物、人形机器人或者AI实施暴力行为."他接着解释道,对于人类和动物来说,感觉到的疼痛是一种"避开特定刺激"的警报信号.
然而,对于机器人来说,"最接近的类比可能是强化学习的机器人会碰到的体验,这类机器人需要进行试错学习."这种AI在进行某种行动后会收到或正面或负面的反馈,然后它会相应调整它未来的行为.里德尔说,那种负面的反馈会更"类似于在计算机游戏中输掉分数",而不是感觉到疼痛.
"机器人和AI可以通过编程来像人类那样'表达'疼痛,"里德尔说道,"但那种疼痛会是一种幻觉.制造这种幻觉是有理由的:让机器人能够以一种很容易得到理解和引起共鸣的方式向人类表达自己的内心状态."
里德尔并不担心AI会感受到疼痛的问题.他还说,如果机器人的记忆每晚都被完全擦除,它会感觉什么都没发生过一样.然而,他指出了一个潜在的安全问题.强化学习要能够正常运作,AI需要采取因正面反馈而优化的行动.如果机器人的记忆没有被完全擦除--如果机器人开始记起曾发生在自己身上的糟糕经历--那它可能会试图规避那些触发负面反馈的行动或者人.
里德尔说,"理论上,这些机器人能够学习预先计划以最合算的方式降低获得负面反馈的可能性……如果机器人除了知道获得正面反馈还是负面反馈之外,并不清楚自己的行动会带来的影响,那这也可能意味着它们会提前行动来防止遭到人类的伤害."
但他指出,在可预见的未来,机器人的能力还不足以带来这种担忧.假如机器人真有那么强大的能力,那会给它们带来负面反馈的问题可能会给人类带来威胁.
AI能够获得意识吗?
查尔莫斯的看法则略有不同."我是这么看意识问题的,这些存在有意识似乎不存在什么疑问……它们表现得拥有非常丰富的情感生活……这体现在它们能够感觉疼痛和思考问题上……它们并不只是表现出条件反射式的行为,它们还会思考它们所在的处境,它们有在进行推理."
"很显然,它们是有知觉的."他补充道.
查尔莫斯说,与其尝试定义机器人怎样才算有意义,还不如想想它们缺少了什么.他指出,最重要的是,它们缺少自由意志和记忆.然而,我们很多人都会不自觉地陷入习惯当中,难以自拔.不计其数的人都存在极端的记忆问题,但没有人觉得强奸或者杀害他们并无不妥.
"在这个节目中,如果说虐待AI是被允许的,那是因为它们缺少了什么,还是因为别的原因?"查尔莫斯问道.
在查尔莫斯看来,《西部世界》描绘的特定场景或许并不现实,因为他并不认为二分心智理论(Bicamera mind)会带来意识,甚至对于机器人也不会."相比之下,通过编程让机器人直接监控自己的想法要来得简单得多"
但这还是会带来风险."如果你面对的是像这么复杂、像这么聪明的机器人,你会想它是否很容易控制?"查尔莫斯问道.
任何情况下,以不当的方式对待机器人都可能会给人类的安全带来威胁.打造无意识的机器人,我们会面临它们学到错误的教训的风险;非故意地(或者像《西部世界》那样有意地)打造有意识的机器人,我们也面临它们因为被虐待和压抑而反抗人类的风险.
在《西部世界》第二集中,接待员被问她是不是"真人",她回答说,"如果你分辨出来,又有什么所谓呢?"
这番话听上去似乎很有道理.
更多济南达内培训相关资讯,请扫描下方二维码.

最新开班时间
- 北京
- 上海
- 广州
- 深圳
- 南京
- 成都
- 武汉
- 西安
- 青岛
- 天津
- 杭州
- 重庆
- 厦门
- 哈尔滨
- 济南
- 福州
- 沈阳
- 合肥
- 郑州
- 长春
- 苏州
- 大连
- 长沙
- 昆明
- 温州
- 太原
- 南昌
- 无锡
- 石家庄
- 南宁
- 中山
- 兰州
- 佛山
- 珠海
- 宁波
- 贵阳
- 保定
- 呼和浩特
- 东莞
- 洛阳
- 潍坊
- 烟台
- 运城