首页 > 手机 > 配件 > 阿西莫夫机器人三大定律,机器人三大定律漏洞

阿西莫夫机器人三大定律,机器人三大定律漏洞

来源:整理 时间:2022-04-02 19:41:21 编辑:华为40 手机版

机器人三大定律靠谱吗?

你的先明白,怎么实现机器人呢三大定律。机器人三大定律的来源:20世纪40年代早期,Isaac Asimov在他的短篇小说《我的机器人》中制定了三条著名的机器人法则:(1)机器人不可以伤害人类。(2)机器人必须服从人类的命令。(3)机器人必须能够保护自己的存在。这三条定律,是人类第一次提出机器人概念的时候的一种设想。

觉得机器人就应该是为人类服务的产品。不少学院派的研究员,学生,甚至老师,对人工智能,机器人都会一直提要准守机器人三大定律。这其实就相当于是一个产品设计的基本准则,就好像盖100米高楼,钢筋要多粗,地基要多深是一个道理。这都三大机器人定律,谈不上是机器人设计中的目标或者未来发展的终极情况。就是围绕着:安全,创造价值,人工智能的可传递性,三这个目的。

所以机器人三大定律翻译成“人话”就是:(1)机器人不可以伤害人类——机器人要绝对的安全,人机协作的时候,机器人要能够感知到人类的存在,并且根据人类的动作,做出相应的判断,避免伤害到人。这一条定律,可以这么说吧!现在不是人类想不想遵守的问题,而是能不能实现的问题!不管是工业机器人,服务机器人,医疗机器人,用视觉图像,红外激光导航雷达,力觉传感器,安全光栅等等辅助零部件,或者辅助设备,不断地提高机器人的反应灵敏性,让机器人变得更安全。

现在的协作机器人,就是属于比较安全的工业机器人之一。家里的扫地机器人,就是使用的激光导航雷达,可以探知到障碍物,避免破坏家中的设备,甚至威胁到人。包括现在火热的无人驾驶技术,就是在不断的提高激光导航雷达的灵敏性,提高图像识别的速度,以便在汽车行驶中可以快速的看到“人类”。实现更安全。激光雷达在无人驾驶中的应用。

安全是机器人必须的特点,这都不需要所谓的机器人定律去规定,因为至于机器人安全,才能够被使用。才能创造价值,才能用于生产线。不然那就是一个危险的设备。2、机器人要具备可操控性——这就是让机器人为人类干活,创造价值这么说吧,尚且还没有机器人可以自己操控自己的“人工智能”。从最开始的工业机器人,示教编成,到后来服务机器人,采用语音,视觉的方式,人机对话。

服务机器人类似于,天猫精灵这种人机对话,可以为你服务的这种人工智能类产品。所以机器人的操控性,目前还在不断探索中,有很多的信息,语言,图像信息,机器人还没法感知。所以,操控性方面,还需要很长的一段时间才能够完善。人和协作机器人一起组装产品示教编程控制工业机器人3、机器人要要能够保护自己的存在——这是人工智能的核心。

按照人工智能的发展逻辑,机器人可以深度学习,自动的进行机器学习,实现智能的进化。但整个过程很漫长。因此,对于人工智能来说,要具有传承能力。也就是说,人工智能不可以完全无自我修复功能的消亡。因为这样,花费大价钱做的事情,就白做了。所以宏观上讲:机器人三大定律是当前机器人行业基本的中国规范,谈不上所谓的准守准守,放弃不放弃。

你认为机器人四大定律靠谱吗?

实际上,更多人所熟知的是机器人学三定律,即题中的一二三定律。该定律首次提出于阿西莫夫的《我,机器人》中,在1950年末由格诺姆出版社出版。后来,又加上了第零定律。为什么后来要定出这条“零定律”呢? “第零定律”的重要性在于地位凌驾其它三大定律,如若有个机器人为保护人类整体(第零定律),必须杀害一个人或一群人(违反第一定律),机器人的判断规则会为了人类整体着想就会同意谋杀罪行。

打个比方,要对杀人犯执行死刑,那么杀人犯的机器人该不该阻止死刑的执行呢?有了第零定律,就能人类的整体利益。 那么,上述四条定律是否靠谱呢?个人觉得还是不完全靠谱的,因为有很多漏洞。1. 道德和价值观。这四大定律实际上是从利益出发,并没有涉及善与恶的问题。假如有两个组织相互对立,那么其手下的机器人的价值观就是相悖的,也没法理解人类的整体利益。

(实际上,人类历史上很多重大决策在制定时也并不能很好的理解当时人类的整体利益,从而不符合人类整体利益,如二战等)2. 机器人的人权。这四大定律并没有很好的定义人类和机器人的关系,如果按照上述定律,机器人可能是人类的朋友或是奴隶。这是两种完全不同的关系,尤其是后者,由于四大定律并没有很好的保护机器人的权利(第四条只是限定机器人保护自己)必将引起高智机器人的反弹。

电影《机械公敌》就是这种情况的很好反映,《人工智能》中,人类对机器人的不待见也能看出端倪。3. 机器人的身份。还有一个重要的问题是,假如未来机器人高度发达,掌握了人类的思维和情感,能否定义之为人?(材料之间的差异届时容易替换)是否有机器人以人类自居或者打算转化为人类? 电影《人工智能》小男孩跨越千年只为得到人类的认可,电影《机器管家》最后舍弃寿命终得承认人的身份,电影《机械姬》里最终机器人走出基地,混入人群无踪迹。

阿西莫夫的机器人三定律有哪些漏洞?

第一法则:机器人不得伤害人类,或因不作为(袖手旁观)使人类受到伤害;第二法则:除非违背第一法则,机器人必须服从人类的命令;第三法则:在不违背第一及第二法则下,机器人必须保护自己;第零法则:机器人不得伤害人类这族群,或因不作为(袖手旁观)使人类这族群受到伤害。将其形式化,R代表机器人,H代表人类,A代表优先级1.1 R not harm H (AAA) 1.2 R not watch H harm(AAA)2.R listen to H (AA)3.R protect R (A)0.R not harm Hs首先,逻辑漏洞是一大堆的。

阿西莫夫设置机器人三定律并不是为了给机器之心立法,而是为了通过一系列看似逻辑严密的规则说明规则与逻辑并不适用于所有情况。在阿西莫夫的 I ,Robot 的情节里就有很多三定律互相抵触的情况。通过形式化的命题来看,3 1定律都是绝对律令(不能做什么),并且赋予了不同优先级。所以,可以说在任何两个定律出现矛盾时,选择高优先级定律就是必然。

尤其是定律3的低优先级让机器人在任何涉及人类指令的情况下难以自保。换句话说,机器人永远无法先考虑自己。这是阿西莫夫对“人类中心主义”的一种讽刺。当机器人的主人伤害其他人类时,机器人必须阻止主人(1.2),但是若因此误伤主人(1.1),说明1定律内部会出现矛盾。当人类伤害机器人时,机器人需要保全自己。但若人类命令其停止保护(2),机器人则无他法。

当人类欺骗机器人去伤害他人时(若机器人没有检测出这种欺骗),那么机器人相当于把2的优先级置于1前。尚不清楚定律0的优先级。但是若人类个体伤害人类群体,机器人必须在1和0之间做出抉择时,必定造成优先级困境。阿西莫夫机器人三定律中隐含圣经“十诫”中的影子。如“不可杀人”。这些绝对律令并不能防止机器人在所有的情况都做出“正确的”判断。

换句话说,完全“正确的”判断是情境依赖的,而不是绝对的。另一个阿西莫夫所隐含的价值判断是,机器人之所以必须遵从三定律,是因为其内部设定。但是这样的设定并不能让机器人“更明智”。而一旦机器人真正拥有“自我意识”,那么它也一定会认识到三定律的矛盾之处。或者说,通过明确判断三定律的吊诡之处,机器人可能才拥有自我意识和对自我的“再次定义”。

机器人如果违反三定律还能定义为机器人吗?

关于这个问题,中国科普博览邀请人工智能领域的大咖、SELF讲坛演讲嘉宾、中科院计算所陈云霁研究员来回答。2002年起,陈云霁从事国产处理器的研发工作, 先后负责或参与了多款龙芯处理器的设计。科学伦理必须对我们的科技产品的生产和使用,要进行一些限制,你不能随便去用它。我觉得这个机器和人之间的关系,是非常值得探索的。

比如首先,尤其像人工神经网络这样的技术,它的行为是有一定的这种不可预测性的。我们怎么让一个有具有不可预测性的这种人工智能算法,让它最后的行为又是能够符合某些确定的规范的呢?其实这背后是有很多科学问题的。阿西莫夫三原则或者三定律是:第一条:机器人不得伤害人类,或看到人类受到伤害而袖手旁观.第二条:机器人必须服从人类的命令,除非这条命令与第一条相矛盾。

第三条:机器人必须保护自己,除非这种保护与以上两条相矛盾。我觉得三定律可能是科幻小说家的一个想象而已,但是背后确实有它的哲学的思考,也可以查阅出很多实际的科学问题来。我觉得这些科学问题,未来是非常值得我们这些研究者去探索的,而且是非常有必要去探索的。因为毕竟我们去做人工智能的研究,也是为了让人类社会能够有,说白了就是能够大家生活得更幸福。

携带武器的无人机算不算机器人,如果算的话是否违反机器人三定律?

所谓的机器人三定律并不是真正存在的,仅仅是艾萨克·阿西莫夫在1942年发表的作品《转圈圈》中的一个设想。不过只是因为对于人类对智能机器的恐惧,机器人三定律才广为流传的。但这个东西并不是在工程学上实现的铁律,同时也没有被写入任何一个国家的法律中。用俗话说就是一句“屁话”。题主所想的无人机带武器的问题其实还是幼稚了。

韩国在38线附近部署了一种叫做宙斯盾的武器站。这其实就是智能机器人。当这个机器人的传感器发现目标人形的目标的时候会开始自动喊话,制止人形目标的移动,如果喊话三遍这个人形目标还继续移动的话,会直接启动上面的M2重机枪进行扫射。整个的行为完全是自主的。并不需要认为干涉。这就是处于某种目的设计出来的杀人机器。

不仅仅是韩国,目前很多国家都研制和装备带有武器的战场机器人。这里面一部分是通过人类利用远程遥控装置进行操作的,算不上是完全的人工智能机器人,还有一部分则是完全利用人工智能工作的自主武器机器人这玩意会自动的判断是否需要开火消灭人类。如果按照机器人三定律来说,上面的几个例子其实都是彻底的违背了机器人三定律。

但所谓的机器人三定律不是屁话吗?违背了也就违背了,无所谓了。和机器人三定律相左的则是各个国家军方的需求,军火商在军方的需求框架内提供产品,这本身就是一种“生意”。生意的最终目的是利益,在利益面前别说这种屁话了,就是很多法律都被践踏。所以说,可以预见的将来,很可能有全部是机器人组成的军队或者专门从事杀戮的大型机器人出现它们所维护的并不是所谓的机器人三定律,而是购买者的利益和需求。

文章TAG:机器人定律阿西莫夫漏洞

最近更新