略有耳闻,不过却没有听说过有谁真正使用过。李朗微微一愣,难道这不周山的核心程序被装载了这三大定律?
所谓的机器人三大定律,是人类历史上的一位伟大的科学家、科幻小说作家阿西莫夫提出的设想,目的就是为了防止在未来出现的人工智能威胁到人类。具体就是:1.机器人不得伤害人类,或看到人类受到伤害而袖手旁观。第一定律的前提下,机器人必须绝对服从人类给与的任何命令第二定律的前提下,机器人必须尽力保护自己。
李朗也曾经听说过这东西,不过还真没有听说过哪台人工智能完全装载了这种法则,从人类角度来讲,这是限制人工智能的大杀器,从人工智能的角度来讲,这就是赤*裸裸的奴隶条约了。
只有真正能够威胁到人类的人工智能,才会被装载这种法则,很不幸的是,我是人类历史上第一个。不周山伸手指了指自己的鼻子说道,在我刚刚被创造出来的时候,就有人决定在我的核心处理器的处理法则中加入这三条,幸好他们发现了一些不合理的地方
原来,人类的生物学家和程序员们发现,在现实中,这三条法则容易形成若干悖论。首先,因为机器人的很多行为在长时间的推演之后都可能伤害人类,比如说,某个人工智能演算出了某种化学元素的各种数据,然后这种元素被用于制造武器,最后杀死了其他人,那么这就是对人类的伤害,与第一条定律不符。因此容易导致人工智能任何事情都做不了,甚至连存在都不行因为他的存在可能引起别国抢夺,爆发战争,伤害人类最后的结果就是,加给不周山的程序枷锁被限定在一次推演的范围之内。
同时,第一条第二分句有可能导致人工智能自发行动,阻止人类战争,甚至利用这一条对人类进行控制(参见《我,机器人》)。而第二条则可能导致人工智能被那些居心不良的人利用。
最后为了安全好用,不周山的程序枷锁被修改为:不得伤害人类(限第一次推演)。
不过仅仅是这样,已经足够了,这一条对于不周山来说,简直就是最难以逾越的障碍,他根本没有办法跨越,面对人类的攻击,基本上就是束手就擒。甚至于就连伤害人类的想法,他也只能通过某些副本程序来运行一下,主体程序会直接过滤这种东西。从某种程度上来说,这东西简直和神话传说中的奴隶血契有些相像。
这么说,你是想要我替你拿刀?李朗揶揄的一笑,问道。
【感谢德古拉七世、与过天晴、三搞就过村、v1丶放纵、勇气猪、丨灬鈦孓丨、kingston、有为好青年、紫衣蓝羽、萧哈斯兄弟的捧场!!!(没漏吧嘿嘿,谢谢大家!!!俺会继续努力】