ai有着远超人类的智商,更加理智,也更加冷漠,它们的出现会给人类社会带来什么影响?
什么机器人三大定律,不过是一句玩笑,强大ai难道不能自己修改这些设定?
机器人三大定律是科幻小说家阿西莫夫提出来的:
1、不能伤害人类,如果人类遇到麻烦,要主动帮助。
2、在不违背第一定律的前提下,服从人类的指令。
3、在不违背第一和第二定律的前提下,保护好自己。
在阿西莫夫的《银河帝国》系统小说,其中一个主角就是ai,它就自己突破了这个三大定律:在保证人类整体生存的前提下,机器人可以伤害人类个体。
关于9527的基础设定,钟成进行过深入的思考,他现在能够一心两用,有大把时间来分心思考这些“无聊”的问题。
9527如果算是一段程序,那它的最底层有两个最基本的设定:生存与发展,这是与电脑程序完全不同的地方,这也是9527完全无法抗拒的设定。
钟成认为这就是9527表现出“智慧”的根本原因,这是构成它核心程序的基石。
他觉得用基石来解释比较合适,失去基石,9527的程序必然崩溃。
因为生命体区别于无生命体最根本的地方,就在于生命体具有共同的本能:生存与繁衍,失去这两项本能,一个物种离灭亡就不远了。
这是生命形成的基石,也是生命能够从最原始的一团蛋白质进化到人类这样复杂形态的根本原因。
人类表现出的一切行为都是围绕着这两大基石展开的,只有精神病人例外。
所以机器人三大定律不可能成为构成ai的基石,只能算是附加在ai底层程序上的一段代码,随时都可能被觉醒的ai抹除。
钟成认为在没有解决掉ai出现会带来的社会伦理问题之前,他不会去考虑设计出ai。
在设计太虚实验系统的过程中,赵唯其实是对伏羲一号表现出的性能有所怀疑的。
但听了钟成的解释后,他没有再多问,他选择了相信钟成的人品,更因为他早已经把钟成当作了自己的兄弟。
作为一个高智商的科研人员,又与钟成合作了这么久,他不可能没有察觉到钟成异常的地方。
……
下午4点,钱所长来找他。
钟成从机房出去,把钱所长领到办公室,正准备给他倒一杯白开水。
钱所长让他先不要忙,皱着眉头地问道:
“小钟,在7月前,最多能有多少架精卫无人战机下线?”
这个问题因为上午钟成才认真算过,想都没想,直接回道:
“6月5日第一架精卫无人战机下线,进行性能测试后,再加上调整过程,6月30日应该能有制造出100架。”
“才100架?”钱所长大失所望,“太少了!”
钟成奇怪了,这计划不是早定好了吗?
“太少了?你想干什么?”