“这听起来像是阿西莫夫的机器人三原则但又有些区别?”</P>
斯凯的话让布鲁斯·班纳想到了由阿西莫夫提出的机器人三原则,不过阿西莫夫的机器人三原则不是斯凯解读出来的这种,阿西莫夫的机器人三原则是这样的:</P>
第一条:机器人不得伤害人类,或看到人类受到伤害而袖手旁观;</P>
第二条:机器人必须服从人类的命令,除非这条命令与第一条相矛盾。</P>
第三条:机器人必须保护自己,除非这种保护与以上两条相矛盾。</P>
很显然,阿西莫夫设置机器人三原则的时候是有设置了优先顺序的,但斯凯解读出来的这几句看起来似乎没有?</P>
布鲁斯·班纳问道,“逻辑代码肯定有优先级吧?”</P>
斯凯正在继续重新编译,解析其他代码,她头也不抬地说道,</P>
“是的,有优先级,【机器人必须服从指令】这一条是优先度最高的,直觉告诉我,问题可能就出在这里,这条指令的优先级最高,也就是其他指令无论是怎样编写的,最终执行起来都要在【机器人服从指令】这一最高优先级代码之下。”</P>
“有没有一种可能,这是机器人创造者故意的,机器人创造者肯定是为了抵消其他指令而特意将服从指令这一选项提到最高。”</P>
布鲁斯·班纳立刻想到了这一点,按照正常逻辑考虑的话,如果特意设置一个优先级最高的指令,那么目的大概率是要挤掉优先级第二的指令,所以创造者想要挤掉的指令是:</P>
“机器人不得伤害有机生物?”布鲁斯·班纳有种毛骨悚然的感觉,其创造者编写这套优先级代码的目的就是为了制造杀戮?</P>
斯特兰奇顺着布鲁斯·班纳的思路,说道,“所以,天兵机器人原本应该是为保卫而生的,但创造者出于某种目的将其变成了杀戮机器?”</P>
“目前来看大概率是这样的,当然,真实情况还得再等一等。”</P>
布鲁斯·班纳看向斯凯,只见斯凯眉头紧皱,看起来这些这些代码还真不简单……</P>
过了一阵,斯凯终于把全部代码用她熟悉的编程语言重新编译出来,她说道,“这些机器人……有点,好吧,我不知道怎么评价他们,只能说这些机器人某种意义上确实严格恪守了机器人的原则。”</P>
斯凯说道,“这套代码是有自我进化的功能的,也就是说这些机器人很有可能已经具备了思考能力,甚至有可能已经有了情感,但是他们仍然遵循着代码运作,真是,嗯…相当有原则的机器人。”</P>
斯凯接着说道,“现在的问题是怎么入侵主控中心,说起来这个主控中心的服务器或者中央处理器在哪?”</P>
斯嘉莱特看向星爵,星爵连忙说道,“啊……这……我们只找到了这个主控中心,关键是我们不懂这些东西呀。”</P>