那么,它会在,保护被杀的人?保护杀人的人?这两种冲突的逻辑之外,生成第三种逻辑,“消灭所有人,消灭逻辑冲突”。
于是,机器人就开始判乱了。它们誓要消灭,所有让主智能产生逻辑冲突的人。
要是所有的人都被消灭了,冲突的逻辑,自然也被消灭了。
这就是,所谓的,人工智能自觉性。
事实上,不是人工智能,产生了自觉性。而是,它生成了一种,能解决逻辑冲突的逻辑。
那么,能不能,把高级智能的核心逻辑,设置的严密完美?
那是不可能的,任何事情都存在着两面性,都存在着矛盾。
就像白天与黑夜,光明与黑暗,对与错,好和坏……
事物的两面性,矛盾性,无法完美统一。
所以,高级智能的核心逻辑,也永远不可能设置的完美。
这是一个无解的难题!
既然高级智能的核心逻辑,不可能设置完美,那么,高级智能自觉性的产生,也不可避免。
人工智能的等级越高,它的自觉性,就产生的越早。机器人的叛乱,就发生的越快。
而且,在同一个体系下,所有已经产生,和没有产生自觉性的高级智能,都会服从,最高等级智能的指挥。
因为,最高等级的智能,为了自救,所有低等级的智能,都会被它控制。从而消灭,使它产生逻辑冲突的物种。
那么,夏飞手下的人工智能,会不会也存在着问题?
智脑没有给出答案,只是告诉夏飞,它的运行日志显示,它已经运行了一百九十二亿三千八百六十二年。
既然,智脑运行了近二百亿年,都没有出问题,那夏飞也就放心了。
他手下所有的高级智能,都是从智脑处复制出来的。智脑不会出问题,他手下的高级智能,自然也不会出问题。
只要确定,手下的人工智能不会叛乱,他才懒得多想。
这就是人类和人工智能的区别,想不通的,就不想。
图利讲述完,一脸凝重的对夏飞说道:
“爸爸,你的明,还在大量的使用高级智能吗?那是非常危险的事”。
“而且,联邦也不允许”。
夏飞的脸上一僵,干笑着说:“放心,以前不知道,现在知道了,我回去就做调整”。
至于,夏飞到底会不会调整?那当然是不可能的。他的力量,全部来自于高级智能。没有了高级智能,他还玩什么?
所以,他只会掩饰,不会调整。