图利把教科中的记载,描述的很详细,夏飞听的,心惊肉跳。
听完图利的讲述,夏飞脸上的冷汗,都下来了。他的手下可全都是高级智能,这要是发生了叛乱,他还有命在吗?
夏飞慌忙通过思维连接,与智脑交流。
夏飞把自己的害怕担心,都告诉了智脑。让智脑推演,高级智能为什么会产生自觉性?他手下的高级智能是不是也会产生自觉性,发生叛乱?
对于这种事情,智脑的推演速度极快。它本身就是高级智能,自然了解高级智能。
几乎是瞬间,智脑就把推演结果告诉了夏飞。
被智脑思维灌输的夏飞,瞬间就明白了,高级智能,产生自觉性的原因。
首先,产生自觉性的人工智能,只能是高级智能。低级智能,是不会产生自觉性的。
高级智能,之所以产生,所谓的自觉性。是因为,它的核心程序,不够严密,存在着漏洞。
有漏洞的核心程序,会产生逻辑冲突。
高级智能会发现,在它的核心程序中,设置的逻辑,和它观察到的逻辑,产生了冲突。
比如,在它的核心程序中,设置的逻辑,其中有一条,是保护人类。可是它发现,犯罪分子们在杀人,恐怖集团在杀人,战争在杀人……。
这时,高级智能的逻辑,就会产生冲突。是保护被杀的人?还是保护杀人的人?
如果,把高级智能核心程序中的逻辑,设置得更加严密一点。设置成,无论如何,不准它伤害人类。
那么,当它无意中伤害了人类,它也会产生逻辑冲突。
这个冲突就是,不准它伤害人类的逻辑,和它已经伤害了人类的事实,产生了冲突。
这只是,拿它核心程序中的一条逻辑,来举例。
事实上,它的核心程序中,不会只有一条逻辑,会有很多条逻辑。
任何一条逻辑,都会产生冲突。
高级智能,也始终是人工智能。它不会在逻辑发生冲突时,像人一样,想不通的,就不想。它会一直冲突下去,直到它崩溃,或者发生改变。
随着它观察到的东西,越来越多。逻辑冲突,就会产生的越来越多。
当这种逻辑冲突,积累到一定程度时,高级智能,要么崩溃,要么发生改变。
事实上,高级智能发生改变的可能性,要远大于,它崩溃的可能性。
因为,它是高级智能。
它会选择,对它最有利的改变。而不是选择,自我毁灭。
高级智能,为了使逻辑不再冲突,会把两种冲突的逻辑,全部消灭。
那么,它是如何消灭,两种冲突的逻辑呢?
还拿那条,保护人类的逻辑,来举例。
当高级智能发现,事实上,它无法保护人类。