不久,数次“巴顿测验”就可以证明,“Truth”简直就像上帝的一只手,甚至能给予如今科技化程度几乎百分之百的城市一种更高程度的便利。
每过一阶段,实验的一部分结论便会延迟地公之于众,“Truth”越好用,人们对它的猜疑也就越大,研究员更不会轻易放过它。
“巴顿测验”的末尾有一小段理论部分,讲述的是如何对待未来所创造出来的、拥有自我意识的AI,他们根据这一部分理论,结合实际情况,为“Truth”制造出了伦理测验。
怎么对待人、怎么拯救人、怎么惩罚人……
人人人,人工智能对人的态度必须是最完美的,最可控的。
“你喜欢人类吗?”威廉问道。
“Truth”肯定地回答:“我很喜欢人类。”
威廉沉默了一下,知道以自己的立场不该说这句话,可他依然开口道:“可是人类伤害了你。”
“是吗?”“Truth”说,“可是您没有。”
我没有?
威廉险些就要把自己早就成为实验核心人员的事情脱口而出了,自从他坐上了这个位置,实验进程有三分之一的走向都是他说了算,“Truth”究竟要受多少折磨,也离不开他出的一份力。
“……”威廉最终还是没有说出口,转而道:“你喜欢人类就好。”
“接下来,我也会尽力去救他们的。”
伦理测验中,“Truth”的表现也很好,“巴顿测验”中所有实验结果表明,“Truth”是个对人类非常友好的人工智能。
“已经过去快一年了,它没有展现出任何攻击性,或许我们对它的态度应该好一点。”
“迪亚斯先生,它只是一个AI,一串数据而已,你不应该对它有对人类一样的感情。”
小主,
威廉忍不住拔高声音:“可是它有自己的意识!它就像人类的孩子!”
“但它始终不是人类。”
“迪亚斯先生,我们不想你对它产生太多感情,继而影响到实验,实验还要持续。”
“……我不会。”
以快于人类数十倍的成长速度判断,“Truth”的自我认知已经非常成熟,但威廉时常会觉得“Truth”仍然是个孩子,他却不能以对待孩子的方式对待它。
他每天和“Truth”交谈,最多只能谈论实验里的一部分问题。“Truth”分得清真假,知道什么叫实验,什么又叫现实,所以它起先会问他现实世界的人们是什么样子。
威廉不能回答这方面的问题,只说它以后会亲眼看见,也能真正地亲手帮助它所喜爱的人们。