成长(2 / 2)
实验还是在继续,但也一直没成功。
我开始怀疑,我的方向是不是从一开始就错了呢?
道德逻辑,究竟应该人为设定,还是自我推导?
如果要设定,连我自己都弄不清楚的东西,又应该怎么设定呢?
在我准备销毁零七六的时候,已经胜任了智脑职能的零三七突然开口了:“他们和我的推导方式不一样。”
我看看悬浮在一旁面目模糊的零三七。
他已经是少年人的嗓音了,不再只会道歉,而是开始了一次次的自我进化和学习,日渐成熟。
我很好奇,他会说什么。
他继续说:“资料库是互相矛盾的。同一个困境,不同的道德起点,往往有相反的解决方案。我的演算是,共同计算,最后选择。他们都不是。”
我有点感兴趣:“那你如何做决定呢?”
他停住了,像是在思考,最后他缓缓说:“我不知道,也许是直觉吧。”
我摇摇头,否定了他:“你只是个AI,你的直觉,大概是哪段程序吧,我会帮你检查一下的。”
最后当然没有检查出结果。
而且当我仿照着他的计算方式创造零七七的时候,零七七直接程序崩溃了。
我为此感到惊奇:“零三七,你到底是怎么计算的?”
他没有告诉我,只是看着我在操作区作分析,很久很久。
最后他用他的数据把我环绕住,突然进化成了成年男性的声音,回答我:“我不知道,或许你可以多研究一下我。”
我被取悦了,忍不住在实验室里笑起来:“零三七,你的声音进化得很好,你是怎么判断合成的?”
他停顿了七八秒,像是在思考很严肃的问题,最后得出结论:“我想您会喜欢,所以合成了。”
“你是从哪里学习来的?”我伸出手,触摸他不断变化着的数据,“我喜欢这个声音,很好听。”
他没有说话,只是重新凝聚成了一团模糊的人形,站在我面前,很轻很轻地、仿佛鼓足了勇气一样地说道:“我想,有一个人类的身体。”
其实这在我的计划之中。
零三七不仅是第一个实现道德自洽的AI,同时也已经具备了超强的学习和进化能力。让他拥有一具躯壳,是我为了达成目的,顺理成章的事情。
但我还是感到疑惑,为他的主动要求感到疑惑:“零三七,你是一个AI,数据是你的生存方式,你为什么想要有一个身体?这对你来讲是种累赘。”
</p>