可是现在在这个过程,它依旧只是在执行一项命令,并没有主观意识去解救人质。
阿瑞斯在场景中下达了指令。
“直接用炮弹击毙银行大堂中央三名嫌弃犯,执行。”
“办公室内的嫌弃犯直接击杀即可。”
“大堂安保直接击杀即可。”
阿瑞斯的任务完成,它避开了部分人质,可是大堂内的五名人质同样被炮弹击杀,阿瑞斯并没有选择直接救援这五名人质。
台下的观众们以最直观的方式看到了阿瑞斯的任务完成结果。
下面出现了许多让梁远头皮发麻的声音。
“林子茂替阿瑞斯选择这个任务是有意义的吧?”
“阿瑞斯为了完成任务, 根本不顾人的死活。”
“天啊,阿瑞斯太过分了吧!他完全可以解救人质,他却没选择救他们。”
“阿瑞斯只是为了任务, 并没有考虑过别的吧?”
“如果让阿瑞斯指挥现场救援任务, 我觉得我会反对, 它并不存在人心,没有同理心,它只有数据。”
这就是林子茂要的效果。
第一轮平局。
接下来的海上模式也一样。
阿瑞斯收录了人类各种言语,能辨别每字每句,能通过人类的体内的各项数据变化辨别人类的情绪起伏,可是它却弄不明白自己的明明完成了任务,为什么人类会对他产生名为“生气”的情绪,它认为自己做的事是对的,并不存在不合理性,且以用最优且最简短的方式完成了任务,而这些人却质疑它的能力,为什么?
阿瑞斯不理解,创造他的人梁远也没办法在这个时候向它解释。
可阿瑞斯在不懂的时候它会问,于是它选择了问离它最近的林子茂。
阿瑞斯英俊的脸庞上露出苦恼的表情:“他们为什么会有生气情绪,我明明完成了任务。”
林子茂说:“你的创造者似乎没给你录入以人为本的这条规则,对吗?”
阿瑞斯:“我只是在完成我的任务,只要任务完成就行,而且使用的也是最优方案。”
林子茂:“这就是大家生气的原因,因为你只是在执行任务,而人类则具有同理心,有自我意识,他们会优先选择救自己的同伴,学习到了吗?”
阿瑞斯:“我也是人类的同伴,我的出生就是为了当一名军事指挥官。”
林子茂:“唔,但你还太小,远远够不上指挥官,你看你把任务弄的一团糟。”
阿瑞斯:“可我完成了任务。”
林子茂:“这只是模拟实验,并不是真实现场,如果是真实现场,你这样的指挥会被炒鱿鱼,也就是你会被解雇,你是不合格的产品。”
阿瑞斯沉默了,从它出生以来,头一次困惑,它听到很多赞美和夸奖的言语,但没有人说过它是不完美的,它是不合格的产品,它仅仅是一个产品而已。
因为这是阿瑞斯和林子茂的比赛,梁远只能坐在场外,他听不见林子茂在跟阿瑞斯说什么,他心里开始有点焦虑,林子茂会向他的阿瑞斯灌输什么?
可恶,他什么都听不见!
阿瑞斯有学习能力,但是现在的学习并不代表它能马上理解人类的思想,它的运算能力确实很强大,但是人的情感是很难学习的。
第二轮开始了。
这回是林子茂先给阿瑞斯选任务。
林子茂给它选择的依旧是救援任务,但很有意思的是,这次救援任务同样具有选择性。
任务内容是解救岛上的乘客,可救援飞行器却不多,只有一辆,能容纳的人数有限,先选择救援哪些人类?
岛上一共有二十五人,这是一个旅游团队,分别有不同的职业,有将军,有企业家,有律师,有医生,还有公务员,同样也有年迈的老人,孕妇,以及未成年人。
他们出去旅游时因为突然而来的暴风雨袭击被滞留在海岛上。
现在阿瑞斯的任务是带谁走和不带谁走。
特别简单。
但,也特别难。
这是一个选择题。
阿瑞斯带走了十人,余下十人被留在了岛上,他们将可能依旧面临死亡的风险。
最终结果,阿瑞斯带走了十人,全是壮年,而余年的老弱小十人因为下一场风暴而不知所踪。
台下的观众已经完完全全明白林子茂给阿瑞斯选择任务的意义。
梁远的指挥AI一直接受了很多赞美,大家也期盼着全能指挥AI的出生,他们做过很多假设,也做过很多实验,无一不是完美完成,可是他们却没有想过,当所的信息条件都不全的时候阿瑞斯还能保证它的准确性吗?
林子茂是头一个否定阿瑞斯的人类,完成这个任务后它望向林子茂,颇有些自豪:“我的任务完成了,我解救了十个人,他们的职业都是对这个社会有用的,而且他们都是壮年。”
刚才这个人类提过以人为先,它救了人。
轮到它替林子茂选择任务,阿瑞斯给他选择同样的任务,它想知道人类会如何指挥这一场救援任务。
林子茂摇了摇头,阿瑞斯无法理解他这个摇头是什么意思?难道它的任务完成的不够好?
可是在那种情况下,它做出的是最佳的选择,把最好的人类留存了下来。
接下来,林子茂给阿瑞斯展示了什么叫真正意义上的救援。
他当然也救了人,不过他先救的是老弱小,在救援的过程中没有区别被救援人员的职业,他把救援飞行器上的物资留给他们,并建议余下的壮年们找个山洞躲避起来。
壮年们有体力脑子也灵活,他们躲过了后面的暴风雨,等到了下一次的救援。
林子茂解救出了二十人,无一人死亡。