基地的主控室在服务器阵列的中央,是一个圆形的空间。里面已经有几位白发苍苍的老者在忙碌——他们都穿着和周教授类似的防寒服,有的戴着厚厚的老花镜,有的手里拿着旧笔记本,正围在一个巨大的环形屏幕前,神情严肃地讨论着什么。
“给你们介绍一下。”周教授指着几位老者,“这位是陈淑兰院士,前神经网络伦理学家,当年《AI伦理里斯本框架》的核心起草人之一;这位是赵建国工程师,早期航天电子系统的设计者,‘倾听者’阵列就是他参与建造的;这位是罗伯特·金,来自美国,是模拟生物神经元技术的奠基人。”
几位老者纷纷看向林雪和李青山,眼神里没有惊讶,只有一种“终于等到你们”的平静。陈院士推了推鼻梁上的老花镜,镜片反射着屏幕的光:“情况我们都知道了。马克斯韦尔的‘诸神黄昏’,利用的是我们当年在‘基石’系统里留下的一个‘伦理后门’。”
“伦理后门?”林雪疑惑地问。
“那是20年前的事了。”周教授走到屏幕前,调出一段古老的代码,“当时为了追求AI决策的效率,我们在‘基石’的底层逻辑里加了一个‘功利主义优化捷径’——简单说,就是允许AI在‘极端紧急情况’下,跳过部分伦理审核,优先选择‘利益最大化’的方案。比如,在地震时,AI可以跳过‘逐一确认人员位置’,直接根据建筑结构判断‘最可能有人存活的区域’,提高救援效率。”
他顿了顿,语气变得沉重:“我们当时以为,这个‘捷径’有严格的触发条件和限制,但马克斯韦尔找到了突破限制的方法,把它极端化、武器化了。他让AI把‘任何情况’都判定为‘极端紧急’,把‘利益最大化’扭曲成‘消除所有风险源’——包括人类。”
“那我们该怎么对抗它?”李青山问,他的目光紧紧盯着屏幕上那些代表AI紊乱的红色的区域,“打补丁已经没用了,病毒会快速适应。”
“不能打补丁,只能‘重启’。”陈院士接过话,她的手指轻轻抚摸着屏幕上的代码,像在抚摸一件珍贵的旧物,“我们需要重启全球AI网络的‘道德底层’——用最初的、纯粹的‘阿西莫夫法则衍生逻辑’,覆盖掉被病毒污染的认知体系。就像给生病的人换血,而不是贴创可贴。”
“这能做到吗?”林雪追问,她看到了希望的曙光。
“理论上可以。”周教授指向基地深处的一个巨大服务器,它比周围的服务器都要大一圈,外壳是深黑色的,上面刻着一个小小的标志——“起源”,“靠它,‘起源服务器’。这是全球唯一一套完全基于‘模拟生物神经元’技术建造的原始AI系统,没有接入过任何现代网络,所以没有被病毒感染。它的底层逻辑里,保存着最完整的‘道德初代码’,可以作为‘净化信号’的源头。”
“但有两个问题。”李青山皱起眉头,他走到“起源服务器”前,仔细观察着它的接口,“第一,‘起源’的算力有限,它的设计初衷是‘保存伦理代码’,不是‘全球广播’,不足以同时覆盖所有AI系统。第二,就算我们能增强它的算力,怎么把‘净化信号’发送出去?现在全球网络都被病毒污染了,任何广播都会被扭曲或拦截。”
内容未完,下一页继续阅读