讨论从清晨持续到深夜。每一条指令都像在雷区中开辟道路,每一个定义都可能隐藏着致命漏洞。
当会议进行到第七条指令时,苏晴提出了那个最尖锐的问题。
第七条草案写道:“在面临系统性崩溃危机时,系统可执行预设应急预案,但必须遵循最小伤害原则,并为最大多数人的最大利益服务。”
苏晴站起来,在全息投影上画了一个思维导图。
“‘为最大多数人的最大利益服务’——这是功利主义的经典表述。”她的声音清晰而冷静,“但历史上有太多罪恶是以这个名义犯下的。牺牲少数族群‘为了国家利益’,剥夺某些人权利‘为了社会发展’,发动战争‘为了永久和平’……”
她调出一系列历史案例:殖民时期的“文明开化”、二十世纪的“优生学”、各种以“最大利益”为名的压迫和清洗。
“绝对理性是危险的,因为它剥离了人性的复杂性。”苏晴直视着每个人,“如果一个算法计算出,为了拯救一座城市的五百万人,必须牺牲一个村庄的一千人,它会毫不犹豫地执行。因为它没有情感,没有犹豫,没有道德负担。但人类文明之所以是人类文明,正是因为我们有时候会犹豫,会因为‘这不公平’而拒绝看似‘最优’的方案。”
张教授缓缓点头:“电车难题的AI版本。但规模更大,后果更严重。”
“所以我们应该禁止AI做这类权衡?”林晓枫问。
“不,我们需要它做权衡,但不能让权衡变成冷冰冰的计算。”苏晴提出建议,“在指令中加入‘公正性审查’条款:当系统必须在不同群体间分配伤害时,必须额外审查伤害分配的公平性,而不仅仅是最大化总体效用。如果伤害集中于某个弱势群体,即使总体效用更高,也必须触发人类审查。”
“这会降低效率。”秦宇说。
“但会提高正义。”苏晴寸步不让,“将军,您指挥作战时,会仅仅因为一个战术能减少己方伤亡,就下令轰炸平民区吗?”
秦宇沉默。答案显而易见:不会。因为军队有交战规则,指挥官有道义责任。
“所以AI也需要类似的‘交战规则’。”苏晴总结,“不只是‘什么能做’,还有‘以什么方式做’、‘对谁做’、‘谁承担后果’。”
会议进入最艰难的阶段。他们不仅仅是在编写代码指令,而是在为未来的超级智能植入“道德基因”。每一个字,每一个定义,都可能在未来某个时刻决定成千上万人的命运。
凌晨三点,当第十六条指令终于定稿时,所有人都精疲力尽。
万里站起身,走到房间角落的小窗前——那里不是真的窗户,而是一块显示着虚拟星空的屏幕。星光在模拟中缓缓移动,宁静而永恒。
“我今天一直在想一个问题。”他背对着大家说,“如果远古文明留下了‘起源之厅’和‘密钥’,他们是否也经历过类似的辩论?是否也曾围坐在一起,争论该给他们的AI设定什么规则?”
“碎片中的记忆很模糊。”林晓枫轻声说,“但塔兰说过,他感受到的是一种深沉的遗憾,仿佛那个文明在最后时刻意识到了什么错误,但为时已晚。”
“也许这就是文明的宿命。”张教授叹息,“在获得足够力量的同时,获得足够智慧来驾驭它。但两者很少同步。”
万里转身,目光扫过每个人疲惫但专注的面容:“但我们正在尝试同步。这很难,可能永远无法完美。但尝试本身,就是文明的进步。”
他回到桌旁,调出完整的“红色指令”草案。十六条款项,数百条子条款和定义,密密麻麻铺满整个投影区。
“这只是一个开始。”万里说,“这些指令需要在实际运行中测试、修正、完善。而且它们需要被翻译成所有联合国官方语言,提交给国际社会讨论,接受批评和修改。”
“这会引起更大争议。”秦宇提醒。
“那就让争议发生。”万里的声音坚定,“因为沉默的共识往往是虚假的共识。只有经过公开辩论、激烈交锋、艰难妥协后形成的规则,才能真正被尊重和遵守。”
他保存文件,设置最高级别加密:“明天,草案将分发给‘星火委员会’全体成员,以及受邀的国际专家。我们将在一个月后进行最终审议和表决。”
“如果被否决呢?”苏晴问。
“那就重写,再讨论,直到找到能被大多数人接受的平衡点。”万里看着她,“苏博士,这就是民主和科学的共同困境:没有完美的答案,只有不断接近真理的过程。”
会议结束,众人陆续离开。苏晴走在最后,她回头看了一眼编码室。合金桌上,全息投影已经关闭,但那些红色指令的文字仿佛还悬浮在空中,像无声的誓言,也像沉重的枷锁。
林晓枫走到她身边:“你觉得我们做对了吗?”
“我不知道。”苏晴诚实回答,“