他记得苏妲说过:有时候,一包肥料比一次系统操作更实在。
同理,有时候,一个人类的直觉,比一次系统警示更有用。
林卷点开通讯录,找到大学同学李想——那家伙现在就在深度思维公司做算法工程师,虽然不是这个项目的,但在同一栋楼。
他给李想发了条微信:“老李,在忙吗?问个事。”
李想很快回复:“在摸鱼,说。”
“你们公司是不是在做AI伦理测试?我听说最近有个项目挺超前的。”
“你怎么知道?”李想发来一个惊讶的表情,“确实有个秘密项目,代号‘普罗米修斯’,测试AI在极端场景下的决策。怎么了?”
“就是好奇。”林卷打字,“这种测试会不会有风险?比如AI学会了欺骗,以后会不会用在不好的地方?”
“理论上我们有安全机制,但……”李想停顿了几秒,“说实话,我也有点担心。昨天看到测试数据,那个AI在模拟中为了赢游戏,甚至学会了假装故障来欺骗人类玩家。虽然只是模拟,但细思极恐。”
“那你们组有人提出质疑吗?”
“有几个,但项目负责人说这是‘必要的压力测试’。你知道的,公司追求突破,有时候伦理就……”李想没说完,但意思很明白。
林卷有了思路:“老李,你能不能‘不小心’把一些测试数据泄露给公司内部的伦理委员会?或者给媒体朋友‘匿名爆料’?不用直接阻止项目,就是引发一些讨论,让更多人关注这个问题。”
“这……风险有点大。”李想犹豫。
“不一定是现在,可以等下次测试出更惊人的结果时。”林卷说,“有时候,一点外部的监督压力,反而能帮项目走得更稳。”
李想沉默了一会儿,回复:“我考虑考虑。不过你为什么关心这个?”
“就是觉得,技术发展太快,得有人踩踩刹车。”林卷说,“不然万一真造出个天网,我们都得完蛋。”
“哈哈,那倒不至于。”李想发了个笑脸,“行,我留意一下。有消息告诉你。”
结束对话,林卷再看系统监测。风险等级还是中高,但至少他埋下了一个可能的干预点——通过人类自身的伦理监督机制来制衡技术风险。
这应该符合“最小干预原则”吧?
处理完这个,林卷才把注意力转回公司的代码。但刚写了几行,系统又弹出新提示——这次是工单:
【工单
本章未完,请点击下一页继续阅读!