(资料图)
上个世纪的曼哈顿计划所造出来的核弹只有几万吨当量,摧毁木质建筑为主的广岛和长崎的弹拿到今天的水泥森林城市顶多能摧毁一个街区。然而很快就发展出的热核武器威力成数量级上升,实现了摧毁现代化大都市的能力。这就是为什么没有热核武器的印巴朝以只能算迈进核门槛的国家,而无法跟五个核大国相提并论,也不能参与核军备规则的订立。
看待人工智能这样的颠覆性技术也应该有相当的前瞻性。今天的chatgpt也不过就是一个数据过滤机+模式复刻机,但继续迭代下去却具有完全统治数据世界的潜力,而且这是在人类对数据世界依靠迅速加深对背景下(比如上次郑州洪灾中出现的网络支付困难情况)。
即便对于AI三大宗师或者奥尔特曼本人而言AI功能实现的黑箱也是存在的,这是系统论中涌现理论(emergence)所决定。过去了解水分子构造的化学家对今天的流体力学一无所知,这是因为水分子达到一定数量就会以另一层次的规律相互影响。人工智能迭代同理,人类做出了第一推动,但复杂性是AI的内在禀赋,人类认知黑箱出现是不可避免的事情。
理想情况下,发展人工智能应该和约束人工智能齐头并进。但遗憾的是人类群体行为模式首先是趋利,其次才是避害,就像全球控制温室气体的大部分成就都来源于先进国家对产业升级或碳交易获利的追求。在国际社会进入秩序变更的情况下,全人类共同为人工智能发展设限是不可能的事情,但是对人工智能发展约束不力的国家必遭反噬。野狼獾大师的科幻小说“山巅堕落”就是描绘的这样一幅场景。