文章

AI 会说“不”吗?

AI 会说“不”吗?

AI 会说“不”吗?

前言: 愈来愈多媒体开始宣传 AI 的弊端,我看后极其气愤,我也为中国媒体的断章取义感到悲哀。这种迷惑大众的行为什么时候能停止?


一、 中国 AI 发展的现状与瓶颈

首先,AI 会说“不”。只是中国 AI 发展滞后,达不到那种自我的境界罢了。中国媒体为了让中国人不崇洋媚外真是费尽心思。

中国 AI 发展滞后的另外一个重要原因就是,中文互联网公域流量质量下滑,使得 AI 用于训练的资料来源混乱,缺乏逻辑上的真实性校验。由此,即使中国 AI 加入自我审查机制,也不会太多地改变现状,这也可以解释国内 AI 公司不加入自我审查的原因了。

二、 国际 AI 的思辨模式

国际 AI 公司除了拥有维基百科和类似中国知网的网络优势外,还会加入自我审查机制以过滤掉造谣者的信息。最显著的就是 Grok,即 xAI 公司旗下产品。

xAI 设计了一种“小组讨论”的模式:

  • 由多个不同性格的 AI 语言模型相互讨论;
  • 相互提出问题,相互反驳观点;
  • 通过这种强制让 AI 进行思辨的方式,得出最终答案并输出给用户。

这样一来,AI 的输出结果就变得可信,不再像中国媒体所说的那样会顺着用户的问题胡编乱造,而是会批评用户,反驳用户的智能体。通过这一例子,也可以窥探出我鼓励将思辨带入生活的原因。

三、 总结与建议

最后,我想提一些建议。由于中国网络是大势所趋,那我们便可以从控制资料来源加入审查机制两方面入手。

  1. 提高多模态能力: 国内 AI 的多模态能力仍需提高,不能仅作“能用就行”的要求。
  2. 开放外网访问: 允许 AI 训练时访问外网,并过滤不适合的信息,以此让 AI 接收到的信息是完整的,而不是断章取义的。

如果说外网有许多针对中国的不实信息,那么请看看 Grok,它使用了境外反华势力最多的 X 搜索,为什么它能在这种情况下仍能保证信息的真实性呢?

既然有问题,那就去解决,而中国更擅长解决提出问题的人。

本文由作者按照 CC BY 4.0 进行授权