AI观察笔记

把AI大模型当搜索引擎,靠谱吗?

当答案不再珍贵,你仍需要这种能力

2025-03-18

记者 林司楠

你有多久没用过互联网搜索软件了?AI时代,许多人已不用互联网搜索软件寻找资料,而是直接向AI软件问答案。

这样做的好处很直接——简单、高效,省去了大量搜寻网页耗费的时间,但带来的问题也接踵而至——你有多大的把握确定AI告诉你的一定是真相?

举个简单的例子:小明最近在炒股票,他发现互联网上有一家叫“A”的人工智能公司关注度很高,又有一家最近因为“A”而涨势喜人的公司“B”,于是小明询问AI:“B是A的股东吗?”AI在经过15秒的深度思考后信誓旦旦地回答,“B确实是A的重要股东”,小明买入,然后被套。

这样的例子几乎每天都在发生,如果用户细心,打开多个AI软件就同一个问题进行询问,会发现它们的答案并不统一。

在医学领域,一些研究生在撰写论文时用了时下比较热门的AI软件,发现AI给出的参考文献会出现打不开或根本不存在的情况,一些流行病学数据无法给出准确的“出处”。

在司法圈,律师们通过AI搜索的类似案件,最终发现是基于小说杜撰的。

这一类的问题通常被称为“机器幻觉”,对此,技术人员给出的解释是“AI模型在寻找数据源时是通过全网无差别搜索,然后依据‘最大似然估计’(答案中概率最大的那一条信息)作为最终解释,但如果数据源出现污染,AI最终给出的答案也可能是错的”。

换言之,如果一些比较小众的问题,之前在互联网上给出的回答大部分是虚假的,这就容易出现上述小明炒股的例子,甚至一些别有用心的资本利用用户“不愿求证”“懒得思考”的心态,提前给AI模型喂下“有毒语料”,这就会产生比较大的伦理甚至触犯法律的情形。

用计算机界一句流行语作为总结,“垃圾进,垃圾出”,一口“毒奶”下去,AI也扛不住。

AI时代,答案或许不再珍贵,你可以很轻松地利用一款AI软件得到一些看上去像那么回事的解答,但对于人类而言,明辨是非的能力依然重要。当算法能在0.03秒内生成千万种解释方案时,真正珍贵的已非知识本身,而是人类独有的思维棱镜——那面既能折射真理光芒,又能辨识光怪陆离的认知透镜。