李松林
“AI竟然杜撰了《小石潭记》里没有的段落”“AI写的文献综述里,有一堆原文里找不到的内容”……近日,“防止AI乱编文献的方法”话题冲上热搜。不少网友列出“被坑”的经历,称AI除了编造论文文献,还会编造法律条文,甚至教人做菜都跑偏了。人工智能怎么不“智能”?
万事不决问AI已成不少网友日常习惯,然而不得不承认,AI并非万事通。AI的一些回答看似正确有理、逻辑严密,实则可能充满谬误。AI指导做菜跑偏,还仅仅给个人造成不便;乱编论文、法条等,则给学术诚信和科研质量埋下风险。此前AI无中生有、生成图文造谣,滋生信任危机污染网络空间。“AI乱编”,为公众带来困扰。
“AI乱编”的重要原因在于,AI是被大量数据等不断“投喂”、训练归纳推理的产物。AI模型给出的答案,基本依赖网页的既有数据内容。这些内容来源可不可靠,AI全然不加甄别。也就是说,倘若原始资料有问题,AI极有可能将错就错乃至胡编乱造。
东拼西凑甚至无中生有的“AI乱编”,照出AI发展的局限,也呼唤人工智能更加智慧。从技术层面,要进一步“投喂”AI、给AI模型“打补丁”。例如,优化模型运行逻辑,扩展训练模型数据库的质量,提升大语言模型的分析推理能力,让AI生成内容尽可能更准确、更规范。同时,AI需要添加“防跑偏模式”,一旦AI大模型拿不准,开始简单罗列甚至自行推理,就须进行强制标注,提醒用户要有防备之心。
技术再先进,人类都不能跟在工具后面鹦鹉学舌。每一个请AI“回答我”的人,都应对AI生成内容“有所信有所不信”。尤其是涉及科研学术、政策法律、医疗等特殊行业领域,更要自觉自律,仅把AI的回答当作参考答案,交叉对比、谨慎求证,当好“终审”把关人。
“大胆提问,小心求证”,每个人只有始终把主动权抓在自己手中,才不至于轻信“AI乱编”而闹出笑话。

