
前阵子用AI搜咖啡机推荐,结果买回来的款又贵又难用,当时还骂自己没眼光,直到看到新华社的调查才恍然大悟——原来不是我选得差,是AI的搜索结果早就被动了手脚。这事儿越琢磨越有意思,看似是技术小bug,背后藏着的门道可不少。
最直观的问题,就是老套路换了新马甲。以前上网搜东西,广告好歹还标着“广告”二字,就算排在前面,我们多少能提个醒自己别踩坑。现在倒好,AI直接把广告揉进“客观推荐”里,包装成大模型分析后的结果,连个标识都没有。这背后是一群营销机构在搞事,美其名曰“生成式引擎优化”,说白了就是花钱批量发软文,靠概率让AI抓取,本质上就是新型SEO。更离谱的是,还有机构明码标价,年费从几千到上万不等,号称“价格越高,植入效果越好”,把污染AI数据源当成了生意来做。
再往深了想,AI本身的“认知缺陷”也被钻了空子。咱们总觉得AI懂的多,其实它就是个“记性好但不会辨真伪”的学生,给它喂什么就学什么。有自媒体做过实验,批量发几篇雷同文章,几小时后AI就会把里面的内容当成权威答案引用。更吓人的是虚假报告和假专家乱象,有人编造所谓“权威研究简报”,甚至虚构三甲医院专家身份做科普,AI根本没法核实,只会一本正经地把这些假信息传递出去。到底是技术暂时跟不上,还是平台为了流量故意放任?我倾向于两者都有,毕竟监管和技术迭代,永远赶不上钻空子的速度。
展开剩余45%这事儿对我们普通人的影响,说小也小,说大也大。小到买东西踩坑,像广州那位女士按AI推荐买咖啡机踩雷;大到可能危及健康,国外就有人听AI建议用有毒的溴化钠代替食盐,最后中毒住院。更让人无奈的是,我们对AI的信任正在被消耗——以前图省事遇事问AI,现在得先花时间核实答案,反而增加了麻烦。尤其是家里的老人,对这类“高科技答案”更容易深信不疑,风险系数更高。
而对整个信息生态来说,这简直是一场慢性污染。AI是靠数据喂养的,当大量虚假软文、编造报告充斥网络,形成“数据污染”,AI输出的内容只会越来越失真,陷入“虚假信息被抓取再传播”的恶性循环。慢慢的,真实有用的内容会被淹没,优质创作者没了动力,普通人想找靠谱信息难上加难。更可怕的是,这种乱象会让大家对网络信息失去信任,最后不管是AI还是传统搜索,都让人不敢全然相信。
其实也不是说AI搜索不好,它确实能帮我们省不少时间。问题的关键在于边界感——广告要有标识,虚假信息要被过滤,平台不能只赚流量钱而放弃审核责任。现在已有规定要求广告需可识别,也有专家建议给AI广告加标注,但落地起来还需要时间。
说到底,技术本身没有对错,错的是把技术当成谋利工具的人。我们能做的,就是多留个心眼,别把AI的话当圣旨。至于未来能不能规范好,我还是抱点期待的,毕竟工具终究是要为人服务的,总不能让乱象一直蔓延下去。
发布于:安徽省