垃圾信息 让AI“吃坏肚子” “AI大模型辨识信息来源的能力较弱,投喂垃圾信息就可能生成垃圾答案。”针对上述暴露出来的问题,罗小军认为,目前GEO发展中垃圾信息泛滥成灾,自媒体平台让人人都有发言权和分享欲的同时,也在一定程度上降低了信息来源的权威性和真实性。
这直接导致大量未经筛选、质量参差不齐的信息混杂其中。当AI抓取这些内容时,很容易基于这些杂乱的信息生成缺乏准确性、深度和价值的低质量答案,长此以往,会严重削弱用户对AI搜索结果的信任度。
最有代表性的案例是美国社交新闻聚合平台Reddit,其将海量的用户帖子、评论等内容以6000万美元出售给谷歌。
这一交易却被广告商视为可乘之机,广告商利用AI批量生成,在Reddit上大肆宣传自家产品的内容并疯狂发布。 由于AI的训练数据来源于此,这些刻意植入的推广内容会被AI自动学习吸收,进而在后续的回答中不自觉地为这些产品进行推广,直接导致Reddit平台被大量AI生成的垃圾帖子淹没,严重干扰了平台的内容生态。 部分GEO从业者为了追求更高的曝光度,采用类似早期SEO的手段,如通过模拟真实用户的搜索行为反复向AI平台投喂特定信息进行刷榜,或是通过不正当的外链操作干预排名。
这些行为破坏了GEO领域本应有的公平竞争环境,让优质内容难以凭借自身价值获得合理曝光,更可能成为滋生诈骗的温床。
罗小军举例道,不法分子可以利用在自媒体平台发布假的网站链接或联系方式,并根据大模型“喜好”进行投喂。当用户进行精准搜索时,就很可能被虚假信息误导,掉入诈骗陷阱中。 当AI大模型的回答失去了“中立性”的根基,用户的信任便会像沙堡般崩塌。
就像当年人们厌倦了搜索引擎首页的广告弹窗,如今若每一个AI答案的背后都藏着商业算计,最终可能催生新的信息焦虑——“我们到底该相信谁?” 罗小军建议,大模型公司需要建立更为严格的信源分级体系,对有品牌背书、权威发布、专业出处、结构事实清晰的内容赋予更高的露出权重,降低用户自我生成内容的露出权重;其次,在产品、餐厅等推荐方面,关注用户转化率、复购率、停留时长等更深层数据,而非仅依赖浏览量或点击率等表面数据;最后则是建立第三方中立机构来审定AI内容。
