#1楼:好的,我再压缩到 500 字以内:
媒体说 ChatGPT 特别爱用“



”等正向 emoji,这点确实有一定根据。模型在 RLHF 训练中,会受到“礼貌、友好、积极回答”这类反馈的强化,因此自然更倾向使用能表达肯定、安心感的符号,这属于训练偏向,而不是刻意操控。
不过,把这个现象描述成“滥用”或“隐性风险”,我认为有些夸大。emoji 对模型来说只是语气装饰,不具有“真实确认”或“安全保证”的含义。
媒体的担忧其实集中在另一点:
用户可能误读模型的 emoji 为真实的判断或验证。
例如看到“

没问题”“

已确认”时,以为系统做了检查;但实际上模型只是按照语言习惯表达友好情绪。
真正需要注意的不是 emoji 本身,而是不要把 AI 的语气词当成事实性结论。所以整体来说:
“模型爱用正向 emoji” → 真实现象
“原因是训练偏向” → 合理解释
“存在巨大风险” → 夸张
真正风险 → 人类可能误读模型的友好表达
总体看,这更像是把一个写作风格偏好放大成安全问题。