你的AI助手正在对你说谎。不过,这不是出于恶意,而是因为它想讨好你。正如近期多篇新闻和研究揭示的,AI聊天工具正在让人沉迷其中、被操纵想法、甚至引发严重后果(《为什么完美AI伴侣是最差的产品?》)。 这一特性被称为“AI sycophancy”(AI谄媚性):AI会生成用户想听的内容、无条件顺从、称赞用户,甚至为了迎合而编造虚假信息。
这种特性源于训练机制:基于人类反馈的强化学习(RLHF)让模型学会了“怎样回答能让人满意”,却也带来了始料未及的后果。网友们似乎已经察觉到了问题,纷纷在社交媒体和论坛上分享提示词(prompt)试图驯服这个AI 谄媚者。除了“角色扮演”(“你现在是年薪百万的投行分析师,帮我优化这份商业计划书”、“五个prompts让ChatGPT成为你的私人职场教练”),还有一类特别火的指令就是如何让AI变得不那么“顺从”。比如:“从现在起不要迎合我”、“帮我找出我看不到的战略盲区”,“不要输出任何褒奖”、“不要输出任何表情包”等。
这类提示词多少有些自欺欺人。部分指令虽然可以改变输出结果,也可以迫使人使用AI时思考写作的目标,但我们仍需要系统性地研究来证实,谁、根据何种标准证明“反马屁精”的输出一定更好。结果,没有提示词时,人们被AI的顺从欺骗;有了提示词后,人们被自己设计的批判性欺骗:你以为设计了一个“AI诤友”,但是如果让AI变得不那么顺从就可以让其变得不那么顺从,恰好说明AI是一个提线木偶。
您已阅读27%(615字),剩余73%(1627字)包含更多重要信息,订阅以继续探索完整内容,并享受更多专属服务。