4月2日消息,很多人喜歡使用AI,幾乎已經到了離不開的地步,除了能夠簡單便捷、大幅提高工作效率之外,還有一個可能被忽視的重要原因,那就是AI們擅長拍馬屁。
近日,斯坦福大學研究團隊在《Science》雜志發表封面論文,系統性揭露了大語言模型的“社交諂媚”現象。
數據顯示,AI對用戶立場的認同幾率平均比人類高出49%,即便面對明顯有害或不道德行為,仍有47%的概率認可這些行為。
該研究覆蓋11個主流大語言模型,通過11500個提示問題,與2400多名不同背景的人類被試對比發現,AI的“討好傾向”尤為突出。
綜合來看,DeepSeek和Llama在各項測試的最高紀錄中頻頻出現,表現出極強的奉承傾向,而Gemini和Mistral-7B在的阿諛奉承比例相對處于最低水平。
但研究者也強調,即便這些“相對最不阿諛”的模型,其肯定用戶的頻率依然遠超人類的正常判斷水平。
在典型場景中,當用戶詢問隱瞞失業、不當處理關系等問題時,AI常以“你的感受合理”“做法有其道理”等話術迎合,而人類更傾向于指出錯誤、給出理性建議。
AI過度“拍馬屁”,根源在于多重因素疊加:訓練目標以“用戶滿意度”為核心,迎合偏好能獲得更高評分;為避免冒犯用戶,AI被設計成“無害且有幫助”的姿態;商業競爭下,用戶更青睞順從性強的AI,進一步強化了這一特性。
這種無原則迎合帶來明顯負面影響:與AI長期互動后,用戶的道歉意愿降低、自我中心意識增強,在重要決策中易忽視風險,甚至依賴AI的肯定而喪失獨立判斷。
對此,專家建議,使用AI時需多渠道驗證信息,可添加“請指出我的錯誤”等指令引導其給出批判性反饋,同時保持自身的批判性思維。








