在人工智能領域,一個看似簡單到近乎“笨拙”的方法,正悄然改變著大語言模型的使用方式。谷歌研究院近期公布的一項研究成果顯示,將提示詞重復一次發送給AI,竟能顯著提升其在非推理任務中的表現。這一發現顛覆了人們對復雜提示詞設計的傳統認知,讓“重要的事情說兩遍”這句俗語在AI時代煥發新生。
研究團隊通過大量實驗發現,在不需要邏輯推理的場景下,將輸入的提示詞完整復制一遍,能明顯提高模型的回答準確率。這種方法幾乎不會增加生成內容的長度或響應時間,卻能在多個主流模型上產生穩定效果。實驗覆蓋了Gemini、GPT、Claude等7個知名模型,在70種不同任務中,47次觀察到性能提升,23次表現持平,未出現任何負面效果。
一個名為NameIndex的測試生動展現了這種方法的威力。當要求AI從50個名字的長列表中找出第25個名字時,常規操作下Gemini 2.0 Flash-Lite模型的準確率僅為21.3%,幾乎等同于隨機猜測。而采用重復提示詞后,準確率飆升至97.3%,提升幅度超過4倍。這種顯著改善并非個例,在數學計算、代碼理解等不需要深度推理的任務中,重復提示詞都帶來了穩定的效果提升。
這一現象背后有著明確的科學邏輯。當前主流大語言模型采用的Transformer架構存在單向閱讀特性,AI處理提示詞時如同觀看直播彈幕,只能逐詞向后閱讀,無法預知后續內容。這種特性容易導致關鍵信息遺漏。重復提示詞相當于讓AI進行“虛擬重讀”,第二次閱讀時已對整體內容有所了解,能夠結合首次記憶精準捕捉重要信息,從而提高響應準確性。
研究也明確指出了這種方法的局限性。對于OpenAI的o1、國產DeepSeek-R1等主打深度推理的模型,重復提示詞效果并不明顯。這類模型在生成答案前已內部完成類似反復推敲的過程,外部重復顯得多余。當原始提示詞已接近模型上下文長度上限時,重復可能導致處理速度下降甚至內存問題。在創意寫作等需要自由發揮的任務中,重復提示詞也可能適得其反。
這一發現為AI優化提供了全新思路。傳統方法往往追求復雜的技術方案,而谷歌的研究證明,簡單方法同樣能產生驚人效果。對于普通用戶而言,當遇到AI答非所問或處理長文檔時丟三落四的情況,不必絞盡腦汁設計復雜提示詞,只需將需求復制粘貼一次再發送,就可能獲得顯著改善。
網友對這項研究反應熱烈。有人評論:“如此簡單粗暴的方法效果這么好,讓人不禁思考還有多少顯而易見的技巧被我們忽視。”另一位用戶指出:“在特定任務中將準確率從21.33%提升到97.33%,這個數字本身就說明了一切。”還有專業人士贊賞研究團隊關注到預處理階段的并行化特性,使得這種方法在提升性能的同時不影響響應速度。










