生成AIの精度を上げる方法をGoogleの研究者等が次の報告をしました。
大規模言語モデルLarge Language Model(LLM)を使ったAIの場合、同じ質問をすると回答精度が上がります。2025年12月17日の論文「Prompt Repetition Improves Non-Reasoning LLMs」で述べられています。推論(reasoning)を用いない設定において、広範な改善が観測されたといいます。
その理由を次のように述べています。
LLMは因果言語モデルとして学習されており、トークンの並び順が注意(attention)の届き方に影響します。このため、質問文と文脈や選択肢の配置順(question-first / options-first)によって性能差が生じることが知られています。
入力文字列(プロンプト)の反復は、各トークンが他のすべてのトークンを参照しやすくすることで、この差を緩和して回答精度が上がると説明されています。
非推論設定で70条件中47で「有意に向上」して顕著な改善がみられたとしています。
Gemini 2.0 Flash/Flash Lite、GPT-40/GPT-40-mini、Claude 3 Haiku/Claude 3.7 Sonnet、DeepSeek V3が評価対象となりました。全てにおいて性能が低下した条件はなかったとしています。
推論を行う設定(think step by step)では、入力文字列(プロンプト)の反復の効果はほとんどなかったとしています。
推論モデルでは、推論過程の中で入力の再読・反復を行うために影響が少ないと説明しています。
この方法については、複数の研究者の報告があります。

