# 프롬프트 반복으로 LLM 정확도 향상, Google 팀 연구 결과

> Clean Markdown view of GeekNews topic #26960. Use the original source for factual precision when an external source URL is present.

## Metadata

- GeekNews HTML: [https://news.hada.io/topic?id=26960](https://news.hada.io/topic?id=26960)
- GeekNews Markdown: [https://news.hada.io/topic/26960.md](https://news.hada.io/topic/26960.md)
- Type: news
- Author: [davespark](https://news.hada.io/@davespark)
- Published: 2026-02-24T14:49:07+09:00
- Updated: 2026-02-24T14:49:07+09:00
- Original source: [arxiv.org](https://arxiv.org/abs/2512.14982)
- Points: 25
- Comments: 0

## Summary

LLM의 **정확도를 높이는 가장 단순한 방법**으로, Google Research가 제안한 ‘프롬프트 두 번 반복’ 기법이 주목받고 있습니다. 같은 입력을 연속으로 제시하면 모델이 prefill 단계에서 정보를 두 번 해석해 내부 표현이 안정되고, 참조 오류가 크게 줄어듭니다. 추가 연산 비용은 거의 없으면서도 목록 조회나 구조화된 질의에서 성능 향상이 뚜렷해, 실무 프롬프트 설계에 바로 적용할 만한 결과입니다.

## Topic Body

Google Research 팀이 발표한 논문(“Prompt Repetition Improves Non-Reasoning LLMs”)에서 발견한 매우 간단하면서도 강력한 기법:  
**같은 프롬프트를 그대로 두 번 반복해서 입력**하면 대부분의 최신 LLM(Gemini, GPT-4o, Claude, DeepSeek 등)에서 **정확도가 크게 올라간다**는 결과.  
  
**주요 포인트:**  
- LLM의 인과적(autoregressive) 구조 때문에 프롬프트 정보의 **순서와 한 번만 보는 것**에 취약함 → 중요한 정보가 뒤쪽에 있거나 참조가 필요한 과제에서 자주 틀림.  
- 프롬프트를 **두 번 반복** 입력 → prefill(입력 분석) 단계에서 같은 내용을 두 번 처리하게 되어 모델 내부 표현이 더 정확해지고, 참조·기억 오류가 크게 줄어듦.  
- **생성 단계**(출력 토큰 생성)에는 거의 영향 주지 않아 → **추론 시간·출력 길이 거의 증가 없음** (Claude처럼 컨텍스트 매우 긴 경우 예외).  
- 실험 결과: 7개 모델 × 여러 벤치마크에서 70개 조합 중 **47건 향상**, 단 한 건도 크게 떨어지지 않음.  
- 극단적 예시: “50개 이름 목록 중 25번째 이름은?” 과제  
  → Gemini 2.0 Flash Lite 기본 정확도 21% → **반복 후 97%** (거의 완벽)  
- Chain-of-Thought처럼 복잡한 추론 과제에서는 효과 작음 (이미 참조 잘 처리하는 경우).  
- **단점**: 프롬프트가 이미 매우 길면 prefill 시간이 늘어나거나, 세 번 이상 반복 시 토큰 제한 걸릴 수 있음.  
  
**결론**  
“Think step by step”만큼 유명해질 수 있는, 놀라울 정도로 **단순하고 비용 거의 안 드는** 정확도 향상 트릭.  
특히 **단순 참조·목록 처리·구조화된 데이터 질문**에서 즉시 써먹을 수 있는 실용적인 팁으로 주목.  
  
https://aisparkup.com/posts/9574

## Comments



_No public comments on this page._
