우리는 chain of thought(일련의 중간 추론 과정들)을 생성하는 것이 LLM이 복잡한 추론을 하는 능력을 크게 향상시키는 방법을 탐구한다. 특히 충분한 크기의 LLM에서 chain of thought 이라는 간단한 방법을 통해 이러한 추론 능력이 자연스럽게 나타나는 것을 보인다. 3개의 LLM에서 진행한 실험은 chain of thought 프롬프팅이 산수, 상식, 상징적 추론 task에서 성능이 향상됨을 보인다. 경험적인 이득은 매우 크다. 예를 들어, PaLM 540B에 8개의 chain of thought 예시를 적용한 것만으로 수학 단어 문제 벤치마크인 GSM8K에서 파인튜닝된 GPT-3를 넘긴 성능을 보이며 SOTA를 달성하였다.
제목 : Chain-of-Thought Prompting Elicits Reasoning in Large Language Models
'인공지능 > 매일 논문 초록 읽기' 카테고리의 다른 글
[매일 논문 초록 읽기 : 10일차] 오픈소스가 아닌 챗봇 모델의 대항마로 나온 Llama 2 (0) | 2023.11.10 |
---|---|
[매일 논문 초록 읽기 : 9일차] LLM이 학습한 사회적 편향의 리스크를 낮출 수 있는 데이터 셋 (0) | 2023.11.09 |
[매일 논문 초록 읽기 : 7일차] LLM과 score function을 활용한 prompt 제작 자동화 (0) | 2023.11.07 |
[매일 논문 초록 읽기 : 6일차] 여러 task에 대해 few-shot으로 좋은 성능을 내는 모델 (0) | 2023.11.06 |
[매일 논문 초록 읽기 : 5일차] 언어모델을 사람의 의도와 맞추는 방법 (0) | 2023.11.05 |