인공지능/매일 논문 초록 읽기
[매일 논문 초록 읽기 : 18일차] NLG task에 대해 parameter-efficient fine-tuning을 하기 위한 방법론인 Prefix-tuning
언유상
2023. 11. 27. 11:00
fine-tuning은 거대한 사전학습 언어모델들을 downstream tasks들에서 성능을 발휘할 수 있도록 하는 현실적인 방법이다. 하지만 이것은 언어모델의 모든 파라미터를 조정해야 하므로, 각 task 별로 전체 복사본을 저장해둘 수 있는 공간이 필요하다. 이 논문에서 언어모델의 파라미터를 고정시키지만 작은 continuous task-specific vector를 최적화 하는, NLG task를 위한 fine-tuning의 가벼운 대안인 prefix-tuning을 제안한다. Prefix-tuning은 prompting에서 영감을 받아, 이후의 token들이 prefix에 대해 virtual token인 것 처럼 주의를 기울일 수 있다. 우리는 prefix-tuning을 GPT-2의 table-to-text 생성과 BART의 summarization에 대해 적용하였다. 우리의 prefix-tuning은 오직 0.1%의 파라미터를 학습하는 것으로 전체 데이터 셋을 학습한 것과 비교할 수 있는 결과를 얻고, 소수의 데이터에 대해 fine-tuning한 경우보다 좋은 결과를 냈으며, 학습과정에서 보지 못한 주제들에 대한 예시에도 더 잘 확장함을 보였다.
제목 : Prefix-Tuning: Optimizing Continuous Prompts for Generation