언유상씨의 건전한 취미생활

[매일 논문 초록 읽기 : 18일차] NLG task에 대해 parameter-efficient fine-tuning을 하기 위한 방법론인 Prefix-tuning 본문

건전한 학습생활 - 매일 논문 초록 읽기

[매일 논문 초록 읽기 : 18일차] NLG task에 대해 parameter-efficient fine-tuning을 하기 위한 방법론인 Prefix-tuning

언유상 2023. 11. 27. 11:00

fine-tuning 거대한 사전학습 언어모델들을 downstream tasks들에서 성능을 발휘할 있도록 하는 현실적인 방법이다. 하지만 이것은 언어모델의 모든 파라미터를 조정해야 하므로, task 별로 전체 복사본을 저장해둘 있는 공간이 필요하다. 논문에서 언어모델의 파라미터를 고정시키지만 작은 continuous task-specific vector 최적화 하는, NLG task 위한 fine-tuning 가벼운 대안인 prefix-tuning 제안한다. Prefix-tuning prompting에서 영감을 받아, 이후의 token들이 prefix 대해 virtual token 처럼 주의를 기울일 있다. 우리는 prefix-tuning GPT-2 table-to-text 생성과 BART summarization 대해 적용하였다. 우리의 prefix-tuning 오직 0.1% 파라미터를 학습하는 것으로 전체 데이터 셋을 학습한 것과 비교할 있는 결과를 얻고, 소수의 데이터에 대해 fine-tuning 경우보다 좋은 결과를 냈으며, 학습과정에서 보지 못한 주제들에 대한 예시에도 확장함을 보였다.

 

제목 : Prefix-Tuning: Optimizing Continuous Prompts for Generation

https://arxiv.org/abs/2101.00190

Comments