언유상씨의 건전한 취미생활

[매일 논문 초록 읽기 : 24일차] multi task 문제를 해결할 때 knowledge distillation과 prompt tuning을 결합한 MPT 본문

건전한 학습생활 - 매일 논문 초록 읽기

[매일 논문 초록 읽기 : 24일차] multi task 문제를 해결할 때 knowledge distillation과 prompt tuning을 결합한 MPT

언유상 2023. 12. 3. 17:10

학습된 프롬프트 벡터들을 조정하는 방식을 통해 사전학습된 모델들을 특정 task에 맞추는 prompt tuning은 여러가지 downstream task들에  LLM을 효율적으로 맞추는 방법이 되었다. 하지만, 존재하는 방법론들은 일반적으로 소프트 프롬프트 벡터를 처음부터 학습시키고, 이러한 방법은 multitask learning 설정에서 프롬프트 벡터들을 사용했을때 task간의 풍부한 지식을 어떻게 사용하는지에 대해서는 명확하지 않다.

우리는 multitask prompt tuning (MPT)를 제안한다.
먼저 여러개의 task 별 source prompt 로부터 지식을 추출하여 전이 가능한 프롬프트를 학습시킨다. 그리고 각각의 downstream target task들에게 공유된 프롬프트를 효율적으로 맞추기 위해 multiplicative low rank update를 학습시킨다.

23개의 NLP dataset들에 대한 실험을 통해 우리의 방법론은 특정 task별 파라미터의 0.035%를 tuning 했지만 일부의 경우 full fine-tuning 모델을 포함한 SOTA를 달성한 방법론 보다 좋은 성능을 보였다. 

 

제목 : MULTITASK PROMPT TUNING ENABLES PARAMETER-EFFICIENT TRANSFER LEARNING

https://arxiv.org/abs/2303.02861

 

Comments