Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | ||||
4 | 5 | 6 | 7 | 8 | 9 | 10 |
11 | 12 | 13 | 14 | 15 | 16 | 17 |
18 | 19 | 20 | 21 | 22 | 23 | 24 |
25 | 26 | 27 | 28 | 29 | 30 | 31 |
Tags
- 단계별로풀어보기
- 구현
- A - B
- 과제
- 원소 추가
- 프로젝트
- OSAM
- 건전한 취미생활
- 백준
- GUI
- HTML
- 독학
- 텍스트 관련
- 원소 삭제
- VOCALOID
- 텍스트 관련 태그들
- Python
- 날씨
- 연결리스트
- PyQT5
- c++
- 메일
- 건전한
- 학습생활
- A×B
- 알고리즘
- *Luna
- C언어
- CSS
- 취미생활
Archives
- Today
- Total
언유상씨의 건전한 취미생활
[매일 논문 초록 읽기 : 18일차] NLG task에 대해 parameter-efficient fine-tuning을 하기 위한 방법론인 Prefix-tuning 본문
건전한 학습생활 - 매일 논문 초록 읽기
[매일 논문 초록 읽기 : 18일차] NLG task에 대해 parameter-efficient fine-tuning을 하기 위한 방법론인 Prefix-tuning
언유상 2023. 11. 27. 11:00fine-tuning은 거대한 사전학습 언어모델들을 downstream tasks들에서 성능을 발휘할 수 있도록 하는 현실적인 방법이다. 하지만 이것은 언어모델의 모든 파라미터를 조정해야 하므로, 각 task 별로 전체 복사본을 저장해둘 수 있는 공간이 필요하다. 이 논문에서 언어모델의 파라미터를 고정시키지만 작은 continuous task-specific vector를 최적화 하는, NLG task를 위한 fine-tuning의 가벼운 대안인 prefix-tuning을 제안한다. Prefix-tuning은 prompting에서 영감을 받아, 이후의 token들이 prefix에 대해 virtual token인 것 처럼 주의를 기울일 수 있다. 우리는 prefix-tuning을 GPT-2의 table-to-text 생성과 BART의 summarization에 대해 적용하였다. 우리의 prefix-tuning은 오직 0.1%의 파라미터를 학습하는 것으로 전체 데이터 셋을 학습한 것과 비교할 수 있는 결과를 얻고, 소수의 데이터에 대해 fine-tuning한 경우보다 좋은 결과를 냈으며, 학습과정에서 보지 못한 주제들에 대한 예시에도 더 잘 확장함을 보였다.
제목 : Prefix-Tuning: Optimizing Continuous Prompts for Generation
'건전한 학습생활 - 매일 논문 초록 읽기' 카테고리의 다른 글
Comments