Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | ||||
4 | 5 | 6 | 7 | 8 | 9 | 10 |
11 | 12 | 13 | 14 | 15 | 16 | 17 |
18 | 19 | 20 | 21 | 22 | 23 | 24 |
25 | 26 | 27 | 28 | 29 | 30 | 31 |
Tags
- GUI
- 과제
- HTML
- c++
- 백준
- 단계별로풀어보기
- 텍스트 관련 태그들
- 메일
- CSS
- 텍스트 관련
- *Luna
- 독학
- 원소 삭제
- 건전한 취미생활
- 건전한
- 구현
- A×B
- 날씨
- 연결리스트
- PyQT5
- C언어
- VOCALOID
- OSAM
- 취미생활
- 학습생활
- Python
- 프로젝트
- 알고리즘
- A - B
- 원소 추가
Archives
- Today
- Total
언유상씨의 건전한 취미생활
[매일 논문 초록 읽기 : 10일차] 오픈소스가 아닌 챗봇 모델의 대항마로 나온 Llama 2 본문
이 연구에서, 우리는 7B ~ 70B 범위의 파라미터를 가지는 사전학습되고 파인튜닝된 LLM들의 집합인 Llama2를 개발하고 발표한다. Llama 2 - Chat이라고 불리는 파인튜닝된 LLM은 대화에 최적화 되어있다. 우리의 모델은 우리가 테스트한 대부분의 벤치마크에서 오픈 소스 채팅 모델을 보다 좋은 성능을 보인다. 또한 안전성과 유용성에 대한 인간평가는 소스를 공개하지 않는 모델의 대체제가 될 수 있음을 보인다. 우리는 커뮤니티가 우리의 작업을 기반으로 제작하고, LLM의 책임 있는 개발에 기여할 수 있도록 Llama 2 - Chat의 안전성을 높이는 방법과 파인튜닝에 대한 구체적인 접근법을 제공한다.
제목 : Llama 2: Open Foundation and Fine-Tuned Chat Models
https://arxiv.org/abs/2307.09288
'건전한 학습생활 - 매일 논문 초록 읽기' 카테고리의 다른 글
[매일 논문 초록 읽기 : 12일차] 각 layer별로 prefix 를 조정하는 APT (2) | 2023.11.21 |
---|---|
[매일 논문 초록 읽기 : 11일차] Transformer에 knowledge distillation을 접합시킨 TinyBERT (1) | 2023.11.20 |
[매일 논문 초록 읽기 : 9일차] LLM이 학습한 사회적 편향의 리스크를 낮출 수 있는 데이터 셋 (0) | 2023.11.09 |
[매일 논문 초록 읽기 : 8일차] LLM에 추론 능력을 부여하는 Chain of thought (0) | 2023.11.08 |
[매일 논문 초록 읽기 : 7일차] LLM과 score function을 활용한 prompt 제작 자동화 (0) | 2023.11.07 |
Comments