SFT 썸네일형 리스트형 2/4, 쉰 두번째 날의 TIL 저번에 이어 모델을 효율적으로 학습시키는 방법들에 대해서 좀 더 알아보았다. 딥러닝 모델이 거대해지면서 전체 모델을 다시 학습하는 것은 비효율적이 되었고, 이를 해결하기 위한 여러 가지 기법들이 등장했다. 그중 대표적인 것이 SFT, LoRA, RLHF이다.Supervised Fine-Tuning (SFT)지도학습 기반의 미세 조정 기법으로, 기존 모델을 활용하면서도 특정 태스크에 맞게 성능을 최적화하는 방법이다.기존의 사전학습된 언어 모델(PLM)은 광범위한 데이터에서 학습되었지만, 특정 도메인이나 태스크에 최적화되지는 않았다. SFT는 이를 해결하기 위해 특정한 데이터셋을 활용해 추가 학습을 진행하는 방식이다.- SFT의 특징사전학습된 모델을 그대로 유지하면서 새로운 태스크를 학습시킴일반적인 데이터셋.. 더보기 이전 1 다음