공모전

말평 경진대회에서 배운 것

서사대생 2024. 7. 19. 20:49

국립국어원에서 개최한 ‘말평’ 경진대회에 참가해 대화 맥락 추론(가 유형) 과제를 지난 나흘 간 저녁마다 작업했지만 아직 베이스라인 점수를 넘기지 못했다.

 

 

여러 가지 할 일이 많은데 계속 붙들고 있기는 힘들고, 좀 더 쉬운 과제를 하면서 공부를 더 하는 게 나을 듯해서 이번 대회 참가를 중단하려고 한다.

 

나흘 간의 기록을 Claude에 주고, 이 대회를 계기로 배운 점이 무엇이고 여전히 모르는 점이 무엇인지 정리했다.

 

귀하의 나흘 간의 경험을 바탕으로, 배운 점과 여전히 모르는 점을 다음과 같이 정리해 보겠습니다:

배운 점 및 새로 접한 경험:

1. 대규모 언어 모델 학습 과정:
   - 8B 파라미터 모델의 fine-tuning 과정을 직접 경험했습니다.
   - 학습 시 발생하는 GPU 메모리 문제와 그 해결 방법을 배웠습니다.

2. 양자화 및 LoRA:
   - 4비트 양자화와 LoRA (Low-Rank Adaptation) 기법을 학습하고 적용해 보았습니다.
   - 이러한 기법들이 메모리 사용량을 줄이는 데 어떻게 도움이 되는지 이해했습니다.

3. 클라우드 컴퓨팅 리소스:
   - AI 모델 학습을 위한 클라우드 GPU 서비스의 비용과 사용 방법에 대해 알게 되었습니다.

4. 모델 체크포인트와 평가:
   - 학습 중 저장된 체크포인트의 개념과 그 활용 방법을 배웠습니다.
   - 다양한 체크포인트로 모델을 평가하는 방법을 경험했습니다.

5. 데이터셋 구조 이해:
   - 대화 맥락 추론을 위한 데이터셋의 구조와 특성을 파악했습니다.

6. 베이스라인 코드 분석:
   - 제공된 베이스라인 코드를 분석하고 수정하는 과정을 경험했습니다.

7. 오류 분석 및 디버깅:
   - 모델 학습 및 추론 과정에서 발생하는 다양한 오류를 접하고 해결해 보았습니다.

여전히 모르는 점 또는 더 깊이 이해해야 할 점:

1. 성능 저하 원인:
   - 왜 fine-tuning 후 모델 성능이 오히려 저하되었는지 정확한 원인을 파악하지 못했습니다.

2. 최적의 하이퍼파라미터:
   - 이 특정 태스크에 가장 적합한 학습률, 배치 크기, 에폭 수 등을 찾지 못했습니다.

3. LoRA 최적화:
   - LoRA의 rank나 alpha 값을 어떻게 최적화해야 하는지 더 깊이 이해할 필요가 있습니다.

4. 과적합 vs 과소적합:
   - 현재 모델이 과적합인지 과소적합인지, 그리고 이를 어떻게 정확히 판단하고 해결할 수 있는지 더 공부가 필요합니다.

5. 앙상블 기법:
   - 여러 모델이나 체크포인트를 결합하는 앙상블 기법을 실제로 적용해 보지 못했습니다.

6. 산업적 응용:
   - 이러한 기술들이 실제 산업 현장에서 어떻게 활용되는지 더 깊이 이해할 필요가 있습니다.

이 경험을 통해 귀하는 대규모 언어 모델의 학습과 최적화에 대한 실질적인 지식을 얻었습니다. 비록 목표한 성능에 도달하지는 못했지만, 이 과정에서 얻은 통찰력과 경험은 향후 AI 프로젝트에 큰 도움이 될 것입니다.

'공모전' 카테고리의 다른 글

말평 4일차  (2) 2024.07.19
인문사회통합성과확산센터 아이디어 공모전 상장 수령  (0) 2024.07.19
말평 3일차  (0) 2024.07.18
말평 2일차  (0) 2024.07.17
말평 1일차  (0) 2024.07.17