1. 프로젝트 개요목표: LLaMA 3.2 1B와 DeepSeek R1 1.5B 모델을 각각 한국어 학습시켜 성능을 비교주요 실험 내용:동일한 한국어 데이터셋을 활용하여 두 모델을 LoRA 방식으로 파인튜닝한국어 문장이 어색하지 않도록 개선하는 것이 핵심 목표결과 비교를 통해 모델별 학습 효율성과 성능 차이 분석2. 모델 및 방법론 선정 이유모델 선정 이유LLaMA 3.2 1B & DeepSeek R1 1.5B이유: 대형 LLM을 다루기 전에 소규모 모델로 먼저 경험을 쌓기 위한 목적Colab 환경에서 비교적 적은 자원으로 실험 가능두 모델 간 한국어 학습 성능 차이를 비교하는 데 적합LoRA 선정 이유LoRA (Low-Rank Adaptation) 적용 이유VRAM이 제한된 환경에서 효율적으로 모델을 ..