[ 플레이데이터 SK네트웍스 Family AI 캠프 ]

[플레이데이터 SK네트웍스 Family AI 캠프 12기] 10주차 회고

AA_D 2025. 4. 28. 18:42

 

🗓️기간

10주차 : 2025.04.28~2025.05.02 ( 4월 5주 )

 

#. 한 주를 보내며...

 지난주에 이어서 트랜스포머 이론의 확장과 실습을 진행 하였다 . 딥러닝에 대한 세부적인 내용을 다시한번 리뷰하면서 llm으로 발전에 대해서 배웠다. 지난주에 간략하게 이론만 설명했던 트랜스포머 이론을 더 자세하게 배우면서 실습을 진행하였다. 트랜스포머모델을 이용한 텍스트요약,트GPT의 답변 생성에 대해 가중치를 어떻게 두는지에 따라 답변 스타일이 바뀌는것을 배웠다. 전이학습과 파인튜닝을 배우면서 llm 가중치 변동에 대해서 배웠다. bleu평가지표를 통해 결과를 확인하는것도 배웠다.
 관심있는 분야에 대해 배우니 이해가 빠르고 세부적인 내용을 더찾아보면서 즐겁게 배웠지만, 그당시에는 이해했다고 생각했으나 코드를 직접 작성해보니 이해를 하지 못했고 매우 어려웠다.

 

1. 좋았던 점

 트랜스포머에 대해 더 깊이 있게 배우고 다양한 모델을 사용함으로서 최근의 트랜스포머 디코더 기반의 llm의 구조에 대해서 더 자세히 이해할 수 있었다. 특히 각종 튜닝방법에 대해 배우면서 초창기에서 현재까지 어떻게 기법이 발전됐고 각 기법의 장단점을 파악함으로서 앞으로 llm의 변화에 어떻게 적응해야 할 지 배울 수 있었다.

 과거의 llm의 성능이 좋지 않을땐 파인튜닝이 대세였지만 초창기의 간단한 가중치변경의 튜닝방법이 다시 최근의 추세로 변화되면서 초창기의 방식에서 발전된 방식을 많이 사용하는데 더 자세하게 이해할 수 있었따.

2. 개선점

 지난주와 마찬가지로 전체 틀을 잡고 이해해 갔고 최근 기술을 중심으로 어떻게 그 과정으로 오게 되는지 파악했다. 최근의 gpt계열 llm이 오게된 과정을 배우고 실습을 함으로써 llm의 역사와 발전 방향성에 대해서 더 자세하게 이해할 수 있었고 ,앞으로 어떻게 나아갈지 배울 수 있었다.

3. 학습내용 및 예제

# 전체 내용 요약

주제 이론 요약 실습 내용 요약
딥러닝 개요 및 기초 복습 - 딥러닝 구조 (입력층-은닉층-출력층) - MNIST 분류 실습
- 손실함수, 옵티마이저, 활성화 함수 개념 - MLP 모델 설계, ReLU, Softmax 사용
- 모델 학습 순서 복습 (순전파 → 손실 계산 → 역전파 → 가중치 갱신) - model.eval(), torch.no_grad() 활용한 추론
텍스트 요약
(Text Summarization)
- 추출적 요약 vs 생성적 요약 - 뉴스 데이터 요약 실습
- LSTM 기반 Seq2Seq 개념 - TextRank 기반 추출 요약
- 어텐션 메커니즘 개요 - Huggingface BartForConditionalGeneration 활용 생성 요약
- 학습 시 Padding Masking 필요성  
트랜스포머 이론 - Self-Attention 구조 - Attention 계산 시 Query/Key/Value 실습
- Position Encoding - 간단한 문장 임베딩 시각화
- 트랜스포머 인코더/디코더 구조 - Positional Encoding 시뮬레이션
- 병렬처리 효율, 긴 시퀀스 처리 능력  
파인튜닝(Fine-tuning) - 사전학습 모델 → 다운스트림 테스크에 맞춰 재학습 - BERT 기반 텍스트 분류 실습
- 전체 레이어 학습 vs 출력층만 학습 - AutoModelForSequenceClassification 사용
- 과적합 방지 필요 - Trainer API로 빠른 파인튜닝 구현
- 텍스트 분류/NER/QA 등에 활용  
트랜스포머 기반 NMT - 신경망 기계번역(NMT) 구조 - BLEU 점수 평가
- Transformer 기반 번역 모델 - 다양한 번역 예시 생성
- 성능 병목: 긴 문장/희소 단어/저자원 언어 - Rare Word 테스트, 긴 문장 테스트
- 개선 전략: MarianMT, mBART, mT5, NLLB 등  
NMT 실습 코드 - MarianMT: 레이어 공유, 고속 학습 - Huggingface MarianMTModel, mBARTForConditionalGeneration 실습
- mBART: 다국어 사전학습, 저자원 언어 대응 - 번역 결과 출력 및 비교
- mT5: 언어간 전이 학습 활용 - 길이, 희소 단어, 언어쌍 실험
- 실습에 적합한 모델 선택 전략  
전이학습 이론 - Fine-tuning: 일부/전체 레이어 재학습, 높은 성능 - 적용 분야: 분류, NER, QA, 요약 등
- Feature Extraction: 가중치 고정, 빠르고 가볍게 사용 - 예시 모델: BERT, T5, GPT 계열
- 상황별 선택 전략: 데이터 적을 땐 Feature, 충분하면 Fine  
전이학습 실습 - Feature Extraction 실습: 사전학습 모델 출력값 → SVM/MLP - Huggingface Trainer 사용
- Fine-tuning 실습: BERT/DistilBERT 전체 미세조정 - 로딩 후 Freeze 여부 선택
- 성능 비교, 과적합 여부 확인 - 작은 데이터셋으로 빠르게 실험

4. 11주차의 목표

open ai의 파인튜닝에 대해 배운다. 완벽히 마스터 한다.