<aside> 💡

원데이 워크숍의 상세 커리큘럼과 주의사항을 확인하세요.

</aside>

워크숍 상세 커리큘럼

시간 세션
**09:00 ~ 09:15
(15min.)** 워크숍 소개
✔︎ 강사 및 과정 개요 소개
✔︎ NVIDIA 학습 플랫폼 계정 생성 및 로그인 안내
**09:15 ~ 10:30
(75min.)** < 딥러닝부터 대규모 언어 모델(LLM)까지 From Deep Learning to Large Language Models >
``
LLM의 구조 및 활용 방법
✔︎ 딥러닝 및 클래스 기반 추론(Class-Based Reasoning) 복습 및 언어 모델링 도출 과정 학습
✔︎ 트랜스포머(Transformer) 아키텍처, 인터페이스, 핵심 개념 논의 및 최첨단 LLM 솔루션을 구축하는 방법 탐색
10:30 ~ 10:45 (15min.) 휴식
**10:45 ~ 11:30
(45min.)** < 특화된 인코더 모델 Specialized Endoder Models >

다양한 태스크 사양 분석 방법 ✔︎ 최신 HuggingFace 인코더 모델 탐색 ✔︎ 사전에 튜닝된 모델을 활용하여 토큰 분류, 시퀀스 분류, 범위 예측, 제로샷 분류 등 다양한 태스크 수행 | | 11:30 ~ 12:30 (60min.) | **점심시간 ***중식 제공 | | 12:30 ~ 13:45 (75min.) | < 시퀀스 변환을 위한 인코더 모델-디코더 모델 Encoder-Decoder Models for Seq2Seq >

무한 시퀀스 예측 LLM ✔︎ 자가회귀(Auto-Regressive) 텍스트 생성을 위한 디코더 구성 요소 소개 ✔︎ 시퀀스를 문맥으로 활용하는 크로스 어텐션(Cross-Attention) 기법 논의 ✔︎ 멀티태스크(Multi-Task) 및 제로샷(Zero-Shot) 추론을 위한 일반적인 접근 방식 안내 ✔︎ 멀티모달(Multimodal) 시퀀스 모델링 개념 소개 및 사례 탐색 | | 13:45 ~ 14:30 (45min.) | < 텍스트 생성을 위한 디코더 모델 Decoder Models for Text Generation >

디코더 전용(Decoder-Only) GPT 스타일 모델의 개념 및 활용 방법 ✔︎ 디코더 전용 모델이 적절하게 사용될 수 있는 상황 탐색 및 모델 구조상의 한계 논의 ✔︎ 모델 크기, 특수 배포 기술 및 고려 사항 안내 ✔︎ 대규모 텍스트 생성 모델 분석 및 작동 방식 확인 | | 14:30 ~ 14:45 (15min.) | 휴식 | | 14:45 ~ 15:45 (60min.) | < 상태유지형 LLM Stateful LLMs **>

문맥 주입(Context Injection)을 활용하여 언어 모델을 확률적 앵무새(Stochastic Parrots)에서 한 단계 발전시키는 방법** ✔︎ 과거 기록 및 상태 관리를 위한 최신 LLM 조합 기술 소개 ✔︎ 외부 환경에 접근하기 위한 검색 증강 생성(RAG, Retrieval-Augmented Generation) 기법 논의 | | 15:45 ~ 16:45 (60min.) | 평가 및 질의응답 ✔︎ 학습 내용 정리 및 핵심 개념 복습 ✔︎ 코드 기반 평가 및 인증서 제공 |

워크숍 주의 및 안내사항

엘리스 :: elice

신청 페이지 바로가기➚