중급8시간
Attention, Transformer, BERT, GPT 완벽 마스터
Attention 메커니즘부터 최신 LLM까지. Seq2Seq, Bahdanau/Luong Attention, Transformer, BERT, GPT의 전체 아키텍처를 PyTorch로 직접 구현하며 배웁니다.
#Attention#Transformer#BERT#GPT+2
실전 코드와 함께 배우는 AI/ML 강의. 이론부터 실무까지 완벽하게 마스터하세요.
가장 인기있고 검증된 강의를 먼저 확인하세요
Attention 메커니즘부터 최신 LLM까지. Seq2Seq, Bahdanau/Luong Attention, Transformer, BERT, GPT의 전체 아키텍처를 PyTorch로 직접 구현하며 배웁니다.
Andrej Karpathy의 나노GPT를 기반으로 처음부터 끝까지 LLM을 구현하고 훈련하는 완전한 가이드. Transformer 아키텍처부터 배포까지 모든 것을 다룹니다.
Distributed Data Parallel (DDP), Fully Sharded Data Parallel (FSDP), DeepSpeed를 활용해 여러 GPU에서 효율적으로 모델을 훈련하는 방법을 배웁니다.
Stable Diffusion을 나만의 스타일로 커스터마이징하는 방법을 배웁니다. LoRA, DreamBooth, Textual Inversion 등 최신 파인튜닝 기법을 실습합니다.
DDPM의 기본 원리부터 시작해 최신 Diffusion 모델인 PixArt, Sora까지. Diffusion 모델의 진화 과정을 코드로 이해합니다.