description |
---|
DSBA 연구실 겨울방학 특별 스터디입니다. 2021년 10월 Youtube에 새로 공개된 CS224N 강의를 리뷰합니다. 비정형데이터분석 수강 전 nlp를 빠르게 훑고자 기획되었으며, 기획 의도에 따라 몇몇 강의는 스터디 범위에서 임의로 제외하였음을 밝힙니다. 스터디 진행 정보는 아래와 같습니다. |
-
기간: 2022.02.09(수) ~ 2022.03.22(화)
-
시간: 매주 화요일 19시 30분
-
장소: (offline) 신공학관 3층 스터디룸, (online) Zoom
-
스터디에서 직접적으로 다루지 않는 1 ~ 4강은 01.25(화) ~ 02.08(화) 2주 간 각자 알아서 수강하도록 합니다.
-
매주 2명씩 인당 30~40분 이내로 발표 자료(ppt)를 준비하여 각자 맡은 강의를 리뷰합니다.
-
발표 자료는 pdf 형식으로 변환하여 본 repository에 발표 전까지 commit합니다.
-
매주 스터디 발표 이후, 토론 사항 및 피드백을 반영하여 각자 녹화를 진행한 후 1주일 이내로(권장) 영상을 업로드합니다. 또한, 발표 자료가 수정되었다면 다시 commit합니다.
-
스터디 이전에 당일 리뷰할 강의를 미리 듣고 오는 것은 필수입니다.
-
자유롭게 질문하고 토론합니다. 질문이 들어왔을 시, 발표자가 아니더라도 답변이 가능하다면 언제든 발표자를 돕도록 합니다.
-
오프라인 진행을 원칙으로 하나, zoom 링크를 개방하여 각자 상황에 맞게 온라인에서도 참여할 수 있도록 합니다.
-
스터디 장소 예약은 학교 계정을 필요로 하기 때문에 2021년도 2학기 입학생들이 맡아서 합니다.
-
본 스터디 발표 영상은 DSBA Youtube 채널을 통해 순차적으로 공개될 예정입니다.
Stanford CS224N: Natural Language Processing with Deep Learning
1. Syllabus
- Lecture Slides are available in the syllabus site.
Date | Lecture video | Review video | Reviewer |
---|---|---|---|
2022.02.09(Wed) | [Lecture 5] Language Models and RNNs [Lecture 6] Simple and LSTM RNNs |
link | 고유경 |
2022.02.09(Wed) | [Lecture 7] Translation, Seq2Seq, Attention | link | 정용기 |
2022.02.17(Thu) | [Lecture 9] Self- Attention and Transformers | link | 노건호 |
2022.02.17(Thu) | [Lecture 10] Transformers and Pretraining | link | 김재희 |
2022.02.23(Wed) | [Lecture 11] Question Answering | link | 김선우 |
2022.02.23(Wed) | [Lecture 12] Natural Language Generation | link | 정용기 |
2022.03.08(Tue) | [Lecture 14] T5 and Large Language Models | link | 이유경 |
2022.03.08(Tue) | [Lecture 15] Add Knowledge to Language Models | link | 이유경 |
2022.03.15(Tue) | [Lecture 17] Model Analysis and Explanation | link | 이성계 |
2022.03.15(Tue) | [Lecture 18] Future of NLP + Deep Learning | link | 오수지 |
2022.03.22(Tue) | [Special Lecture 1] Low Resource Machine Translation | link | 고유경 |
2022.03.22(Tue) | [Special Lecture 2] BERT and Other Pre-trained Language Models | link | 김도윤 |