일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 |
Tags
- KT
- 동형암호
- 표현론
- 딥러닝
- GPT
- Knowledge Distillation
- Private ML
- 자연어처리
- Data Augmentation
- AI
- Deep learning
- Model Compression
- Machine Learning
- attention
- bert
- Computer Vision
- Pre-training
- Transformer
- Homomorphic Encryption
- ICML
- Copilot
- NLP
- math
- Natural Language Processing
- Github Copilot
- 머신러닝
- Residual Connection
- matrix multiplication
- Knowledge Tracing
- Language Modeling
Archives
- Today
- Total
목록AIEd (1)
Anti Math Math Club

이번 포스트에서는 qDKT: Question-centric Deep Knowledge Tracing에 대해서 알아보도록 하겠습니다. DKT, DKVMN등을 비롯한 대부분의 Knowledge Tracing 모델들은 학생의 knowledge를 skill-level로써 모델링합니다. 즉, 학생의 과거의 interaction = (skill_id, correctness)를 바탕으로 다음 문제의 skill에 해당하는 정오답을 예측합니다. 하지만, 같은 skill을 가지는 문제일지라도 문제 자체는 다르기 같은 skill의 서로 다른 문제들을 하나로 엮는 것은 정보를 잃는다고 생각할 수 있습니다. 또한, 문제의 skill이라는 것이 모든 데이터셋에 대해서 항상 존재한다고 볼 수도 없습니다. (일반적으로 skill은 ..
Machine Learning & Deep Learning/Others
2020. 7. 27. 00:04