일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
Tags
- KT
- AI
- 자연어처리
- ICML
- 표현론
- matrix multiplication
- Knowledge Tracing
- Data Augmentation
- Residual Connection
- Natural Language Processing
- Deep learning
- Github Copilot
- NLP
- Machine Learning
- Pre-training
- Transformer
- Model Compression
- bert
- 머신러닝
- 동형암호
- Knowledge Distillation
- Language Modeling
- Private ML
- attention
- GPT
- Computer Vision
- Homomorphic Encryption
- math
- Copilot
- 딥러닝
Archives
- Today
- Total
목록Unsupervised learning (1)
Anti Math Math Club

이번 포스트에서는 (제가 알기로는) Consistency Regularization이 처음 소개된 논문인 Regularization With Stochastic Transformations and Perturbations for Deep Semi-Supervised Learning이라는 논문에 대해서 알아봅시다. Consistency Regularization이란, 간단히 말해서 모델의 Input에 augmentation을 가해서 새로운 input을 만들었을 때, output (prediction)이 별로 변하지 않아야 한다는 가정을 바탕으로 모델을 regularize하는 방법 입니다. 예를 들어서, 이미지를 분류하는 CNN이 하나 있을 때, 기존에 있던 강아지 사진을 뒤집거나 돌리는 등의 작업을 해서 ..
Machine Learning & Deep Learning/Computer Vision
2020. 9. 19. 19:41