일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
Tags
- Transformer
- 머신러닝
- Machine Learning
- Deep learning
- Copilot
- 딥러닝
- Homomorphic Encryption
- 동형암호
- bert
- math
- attention
- Knowledge Distillation
- Pre-training
- Private ML
- Natural Language Processing
- Data Augmentation
- ICML
- 표현론
- 자연어처리
- AI
- Residual Connection
- matrix multiplication
- GPT
- Github Copilot
- Computer Vision
- Language Modeling
- Knowledge Tracing
- NLP
- KT
- Model Compression
Archives
- Today
- Total
목록semi-supervised learning (1)
Anti Math Math Club

이번 포스트에서는 (제가 알기로는) Consistency Regularization이 처음 소개된 논문인 Regularization With Stochastic Transformations and Perturbations for Deep Semi-Supervised Learning이라는 논문에 대해서 알아봅시다. Consistency Regularization이란, 간단히 말해서 모델의 Input에 augmentation을 가해서 새로운 input을 만들었을 때, output (prediction)이 별로 변하지 않아야 한다는 가정을 바탕으로 모델을 regularize하는 방법 입니다. 예를 들어서, 이미지를 분류하는 CNN이 하나 있을 때, 기존에 있던 강아지 사진을 뒤집거나 돌리는 등의 작업을 해서 ..
Machine Learning & Deep Learning/Computer Vision
2020. 9. 19. 19:41