일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
Tags
- attention
- Homomorphic Encryption
- Data Augmentation
- Transformer
- 딥러닝
- 동형암호
- 표현론
- Private ML
- bert
- Deep learning
- Computer Vision
- KT
- Github Copilot
- Pre-training
- Residual Connection
- 머신러닝
- ICML
- AI
- GPT
- Knowledge Tracing
- Copilot
- Language Modeling
- Machine Learning
- NLP
- Knowledge Distillation
- Natural Language Processing
- math
- 자연어처리
- matrix multiplication
- Model Compression
Archives
- Today
- Total
목록Private ML (1)
Anti Math Math Club
![](http://i1.daumcdn.net/thumb/C150x150.fwebp.q85/?fname=https://blog.kakaocdn.net/dn/BYS0l/btq6fPsoojJ/slA6oASeXR6mLXP5N3vT31/img.png)
머신러닝과 딥러닝이 각광을 받으면서 그에 대한 수요 역시 급증하게 되었는데요, (방대한) 데이터에 기반을 두고 있는 ML/DL 기술들을 이용함에 있어서 데이터의 보안에 대해서 한번쯤은 생각해 볼 필요가 있습니다. ImageNet과 같은 공개된 벤치마크 데이터셋의 경우 모든 연구자들이 자유롭게 연구에 사용할 수 있는 반면에, 의료 인공지능에서 사용되는 환자들의 데이터나 GPT-3와 같은 거대한 언어 모델을 사전학습 시키는데에 사용된 말뭉치(text corpus)의 경우 개인정보와 관련된 민감한 데이터가 포함되어있기 때문에 쉽게 구할수도, 구했다고 해도 쉽게 사용할 수도 없습니다. 작년에 발표된 Extract Training Data from Large Language Models라는 논문에서는 사전학습된 ..
Machine Learning & Deep Learning/Privacy Preserving ML
2021. 5. 31. 21:10