연주의 공부 기록

  • 홈
  • 태그
  • 방명록

Distillation 1

[OUTTA Alpha팀 논문 리뷰] Part 10-6. Knowledge Distillation 변천사

논문 링크 1: Distilling the Knowledge in a Neural Network: 1503.02531논문 링크 2: Knowledge Transfer via Distillation of Activation Boundaries Formed by Hidden Neurons: 1811.03233논문 링크 3: Relational Knowledge Distillation: 1904.05068논문 링크 4: LARGE SCALE DISTRIBUTED NEURAL NETWORK TRAINING THROUGH ONLINE DISTILLATION: 1804.03235논문 링크 5: Be Your OwnTeacher: Improve the Performance of Convolutional Neural ..

Paper Review/Deep Learning 2025.02.09
이전
1
다음
더보기
프로필사진

연주의 공부 기록

내가 보려고 만든 블로그💻 논문 & 코드 리뷰 및 이론 정리.

  • 분류 전체보기 (118)
    • Theory (31)
      • Computer Vision (14)
      • 3D vision & Graphics (1)
      • DL & Medical AI (9)
      • LLM & NLP (3)
      • etc. (4)
    • Paper Review (64)
      • Deep Learning (5)
      • Image Classification (3)
      • Detection & Segmentation (12)
      • Generative AI (8)
      • Computer Vision (15)
      • Medical AI (10)
      • NLP & LLM (7)
      • Multi-Modal (3)
      • RL (1)
      • etc. (0)
    • AI & ML Tech (0)
      • Prompt Engineering (0)
    • Programming (23)
      • Python (0)
      • AI & ML (23)

Tag

ResNet, classification, pytorch, DDPM, tinyface, voxelnet, maetok, Distillation, RNN, regression, medvitv2, patches are all you need?, neuralrecon, LSTM, keras, chexzero, multi-modal transformer architecture for medical image analysis and automated report generation, selfmedmae, medvit, transformer,

최근글과 인기글

  • 최근글
  • 인기글

최근댓글

공지사항

페이스북 트위터 플러그인

  • Facebook
  • Twitter

Archives

Calendar

«   2025/07   »
일 월 화 수 목 금 토
1 2 3 4 5
6 7 8 9 10 11 12
13 14 15 16 17 18 19
20 21 22 23 24 25 26
27 28 29 30 31

방문자수Total

  • Today :
  • Yesterday :

Copyright © Kakao Corp. All rights reserved.

티스토리툴바