JM's Research

  • 홈
  • 태그
  • 방명록

Dataset Distillation 5

Dreaming to Distill: Data-free Knowledge Transfer via DeepInversion

보호되어 있는 글입니다.

Dataset Distillation 2025.01.06

Dataset Condensation에서 Gradient matching과 Distribution Matching

보호되어 있는 글입니다.

Dataset Distillation 2025.01.02

CAFE: Learning to Condense Dataset by Aligning Features

보호되어 있는 글입니다.

Dataset Distillation 2025.01.02

MGDD: A Meta Generator for Fast Dataset Distillation

보호되어 있는 글입니다.

Dataset Distillation 2024.12.28

DATASET DISTILLATION

보호되어 있는 글입니다.

Dataset Distillation 2024.12.24
이전
1
다음
더보기
프로필사진

JM's Research

  • 분류 전체보기 (183)
    • Curriculum learning (9)
    • Meta learning (53)
    • Deep Learning (23)
    • 개발 (1)
    • Reinforcement learning (3)
    • 선형대수학 (6)
    • Semi-supervised learning (3)
    • 연구주제 (0)
    • Multi task learning (4)
    • Federated Learning (4)
    • Knowledge Distillation (7)
    • Flat minima (2)
    • Continual learning (3)
    • Object Detection (8)
    • Prompt learning (16)
    • Transformers (9)
    • Dataset Distillation (5)
    • Visual-language model (11)
    • Data augmentation (8)

Tag

최근글과 인기글

  • 최근글
  • 인기글

최근댓글

공지사항

페이스북 트위터 플러그인

  • Facebook
  • Twitter

Archives

Calendar

«   2025/05   »
일 월 화 수 목 금 토
1 2 3
4 5 6 7 8 9 10
11 12 13 14 15 16 17
18 19 20 21 22 23 24
25 26 27 28 29 30 31

방문자수Total

  • Today :
  • Yesterday :

Copyright © Kakao Corp. All rights reserved.

티스토리툴바