JM's Research

  • 홈
  • 태그
  • 방명록

전체 글 183

ON THE VARIANCE OF THE ADAPTIVE LEARNING RATE AND BEYOND

보호되어 있는 글입니다.

Deep Learning 2024.06.15

ON THE CONVERGENCE OF ADAM AND BEYOND

보호되어 있는 글입니다.

Deep Learning 2024.06.12

ADAMP: SLOWING DOWN THE SLOWDOWN FOR MOMENTUM OPTIMIZERS ON SCALE-INVARIANT WEIGHTS

보호되어 있는 글입니다.

Deep Learning 2024.06.10

Domain Generalization Guided by Gradient Signal to Noise Ratio of Parameters

보호되어 있는 글입니다.

카테고리 없음 2024.06.04

Efficient Variance Reduction for Meta-Learning

보호되어 있는 글입니다.

Meta learning 2024.05.30

Adaptive Task Sampling and Variance Reduction for Gradient-Based Meta-Learning

보호되어 있는 글입니다.

Meta learning 2024.05.30

Normalized Gradient Descent

보호되어 있는 글입니다.

Deep Learning 2024.05.29

Two Natural Weaknesses of Gradient Descent

보호되어 있는 글입니다.

Deep Learning 2024.05.29

Understanding Clipping for Federated Learning: Convergence and Client-Level Differential Privacy

보호되어 있는 글입니다.

Federated Learning 2024.05.29

UNDERSTANDING WHY NEURAL NETWORKS GENERALIZE WELL THROUGH GSNR OF PARAMETERS

보호되어 있는 글입니다.

카테고리 없음 2024.05.28
이전
1 ··· 4 5 6 7 8 9 10 ··· 19
다음
더보기
프로필사진

JM's Research

  • 분류 전체보기 (183)
    • Curriculum learning (9)
    • Meta learning (53)
    • Deep Learning (23)
    • 개발 (1)
    • Reinforcement learning (3)
    • 선형대수학 (6)
    • Semi-supervised learning (3)
    • 연구주제 (0)
    • Multi task learning (4)
    • Federated Learning (4)
    • Knowledge Distillation (7)
    • Flat minima (2)
    • Continual learning (3)
    • Object Detection (8)
    • Prompt learning (16)
    • Transformers (9)
    • Dataset Distillation (5)
    • Visual-language model (11)
    • Data augmentation (8)

Tag

최근글과 인기글

  • 최근글
  • 인기글

최근댓글

공지사항

페이스북 트위터 플러그인

  • Facebook
  • Twitter

Archives

Calendar

«   2025/06   »
일 월 화 수 목 금 토
1 2 3 4 5 6 7
8 9 10 11 12 13 14
15 16 17 18 19 20 21
22 23 24 25 26 27 28
29 30

방문자수Total

  • Today :
  • Yesterday :

Copyright © Kakao Corp. All rights reserved.

티스토리툴바