JM's Research

  • 홈
  • 태그
  • 방명록

Deep Learning 23

CBAM: Convolutional Block Attention Module

보호되어 있는 글입니다.

Deep Learning 2025.02.10

ON THE VARIANCE OF THE ADAPTIVE LEARNING RATE AND BEYOND

보호되어 있는 글입니다.

Deep Learning 2024.06.15

ON THE CONVERGENCE OF ADAM AND BEYOND

보호되어 있는 글입니다.

Deep Learning 2024.06.12

ADAMP: SLOWING DOWN THE SLOWDOWN FOR MOMENTUM OPTIMIZERS ON SCALE-INVARIANT WEIGHTS

보호되어 있는 글입니다.

Deep Learning 2024.06.10

Normalized Gradient Descent

보호되어 있는 글입니다.

Deep Learning 2024.05.29

Two Natural Weaknesses of Gradient Descent

보호되어 있는 글입니다.

Deep Learning 2024.05.29

How Does Batch Normalization Help Optimization?

보호되어 있는 글입니다.

Deep Learning 2024.05.22

Penalizing Gradient Norm for Efficiently Improving Generalization in Deep Learning

보호되어 있는 글입니다.

Deep Learning 2023.11.21

Averaging Weights Leads to Wider Optima and Better Generalization

보호되어 있는 글입니다.

Deep Learning 2023.11.05

When Do Flat Minima Optimizers Work?

보호되어 있는 글입니다.

Deep Learning 2023.11.03
이전
1 2 3
다음
더보기
프로필사진

JM's Research

  • 분류 전체보기 (183)
    • Curriculum learning (9)
    • Meta learning (53)
    • Deep Learning (23)
    • 개발 (1)
    • Reinforcement learning (3)
    • 선형대수학 (6)
    • Semi-supervised learning (3)
    • 연구주제 (0)
    • Multi task learning (4)
    • Federated Learning (4)
    • Knowledge Distillation (7)
    • Flat minima (2)
    • Continual learning (3)
    • Object Detection (8)
    • Prompt learning (16)
    • Transformers (9)
    • Dataset Distillation (5)
    • Visual-language model (11)
    • Data augmentation (8)

Tag

최근글과 인기글

  • 최근글
  • 인기글

최근댓글

공지사항

페이스북 트위터 플러그인

  • Facebook
  • Twitter

Archives

Calendar

«   2025/05   »
일 월 화 수 목 금 토
1 2 3
4 5 6 7 8 9 10
11 12 13 14 15 16 17
18 19 20 21 22 23 24
25 26 27 28 29 30 31

방문자수Total

  • Today :
  • Yesterday :

Copyright © Kakao Corp. All rights reserved.

티스토리툴바