paper summary and review/Meta-learning(Supervised) 4

(ICLR, 2021) Free Lunch for Few-shot Learning: Distribution Calibration

class가 비슷할수록 feature space에서 distribution의 mean, variance가 비슷하다는걸 이용해서 few-shot learning의 성능을 향상시켰다. 특별히 model을 제시한건 아니고, 있던 모델을 사용했는데 target class를 base / novel로 나눴을 때 MAML같은 모델은 보통 base로 parameter가 학습하기에 가장 좋은 상태로 만들고 novel에 대한 N way K shot에 대해서 학습을 하지만, 여기선 base class들의 feature distribution을 만들고, novel class에 대해서 n way k shot problem의 데이터들을 가까운 base class들의 mean, variance들과 평균을 내서 novel class..

(NIPS, 2017) Prototypical Networks for Few-shot Learning: ProtoNets

feature space에서의 위치를 이용해서 classification을 진행한다. classification의 방법은 i. support set에서, 각각의 class당 average를 한 값을 그 class의 prototype으로 정의하고, ii. query set의 원소들의 classification 결과는 prototypes과 그 원소의 distance를 측정해서 가장 짧은 distance를 가진 prototype의 class로 분류한다. 여기서 distance는 Euclidean distance의 결과가 가장 좋았다고 한다. training은 generalization을 돕기 위해 똑같이 few-shot learning으로 진행하며, testing보다는 shot의 크기를 키우면 성능이 좋다고 ..

(ICML, 2017) Model-Agnostic Meta-Learning for Fast Adaptation of Deep Networks: MAML

Classification, regression, reinforcement learning에 대한 meta-learning, 즉 1회 혹은 적은 수의 학습으로 새로운 task를 학습하는 것을 목표로 한다. 그 중, few-shot learning task를 다룬다. MAML은 meta-training data를 이용해서 데이터 학습에 가장 쉬운 상태가 되도록 model parameter을 학습하고, 그 parameter을 기반으로 하여 새로운 데이터에 대한 학습을 진행한다. 구체적으로, inner loop에서 task specific한 parameter을 학습하고, outer loop에서는 그렇게 학습된 parameter와 그 곳에서의 loss를 이용하여 model의 parameter을 update하는 ..

1