top of page
Search

MetaLearn

HAIV

Updated: Aug 23, 2020

元学习:分析样本复杂度

(Meta Learning: Sample Complexity Analysis)


通过前面几篇的背景铺垫,我们现在可以探讨一个具体的学习问题——小样本学习。重温一下样本复杂度:机器学习算法的样本复杂度表示成功学习目标函数所需的训练样本数。样本复杂度线性地取决于目标函数类别上的VC维。


归纳偏置 (Inductive bias)

这个概念是为了描述泛化能力,归纳是inductive learning里的归纳(数学归纳法,推广、泛化),bias是bias-variance tradeoff里的bias。


小样本学习

通过经验风险最小化(ERM)学得 f : X → Y

ER损失函数为


元学习(Meta Learning)



元学习的样本复杂度



 
 
 

Recent Posts

See All

Random Features

On April 2, 2021, Dr. Fanghui Liu visited HUST and gave a talk at HAIV Lab on random feature Fourier for kernel approximation. He is...

Comments


hifi.jpeg

华中科技大学

人工智能与自动化学院

​图像与视觉学习研究组

  • Facebook Clean Grey
  • Twitter Clean Grey
  • LinkedIn Clean Grey

© 2020-2025 by HAIV Lab

https://space.bilibili.com/1716209957

​湖北武汉洪山区珞瑜东路415号 计算机与人工智能大楼5F

免责声明:本页面内容仅代表研究组负责人个人观点,投诉请用聊天框

bottom of page