机器学习
原则
将学习的内容整理进入自己的框架,放在其他单独的页面没有价值。
- 暂时不知道放在哪里的内容先统一放到一个地方
参考[[AI算法工程师手册]]整理到什么程度
之前遗留下来的
李宏毅强化学习笔记
[[一文看懂深度学习模型压缩和加速]] 整理到模型压缩和相关部分
[[白板机器学习]]
什么是机器学习?
Mitchell 「对于某类任务 T 和性能度量 P,一个计算机程序被认为可以从经验 E 中学习是指,通过经验 E 改进后,搭载任务 T 上由性能度量 P 衡量的性能有所提升。」
机器学习本质属于应用统计学,更多关注于如何用计算机统计估计复杂函数。
基础知识 + 模型 + 实践
- 模型可以从两个地方获得:论文以及工业实践的文章
任务分类
样本特征向量和标签之间存在未知函数关系
条件概率 $$p(y|x)$$ 服从某个未知分布
算法分类
监督学习
期望风险最小化
最大似然估计
无监督学习
最大似然估计
最小重构错误
强化学习
理论和定理
可能近似正确(Probably Approximately Correct,PAC)学习理论
没有免费午餐定理(No Free Lunch Theorem,NFL)
[[奥卡姆剃刀]]
丑小鸭定理(Ugly Duckling Theorem)
- “丑小鸭与白天鹅之间的区别和两只白天鹅之间的区别一样大”
-
- 贝叶斯学习中的先验[[Prior]]
基础知识
数据处理
[[特征工程]] 是当前大多数机器学习任务的瓶颈。
-
[[为什么要做归一化]]
[[归一化方法]]
[[归一化和标准化]]
[[Internal Covariance Shift]]
[[Normalization 实战]]
[[Normalization操作的Re-Scaling不变性]]
不同变种
-
[[Batch Normalization/维度理解]]
[[Batch Normalization/多卡同步]]
[[Batch Normalization 为何有效]]
[[Group Normalization]]
[[Layer Normalization]]
[[Instance Normalization]]
-
-
[[He Initialization]]
[[Orthogonal Initialization]]
[[离散化]]
[[离散化方法]]
[[离散化和归一化有哪些优缺点]]
基础知识
[[Dropout]]
[[过拟合]]
[[Regularization]]
-
[[L1 正则]]
[[L2 正则]]
-
激活函数
[[softmax]] 多分类、数值稳定
[[sigmoid]]
评估指标
[[AUC]]
[[gauc]]
[[Base AUC]]
[[Tree Model]]
[[随机森林]]
[[VAE]]
- [[FM模型与逻辑回归相比有什么优缺点?]]
深度神经网络 [[DNN]]
- [[BNN]]
[[Optimization]]
卷积神经网络 [[CNN]]
[[CNN 卷积核]]
[[Pooling]]
- [[为什么CNN需要 pooling操作?]]
图神经网络
编码器应用 [[BERT]]
解码器应用 [[GPT]]
[[CTR Bias]]
[[Adaboost]]
提升树
[[如何理解Boosting和Bagging?他们有什么异同?]]
[[boosting]]
[[bagging]]
[[CV]]
- linear probe
[[GAN]]
- [[IRGAN]] 分类器生成文档序列,判别器去判别
[[评估指标]]
训练
数据并行、模型并行
同步训练、异步训练
Parameter Server架构、Ring allreduce架构
优化
[[Tensorflow 模型量化]]
联邦学习
[[模型蒸馏]]
数据集相关 [[Data]]
[[机器学习参考]]