当贝叶斯,奥卡姆和香农一起来定义机器学习
最大化对于对数与原始函数的作用类似,即采用对数不会改变最大化问题
乘积的对数是各个对数的总和
一个量的最大化等于负数量的最小化
线性模型的模型复杂度——选择多项式的程度,如何减少平方和残差。
神经网络架构的选择——如何不公开训练数据,达到良好的验证精度,并且减少分类错误。
支持向量机正则化和kernel选择——软边界与硬边界之间的平衡,即用决策边界非线性来平衡精度
赞 (0)
最大化对于对数与原始函数的作用类似,即采用对数不会改变最大化问题
乘积的对数是各个对数的总和
一个量的最大化等于负数量的最小化
线性模型的模型复杂度——选择多项式的程度,如何减少平方和残差。
神经网络架构的选择——如何不公开训练数据,达到良好的验证精度,并且减少分类错误。
支持向量机正则化和kernel选择——软边界与硬边界之间的平衡,即用决策边界非线性来平衡精度