0 机器学习 通用步骤
模型:根据具体问题,确定空间假设; 策略:根据评价标准,确定选取最优模型的策略,即产生损失函数 求解:采用相关算法求解损失函数,确定最优模型。

本次笔记将按照以上通用步骤对一元线性回归模型进行相应的学习总结。
1 模型A.1 - 一元线性回归模型
1.1 模型A.1的表达式
一元线性回归模型的表达式见式(1)。式(1)表明输出 和输入 之间的机器学习模型为 。
1.2 模型A.1的评价策略
假定给了一个数据集
最大似然估计和均方误差是等效的
具体解释为,损失函数可以写成误差
按照这一规律,可将求
进而, 在已经假定好满足正态分布的前提下,对式 (3) 和
由于式 (7) 中的
1.3 模型A.1的算法求解
求解方法主要就是基于凸优化理论, 首先, 要说一下在最优化理论下凸函数的定义, 它主要可以表示为式 (8)。也即, 函数曲线为 U 型的通常是凸函数。进而对于凸函数而言, 它是具有最小值的, 而且它的最小值对应的参数可通过求导获取。因此, 对于一元线性回归模型最优参数求解而言, 它第一步就要证明
由于
对式 (11) 进行一系列操作, 可得式 (12), 由式 (12) 可知, 其肯定是大于 0 的, 所以得证,美丽数学!!!
其中,
有了凸函数后, 就可以根据凸函数的定义, 一阶导数等于0所求得的自变量 为最优量,将其代入对应函数所获得的函数值就是最小值。进而,可以列写出式(13), 通过式 (13) 就可以求得最优的
以上,就是一元线性回归模型的学习笔记。
参考资料
周志华.机器学习[M].北京:清华大学出版社. http://product.dangdang.com/29158396.html
谢文睿. 《机器学习公式详解》(南瓜书). http://product.dangdang.com/29206216.html




