深度学习 线性回归 笔记
本文最后更新于:2023年6月17日 下午
一、知识储备
1. 公式
线性回归一般模型:\[\begin{equation} \hat y = w_1x_1+w_2x_2+\cdots+w_nx_n+b\end{equation} \]
线性代数表示:\[\begin{equation}\hat y= w^Tx+b\end{equation}\]
损失函数:\[\begin{equation}\ l^{(i)}(w,b)=\frac{1}{2}(\hat y^{(i)}-y^{(i)}) \end{equation}\]
模型更新过程:
\(\begin{split}\begin{aligned} \mathbf{w} &\leftarrow \mathbf{w} - \frac{\eta}{|\mathcal{B}|} \sum_{i \in \mathcal{B}} \partial_{\mathbf{w}} l^{(i)}(\mathbf{w}, b) = \mathbf{w} - \frac{\eta}{|\mathcal{B}|} \sum_{i \in \mathcal{B}} \mathbf{x}^{(i)} \left(\mathbf{w}^\top \mathbf{x}^{(i)} + b - y^{(i)}\right),\\ b &\leftarrow b - \frac{\eta}{|\mathcal{B}|} \sum_{i \in \mathcal{B}} \partial_b l^{(i)}(\mathbf{w}, b) = b - \frac{\eta}{|\mathcal{B}|} \sum_{i \in \mathcal{B}} \left(\mathbf{w}^\top \mathbf{x}^{(i)} + b - y^{(i)}\right). \end{aligned}\end{split}\Longrightarrow(\mathbf{w},b) \leftarrow (\mathbf{w},b) - \frac{\eta}{|\mathcal{B}|} \sum_{i \in \mathcal{B}} \partial_{(\mathbf{w},b)} l^{(i)}(\mathbf{w},b).\)
2. 函数
1 | |
二、代码实现
手动实现
简洁实现
1 | |