当前位置: 首页 > news >正文

【学习笔记】机器学习(Machine Learning) | 第四章(3)| 多变量线性回归

机器学习(Machine Learning)

简要声明

基于吴恩达教授(Andrew Ng)课程视频
BiliBili课程资源


文章目录

  • 机器学习(Machine Learning)
    • 简要声明
  • 三、特征工程与多项式回归
    • (一)特征工程:从数据中发现隐藏规律
      • 1.1 特征工程的核心思想
      • 1.2 特征工程的三大范式
    • (二)多项式回归:非线性关系的建模利器
      • 2.1 多项式回归原理
    • (三)特征选择:在复杂性与效果间寻找平衡
      • 3.1 非线性特征设计


一、特征缩放(Feature Scaling)

二、梯度下降收敛性检验与学习率选择

三、特征工程与多项式回归

(一)特征工程:从数据中发现隐藏规律

1.1 特征工程的核心思想

通过创造性组合原始特征,将领域知识注入机器学习模型。如图1所示,房屋价格预测中:

原始特征 : x 1 ( frontage ) , x 2 ( depth ) 新特征 : x 3 = x 1 × x 2 = area 模型公式 : f w , b ( x ) = w 1 x 1 + w 2 x 2 + w 3 x 3 + b \begin{aligned} \text{原始特征} & : x_1(\text{frontage}),\ x_2(\text{depth}) \\ \text{新特征} & : x_3 = x_1 \times x_2 = \text{area} \\ 模型公式 & : f_{\mathbf{w},b}(\mathbf{x}) = w_1x_1 + w_2x_2 + w_3x_3 + b \end{aligned} 原始特征新特征模型公式:x1(frontage), x2(depth):x3=x1×x2=area:fw,b(x)=w1x1+w2x2+w3x3+b

1.2 特征工程的三大范式

方法类型数学表达应用场景
数值转换 x ′ = log ⁡ ( x ) x' = \log(x) x=log(x)处理长尾分布数据
组合运算 x 3 = x 1 × x 2 x_3 = x_1 \times x_2 x3=x1×x2揭示交互效应

特征工程有无的对比
在这里插入图片描述

在这里插入图片描述


(二)多项式回归:非线性关系的建模利器

2.1 多项式回归原理

通过引入高次项扩展线性模型:

f w , b ( x ) = w 1 x + w 2 x 2 + w 3 x 3 + b f_{w,b}(x) = w_1 x + w_2 x^2 + w_3 x^3 + b fw,b(x)=w1x+w2x2+w3x3+b

image2.jpg

不同阶数多项式拟合效果


(三)特征选择:在复杂性与效果间寻找平衡

3.1 非线性特征设计

如图所示,通过引入平方根项增强模型灵活性:

f w , b ( x ) = w 1 x + w 2 x + b f_{w,b}(x) = w_1 x + w_2 \sqrt{x} + b fw,b(x)=w1x+w2x +b
在这里插入图片描述

混合特征设计的拟合效果

x = np.arange(0,20,1)
y = x**2X = np.c_[x, x**2, x**3]
X = zscore_normalize_features(X) model_w, model_b = run_gradient_descent_feng(X, y, iterations=100000, alpha=1e-1)plt.scatter(x, y, marker='x', c='r', label="Actual Value"); plt.title("Normalized x x**2, x**3 feature")
plt.plot(x,X@model_w + model_b, label="Predicted Value"); plt.xlabel("x"); plt.ylabel("y"); plt.legend(); plt.show()
Iteration         0, Cost: 9.42147e+03
Iteration     10000, Cost: 3.90938e-01
Iteration     20000, Cost: 2.78389e-02
Iteration     30000, Cost: 1.98242e-03
Iteration     40000, Cost: 1.41169e-04
Iteration     50000, Cost: 1.00527e-05
Iteration     60000, Cost: 7.15855e-07
Iteration     70000, Cost: 5.09763e-08
Iteration     80000, Cost: 3.63004e-09
Iteration     90000, Cost: 2.58497e-10
w,b found by gradient descent: w: [5.27e-05 1.13e+02 8.43e-05], b: 123.5000

在这里插入图片描述

通过合理运用特征工程与多项式回归,我们能够将预测误差降低,同时保持较好的模型可解释性。


end_Linear Regression

相关文章:

  • 算法训练营第五天 | 哈希表理论基础、 242.有效的字母异位词、349. 两个数组的交集、 202. 快乐数、1. 两数之和
  • 最新Spring Security实战教程(十三)会话管理机制 - 并发控制与会话固定攻击防护
  • qnn-2-27 sdk 环境配置示例
  • 逆向设计——CWDM_splitter
  • 8.2 段落格式
  • 一文了解 模型上下文协议(MCP)
  • 数据库Mysql学习——day7(多表查询(JOIN)进阶)
  • 检测图片指定多个位子像素坐标与目标比较。外部图像识别。如红色,黄色,绿色。。。
  • HTML 从标签到动态效果的基础
  • [计算机科学#4]:二进制如何塑造数字世界(0和1的力量)
  • JAVA:线程池
  • H3C华三:单臂路由配置
  • 用Postman验证IAM Token的实际操作
  • 2025年五一数学建模竞赛AI辅助全网专业性第一
  • 网络安全入门综述
  • 乐理学习笔记(一)---节拍与音符
  • Python依据卫星TLE轨道根数,计算可见时间窗口
  • CMake:设置编译C++的版本
  • 卧式五轴加工中心市场报告:智能制造浪潮下的机遇与挑战
  • 国内外都有哪些医药医学方面的指南检索数据库?
  • 昂立教育:去年减亏1.39亿元,今年以“利润持续增长”为核心目标
  • 西湖大学本科招生新增三省两市,首次面向上海招生
  • 杭州银行一季度净赚超60亿增逾17%,增速较去年同期有所回落
  • 印度媒体称印巴在克什米尔再次交火
  • 在县中,我看到“走出去”的渴望与“留下来”的惯性
  • 2025全球智慧城市指数排名揭晓,阿布扎比跃升至第五位