当前位置: 首页 > news >正文

牛客刷题自留-机械学习基础

第一题

下列关于线性回归说法错误的是()正确答案C
A
在现有模型上,加入新的变量,所得到的R^2的值总会增加

  • 选项A
    在线性回归中, R 2 R^2 R2(判定系数)用于衡量回归模型对观测数据的拟合程度。一般情况下,在现有模型上加入新的变量,即使新变量实际上对因变量没有真正的解释能力, R 2 R^2 R2的值也总会增加或者至少保持不变,这是因为增加变量后,模型能够更好地拟合样本数据,使得回归平方和增大,而总平方和不变,从而 R 2 R^2 R2会增大。所以该选项说法正确。

B
线性回归的前提假设之一是残差必须服从独立正态分布

  • 选项B
    线性回归有多个前提假设,其中之一就是残差必须服从独立正态分布。这一假设非常重要,它保证了回归模型的有效性和统计推断的合理性。如果残差不服从独立正态分布,可能会导致模型的参数估计不准确,假设检验的结果不可靠等问题。所以该选项说法正确。

C
残差的方差无偏估计是SSE/(n-p)

  • 选项C
    在多元线性回归中,残差的方差无偏估计是 S S E / ( n − p − 1 ) SSE/(n - p - 1) SSE/(np1),其中 S S E SSE SSE是残差平方和, n n n是样本数量, p p p是自变量的个数。而不是 S S E / ( n − p ) SSE/(n - p) SSE/(np),所以该选项说法错误。

D
自变量和残差不一定保持相互独立

  • 选项D
    在正确设定的线性回归模型中,自变量和残差应该是相互独立的,这是线性回归的基本假设之一。如果自变量和残差不独立,说明模型可能存在遗漏变量、测量误差等问题,会导致模型的估计结果有偏差。但在实际情况中,如果模型设定不正确等原因,自变量和残差可能不一定保持相互独立。所以该选项说法从某种角度来说是合理的,如果从严格的线性回归假设角度看,它违背了假设,但从实际可能出现的情况看,是有可能存在自变量和残差不独立的情况的。

补充知识点

判定系数 R 2 R^{2} R2的计算公式为 R 2 = S S R S S T = 1 − S S E S S T R^{2}=\frac{SSR}{SST}=1 - \frac{SSE}{SST} R2=SSTSSR=1SSTSSE ,其中 S S R SSR SSR为回归平方和, S S E SSE SSE为残差平方和, S S T SST SST为总离差平方和。

相关概念及公式

选项A

  • 总离差平方和(SST):反映因变量 y i y_i yi的观测值与其均值 y ‾ \overline{y} y之间的总波动程度,计算公式为 S S T = ∑ i = 1 n ( y i − y ‾ ) 2 SST = \sum_{i = 1}^{n}(y_{i}-\overline{y})^{2} SST=i=1n(yiy)2 ,其中 n n n为样本数量, y i y_{i} yi是第 i i i个观测值, y ‾ \overline{y} y是观测值的均值。
  • 回归平方和(SSR):表示回归直线 y ^ i \hat{y}_i y^i对观测值 y i y_i yi的拟合程度,即因变量 y i y_i yi的预测值 y ^ i \hat{y}_i y^i与均值 y ‾ \overline{y} y之间的差异所引起的波动,计算公式为 S S R = ∑ i = 1 n ( y ^ i − y ‾ ) 2 SSR=\sum_{i = 1}^{n}(\hat{y}_{i}-\overline{y})^{2} SSR=i=1n(y^iy)2 ,其中 y ^ i \hat{y}_{i} y^i是根据回归模型预测得到的第 i i i个值。
  • 残差平方和(SSE):是观测值 y i y_i yi与预测值 y ^ i \hat{y}_i y^i之间差异的平方和,反映了观测值与回归模型预测值之间的误差,计算公式为 S S E = ∑ i = 1 n ( y i − y ^ i ) 2 SSE=\sum_{i = 1}^{n}(y_{i}-\hat{y}_{i})^{2} SSE=i=1n(yiy^i)2

计算示例

假设有一组数据点 ( x 1 , y 1 ) , ( x 2 , y 2 ) , ⋯   , ( x 5 , y 5 ) (x_1,y_1),(x_2,y_2),\cdots,(x_5,y_5) (x1,y1),(x2,y2),,(x5,y5) ,具体数值如下: ( 1 , 2 ) (1,2) (1,2) ( 2 , 3 ) (2,3) (2,3) ( 3 , 4 ) (3,4) (3,4) ( 4 , 5 ) (4,5) (4,5) ( 5 , 6 ) (5,6) (5,6) 。通过线性回归分析得到回归方程为 y ^ = x + 1 \hat{y}=x + 1 y^=x+1

  1. 首先计算 y ‾ \overline{y} y y ‾ = 2 + 3 + 4 + 5 + 6 5 = 4 \overline{y}=\frac{2 + 3 + 4 + 5 + 6}{5}=4 y=52+3+4+5+6=4
  2. 然后计算 S S T SST SST
    S S T = ( 2 − 4 ) 2 + ( 3 − 4 ) 2 + ( 4 − 4 ) 2 + ( 5 − 4 ) 2 + ( 6 − 4 ) 2 = 10 SST=(2 - 4)^{2}+(3 - 4)^{2}+(4 - 4)^{2}+(5 - 4)^{2}+(6 - 4)^{2}=10 SST=(24)2+(34)2+(44)2+(54)2+(64)2=10
  3. 接着计算预测值 y ^ i \hat{y}_i y^i ,分别为 y ^ 1 = 1 + 1 = 2 \hat{y}_1=1 + 1=2 y^1=1+1=2 y ^ 2 = 2 + 1 = 3 \hat{y}_2=2 + 1=3 y^2=2+1=3 y ^ 3 = 3 + 1 = 4 \hat{y}_3=3 + 1=4 y^3=3+1=4 y ^ 4 = 4 + 1 = 5 \hat{y}_4=4 + 1=5 y^4=4+1=5 y ^ 5 = 5 + 1 = 6 \hat{y}_5=5 + 1=6 y^5=5+1=6
  4. 再计算 S S R SSR SSR
    S S R = ( 2 − 4 ) 2 + ( 3 − 4 ) 2 + ( 4 − 4 ) 2 + ( 5 − 4 ) 2 + ( 6 − 4 ) 2 = 10 SSR=(2 - 4)^{2}+(3 - 4)^{2}+(4 - 4)^{2}+(5 - 4)^{2}+(6 - 4)^{2}=10 SSR=(24)2+(34)2+(44)2+(54)2+(64)2=10
  5. 最后计算 S S E SSE SSE
    S S E = ( 2 − 2 ) 2 + ( 3 − 3 ) 2 + ( 4 − 4 ) 2 + ( 5 − 5 ) 2 + ( 6 − 6 ) 2 = 0 SSE=(2 - 2)^{2}+(3 - 3)^{2}+(4 - 4)^{2}+(5 - 5)^{2}+(6 - 6)^{2}=0 SSE=(22)2+(33)2+(44)2+(55)2+(66)2=0

根据公式 R 2 = S S R S S T = 1 − S S E S S T R^{2}=\frac{SSR}{SST}=1-\frac{SSE}{SST} R2=SSTSSR=1SSTSSE ,可得 R 2 = 10 10 = 1 R^{2}=\frac{10}{10}=1 R2=1010=1 ,这表明在这个例子中,回归模型完全拟合了数据,观测值与预测值完全一致。

选项C
残差的方差无偏估计 S S E / ( n − p − 1 ) SSE/(n - p - 1) SSE/(np1)的推导涉及到线性回归的基本原理和一些统计学知识,以下是详细过程:
(n是观测值的数量,p是自变量,不包含截距项)

在线性回归模型 y = X β + ϵ y = X\beta+\epsilon y=+ϵ中, y y y n × 1 n\times1 n×1的观测值向量, X X X n × p n\times p n×p的设计矩阵, β \beta β p × 1 p\times1 p×1的回归系数向量, ϵ \epsilon ϵ n × 1 n\times1 n×1的误差向量,且 ϵ ∼ N ( 0 , σ 2 I ) \epsilon\sim N(0,\sigma^{2}I) ϵN(0,σ2I),即误差服从均值为 0 0 0,方差为 σ 2 \sigma^{2} σ2的正态分布。

我们用最小二乘法得到回归系数 β \beta β的估计 β ^ = ( X T X ) − 1 X T y \hat{\beta}=(X^{T}X)^{-1}X^{T}y β^=(XTX)1XTy,进而得到拟合值 y ^ = X β ^ \hat{y}=X\hat{\beta} y^=Xβ^,残差 e = y − y ^ e = y-\hat{y} e=yy^,残差平方和 S S E = e T e = ( y − y ^ ) T ( y − y ^ ) SSE = e^{T}e=(y - \hat{y})^{T}(y - \hat{y}) SSE=eTe=(yy^)T(yy^)

可以证明 S S E = y T ( I − H ) y SSE = y^{T}(I - H)y SSE=yT(IH)y,其中 H = X ( X T X ) − 1 X T H = X(X^{T}X)^{-1}X^{T} H=X(XTX)1XT是帽子矩阵。

根据期望的性质 E ( S S E ) = E [ y T ( I − H ) y ] E(SSE)=E[y^{T}(I - H)y] E(SSE)=E[yT(IH)y],因为 y = X β + ϵ y = X\beta+\epsilon y=+ϵ,所以:

E ( S S E ) = E [ ( X β + ϵ ) T ( I − H ) ( X β + ϵ ) ] = E [ β T X T ( I − H ) X β + ϵ T ( I − H ) X β + β T X T ( I − H ) ϵ + ϵ T ( I − H ) ϵ ] \begin{align*} E(SSE)&=E[(X\beta+\epsilon)^{T}(I - H)(X\beta+\epsilon)]\\ &=E[\beta^{T}X^{T}(I - H)X\beta+\epsilon^{T}(I - H)X\beta+\beta^{T}X^{T}(I - H)\epsilon+\epsilon^{T}(I - H)\epsilon] \end{align*} E(SSE)=E[(+ϵ)T(IH)(+ϵ)]=E[βTXT(IH)+ϵT(IH)+βTXT(IH)ϵ+ϵT(IH)ϵ]

由于 H H H是幂等矩阵,即 H 2 = H H^{2}=H H2=H,且 H X = X HX = X HX=X,所以 X T ( I − H ) X = 0 X^{T}(I - H)X = 0 XT(IH)X=0 E ( ϵ T ( I − H ) X β ) = 0 E(\epsilon^{T}(I - H)X\beta)=0 E(ϵT(IH))=0 E ( β T X T ( I − H ) ϵ ) = 0 E(\beta^{T}X^{T}(I - H)\epsilon)=0 E(βTXT(IH)ϵ)=0

又因为 E ( ϵ T ( I − H ) ϵ ) = σ 2 t r ( I − H ) E(\epsilon^{T}(I - H)\epsilon)=\sigma^{2}tr(I - H) E(ϵT(IH)ϵ)=σ2tr(IH),其中 t r ( ⋅ ) tr(\cdot) tr()表示矩阵的迹,而 t r ( I − H ) = n − t r ( H ) = n − p tr(I - H)=n - tr(H)=n - p tr(IH)=ntr(H)=np,所以 E ( S S E ) = σ 2 ( n − p ) E(SSE)=\sigma^{2}(n - p) E(SSE)=σ2(np)

为了得到方差 σ 2 \sigma^{2} σ2的无偏估计,我们令 σ ^ 2 = S S E n − p − 1 \hat{\sigma}^{2}=\frac{SSE}{n - p - 1} σ^2=np1SSE,此时 E ( σ ^ 2 ) = σ 2 E(\hat{\sigma}^{2})=\sigma^{2} E(σ^2)=σ2,即 S S E / ( n − p − 1 ) SSE/(n - p - 1) SSE/(np1)是残差方差 σ 2 \sigma^{2} σ2的无偏估计。

第二题

关于线性回归的描述,以下正确的有: 正确答案:BCE
A
基本假设包括随机干扰项是均值为0,方差为1的标准正态分布
B
基本假设包括随机干扰项是均值为0的同方差正态分布
C
在违背基本假设时,普通最小二乘法估计量不再是最佳线性无偏估计量
D
在违背基本假设时,模型不再可以估计
E
可以用DW检验残差是否存在序列相关性
F
多重共线性会使得参数估计值方差减小

补充知识
一元线性回归的基本假设有
1、随机误差项是一个期望值或平均值为0的随机变量;
2、对于解释变量的所有观测值,随机误差项有相同的方差;
3、随机误差项彼此不相关;
4、解释变量是确定性变量,不是随机变量,与随机误差项彼此之间相互独立;
5、解释变量之间不存在精确的(完全的)线性关系,即解释变量的样本观测值矩阵是满秩矩阵;
6、随机误差项服从正态分布

违背基本假设的计量经济学模型还是可以估计的,只是不能使用普通最小二乘法进行估计。

杜宾-瓦特森(DW)检验,统计分析中常用的一种检验序列一阶自相关最常用的方法。经常用于检验线性回归模型中残差是否存在序列相关性。它通过计算 DW 统计量,并与相应的临界值进行比较,来判断残差序列是否存在自相关

多重共线性是指线性回归模型中的自变量之间存在高度的线性相关关系。当存在多重共线性时,参数估计值的方差会增大,而不是减小。这是因为多重共线性使得自变量之间的信息重叠,导致估计量对数据的微小变化非常敏感,从而使得估计值的方差增大,估计的稳定性变差。

第三题

评论分类模型好坏的指标是()A
A
准确率与召回率
B
准确率与置信度
C
准确率与提升度
D
置信度与提升度

补充知识
准确率定义:准确率是指在所有的预测结果中,正确预测的比例。
召回率定义:召回率也称为查全率,是指在所有实际为正类的样本中,被模型正确预测为正类的比例。

下列哪些方法可以用来对高维数据进行降维: 正确答案:ABCDEF
A
LASSO
选项A LASSO(Least Absolute Shrinkage and Selection Operator,最小绝对收缩和选择算子)
LASSO是一种线性回归的正则化方法,它在损失函数中加入了L1正则项。L1正则项具有使某些回归系数变为零的特性,这意味着它可以自动进行特征选择,将不重要的特征系数置为零,从而达到降维的目的。通过去除这些系数为零的特征,数据的维度得以降低。所以LASSO可以用于高维数据降维。

B
主成分分析法
选项B:主成分分析法(Principal Component Analysis,PCA)
PCA是一种经典的无监督降维方法。它通过对原始数据的协方差矩阵进行特征值分解,找到数据的主成分(即数据方差最大的方向)。然后选择方差较大的前k个主成分来表示原始数据,从而将高维数据投影到低维空间中,实现数据降维。PCA在保留数据主要信息的同时,大大减少了数据的维度。所以主成分分析法可用于高维数据降维。
C
聚类分析
选项C:聚类分析
聚类分析的主要目的是将数据集中的样本按照相似性划分为不同的簇,使得同一簇内的样本相似度高,不同簇之间的样本相似度低。虽然在聚类过程中可能会对数据进行一些预处理,但聚类分析本身并不是专门用于降维的方法,它更侧重于发现数据的内在结构和模式,而不是减少数据的维度。所以聚类分析通常不用于高维数据降维。
但是如果问的是可不可以的话,硬要说还是可以的。
D
小波分析法
选项D:小波分析法
小波分析是一种时频分析方法,它具有多分辨率分析的特点。在处理高维数据时,小波变换可以将数据分解为不同尺度和频率的分量,通过保留主要的分量并丢弃次要的分量,可以实现数据的压缩和降维。小波分析法在信号处理、图像处理等领域中常被用于高维数据的降维处理。所以小波分析法可用于高维数据降维。
E
线性判别法
选项E:线性判别法(Linear Discriminant Analysis,LDA)
LDA是一种有监督的降维方法。它的目标是找到一个投影方向,使得不同类别的数据在投影后尽可能分开,同一类别的数据在投影后尽可能聚集。通过将高维数据投影到低维空间中,LDA不仅实现了数据降维,还考虑了数据的类别信息,有助于提高分类性能。所以线性判别法可用于高维数据降维。
F
拉普拉斯特征映射本题可根据各方法的原理和用途,判断其是否可用于高维数据降维。
选项F:拉普拉斯特征映射(Laplacian Eigenmaps)
拉普拉斯特征映射是一种基于图的流形学习方法,属于非线性降维技术。它通过构建数据点之间的邻接图,利用图的拉普拉斯矩阵的特征向量来找到数据的低维嵌入。该方法能够捕捉数据的局部几何结构,将高维数据映射到低维空间中,从而实现降维。所以拉普拉斯特征映射可用于高维数据降维。

第四题

已知一组数据的协方差矩阵P,下面关于主分量说法错误的是( )
A
主分量分析的最佳准则是对一组数据进行按一组正交基分解, 在只取相同数量分量的条件下,以均方误差计算截尾误差最小
正确
PCA的目标是找到一组正交基(主成分),使得在保留相同数量分量的条件下,截尾误差(即数据重建的均方误差)最小。
B
在经主分量分解后,协方差矩阵成为对角矩阵
正确
PCA将原始数据的协方差矩阵转换为对角矩阵,对角线上的元素是特征值,表示各主成分的方差。
C
主分量分析就是K-L变换
错误原因:
K-L变换(Karhunen-Loève变换) 是一种基于数据协方差矩阵的特征分解的变换方法,通常用于信号处理和随机过程分析。虽然PCA和K-L变换在数学上有相似之处(都涉及协方差矩阵的特征分解),但它们并不完全相同。

PCA更侧重于数据降维和方差最大化,而K-L变换更侧重于信号的最优表示。因此,不能简单地说PCA就是K-L变换。
D
主分量是通过求协方差矩阵的特征值得到
正确
主分量是通过对协方差矩阵进行特征值分解得到的,特征值对应的特征向量就是主分量

第五题

输入图片大小为200×200,依次经过一层卷积(kernel size 5×5,padding 1,stride 2),pooling(kernel size 3×3,padding 0,stride 1),又一层卷积(kernel size 3×3,padding 1,stride 1)之后,输出特征图大小为:

输出尺寸=(输入尺寸-filter尺寸+2*padding)/stride+1
答案为97。

相关文章:

  • 【LeetCode】438.找到字符串中所有的字母异位词
  • 【MySQL】# Windows下安装(压缩包、msi);Linux下安装(压缩包、命令、docker);设置连接数、binlog日志;修改时区
  • HTML之JavaScript循环结构
  • 详解Redis数据结构(附源码)
  • Visonpro 检测是否有缺齿
  • 【Flink快速入门-5.流处理之多流转换算子】
  • STM32的DMA解释
  • Go语言精进之路读书笔记(第二部分-项目结构、代码风格与标识符命名)
  • 案例-05.部门管理-新增
  • 数据大屏炫酷UI组件库:B端科技风格PSD资源集
  • RISC-V平台编译 state-thread x264 ffmpeg zlog
  • 分布式光纤传感:为生活编织“感知密网”
  • Node.js 中的 Event 模块详解
  • 【JavaEE进阶】Spring Boot日志
  • java断点调试(debug)
  • 人工智障的软件开发-自动流水线CI/CD篇-docker+jenkins部署之道
  • Spring Boot应用开发
  • C++:构造函数和析构函数
  • 机器学习--实现多元线性回归
  • 【重构谷粒商城】06:Maven快速入门教程
  • 深圳宝安区一宗涉宅用地中止出让,起始总价86.27亿元
  • 朝鲜派兵库尔斯克是否有助于解决乌克兰危机?外交部回应
  • 全国电影工作会:聚焦扩大电影国际交流合作,提升全球影响力
  • 报告:到2030年我国无人机产业将率先实现万亿规模
  • 辽宁省信访局副局长于江调任辽宁省监狱管理局局长
  • 年客流超2500万,九岁的上海国际旅游度假区有哪些文旅商体实践?