当前位置: 首页 > news >正文

特征工程四:数据特征提取TfidfVectorizer的使用

TfidfVectorizer 深度解析

TfidfVectorizer 是 scikit-learn 中用于文本特征提取的核心工具,它将原始文本转换为 TF-IDF 特征矩阵,是自然语言处理(NLP)和文本挖掘的基础组件。

一、核心原理

1. TF-IDF 计算

  • TF (Term Frequency):词频,衡量词在文档中的出现频率

    TF(t,d) = (词t在文档d中出现的次数) / (文档d中所有词的总数)
    
  • IDF (Inverse Document Frequency):逆文档频率,衡量词的重要性

    IDF(t) = log(总文档数 / (包含词t的文档数 + 1))
    
  • TF-IDF:两者乘积

    TF-IDF(t,d) = TF(t,d) * IDF(t)
    

2. 工作流程

  1. 文本分词(tokenization)
  2. 构建词汇表(vocabulary)
  3. 计算每个词的TF值
  4. 计算每个词的IDF值
  5. 生成TF-IDF特征矩阵

二、基本用法

from sklearn.feature_extraction.text import TfidfVectorizer# 示例文本数据
corpus = ['This is the first document.','This document is the second document.','And this is the third one.','Is this the first document?'
]# 初始化向量化器
vectorizer = TfidfVectorizer()# 拟合并转换数据
X = vectorizer.fit_transform(corpus)# 查看结果
print(vectorizer.get_feature_names_out())
# 输出: ['and', 'document', 'first', 'is', 'one', 'second', 'the', 'third', 'this']print(X.shape)  # (4, 9) - 4个文档,9个特征

三、关键参数详解

1. 预处理参数

参数说明示例值
stop_words停用词处理‘english’, [‘a’, ‘the’], None
lowercase是否转为小写True/False
token_pattern分词正则表达式r’(?u)\b\w\w+\b’
ngram_rangen元语法范围(1,1) (仅单词), (1,2) (单词和双词)

2. 特征选择参数

参数说明示例值
max_df忽略高频词0.85(比例)或50(绝对数)
min_df忽略低频词2(至少出现2次)
max_features最大特征数10000

3. 加权参数

参数说明示例值
norm归一化方式‘l1’, ‘l2’, None
use_idf是否使用IDFTrue/False
smooth_idfIDF平滑True/False

四、高级应用技巧

1. 自定义分词器

from nltk.stem import SnowballStemmer
from nltk.tokenize import word_tokenizestemmer = SnowballStemmer("english")def custom_tokenizer(text):return [stemmer.stem(word) for word in word_tokenize(text)]vectorizer = TfidfVectorizer(tokenizer=custom_tokenizer)

2. 处理中文文本

import jiebadef chinese_tokenizer(text):return [word for word in jieba.cut(text) if word.strip()]vectorizer = TfidfVectorizer(tokenizer=chinese_tokenizer)

3. 增量学习

# 初始拟合
vectorizer.partial_fit(first_batch_documents)# 增量更新
vectorizer.partial_fit(more_documents)

五、性能优化

1. 并行处理

vectorizer = TfidfVectorizer(n_jobs=-1)  # 使用所有CPU核心

2. 内存优化

# 使用HashingVectorizer替代(无状态,适合流式数据)
from sklearn.feature_extraction.text import HashingVectorizer
hv = HashingVectorizer(n_features=10000)

3. 管道组合

from sklearn.pipeline import make_pipeline
from sklearn.naive_bayes import MultinomialNBpipeline = make_pipeline(TfidfVectorizer(max_features=10000),MultinomialNB()
)

六、实际应用案例

1. 文本分类

from sklearn.datasets import fetch_20newsgroups
from sklearn.model_selection import train_test_split# 加载数据
newsgroups = fetch_20newsgroups(subset='all')
X_train, X_test, y_train, y_test = train_test_split(newsgroups.data, newsgroups.target)# 构建模型
vectorizer = TfidfVectorizer(max_df=0.5, min_df=5, stop_words='english')
X_train_tfidf = vectorizer.fit_transform(X_train)# 使用分类器(如SVM)训练
from sklearn.svm import LinearSVC
clf = LinearSVC().fit(X_train_tfidf, y_train)

2. 相似文档检索

from sklearn.metrics.pairwise import cosine_similarity# 计算文档相似度
doc_similarities = cosine_similarity(X_train_tfidf)输出结果类似以下:
[[1.         0.6461289  0.        ][0.6461289  1.         0.        ][0.         0.         1.        ]
]# 查找最相似文档
def find_similar_docs(query, vectorizer, doc_matrix, top_n=3):query_vec = vectorizer.transform([query])sim_scores = cosine_similarity(query_vec, doc_matrix)top_doc_indices = sim_scores.argsort()[0][-top_n:][::-1]return top_doc_indices

七、常见问题解决

  1. 内存不足问题
    • 减小 max_features
    • 使用 HashingVectorizer
    • 分批处理数据
  2. 处理速度慢
    • 设置 n_jobs=-1 并行处理
    • 增加 min_df 减少特征数
    • 使用更高效的分词器
  3. 中文处理特殊问题
    • 确保使用正确分词工具(jieba等)
    • 处理停用词时需要中文停用词表
    • 可能需要调整token_pattern

TfidfVectorizer作为文本特征提取的行业标准工具,合理使用可以显著提升文本分析任务的效果。根据具体场景调整参数,结合其他NLP组件,能够构建强大的文本处理流水线。

关于cosine_similarity(余弦相似度)计算的结果解释

矩阵结构解析

假设输入 3 个文档:(如上文相似文档检索的结果)

documents = ["I love machine learning",       # 文档1"Machine learning is amazing",   # 文档2"I hate math"                    # 文档3
]

输出的相似度矩阵为:

[[1.         0.6461289  0.        ]  # 文档1 vs (文档1, 文档2, 文档3)[0.6461289  1.         0.        ]  # 文档2 vs (文档1, 文档2, 文档3)[0.         0.         1.        ]] # 文档3 vs (文档1, 文档2, 文档3)
对角线(i=j)
  • [0][0] = 1.0:文档1 与自身 的相似度(完全相同)
  • [1][1] = 1.0:文档2 与自身 的相似度
  • [2][2] = 1.0:文档3 与自身 的相似度
非对角线(i≠j)
  • [0][1] = 0.6461289:文档1 和 文档2 的相似度(有部分共同词)
  • [0][2] = 0.0:文档1 和 文档3 的相似度(无共同词)
  • [1][2] = 0.0:文档2 和 文档3 的相似度(无共同词)

为什么是 3×3 矩阵?

因为 cosine_similarity 默认计算所有文档两两之间的相似度。对于 N 个文档,输出矩阵形状为 N×N,其中:

  • i 表示第 i 个文档与其他所有文档(包括自己)的相似度
  • 矩阵对称([i][j] == [j][i]

如何提取特定文档对的相似度?

# 获取文档1和文档2的相似度
doc1_vs_doc2 = similarity_matrix[0, 1]  # 0.6461289# 获取文档2和文档3的相似度
doc2_vs_doc3 = similarity_matrix[1, 2]  # 0.0

如果只想计算部分文档对?

使用 cosine_similarity子集计算

# 只计算文档1和文档2的相似度(不计算整个矩阵)
subset_sim = cosine_similarity(tfidf_matrix[0:1], tfidf_matrix[1:2])
print(subset_sim[0][0])  # 输出 0.6461289

总结

矩阵位置含义示例值
[i][i]文档自己与自己的相似度1.0
[i][j]文档i与文档j的相似度0.0~1.0
[j][i]文档j与文档i的相似度(对称)[i][j]
  • 1:表示两个向量方向完全相同(高度相似)
  • 0:表示两个向量正交(无相关性)
  • -1:表示两个向量方向完全相反(高度不相似)

这种矩阵形式便于一次性分析所有文档之间的关系,常用于 聚类分析、推荐系统 等任务。
什么是TD-IDF?

相关文章:

  • re题(48)BUUCTF-[网鼎杯 2020 青龙组]singal
  • 对日开发 秀丸文本编辑器 宏的基本使用
  • 计算属性 vs methods方法
  • Java大厂面试突击:从Spring Boot自动配置到Kafka分区策略实战解析
  • SVT-AV1源码分析-函数svt_aom_motion_estimation_kernel
  • linux:进程的替换
  • 深入解读:2025 数字化转型管理 参考架构
  • 【算法】回溯法
  • 杭电oj(1010、1015、1241)题解
  • 【沉浸式求职学习day27】
  • 【视频生成模型】通义万相Wan2.1模型本地部署和LoRA微调
  • Python----深度学习(基于DNN的吃鸡预测)
  • 动手学深度学习11.11. 学习率调度器-笔记练习(PyTorch)
  • arcpy列表函数的应用(4)
  • MySQL的锁(InnoDB)【学习笔记】
  • win11报错 ‘wmic‘ 不是内部或外部命令,也不是可运行的程序 或批处理文件 的解决方案
  • NestJS + Kafka 秒杀系统完整实践总结
  • 在 Ubuntu 24.04 系统上安装和管理 Nginx
  • SDRAM介绍和时序
  • 列出es查询match、term、wildcard、prefix、fuzzy、range、query_string、text、missing的区别及用法
  • 加拿大今日大选:房价、印度移民和特朗普,年轻人在焦虑什么?
  • 图像编辑新增一款开源模型,阶跃星辰发布Step1X-Edit
  • 民航局:中方航空公司一季度运输国际旅客同比大增34%
  • 天津外国语大学原校长修刚突发疾病去世,享年68岁
  • 年客流超2500万,九岁的上海国际旅游度假区有哪些文旅商体实践?
  • 王毅会见乌兹别克斯坦外长赛义多夫