特征工程四:数据特征提取TfidfVectorizer的使用
TfidfVectorizer 深度解析
TfidfVectorizer 是 scikit-learn 中用于文本特征提取的核心工具,它将原始文本转换为 TF-IDF 特征矩阵,是自然语言处理(NLP)和文本挖掘的基础组件。
一、核心原理
1. TF-IDF 计算
-
TF (Term Frequency):词频,衡量词在文档中的出现频率
TF(t,d) = (词t在文档d中出现的次数) / (文档d中所有词的总数)
-
IDF (Inverse Document Frequency):逆文档频率,衡量词的重要性
IDF(t) = log(总文档数 / (包含词t的文档数 + 1))
-
TF-IDF:两者乘积
TF-IDF(t,d) = TF(t,d) * IDF(t)
2. 工作流程
- 文本分词(tokenization)
- 构建词汇表(vocabulary)
- 计算每个词的TF值
- 计算每个词的IDF值
- 生成TF-IDF特征矩阵
二、基本用法
from sklearn.feature_extraction.text import TfidfVectorizer# 示例文本数据
corpus = ['This is the first document.','This document is the second document.','And this is the third one.','Is this the first document?'
]# 初始化向量化器
vectorizer = TfidfVectorizer()# 拟合并转换数据
X = vectorizer.fit_transform(corpus)# 查看结果
print(vectorizer.get_feature_names_out())
# 输出: ['and', 'document', 'first', 'is', 'one', 'second', 'the', 'third', 'this']print(X.shape) # (4, 9) - 4个文档,9个特征
三、关键参数详解
1. 预处理参数
参数 | 说明 | 示例值 |
---|---|---|
stop_words | 停用词处理 | ‘english’, [‘a’, ‘the’], None |
lowercase | 是否转为小写 | True/False |
token_pattern | 分词正则表达式 | r’(?u)\b\w\w+\b’ |
ngram_range | n元语法范围 | (1,1) (仅单词), (1,2) (单词和双词) |
2. 特征选择参数
参数 | 说明 | 示例值 |
---|---|---|
max_df | 忽略高频词 | 0.85(比例)或50(绝对数) |
min_df | 忽略低频词 | 2(至少出现2次) |
max_features | 最大特征数 | 10000 |
3. 加权参数
参数 | 说明 | 示例值 |
---|---|---|
norm | 归一化方式 | ‘l1’, ‘l2’, None |
use_idf | 是否使用IDF | True/False |
smooth_idf | IDF平滑 | True/False |
四、高级应用技巧
1. 自定义分词器
from nltk.stem import SnowballStemmer
from nltk.tokenize import word_tokenizestemmer = SnowballStemmer("english")def custom_tokenizer(text):return [stemmer.stem(word) for word in word_tokenize(text)]vectorizer = TfidfVectorizer(tokenizer=custom_tokenizer)
2. 处理中文文本
import jiebadef chinese_tokenizer(text):return [word for word in jieba.cut(text) if word.strip()]vectorizer = TfidfVectorizer(tokenizer=chinese_tokenizer)
3. 增量学习
# 初始拟合
vectorizer.partial_fit(first_batch_documents)# 增量更新
vectorizer.partial_fit(more_documents)
五、性能优化
1. 并行处理
vectorizer = TfidfVectorizer(n_jobs=-1) # 使用所有CPU核心
2. 内存优化
# 使用HashingVectorizer替代(无状态,适合流式数据)
from sklearn.feature_extraction.text import HashingVectorizer
hv = HashingVectorizer(n_features=10000)
3. 管道组合
from sklearn.pipeline import make_pipeline
from sklearn.naive_bayes import MultinomialNBpipeline = make_pipeline(TfidfVectorizer(max_features=10000),MultinomialNB()
)
六、实际应用案例
1. 文本分类
from sklearn.datasets import fetch_20newsgroups
from sklearn.model_selection import train_test_split# 加载数据
newsgroups = fetch_20newsgroups(subset='all')
X_train, X_test, y_train, y_test = train_test_split(newsgroups.data, newsgroups.target)# 构建模型
vectorizer = TfidfVectorizer(max_df=0.5, min_df=5, stop_words='english')
X_train_tfidf = vectorizer.fit_transform(X_train)# 使用分类器(如SVM)训练
from sklearn.svm import LinearSVC
clf = LinearSVC().fit(X_train_tfidf, y_train)
2. 相似文档检索
from sklearn.metrics.pairwise import cosine_similarity# 计算文档相似度
doc_similarities = cosine_similarity(X_train_tfidf)输出结果类似以下:
[[1. 0.6461289 0. ][0.6461289 1. 0. ][0. 0. 1. ]
]# 查找最相似文档
def find_similar_docs(query, vectorizer, doc_matrix, top_n=3):query_vec = vectorizer.transform([query])sim_scores = cosine_similarity(query_vec, doc_matrix)top_doc_indices = sim_scores.argsort()[0][-top_n:][::-1]return top_doc_indices
七、常见问题解决
- 内存不足问题
- 减小
max_features
- 使用
HashingVectorizer
- 分批处理数据
- 减小
- 处理速度慢
- 设置
n_jobs=-1
并行处理 - 增加
min_df
减少特征数 - 使用更高效的分词器
- 设置
- 中文处理特殊问题
- 确保使用正确分词工具(jieba等)
- 处理停用词时需要中文停用词表
- 可能需要调整token_pattern
TfidfVectorizer作为文本特征提取的行业标准工具,合理使用可以显著提升文本分析任务的效果。根据具体场景调整参数,结合其他NLP组件,能够构建强大的文本处理流水线。
关于cosine_similarity(余弦相似度)计算的结果解释
矩阵结构解析
假设输入 3 个文档:(如上文相似文档检索的结果)
documents = ["I love machine learning", # 文档1"Machine learning is amazing", # 文档2"I hate math" # 文档3
]
输出的相似度矩阵为:
[[1. 0.6461289 0. ] # 文档1 vs (文档1, 文档2, 文档3)[0.6461289 1. 0. ] # 文档2 vs (文档1, 文档2, 文档3)[0. 0. 1. ]] # 文档3 vs (文档1, 文档2, 文档3)
对角线(i=j)
[0][0] = 1.0
:文档1 与自身 的相似度(完全相同)[1][1] = 1.0
:文档2 与自身 的相似度[2][2] = 1.0
:文档3 与自身 的相似度
非对角线(i≠j)
[0][1] = 0.6461289
:文档1 和 文档2 的相似度(有部分共同词)[0][2] = 0.0
:文档1 和 文档3 的相似度(无共同词)[1][2] = 0.0
:文档2 和 文档3 的相似度(无共同词)
为什么是 3×3 矩阵?
因为 cosine_similarity
默认计算所有文档两两之间的相似度。对于 N
个文档,输出矩阵形状为 N×N
,其中:
- 行
i
表示第i
个文档与其他所有文档(包括自己)的相似度 - 矩阵对称(
[i][j] == [j][i]
)
如何提取特定文档对的相似度?
# 获取文档1和文档2的相似度
doc1_vs_doc2 = similarity_matrix[0, 1] # 0.6461289# 获取文档2和文档3的相似度
doc2_vs_doc3 = similarity_matrix[1, 2] # 0.0
如果只想计算部分文档对?
使用 cosine_similarity
的 子集计算:
# 只计算文档1和文档2的相似度(不计算整个矩阵)
subset_sim = cosine_similarity(tfidf_matrix[0:1], tfidf_matrix[1:2])
print(subset_sim[0][0]) # 输出 0.6461289
总结
矩阵位置 | 含义 | 示例值 |
---|---|---|
[i][i] | 文档自己与自己的相似度 | 1.0 |
[i][j] | 文档i与文档j的相似度 | 0.0~1.0 |
[j][i] | 文档j与文档i的相似度(对称) | 同[i][j] |
- 1:表示两个向量方向完全相同(高度相似)
- 0:表示两个向量正交(无相关性)
- -1:表示两个向量方向完全相反(高度不相似)
这种矩阵形式便于一次性分析所有文档之间的关系,常用于 聚类分析、推荐系统 等任务。
什么是TD-IDF?