数据特征处理之文本型数据特征值化(一)

图片

数据的存在形式是多样的,除了我们平时常见的数值型数据之外,还有文本类型的数据,本篇讨论的是文本类型数据的处理方法,即对文本类型数据特征值化。

图片

本文仍是借助机器学习语言工具中的sklearn模块来完成。

假设现有一段语言(文章):You will never know unless you try。我们要完成对这段文字进行特征抽取,我们先来看特征抽取的单词列表

# -*- coding:utf-8 -*-

# @Author: 数据与编程之美
# @File: text_deal.py
# @Time: 2020/12/29 22:34

from sklearn.feature_extraction.text import CountVectorizer


def text_deal():
    """
    文本特征抽取
    :return: 
    """

    count_v = CountVectorizer()
    count_v.fit_transform(["You will never know unless you try"])

    # 输出词条列表
    print(count_v.get_feature_names())


if __name__ == '__main__':
    text_deal()

词条列表结果如下

 用图简单法分析一下就是

图片

get_feature_names()该方法返回的是文章中去重后的所有单词(单个的如:i 之类词的单个字母不会统计在内,因为没意义)

接下来再来看看这段文字统计词条列表对应的特征值化数据

# -*- coding:utf-8 -*-

# @Author: 数据与编程之美
# @File: text_deal.py
# @Time: 2020/12/29 22:34

from sklearn.feature_extraction.text import CountVectorizer


def text_deal():
    """
    文本特征抽取
    :return:
    """

    count_v = CountVectorizer()
    data = count_v.fit_transform(["You will never know unless you try"])

    # 输出词条列表
    print(count_v.get_feature_names())

    # 输出词条列表对应的值化数据
    print(data)


if __name__ == '__main__':
    text_deal()

 

 结果如下: 

图片

结果解释:

上述的坐标值数据结构其实是一个稀疏矩阵(Sparse matrix),意思是元素大部分为零的矩阵,上述结果为零的值很少是因为其适用于文章单词数远大于本案例所用的那一句话的单词个数,一般正常情况下稀疏矩阵是很明显的。

稀疏矩阵还有一个明显的特征就是只存储非零数据,这样做的目的是使运算速度更快和压缩存储达到节省空间,如

第0行,第5列存储的值是2

第0行,第4列存储的值是1

第0行,第1列存储的值是1

第0行,第0列存储的值是1

第0行,第3列存储的值是1

第0行,第2列存储的值是1


实际情况下会有多行的内容,后面会看到。为了更直观的观察文本特征值化后的结果数据,一般不会输出坐标形式的稀疏矩阵,而是将稀疏矩阵转化为数组的形式输出

转化方法便是 data.toarray()

 

图片

这样可以很直观看到每个词条对应的统计次数

know never try unless will you 
1次1次1次1次1次2次

下面以长文章示例

# -*- coding:utf-8 -*-

# @Author: 数据与编程之美
# @File: text_deal.py
# @Time: 2020/12/29 22:34

from sklearn.feature_extraction.text import CountVectorizer


def text_deal():
    """
    文本特征抽取
    :return:
    """

    count_v = CountVectorizer()
    data = count_v.fit_transform(["There are moments in life when you miss someone so much that you just want to pick them from your dreams",
                                  "Dream what you want to dream;go where you want to go",
                                  "be what you want to be",
                                  "because you have only one life and one chance to do all the things you want to do"])

    # 输出词条列表
    print(count_v.get_feature_names())

    # 输出词条列表对应的值化数据
    print(data.toarray())


if __name__ == '__main__':
    text_deal()

词条结果列表:

[‘all’, ‘and’, ‘are’, ‘be’, ‘because’, ‘chance’, ‘do’, ‘dream’, ‘dreams’, ‘from’, ‘go’, ‘have’, ‘in’, ‘just’, ‘life’, ‘miss’, ‘moments’, ‘much’, ‘one’, ‘only’, ‘pick’, ‘so’, ‘someone’, ‘that’, ‘the’, ‘them’, ‘there’, ‘things’, ‘to’, ‘want’, ‘what’, ‘when’, ‘where’, ‘you’, ‘your’]

显示0的‘稀疏矩阵’

[[0 0 1 0 0 0 0 0 1 1 0 0 1 1 1 1 1 1 0 0 1 1 1 1 0 1 1 0 1 1 0 1 0 2 1]
 [0 0 0 0 0 0 0 2 0 0 2 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 2 2 1 0 1 2 0]
 [0 0 0 2 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1 1 1 0 0 1 0]
 [1 1 0 0 1 1 2 0 0 0 0 1 0 0 1 0 0 0 2 1 0 0 0 0 1 0 0 1 2 1 0 0 0 2 0]]

 

结果说明:

图片

词条列表中的

’all‘在红框内容出现了0次,所有第0行第0列为0;

’and‘在红框内容出现了0次,所有第0行第1列为0;

’are‘在红框年内容出现了1次,所有第0行第2列为1…以此类推。


汉字类型的文本型数据

对于中文默认是不支持特征抽取的,如果要对汉字进行特征值化需要做分词处理,如(用空格分开)

# -*- coding:utf-8 -*-

# @Author: 数据与编程之美
# @File: text_deal.py
# @Time: 2020/12/29 22:34

from sklearn.feature_extraction.text import CountVectorizer


def text_deal():
    """
    文本特征抽取
    :return:
    """

    count_v = CountVectorizer()
    data = count_v.fit_transform(["You will never know unless you try",
                                  "除非 你 努力",
                                  "否则 你 永远 不会 知道"])

    # 输出词条列表
    print(count_v.get_feature_names())

    # 输出词条列表对应的值化数据
    print(data.toarray())


if __name__ == '__main__':
    text_deal()

 

特征抽取结果(形式和英文文章一样):

图片

对于含有大量中文的文本进行特征抽取时,认为分词就很耗时耗力,这里给大家介绍一个分词工具:jieba(结巴,我猜的图片)


安装jieba: 

pip3 install jieba

使用案例官方教程: https://github.com/fxsjy/jieba


以上就是文本型数据的特征抽取方法之一,希望本文对你有所收获。

 

 

【福利资源】 pycharm最新许可 持续更新

 

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

bearx...

请作者喝杯咖啡

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值