自然语言处理 的 一些环境和包

NLTK是一个开源免费的项目,只需要下载即可
支持三个平台
直接安装

pip3 install nltk  -i https://pypi.doubanio.com/simple

中文分词模块
CRF
NShort
安装Ltp Python

 pip3 install pyltp  -i https://pypi.doubanio.com/simple

遇到这个bug

error: command 'x86_64-linux-gnu-gcc' failed with exit status 1

请使用 注意你是Python几就写几

sudo apt-get install python3.7-dev

目前他卡住了
.9-4 都是过卡
我等等他
等出来个

error: command 'x86_64-linux-gnu-gcc' failed with exit status 1

参照
https://github.com/HIT-SCIR/pyltp
进行源码安装
安装成功
测试一下 在这之前要下载模型
pyltp 版本:0.3.0
LTP 版本:3.4.0
模型版本:3.4.0
https://pan.baidu.com/share/link?errmsg=Auth+Login+Sucess&errno=0&shareid=1988562907&ssnerror=0&&uk=2738088569#list/path=%2F

from pyltp import Segmentor
model_path="/home/dfy/ltp-models/3.4.0/ltp_data_v3.4.0/cws.model"
seg=Segmentor()
seg.load(model_path)
words=seg.segment("请问你们看琉璃这个电视剧吗")
print("|".join(words))
if __name__ == '__main__':
    pass

使用jieba分词块

pip3 install jieba  -i https://pypi.doubanio.com/simple

例子代码

import jieba
words_c="今天实在是太热了,你不热吗"


# 精确模式
ws=jieba.cut(words_c)
print("|".join(ws))
# 搜索引擎模式
ws=jieba.cut_for_search(words_c)
print("|".join(ws))
if __name__ == '__main__':
    pass


评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

东方佑

你的鼓励是我最大的动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值