活动介绍

tokenizer:一个简单的中文分词算法,可用于网游脏词过滤、搜索引擎文档解析、自然语言处理等需要中文分词的场合

preview
共3个文件
py:1个
md:1个
license:1个
需积分: 50 9 下载量 20 浏览量 2021-04-27 14:37:51 上传 评论 1 收藏 3KB ZIP 举报
林John
  • 粉丝: 59
上传资源 快速赚钱
voice
center-task 前往需求广场,查看用户热搜