项目地址:
https://github.com/baidu/lac
安装:
建议使用如下命令安装:
python38 -m pip install -U lac
否则会出一些问题
测试代码:
#coding:utf-8
#python38
from LAC import LAC
def deal_Tags_ByLAC(words):
#设置模式
lac = LAC(mode='lac')
#加载自定义字典
lac.load_customization("online_sec-dict.txt")
lac_result = lac.run(words)
if len(lac_result[1])<2 and lac_result[1][0].find('n')>=0:
print (words,'---|-->',lac_result[0],'---|-->',lac_result[1])
def main():
mstr = ['信用卡', '信息安全','恶意软件', '软件', 'python软件库现恶意软件能盗取用户信用卡信息', 'pypi', '安全', '信息', 'python', '盗取', '库现']
for i in mstr:
deal_Tags_ByLAC(i)
if __name__ == '__main__':
main()
结果
(耗时是比较的长,因为当时主要是为了分析词性,找到了LAC,后来发现jieba自带可以输出词性,后面还是使用了jieba分词)
以下为使用过程中的弯路
安装paddlepaddle(飞桨)
安装paddle
python37 -m pip install common -i https://pypi.tuna.tsinghua.edu.cn/simple
python37 -m pip install dual -i https://pypi.tuna.tsinghua.edu.cn/simple
python37 -m pip install data -i https://pypi.tuna.tsinghua.edu.cn/simple
python37 -m pip install prox -i https://pypi.tuna.tsinghua.edu.cn/simple
python37 -m pip install tight -i https://pypi.tuna.tsinghua.edu.cn/simple
python37 -m pip install paddle -i https://pypi.tuna.tsinghua.edu.cn/simple
安装paddlepaddle
python37 -m pip install paddlepaddle -i https://pypi.tuna.tsinghua.edu.cn/simple
python37 -m pip install paddlepaddle
https://www.paddlepaddle.org.cn/install/quick?docurl=/documentation/docs/zh/install/pip/windows-pip.html
安装后在使用中,出现以下报错:
关于AVX:
https://post.smzdm.com/p/a4wm098x/
发现现用CPU并支持AVX指令集,后续需要下载noavx版本,但对python版本有要求
pythom3.8
https://www.python.org/downloads/release/python-3810/
下载noavx版本:
https://github.com/PaddlePaddle/Paddle/issues/31165
https://www.paddlepaddle.org.cn/whl/stable/noavx.html
折腾半天,卸载lac,重新使用命令:
python38 -m pip install -U lac
安装之后,测试正常:
#coding:utf-8
#python38
from LAC import LAC
import paddle as paddle
import paddle.fluid as fluid
import numpy as np
def main():
lac = LAC(mode='seg')
mstr = 'LAC是个优秀的分词工具'
seg_result = lac.run(mstr)
print (seg_result)
if __name__ == '__main__':
main()
但是安装过程中paddle模块报错众多,估计后期使用中会有问题:
ERROR: Command errored out with exit status 1:
command: 'C:\Python38\python38.exe' -c 'import io, os, sys, setuptools, tokenize; sys.argv[0] = '"'"'C:\\Users\\***\\AppData\\Local\\Temp\\pip-install-kysjemv2\\lac_30ef2c595fae4909acd1bd5c95509f47\\setup.py'"'"'; __file__='"'"'C:\\Users\\***\\AppData\\Local\\Temp\\pip-install-kysjemv2\\lac_30ef2c595fae4909acd1bd5c95509f47\\setup.py'"'"';f = getattr(tokenize, '"'"'open'"'"', open)(__file__) if os.path.exists(__file__) else io.StringIO('"'"'from setuptools import setup; setup()'"'"');code = f.read().replace('"'"'\r\n'"'"', '"'"'\n'"'"');f.close();exec(compile(code, __file__, '"'"'exec'"'"'))' egg_info --egg-base 'C:\Users\****\AppData\Local\Temp\pip-pip-egg-info-scy5seug'
cwd: C:\Users\**\AppData\Local\Temp\pip-install-kysjemv2\lac_30ef2c595fae4909acd1bd5c95509f47\
Complete output (5 lines):
Traceback (most recent call last):
File "<string>", line 1, in <module>
File "C:\Users\***\AppData\Local\Temp\pip-install-kysjemv2\lac_30ef2c595fae4909acd1bd5c95509f47\setup.py", line 33, in <module>
if paddle.__version__ < '1.6.0':
AttributeError: module 'paddle' has no attribute '__version__'
拓展阅读(点评/知识):
参考:
https://www.freesion.com/article/4512610119/
帮助说明:
工具介绍
LAC全称Lexical Analysis of Chinese,是百度自然语言处理部研发的一款联合的词法分析工具,实现中文分词、词性标注、专名识别等功能。该工具具有以下特点与优势:
- 效果好:通过深度学习模型联合学习分词、词性标注、专名识别任务,词语重要性,整体效果F1值超过0.91,词性标注F1值超过0.94,专名识别F1值超过0.85,效果业内领先。
- 效率高:精简模型参数,结合Paddle预测库的性能优化,CPU单线程性能达800QPS,效率业内领先。
- 可定制:实现简单可控的干预机制,精准匹配用户词典对模型进行干预。词典支持长片段形式,使得干预更为精准。
- 调用便捷:支持一键安装,同时提供了Python、Java和C++调用接口与调用示例,实现快速调用和集成。
- 支持移动端: 定制超轻量级模型,体积仅为2M,主流千元手机单线程性能达200QPS,满足大多数移动端应用的需求,同等体积量级效果业内领先。
安装与使用
在此我们主要介绍Python安装与使用,其他语言使用:
安装说明
代码兼容Python2/3
-
全自动安装:
pip install lac
-
半自动下载:先下载http://pypi.python.org/pypi/lac/,解压后运行
python setup.py install
-
安装完成后可在命令行输入
lac
或lac --segonly
,lac --rank
启动服务,进行快速体验。国内网络可使用百度源安装,安装速率更快:
pip install lac -i https://mirror.baidu.com/pypi/simple
功能与使用
分词
- 代码示例:
from LAC import LAC
# 装载分词模型
lac = LAC(mode='seg')
# 单个样本输入,输入为Unicode编码的字符串
text = u"LAC是个优秀的分词工具"
seg_result = lac.run(text)
# 批量样本输入, 输入为多个句子组成的list,平均速率会更快
texts = [u"LAC是个优秀的分词工具", u"百度是一家高科技公司"]
seg_result = lac.run(texts)
- 输出:
【单样本】:seg_result = [LAC, 是, 个, 优秀, 的, 分词, 工具]
【批量样本】:seg_result = [[LAC, 是, 个, 优秀, 的, 分词, 工具], [百度, 是, 一家, 高科技, 公司]]
词性标注与实体识别
- 代码示例:
from LAC import LAC
# 装载LAC模型
lac = LAC(mode='lac')
# 单个样本输入,输入为Unicode编码的字符串
text = u"LAC是个优秀的分词工具"
lac_result = lac.run(text)
# 批量样本输入, 输入为多个句子组成的list,平均速率更快
texts = [u"LAC是个优秀的分词工具", u"百度是一家高科技公司"]
lac_result = lac.run(texts)
- 输出:
每个句子的输出其切词结果word_list以及对每个单词的标注tags_list,其格式为(word_list, tags_list)
【单样本】: lac_result = ([百度, 是, 一家, 高科技, 公司], [ORG, v, m, n, n])
【批量样本】:lac_result = [
([百度, 是, 一家, 高科技, 公司], [ORG, v, m, n, n]),
([LAC, 是, 个, 优秀, 的, 分词, 工具], [nz, v, q, a, u, n, n])
]
词性和专名类别标签集合如下表,其中我们将最常用的4个专名类别标记为大写的形式:
标签 | 含义 | 标签 | 含义 | 标签 | 含义 | 标签 | 含义 |
---|---|---|---|---|---|---|---|
n | 普通名词 | f | 方位名词 | s | 处所名词 | nw | 作品名 |
nz | 其他专名 | v | 普通动词 | vd | 动副词 | vn | 名动词 |
a | 形容词 | ad | 副形词 | an | 名形词 | d | 副词 |
m | 数量词 | q | 量词 | r | 代词 | p | 介词 |
c | 连词 | u | 助词 | xc | 其他虚词 | w | 标点符号 |
PER | 人名 | LOC | 地名 | ORG | 机构名 | TIME | 时间 |
词语重要性
- 代码示例:
from LAC import LAC
# 装载词语重要性模型
lac = LAC(mode='rank')
# 单个样本输入,输入为Unicode编码的字符串
text = u"LAC是个优秀的分词工具"
rank_result = lac.run(text)
# 批量样本输入, 输入为多个句子组成的list,平均速率会更快
texts = [u"LAC是个优秀的分词工具", u"百度是一家高科技公司"]
rank_result = lac.run(texts)
- 输出:
【单样本】:rank_result = [['LAC', '是', '个', '优秀', '的', '分词', '工具'],
[nz, v, q, a, u, n, n],[3, 0, 0, 2, 0, 3, 1]]
【批量样本】:rank_result = [
(['LAC', '是', '个', '优秀', '的', '分词', '工具'],
[nz, v, q, a, u, n, n], [3, 0, 0, 2, 0, 3, 1]),
(['百度', '是', '一家', '高科技', '公司'],
[ORG, v, m, n, n], [3, 0, 2, 3, 1])
]
词语重要性各类别标签集合如下表,我们使用4-Level梯度进行分类:
标签 | 含义 | 常见于词性 |
---|---|---|
0 | query中表述的冗余词 | p, w, xc … |
1 | query中限定较弱的词 | r, c, u … |
2 | query中强限定的词 | n, s, v … |
3 | query中的核心词 | nz, nw, LOC … |
定制化功能
在模型输出的基础上,LAC还支持用户配置定制化的切分结果和专名类型输出。当模型预测匹配到词典的中的item时,会用定制化的结果替代原有结果。为了实现更加精确的匹配,我们支持以由多个单词组成的长片段作为一个item。
我们通过装载词典文件的形式实现该功能,词典文件每行表示一个定制化的item,由一个单词或多个连续的单词组成,每个单词后使用’/’表示标签,如果没有’/’标签则会使用模型默认的标签。每个item单词数越多,干预效果会越精准。
-
词典文件示例
这里仅作为示例,展现各种需求情况下的结果。后续还将开放以通配符配置词典的模式,敬请期待。
春天/SEASON
花/n 开/v
秋天的风
落 阳
- 代码示例
from LAC import LAC
lac = LAC()
# 装载干预词典, sep参数表示词典文件采用的分隔符,为None时默认使用空格或制表符'\t'
lac.load_customization('custom.txt', sep=None)
# 干预后结果
custom_result = lac.run(u"春天的花开秋天的风以及冬天的落阳")
- 以输入“春天的花开秋天的风以及冬天的落阳”为例,原本输出结果为:
春天/TIME 的/u 花开/v 秋天/TIME 的/u 风/n 以及/c 冬天/TIME 的/u 落阳/n
- 添加示例中的词典文件后的结果为:
春天/SEASON 的/u 花/n 开/v 秋天的风/n 以及/c 冬天/TIME 的/u 落/n 阳/n
增量训练
我们也提供了增量训练的接口,用户可以使用自己的数据,进行增量训练,首先需要将数据转换为模型输入的格式,并且所有数据文件均为”UTF-8″编码:
1. 分词训练
-
数据样例
与大多数开源分词数据集格式一致,使用空格作为单词切分标记,如下所示:
LAC 是 个 优秀 的 分词 工具 。
百度 是 一家 高科技 公司 。
春天 的 花开 秋天 的 风 以及 冬天 的 落阳 。
- 代码示例
from LAC import LAC
# 选择使用分词模型
lac = LAC(mode = 'seg')
# 训练和测试数据集,格式一致
train_file = "./data/seg_train.tsv"
test_file = "./data/seg_test.tsv"
lac.train(model_save_dir='./my_seg_model/',train_data=train_file, test_data=test_file)
# 使用自己训练好的模型
my_lac = LAC(model_path='my_seg_model')
2. 词法分析训练
-
样例数据
在分词数据的基础上,每个单词以“/type”的形式标记其词性或实体类别。值得注意的是,词法分析的训练目前仅支持标签体系与我们一致的数据。后续也会开放支持新的标签体系,敬请期待。
LAC/nz 是/v 个/q 优秀/a 的/u 分词/n 工具/n 。/w
百度/ORG 是/v 一家/m 高科技/n 公司/n 。/w
春天/TIME 的/u 花开/v 秋天/TIME 的/u 风/n 以及/c 冬天/TIME 的/u 落阳/n 。/w
- 代码示例
from LAC import LAC
# 选择使用默认的词法分析模型
lac = LAC()
# 训练和测试数据集,格式一致
train_file = "./data/lac_train.tsv"
test_file = "./data/lac_test.tsv"
lac.train(model_save_dir='./my_lac_model/',train_data=train_file, test_data=test_file)
# 使用自己训练好的模型
my_lac = LAC(model_path='my_lac_model')
文件结构
.
├── python # Python调用的脚本
├── c++ # C++调用的代码
├── java # Java调用的代码
├── Android # Android调用的示例
├── README.md # 本文件
└── CMakeList.txt # 编译C++和Java调用的脚本
本文标题: | [python] 百度分词工具:lac测试以及paddle等 — vulsee.com |
本文链接: (转载请附上本文链接) | https://vulsee.com/archives/vulsee_2022/0122_15961.html |