You can not select more than 25 topics Topics must start with a chinese character,a letter or number, can include dashes ('-') and can be up to 35 characters long.

README.md 7.0 kB

6 years ago
4 years ago
6 years ago
6 years ago
6 years ago
6 years ago
5 years ago
6 years ago
5 years ago
6 years ago
5 years ago
5 years ago
6 years ago
5 years ago
6 years ago
6 years ago
5 years ago
6 years ago
5 years ago
6 years ago
5 years ago
6 years ago
5 years ago
6 years ago
6 years ago
6 years ago
5 years ago
5 years ago
6 years ago
5 years ago
5 years ago
5 years ago
6 years ago
4 years ago
6 years ago
6 years ago
6 years ago
6 years ago
5 years ago
6 years ago
6 years ago
6 years ago
5 years ago
5 years ago
5 years ago
6 years ago
5 years ago
4 years ago
4 years ago
4 years ago
4 years ago
4 years ago
4 years ago
4 years ago
6 years ago
5 years ago
6 years ago
6 years ago
6 years ago
5 years ago
123456789101112131415161718192021222324252627282930313233343536373839404142434445464748495051525354555657585960616263646566676869707172737475767778798081828384858687888990919293949596979899100101102103104105106107108109110111112113114115116117118119120121122123124125126127128129130131132133134135136137138139140141142143144145146147148149150151152153154155156157158159160161162163164165166167168169170171172173174175176177178179180181182183184185186187188189190191192193194195196197198199200201202203204205206207208209210211212213214215216217218219220221222223224225226227228229
  1. # Jiagu自然语言处理工具
  2. >>> Jiagu使用大规模语料训练而成。将提供中文分词、词性标注、命名实体识别、情感分析、知识图谱关系抽取、关键词抽取、文本摘要、新词发现、情感分析、文本聚类等常用自然语言处理功能。参考了各大工具优缺点制作,将Jiagu回馈给大家。
  3. ## 目录
  4. * [安装方式](#安装方式)
  5. * [使用方式](#使用方式)
  6. * [评价标准](#评价标准)
  7. * [附录说明](#附录)
  8. ---
  9. 提供的功能有:
  10. * 中文分词
  11. * 词性标注
  12. * 命名实体识别
  13. * 知识图谱关系抽取
  14. * 关键词提取
  15. * 文本摘要
  16. * 新词发现
  17. * 情感分析
  18. * 文本聚类
  19. * 等等。。。。
  20. ---
  21. ## 安装方式
  22. pip安装
  23. ```shell
  24. pip install -U jiagu
  25. ```
  26. 如果比较慢,可以使用清华的pip源:`pip install -U jiagu -i https://pypi.tuna.tsinghua.edu.cn/simple`
  27. 源码安装
  28. ```shell
  29. git clone https://github.com/ownthink/Jiagu
  30. cd Jiagu
  31. python3 setup.py install
  32. ```
  33. ## 使用方式
  34. 1. 快速上手:分词、词性标注、命名实体识别
  35. ```python3
  36. import jiagu
  37. #jiagu.init() # 可手动初始化,也可以动态初始化
  38. text = '厦门明天会不会下雨'
  39. words = jiagu.seg(text) # 分词
  40. print(words)
  41. pos = jiagu.pos(words) # 词性标注
  42. print(pos)
  43. ner = jiagu.ner(words) # 命名实体识别
  44. print(ner)
  45. ```
  46. 2. 中文分词
  47. ```python3
  48. import jiagu
  49. text = '汉服和服装、维基图谱'
  50. words = jiagu.seg(text)
  51. print(words)
  52. # jiagu.load_userdict('dict/user.dict') # 加载自定义字典,支持字典路径、字典列表形式。
  53. jiagu.load_userdict(['汉服和服装'])
  54. words = jiagu.seg(text) # 自定义分词,字典分词模式有效
  55. print(words)
  56. ```
  57. 3. 知识图谱关系抽取
  58. 仅用于测试用,可以pip3 install jiagu==0.1.8,只能使用百科的描述进行测试。效果更佳的后期将会开放api。
  59. ```python3
  60. import jiagu
  61. # 吻别是由张学友演唱的一首歌曲。
  62. # 《盗墓笔记》是2014年欢瑞世纪影视传媒股份有限公司出品的一部网络季播剧,改编自南派三叔所著的同名小说,由郑保瑞和罗永昌联合导演,李易峰、杨洋、唐嫣、刘天佐、张智尧、魏巍等主演。
  63. text = '姚明1980年9月12日出生于上海市徐汇区,祖籍江苏省苏州市吴江区震泽镇,前中国职业篮球运动员,司职中锋,现任中职联公司董事长兼总经理。'
  64. knowledge = jiagu.knowledge(text)
  65. print(knowledge)
  66. ```
  67. 训练数据:https://github.com/ownthink/KnowledgeGraphData
  68. 4. 关键词提取
  69. ```python3
  70. import jiagu
  71. text = '''
  72. 该研究主持者之一、波士顿大学地球与环境科学系博士陈池(音)表示,“尽管中国和印度国土面积仅占全球陆地的9%,但两国为这一绿化过程贡献超过三分之一。考虑到人口过多的国家一般存在对土地过度利用的问题,这个发现令人吃惊。”
  73. NASA埃姆斯研究中心的科学家拉玛·内曼尼(Rama Nemani)说,“这一长期数据能让我们深入分析地表绿化背后的影响因素。我们一开始以为,植被增加是由于更多二氧化碳排放,导致气候更加温暖、潮湿,适宜生长。”
  74. “MODIS的数据让我们能在非常小的尺度上理解这一现象,我们发现人类活动也作出了贡献。”
  75. NASA文章介绍,在中国为全球绿化进程做出的贡献中,有42%来源于植树造林工程,对于减少土壤侵蚀、空气污染与气候变化发挥了作用。
  76. 据观察者网过往报道,2017年我国全国共完成造林736.2万公顷、森林抚育830.2万公顷。其中,天然林资源保护工程完成造林26万公顷,退耕还林工程完成造林91.2万公顷。京津风沙源治理工程完成造林18.5万公顷。三北及长江流域等重点防护林体系工程完成造林99.1万公顷。完成国家储备林建设任务68万公顷。
  77. '''
  78. keywords = jiagu.keywords(text, 5) # 关键词
  79. print(keywords)
  80. ```
  81. 5. 文本摘要
  82. ```python3
  83. import jiagu
  84. fin = open('input.txt', 'r')
  85. text = fin.read()
  86. fin.close()
  87. summarize = jiagu.summarize(text, 3) # 摘要
  88. print(summarize)
  89. ```
  90. 6. 新词发现
  91. ```python3
  92. import jiagu
  93. jiagu.findword('input.txt', 'output.txt') # 根据文本,利用信息熵做新词发现。
  94. ```
  95. 7. 情感分析
  96. ```python3
  97. import jiagu
  98. text = '很讨厌还是个懒鬼'
  99. sentiment = jiagu.sentiment(text)
  100. print(sentiment)
  101. ```
  102. 8. 文本聚类
  103. ```python3
  104. import jiagu
  105. docs = [
  106. "百度深度学习中文情感分析工具Senta试用及在线测试",
  107. "情感分析是自然语言处理里面一个热门话题",
  108. "AI Challenger 2018 文本挖掘类竞赛相关解决方案及代码汇总",
  109. "深度学习实践:从零开始做电影评论文本情感分析",
  110. "BERT相关论文、文章和代码资源汇总",
  111. "将不同长度的句子用BERT预训练模型编码,映射到一个固定长度的向量上",
  112. "自然语言处理工具包spaCy介绍",
  113. "现在可以快速测试一下spaCy的相关功能,我们以英文数据为例,spaCy目前主要支持英文和德文"
  114. ]
  115. cluster = jiagu.text_cluster(docs)
  116. print(cluster)
  117. ```
  118. ## 评价标准
  119. 1. msr测试结果(旧版本)
  120. ![msr](https://github.com/ownthink/evaluation/blob/master/images/2.png)
  121. ## 附录
  122. 1. 词性标注说明
  123. ```text
  124. n   普通名词
  125. nt   时间名词
  126. nd   方位名词
  127. nl   处所名词
  128. nh   人名
  129. nhf  姓
  130. nhs  名
  131. ns   地名
  132. nn   族名
  133. ni   机构名
  134. nz   其他专名
  135. v   动词
  136. vd  趋向动词
  137. vl  联系动词
  138. vu  能愿动词
  139. a   形容词
  140. f   区别词
  141. m   数词  
  142. q   量词
  143. d   副词
  144. r   代词
  145. p   介词
  146. c   连词
  147. u   助词
  148. e   叹词
  149. o   拟声词
  150. i   习用语
  151. j   缩略语
  152. h   前接成分
  153. k   后接成分
  154. g   语素字
  155. x   非语素字
  156. w   标点符号
  157. ws  非汉字字符串
  158. wu  其他未知的符号
  159. ```
  160. 2. 命名实体说明(采用BIO标记方式)
  161. ```text
  162. B-PER、I-PER 人名
  163. B-LOC、I-LOC 地名
  164. B-ORG、I-ORG 机构名
  165. ```
  166. ## 加入我们
  167. ```text
  168. 人工智能qq群1:90780053(满)
  169. 人工智能qq群2:956936481(满)
  170. 人工智能qq群3:1160292084(满)
  171. 人工智能qq群4:1019825236
  172. 知识图谱qq群1:55152968(满)
  173. 知识图谱qq群2:740104333(满)
  174. 知识图谱qq群3:586457987
  175. 微信群可联系作者微信:MrYener,作者邮箱联系方式:help@ownthink.com
  176. ```
  177. <p>捐赠作者(您的鼓励是作者开源最大的动力!!!):<a href="https://github.com/ownthink/Jiagu/wiki/donation"target="_blank">捐赠致谢</a> </p>
  178. ![收款码](https://github.com/ownthink/KnowledgeGraph/raw/master/img/%E6%94%B6%E6%AC%BE%E7%A0%81.jpg)
  179. ## 贡献者:
  180. 1. [Yener](https://github.com/ownthink)
  181. 2. [zengbin93](https://github.com/zengbin93)
  182. 3. [dirtdust](https://github.com/dirtdust)
  183. 4. [frankchen7788](https://github.com/frankchen7788)

Jiagu使用大规模语料训练而成。将提供中文分词、词性标注、命名实体识别、情感分析、知识图谱关系抽取、关键词抽取、文本摘要、新词发现、情感分析、文本聚类等常用自然语言处理功能。参考了各大工具优缺点制作,将Jiagu回馈给大家