4 worker() 初始化参数

worker() 用于新建分词引擎,可以同时新建多个分词引擎。引擎的类型有: mix(混合模型), mp(最大概率模型), hmm(HMM模型), query(索引模型), tag(标记模型), simhash(Simhash 模型)和 keywords(关键词模型),共7种。 默认参数

worker(
    type = "mix", 
    dict = DICTPATH, 
    hmm = HMMPATH, 
    user = USERPATH,
    idf = IDFPATH, 
    stop_word = 
    STOPPATH, 
    write = T, 
    qmax = 20, 
    topn = 5,
    encoding = "UTF-8", 
    detect = T, 
    symbol = F, 
    lines = 1e+05,
    output = NULL, 
    bylines = F)

4.0.1 type

mp(最大概率模型)- 基于词典和词频

hmm(HMM模型)- 基于 HMM 模型,可以发现词典中没有的词

mix(混合模型)- 先用 mp 分,mp 分完调用 hmm 再来把剩余的可能成词的单字分出来。

query(索引模型)- mix 基础上,对大于一定长度的词再进行一次切分。

tag(标记模型)- 词性标记,基于词典的

keywords(关键词模型)- tf-idf 抽 关键词

simhash(Simhash 模型) - 在关键词的基础上计算 simhash

4.0.2 dict 系统词典

优先载入的词典,纯文本文件,默认路径为 jiebaR::DICTPATH 包括词、词频、词性标记三列,用空格分开三列。可以输入自定义路径。

readLines(jiebaR::DICTPATH, 5)
#> [1] "1号店 3 n" "1號店 3 n" "4S店 3 n"  "4s店 3 n"  "AA制 3 n"

4.0.3 user 用户词典

用户词典,包括词、词性标记两列。用户词典中的所有词的词频均为系统词典中的最大词频 (默认,可以通过 user_weight 参数修改)。

4.0.4 user_weight

用户词典中的词的词频,默认为 “max”,系统词典中的最大值。

还可以选 “min” 最小值或者 “median” 中位数。

4.0.5 idf IDF词典

IDF 词典,关键词提取使用。

4.0.6 stop_word 关键词用停止词库

关键词提取使用的停止词库。分词时也可以使用,但是分词时使用的对应路径不能为默认的 jiebaR::STOPPATH。

4.0.7 write 写入文件

是否将文件分词结果写入文件,默认为否。只在输入内容为文件路径时,本参数才会被使用。本参数只对分词和词性标注有效。

4.0.8 qmax 最大索引长度

索引模型中,最大可能成词的字符数。

4.0.9 topn 关键词数

提取的关键词数。

4.0.10 encoding 输入文件编码

输入文件的编码,默认为UTF-8。

4.0.11 detect 检测编码

是否检查输入文件的编码,默认检查。

4.0.12 symbol 保留符号

是否保留符号,默认不保留符号。

4.0.13 lines 读取行数

每次读取文件的最大行数,用于控制读取文件的长度。对于大文件,实现分次读取。

4.0.14 output 输出路径

指定输出路径,一个字符串路径。只在输入内容为文件路径时,本参数才会被使用。

4.0.15 bylines 按行输出

文件结果是否按行输出,如果是,则将读入的文件或字符串向量按行逐个进行分词操作。