草庐IT

neutral_split

全部标签

python - 如何避免 NLTK 的句子分词器在缩写时 split ?

我目前正在使用NLTK进行语言处理,但是我遇到了句子分词的问题。问题来了:假设我有一句话:“图2显示了一张美国map。”当我使用punkttokenizer时,我的代码如下所示:fromnltk.tokenize.punktimportPunktSentenceTokenizer,PunktParameterspunkt_param=PunktParameters()abbreviation=['U.S.A','fig']punkt_param.abbrev_types=set(abbreviation)tokenizer=PunktSentenceTokenizer(punkt_pa

Python - 描述符 'split' 需要一个 'str' 对象但收到了一个 'unicode'

嗯,我有现成的代码,我确信它确实有效,但我收到以下错误:TypeError:descriptor'split'requiresa'str'objectbutreceiveda'unicode'这就是全部定义:defassemblePacket(self,type):ipSplit=str.split(self.serverVars[0],'.')packet='SAMP'packet+=chr(int(ipSplit[0]))packet+=chr(int(ipSplit[1]))packet+=chr(int(ipSplit[2]))packet+=chr(int(ipSplit[3

python split() vs rsplit() 性能?

我在python中有一个字符串。我想在非常接近字符串末尾的分隔符上用maxsplit=1拆分它。例如a="abcdefghijklmnopqrstuvwxyz,1".在性能方面,a.split(",",1)是否会比a.rsplit(",",1)更好? 最佳答案 下面是使用timeit.timeit的时间测试比较两种方法的速度:>>>fromtimeitimporttimeit>>>timeit('"abcdefghijklmnopqrstuvwxyz,1".split(",",1)')1.6438178595324267>>>tim

python - 不要用 Python 字符串 split() 拆分双引号单词?

当使用Python字符串函数split()时,有人有妙招可以将双引号包围的项目视为非拆分词吗?假设我只想在空白处拆分,我有这个:>>>myStr='AB\t"C"DE"FE"\t\t"GHIJKL"""""\t"OPQ"R'>>>myStr.split()['A','B','"C"','DE','"FE"','"GH','I','JK','L"','""','""','"O','P','Q"','R']我想将双引号内的任何内容都视为一个单词,即使嵌入了空格,所以我想以以下结尾:['A','B','C','DE','FE','GHIJKL','','','OPQ','R']或者至少这个,

python - shlex.split 仍然不支持 unicode?

根据文档,在Python2.7.3中,shlex应该支持UNICODE。但是,当运行下面的代码时,我得到:UnicodeEncodeError:'ascii'codeccan'tencodecharactersinposition184-189:ordinalnotinrange(128)我做错了什么吗?importshlexcommand_full=u'software.py-fileA="sequence.fasta"-fileB="新建文本文档.fasta.txt"-output_dir="..."-FORMtitle="tst"'shlex.split(command_full

python - 将字符串转换为列表。 Python [string.split() 行为怪异]

temp="['a','b','c']"printtype(temp)#stringoutput=['a','b','c']printtype(output)#list所以我有这个临时字符串,它基本上是一个字符串格式的列表。..我正试图将它重新变成一个列表,但我不确定这样做的简单方法。我知道一种方法,但我宁愿不使用正则表达式如果我使用temp.split()我得到temp_2=["['a','b','c']"] 最佳答案 使用ast.literal_eval():SafelyevaluateanexpressionnodeoraUn

Python re.split() 与 nltk word_tokenize 和 sent_tokenize

我正在浏览thisquestion.我只是想知道NLTK在单词/句子标记化方面是否会比正则表达式更快。 最佳答案 默认的nltk.word_tokenize()使用Treebanktokenizer模拟来自PennTreebanktokenizer的分词器.请注意,str.split()并未实现语言学意义上的记号,例如:>>>sent="Thisisafoo,barsentence.">>>sent.split()['This','is','a','foo,','bar','sentence.']>>>fromnltkimportw

python - 不区分大小写的 Python 字符串 split() 方法

我有两个字符串a="abcfeat.def"b="abcFeat.def"我想检索单词feat.或Feat.之前的字符串这就是我在做的a.split("feat.",1)[0].rstrip()这将返回abc。但是如何使用分隔符执行不区分大小写的搜索?这是我目前尝试过的b.split("feat."or"Feat.",1)[0].rstrip()输出-abc壮举。defb.split("feat."and"Feat.",1)[0].rstrip()输出-abca.split("feat."and"Feat.",1)[0].rstrip()输出-abcfeat.def.a.split("

python - cython中的缓慢 split

为了在cython中快速除法,我可以使用编译指令@cython.cdivision(True)这是可行的,因为生成的C代码没有零除检查。但是由于某种原因,它实际上使我的代码变慢了。这是一个例子:@cython.boundscheck(False)@cython.wraparound(False)@cython.nonecheck(False)@cython.cdivision(True)defexample1(double[:]xi,double[:]a,double[:]b,intD):cdefintkcdefdouble[:]x=np.zeros(D)forkinrange(D):

python - string.split(text) 或 text.split() : what's the difference?

有一件事我不明白......假设您有一个text="helloworld"并且您想要拆分它。在某些地方,我看到人们想要拆分文本:string.split(text)在其他地方,我看到人们只是在做:text.split()有什么区别?为什么你以一种方式或另一种方式做?你能给我一个理论解释吗? 最佳答案 有趣的是,两者的文档字符串在Python2.5.1中并不完全相同:>>>importstring>>>help(string.split)Helponfunctionsplitinmodulestring:split(s,sep=Non