草庐IT

kill-word

全部标签

python - 如何以编程方式使用 Microsoft Word 的拼写/语法检查器?

我想使用拼写/语法检查器处理中等到大量的文本片段,以获得它们“质量”的粗略近似值和排名。速度也不是真正关心的问题,所以我认为最简单的方法是编写一个脚本,将片段传递给MicrosoftWord(2007),并在它们上运行拼写和语法检查器。有没有办法从脚本(特别是Python)中做到这一点?什么是学习以编程方式控制Word的好资源?如果没有,我想我可以尝试来自OpenSourceGrammarChecker(SO)的东西.更新作为对Chris回答的回应,至少有一种方法可以a)打开一个文件(包含代码片段),b)从Word内部运行一个调用拼写和语法检查器的VBA脚本,以及c)返回片段“分数”的

python - 滥用nltk的word_tokenize(sent)的后果

我正在尝试将一段分成几个词。我手边有可爱的nltk.tokenize.word_tokenize(sent),但是help(word_tokenize)说,“这个分词器被设计为一次处理一个句子。”有谁知道如果在段落中使用它会发生什么情况,即最多5个句子?我自己在几个短段落上尝试过,它似乎有效,但这并不是决定性的证据。 最佳答案 nltk.tokenize.word_tokenize(text)只是一个薄的wrapperfunction调用TreebankWordTokenizer实例的tokenize方法类,它显然使用简单的正则表达

带有 shell=True : redirections and platform-independent subprocess killing 的 python 子进程

我很难从python子进程模块中得到我想要的东西(它应该是一个统一/独立于平台的抽象,afaik,但不要让我开始这样做:))。所以我所追求的简单的事情如下。我要启动一个外部(stdio)应用程序(可能带有子进程),我在其中使用shell样式的重定向(例如'./myapp>stdout_log>stderr_log')基本上我想执行shell命令行,所以我必须为subprocess.Popen()指定shell=True(否则命令行中的重定向将不起作用)我想以异步方式启动此命令行(因此它作为独立的子进程运行,但我的python进程不会等待它完成)(我的父python进程会不时查看子进程的

python - 创建 word2vec 模型 syn1neg.npy 扩展

创建模型时,已经没有扩展完成的模型了.syn1neg.npysyn0.npy我的代码如下:corpus=x+ytok_corp=[nltk.word_tokenize(sent.decode('utf-8'))forsentincorpus]model=gensim.models.Word2Vec(tok_corp,min_count=1,size=32)model.save('/home/Desktop/test_model')model=gensim.models.Word2Vec.load('/home/kafein/Desktop/chatbot/test_model')只有1

python - 谷歌应用引擎( python ): TemplateSyntaxError: 'for' statements with five words should end in 'reversed'

这是使用网络应用程序框架,而不是Django。当我尝试呈现字典时,以下模板代码给我一个TemplateSyntaxError:'for'statementswithfivewordsshouldendin'reversed'错误。我不明白是什么导致了这个错误。有人可以帮我解释一下吗?{%forcode,nameincharts.items%}{{name}}{%endfor%}我使用以下方法渲染它:classGenerateChart(basewebview):defget(self):values={"datepicker":True}values["charts"]={"p3":"

python - 确保 gensim 为同一数据的不同运行生成相同的 Word2Vec 模型

在LDAmodelgeneratesdifferenttopicseverytimeitrainonthesamecorpus,通过设置np.random.seed(0),LDA模型将始终以完全相同的方式进行初始化和训练。gensim的Word2Vec模型是否相同?通过将随机种子设置为常量,在同一数据集上的不同运行会产生相同的模型吗?但奇怪的是,它已经在不同的实例中为我提供了相同的向量。>>>fromnltk.corpusimportbrown>>>fromgensim.modelsimportWord2Vec>>>sentences=brown.sents()[:100]>>>mod

python - 在 python 中创建矢量图形以在 word/powerpoint 中使用的最佳方法

我通常将python中的绘图保存为PNG。这工作正常,但在事后重新缩放时有明显的缺点。因此,我想将我的绘图、图形等保存为矢量图形,然后能够将它们导入到windows应用程序中,例如word或powerpoint。我现在面临几个问题。将matplotlib中的内容保存为支持矢量图形(SVG)效果很好。问题,我不能(轻易地)将它导入到word或pp中。另存为EPS会产生可怕的结果。例如,我在两条线之间设置了阴影区域(使用alpha为0.3的fill_between),并且在EPS中这些区域是全彩色的。可以导入到word/pp中,但图形效果不佳。我还尝试使用inkscape将SVG文件转换为

python - 未为 Word2Vec 加载 C 扩展

我重新安装了gensimpkg和Cython,但它不断显示此警告,有人知道吗?我正在使用Python3.6、PyCharmLinuxMint。用户警告:未为Word2Vec加载C扩展,训练会很慢。安装C编译器并重新安装gensim以进行快速训练。warnings.warn("没有为Word2Vec加载C扩展,训练会很慢。"当我创建或加载模型时,它也会显示这一行。正在使用gensim.models.doc2vec的慢版本 最佳答案 一些基础包不是最新的存在一些问题。Here我找到了适合我的答案,简而言之:卸载Gensimsudopip

python - 将预训练的 word2vec 向量注入(inject) TensorFlow seq2seq

我试图将预训练的word2vec向量注入(inject)现有的tensorflowseq2seq模型。正在关注thisanswer,我制作了以下代码。但它似乎并没有像它应该的那样提高性能,尽管变量中的值已更新。根据我的理解,错误可能是由于EmbeddingWrapper或embedding_attention_decoder创建独立于词汇顺序的嵌入?将预训练向量加载到tensorflow模型中的最佳方法是什么?SOURCE_EMBEDDING_KEY="embedding_attention_seq2seq/RNN/EmbeddingWrapper/embedding"TARGET_E

python - 如何加载预训练的 Word2vec 模型文件并重新使用它?

我想使用预训练的word2vec模型,但我不知道如何在python中加载它。此文件是模型文件(703MB)。可以在这里下载:http://devmount.github.io/GermanWordEmbeddings/ 最佳答案 只是为了加载importgensim#Loadpre-trainedWord2Vecmodel.model=gensim.models.Word2Vec.load("modelName.model")现在您可以照常训练模型了。另外,如果你想保存它并多次重新训练它,你应该这样做model.train(//in