草庐IT

xml - 通过 SPARQL 使用 R XML 编码问题

我遇到了R的SPARQL包的编码问题。我正在运行以下代码:library(SPARQL)rights_queryPREFIXedm:PREFIXore:PREFIXrdf:SELECTDISTINCT?edmrights?provider(COUNT(*)as?count)WHERE{?aggrdf:typeore:Aggregation.?aggedm:rights?edmrights.#?aggdc:rights?dcrights.?aggedm:dataProvider?provider.?proxyore:proxyIn?agg.?proxyedm:type"IMAGE".}G

xml - R:将节点插入特定位置的xml树

数据我有一个结构如下的xml文件(显示所需灵active的大示例):具体来说,tag中任何一个的大小节点未知,所有属性的数量都不相等tag节点和属性的值不是唯一的。然而,我所知道的是searchA的值属性是唯一的。此外,只有tag节点可以包含一个名为searchA的属性除了顶级之外,所有其他人都这样做。之前我首先使用XML解析此文档功能包xmlTreeParse()并存储根节点。然后我使用newXMLNode()创建一个新节点.xmlfile=xmlTreeParse(filename,useInternalNodes=TRUE)xmltop=xmlRoot(xmlfile)newNo

c# - 为什么 XElement 值属性更改\r\n 为\n?

我对XElement有一个奇怪的行为。似乎Value属性将换行表达式\r\n更改为类似unix的表达式\n。这是为什么?stringvalueString="abc\r\ndef";stringxmlString="abc\r\ndef";XElementxElement=XElement.Parse(xmlString);stringtoString=xElement.ToString();//asexpectedsamevalueasxmlStringstringxElementValue=xElement.Value;//containsabc\ndefinsteadofabc\

xml - 绕过循环函数中的错误(用于从 Twitter 中提取数据)

我创建了一个循环函数,它使用搜索API以一定的时间间隔(比如每5分钟)提取推文。这个函数做了它应该做的事情:连接到推特,提取包含特定关键字的推文,并将它们保存在一个csv文件中。但是偶尔(一天2-3次)循环会因为以下两个错误之一而停止:htmlTreeParse(URL,useInternal=TRUE)错误:为http://search.twitter.com/search.atom?q=创建解析器时出错6.95322e-310tst&rpp=100&page=10UseMethod("xmlNamespaceDefinitions")错误:没有适用于“xmlNamespaceDef

xml - 抓取分层数据

我正在尝试从globalDeptstores中抓取各大洲/国家/地区的百货商店列表。.我正在运行以下代码以首先获取大陆,因为我们可以看到XML层次结构的方式是每个大陆的国家不是该大陆的子节点。>urldoc=htmlTreeParse(url,useInternalNodes=T)>nodeNames=getNodeSet(doc,"//h2/span[@class='mw-headline']")>#ForAfrica>xmlChildren(nodeNames[[1]])$aAfricaattr(,"class")[1]"XMLInternalNodeList""XMLNodeLi

xml - 我在 r 中使用 xml 时发现此错误消息

您好,我正在Rstudio中处理xml。目标是将xml转换为r数据框,我正在尝试包文件夹中名为tides.xml的示例数据。tides=system.file("exampleData","tides.xml",package="XML")也许我们可以看到前几列的项目是不变的:像这样originNOAA/NOS/CO-OPSNOAA/NOS/CO-OPSNOAA/NOS/CO-OPSNOAA/NOS/CO-OPSNOAA/NOS/CO-OPSNOAA/NOS/CO-OPSNOAA/NOS/CO-OPS因此当我使用xmlToDataFrame(xmlRoot(tides.str))它返回

xml - 使用R抓取多个页面

就这样吧。请记住,在编写代码方面我完全是新手,而且我没有R以外的经验。上下文-我要抓取的每个页面都有一个遵循以下格式的URL:http://www.hockey-reference.com/friv/dailyleaders.cgi?month=10&day=8&year=2014此url中更改的变量是月、日和年(上面的粗体)网址应以10-8-2014开头并在6-18-2015结束。当然不是每天都有NHL比赛,所以有些页面会是空白的。所有其他页面都有一个HTML球员表和一个守门员表。我已经弄清楚了如何只为单个页面抓取并导出到csv,但不知道从这里到哪里才能做到这一点,这样我就可以在上赛

c - R XML - 无法从内存中删除内部 C 节点

我必须解析大约2000个xml文档,从每个文档中提取某些节点,将它们添加到单个文档中,然后保存。我正在使用内部C节点,以便我可以使用XPath。问题是,当我遍历文档时,我无法从内存中删除内部C对象,最终使用了>4GB的内存。我知道问题不在于加载的树(我只是通过加载和删除每个文档的哈希树来运行循环),而在于过滤的节点或根节点。这是我使用的代码。我缺少什么以便在每次迭代结束时清除内存?xmlDoc谢谢你的帮助 最佳答案 所以我发现没有办法使用“XML”来做到这一点而不会出现内存泄漏和大量处理时间。幸运的是,“xml2”现在可以处理创建文

r - 下载 mp3 文件

我想使用R中的网站。该网站是http://soundoftext.com/我在哪里可以下载WAV。包含来自给定文本和语言(语音)的音频的文件。下载WAV格式的语音分两步:1)插入文本并选择语言。并提交2)在新窗口中,单击保存并选择文件夹。到目前为止,我可以获取xml树,将其转换为列表并修改文本和语言的值。但是,我不知道如何将列表转换为XML(使用新值)并执行它。然后,我也需要做第二步。到目前为止,这是我的代码:require(RCurl)require(XML)webpage我已经关注this方法,但“标签”有错误。更新:我刚刚尝试使用rvest下载音频文件,但是,它没有响应或触发任何

xml - 不使用循环解析 XML 文件?

我正在使用XML包为变量“varname”的值解析一堆大型xml文件。我使用的代码是:library(XML)a=xmlTreeParse("/path/filename.xml")r=xmlRoot(a)namelist=list()for(iin1:xmlSize(r)){namelist[[i]]由于这需要很长时间才能运行,我尝试了并行处理:library(foreach)library(doMC)registerDoMC()namelist=list()namelist这样速度更快,但仍然会卡住我的机器以获得足够大的文件。有什么办法可以解决这个问题吗?