草庐IT

HAS_CONTENTS

全部标签

PHP file_put_contents 和 UTF-8

按照目前的情况,这个问题不适合我们的问答形式。我们希望答案得到事实、引用或专业知识的支持,但这个问题可能会引发辩论、争论、投票或扩展讨论。如果您觉得这个问题可以改进并可能重新打开,visitthehelpcenter指导。关闭10年前。我有读取远程文件内容并将其写入本地服务器的脚本。文件包含字符:ąčęėįšųūž。数据插入本地文件后,UTF-8编码丢失。我的脚本代码:我也按照这篇文章的说明进行操作(HowtowritefileinUTF-8format?),但还是不行。那有什么问题呢?有什么想法吗?

php - file_get_contents 到同一台服务器上的 url

我的服务器上有两个文件。文件a.php:文件b.php:但它不起作用...我无法使用file_get_contents,当文件位于同一台服务器上时,我不知道为什么。PHP信息:allow_url_fopen:ONallow_url_include:OFF当我尝试在困难的服务器上使用文件b.php中的代码时-它工作...;/ 最佳答案 您可以尝试使用127.0.0.1,但它不适用于VirtualHost。 关于php-file_get_contents到同一台服务器上的url,我们在Sta

php - file_put_contents 访问在多个 AJAX 请求上被拒绝(但已同步)?

我正在向将请求参数写入文件的php文件发出一些连续(递归)ajax请求:make_ajax(s){varxhr=newXMLHttpRequest();xhr.onreadystatechange=function(){if(this.readyState==4&&this.status==200){if(s>0)make_ajax(s-1)}};xhr.open('POST','write.php?s='+s+'&string=somelongstring',true);//url+async/sync...xhr.send(null);}make_ajax(15);//startr

PHP file_get_contents/CURL 不返回整页

我在尝试使用CURL或file_get_contents提取第3方文件内容时遇到了一些奇怪的行为,页面的pasrt已读取,但它停在随机位置......虽然没有错误(超时等)。如果我给出完整的示例,可能最容易看出来!使用以下非常基本的脚本来读取完整的URL并返回内容效果很好,在一两秒钟内即可获得页面的全部内容(少一些外部css等):但是,如果我们改成它需要很长时间才能运行,并最终返回页面的一部分,但不是全部。它不一致,但通常以“AWestwoodAV3.612”或“show”结尾,页面靠上一点。如果您查看这两个URL,您会发现它们基本上是一样的。而且这种行为只是刚刚开始出现,直到一两天前

php - file_get_contents 不在本地主机上工作,但在在线网络服务器上工作

$json=file_get_contents('http://localhost/hts2015/data/functions.php?tag=FIND');$json=file_get_contents('http://www.hptsprofessional.tk/data/functions.php?tag=FIND');$jsonD=json_decode($json);$no=count($jsonD);2014年,我在我的本地主机上使用相同的代码通过file_get_contents()访问数据。它对我来说工作正常,它可以在本地主机上工作,也可以通过更改url在在线服务器

php - "proc_open() has been disabled for security reasons"- PHP 错误

proc_open()hasbeendisabledforsecurityreasons我目前正在免费托管(Hostinger)-制作个人网站仅供我和其他一些人使用。我知道我应该从php.ini中删除proc_open,但由于我的共享主机计划,我无法访问它。我的代码中围绕proc_open的代码如下-如果您需要完整代码,请告诉我。我试过注释部分但它返回错误。我只想删除它并允许代码正常运行。=1?true:false;//Commandexecutionfunctionexecute_command($command){$descriptors=array(0=>array('pipe'

php - 代理后面的第 3 方 file_get_contents

我正在使用第3方库,它使用file_get_contents()来检索外部文档。因为我在代理后面,所以我得到了错误:file_get_contents(http://json-ld.org/contexts/person.jsonld):failedtoopenstream:Connectiontimedout我通过stream_context_create()使用代理设置测试了file_get_contents():$context=stream_context_create(['http'=>['proxy'=>'tcp://SERVERNAME:PORT','request_fu

php - 使用 file_get_contents() 进行抓取时强制使用桌面版网站

我正在使用FriendsOfPHP/Goutte包抓取网站。一切都很好。当用户将URL粘贴到输入中时,我正在为image、title等开放图形标签抓取网站。当用户从移动设备复制URL时会出现问题,该URL现在是移动URL,例如https://m.datpiff.com/tape/818948,并且该URL上没有开放图标签。当我访问相同的URL并将子域m替换为www时,例如https://www.datpiff.com/tape/818948从桌面,它将我重定向到:http://www.datpiff.com/Chance-The-Rapper-Jeremih-Merry-Christm

php: file_get_contents() 使用 CLI,但在服务器上调用时不起作用(在页面中)

我有点困惑。我正在使用bit.lyPHPAPI来缩短一些网址。这在本地主机上运行良好-但是当我在我的服务器上尝试它时(在Apache中运行的php),file_get_contents()返回一个空字符串。我检查了我的Apache日志,看不到Apache的任何警告/错误,所以我在CL上尝试了相同的命令(使用PHPCLI):>php-aphp>$long_url=some_url_encoded_string;php>echofile_get_contents($long_url);{"errorCode":0,"errorMessage":"","results":{"http://w

php - 缓慢的 HTTP/1.1 响应,file_get_contents 远程服务器

我正在通过HTTP1.0协议(protocol)从远程网站获取文件。我想我会很好,在获取文件时使用gzip以最大限度地减少使用的带宽。无论我如何形成标题,我都没有在响应中获得gzip内容,尽管在使用浏览器进行测试时确实如此。我还使用我的代码从我自己的网站获得gzip格式的服务。我认为这是因为他们的服务器使用的是仅在HTTP1.1中可用的分块传输编码。我将协议(protocol)切换为HTTP1.1。这是我下面的代码。我的网站回答了这个问题,尽管1.0立即执行的操作需要几秒钟的时间。当我在远程网站上尝试时,它一直在加载而没有回答。所以我的问题是,为什么1.1这么慢?我使用的是格式错误的h