当前位置:首页 > PHP教程 > php高级应用 > 列表

PHP CURL或file_get_contents获取网页标题的代码及两者效率的稳定性问题

发布:smiling 来源: PHP粉丝网  添加日期:2021-06-27 16:28:56 浏览: 评论:0 

PHP CURL与file_get_contents函数都可以获取远程服务器上的文件保存到本地,但在性能上面两者完全不在同一个级别,下面我先来介绍PHP CURL或file_get_contents函数应用例子,然后再简单的给各位介绍一下它们的一些小区别吧。

推荐方法 CURL获取

  1. <?php 
  2. $c = curl_init(); 
  3. $url = 'www.phpfensi.com'
  4. curl_setopt($c, CURLOPT_URL, $url); 
  5. curl_setopt($c, CURLOPT_RETURNTRANSFER, 1); 
  6. $data = curl_exec($c); 
  7. curl_close($c); 
  8. $pos = strpos($data,'utf-8'); 
  9. if($pos===false){$data = iconv("gbk","utf-8",$data);} 
  10. preg_match("/<title>(.*)<\/title>/i",$data$title); 
  11. echo $title[1]; 
  12. ?> 

使用file_get_contents

  1. <?php 
  2. $content=file_get_contents("https://www.phpfensi.com/"); 
  3. $pos = strpos($content,'utf-8'); 
  4. if($pos===false){$content = iconv("gbk","utf-8",$content);} 
  5. $postb=strpos($content,'<title>')+7; 
  6. $poste=strpos($content,'</title>'); 
  7. $length=$poste-$postb
  8. echo substr($content,$postb,$length); 
  9. ?> 

看看file_get_contents性能

1)fopen/file_get_contents 每次请求远程URL中的数据都会重新做DNS查询,并不对DNS信息进行缓存。但是CURL会自动对DNS信息进行缓存。对同一域名下的网页或者图片的请求只需要一次DNS 查询。这大大减少了DNS查询的次数。所以CURL的性能比fopen/file_get_contents 好很多。

2)fopen/file_get_contents在请求HTTP时,使用的是http_fopen_wrapper,不会keeplive。而curl却可以。这样在多次请求多个链接时,curl效率会好一些。(设置header头应该可以)

3)fopen/file_get_contents函数会受到php.ini文件中allow_url_open选项配置的影响。如果该配置关闭了,则该函数也就失效了。而curl不受该配置的影响。

4)curl可以模拟多种请求,例如:POST数据,表单提交等,用户可以按照自己的需求来定制请求。而fopen/file_get_contents只能使用get方式获取数据。

5)fopen/file_get_contents 不能正确下载二进制文件

6)fopen/file_get_contents 不能正确处理ssl请求

7)curl 可以利用多线程

8)使用 file_get_contents 的时候如果 网络出现问题, 很容易堆积一些进程在这里

9)如果是要打一个持续连接,多次请求多个页面。那么file_get_contents就会出问题。取得的内容也可能会不对。所以做一些类似采集工作的时候,肯定就有问题了。对做采集抓取的用curl,如果还有同不相信下面我们再做个测试。

curl与file_get_contents性能对比PHP源代码如下:

1829.php

  1. <?php 
  2. /** 
  3. * 通过淘宝IP接口获取IP地理位置 
  4. * @param string $ip 
  5. * @return: string 
  6. **/ 
  7. function getCityCurl($ip
  8.  $url="http://ip.taobao.com/service/getIpInfo.php?ip=".$ip
  9.  $ch = curl_init(); 
  10.  $timeout = 5; 
  11.  curl_setopt ($ch, CURLOPT_URL, $url); 
  12.  curl_setopt ($ch, CURLOPT_RETURNTRANSFER, 1); 
  13.  curl_setopt ($ch, CURLOPT_CONNECTTIMEOUT, $timeout); 
  14.  $file_contents = curl_exec($ch); 
  15.  curl_close($ch); 
  16.  $ipinfo=json_decode($file_contents); 
  17.  if($ipinfo->code=='1'){ 
  18.   return false; 
  19.  } 
  20.  $city = $ipinfo->data->region.$ipinfo->data->city; 
  21.  return $city
  22. function getCity($ip
  23.  $url="http://ip.taobao.com/service/getIpInfo.php?ip=".$ip
  24.  $ipinfo=json_decode(file_get_contents($url)); 
  25.  if($ipinfo->code=='1'){ 
  26.   return false; 
  27.  } 
  28.  $city = $ipinfo->data->region.$ipinfo->data->city; 
  29.  return $city
  30. // for file_get_contents 
  31. $startTime=explode(' ',microtime()); 
  32. $startTime=$startTime[0] + $startTime[1]; 
  33. for($i=1;$i<=10;$i++) 
  34.  echo getCity("121.207.247.202")."</br>"
  35. $endTime = explode(' ',microtime()); 
  36. $endTime = $endTime[0] + $endTime[1]; 
  37. $totalTime = $endTime - $startTime
  38. echo 'file_get_contents:'.number_format($totalTime, 10, '.'"")." seconds</br>"
  39. //for curl 
  40. $startTime2=explode(' ',microtime()); 
  41. $startTime2=$startTime2[0] + $startTime2[1]; 
  42. for($i=1;$i<=10;$i++) 
  43.  echo getCityCurl('121.207.247.202')."</br>"
  44. $endTime2 = explode(' ',microtime()); 
  45. $endTime2=$endTime2[0] + $endTime2[1]; 
  46. $totalTime2 = $endTime2 - $startTime2
  47. echo "curl:".number_format($totalTime2, 10, '.'"")." seconds"
  48. ?> 

测试访问

file_get_contents速度:4.2404510975 seconds

curl速度:2.8205530643 seconds

curl比file_get_contents速度快了30%左右,最重要的是服务器负载更低.

ps:php函数file_get_contents与curl效率及稳定性问题

习惯了使用方便快捷的file_get_contents函数抓取别家网站内容,但是总是会遇到获取失败的问题,尽管按照手册中的例子设置了超时,可多数时候不好使:

$config['context'] = stream_context_create(array('http' => array('method' => "GET",'timeout' => 5)));

'timeout' => 5//这个超时时间不稳定,经常不好使。这时候,看一下服务器的连接池,会发现一堆类似下面的错误,让你头疼万分:

file_get_contents(http://***): failed to open stream…

不得已,安装了curl库,写了一个函数替换:

  1. function curl_get_contents($url)  
  2. {  
  3.  $ch = curl_init();  
  4.  curl_setopt($ch, CURLOPT_URL, $url);   //设置访问的url地址  
  5.  //curl_setopt($ch,CURLOPT_HEADER,1);   //是否显示头部信息  
  6.  curl_setopt($ch, CURLOPT_TIMEOUT, 5);   //设置超时  
  7.  curl_setopt($ch, CURLOPT_USERAGENT, _USERAGENT_); //用户访问代理 User-Agent  
  8.  curl_setopt($ch, CURLOPT_REFERER,_REFERER_);  //设置 referer  
  9.  curl_setopt($ch,CURLOPT_FOLLOWLOCATION,1);  //跟踪301  
  10.  curl_setopt($ch, CURLOPT_RETURNTRANSFER, 1);  //返回结果  
  11.  $r = curl_exec($ch);  
  12.  curl_close($ch);  
  13.  return $r;  

如此,除了真正的网络问题外,没再出现任何问题。

这是别人做过的关于curl和file_get_contents的测试:

file_get_contents抓取google.com需用秒数:

2.31319094 

2.30374217 

2.21512604 

3.30553889 

2.30124092

curl使用的时间:

0.68719101 

0.64675593 

0.64326 

0.81983113 

0.63956594

差距很大吧?呵呵,从我使用的经验来说,这两个工具不只是速度有差异,稳定性也相差很大。建议对网络数据抓取稳定性要求比较高的朋友使用上面的 curl_file_get_contents函数,不但稳定速度快,还能假冒浏览器欺骗目标地址哦!

Tags: CURL file_get_contents

分享到: