当前位置:首页 > PHP教程 > php文件操作 > 列表

PHP超低内存遍历目录文件和读取超大文件的方法

发布:smiling 来源: PHP粉丝网  添加日期:2021-11-20 20:04:12 浏览: 评论:0 

这篇文章主要介绍了PHP超低内存遍历目录文件和读取超大文件的方法,小编觉得挺不错的,现在分享给大家,也给大家做个参考,一起跟随小编过来看看吧。

这不是一篇教程,这是一篇笔记,所以我不会很系统地论述原理和实现,只简单说明和举例。

前言

我写这篇笔记的原因是现在网络上关于 PHP 遍历目录文件和 PHP 读取文本文件的教程和示例代码都是极其低效的,低效就算了,有的甚至好意思说是高效,实在辣眼睛。

这篇笔记主要解决这么几个问题:

PHP 如何使用超低内存快速遍历数以万计的目录文件?

PHP 如何使用超低内存快速读取几百MB甚至是GB级文件?

顺便解决哪天我忘了可以通过搜索引擎搜到我自己写的笔记来看看。(因为需要 PHP 写这两个功能的情况真的很少,我记性不好,免得忘了又重走一遍弯路)

遍历目录文件

网上关于这个方法的实现大多示例代码是 glob 或者 opendir + readdir 组合,在目录文件不多的情况下是没问题的,但文件一多就有问题了(这里是指封装成函数统一返回一个数组的时候),过大的数组会要求使用超大内存,不仅导致速度慢,而且内存不足的时候直接就崩溃了。

这时候正确的实现方法是使用 yield 关键字返回,下面是我最近使用的代码:

  1. <?php 
  2.  
  3. function glob2foreach($path$include_dirs=false) { 
  4.   $path = rtrim($path'/*'); 
  5.   if (is_readable($path)) { 
  6.     $dh = opendir($path); 
  7.     while (($file = readdir($dh)) !== false) { 
  8.       if (substr($file, 0, 1) == '.'
  9.         continue
  10.       $rfile = "{$path}/{$file}"
  11.       if (is_dir($rfile)) { 
  12.         $sub = glob2foreach($rfile$include_dirs); 
  13.         while ($sub->valid()) { 
  14.           yield $sub->current(); 
  15.           $sub->next(); 
  16.         } 
  17.         if ($include_dirs
  18.           yield $rfile
  19.       } else { 
  20.         yield $rfile
  21.       } 
  22.     } 
  23.     closedir($dh); 
  24.   } 
  25.  
  26. // 使用 
  27. $glob = glob2foreach('/var/www'); 
  28. while ($glob->valid()) { 
  29.     
  30.   // 当前文件 
  31.   $filename = $glob->current(); 
  32.     
  33.   // 这个就是包括路径在内的完整文件名了 
  34.   // echo $filename; 
  35.  
  36.   // 指向下一个,不能少 
  37.   $glob->next(); 

yield 返回的是生成器对象(不了解的可以先去了解一下 PHP 生成器),并没有立即生成数组,所以目录下文件再多也不会出现巨无霸数组的情况,内存消耗是低到可以忽略不计的几十 kb 级别,时间消耗也几乎只有循环消耗。

读取文本文件

读取文本文件的情况跟遍历目录文件其实类似,网上教程基本上都是使用 file_get_contents 读到内存里或者 fopen + feof + fgetc 组合即读即用,处理小文件的时候没问题,但是处理大文件就有内存不足等问题了,用 file_get_contents 去读几百MB的文件几乎就是自杀。

这个问题的正确处理方法同样和 yield 关键字有关,通过 yield 逐行处理,或者 SplFileObject 从指定位置读取。

逐行读取整个文件:

  1. <?php 
  2. function read_file($path) { 
  3.   if ($handle = fopen($path'r')) { 
  4.     while (! feof($handle)) { 
  5.       yield trim(fgets($handle)); 
  6.     } 
  7.     fclose($handle); 
  8.   } 
  9. // 使用 
  10. $glob = read_file('/var/www/hello.txt'); 
  11. while ($glob->valid()) { 
  12.     
  13.   // 当前行文本 
  14.   $line = $glob->current(); 
  15.     
  16.   // 逐行处理数据 
  17.   // $line 
  18.  
  19.   // 指向下一个,不能少 
  20.   $glob->next(); 

通过 yield 逐行读取文件,具体使用多少内存取决于每一行的数据量有多大,如果是每行只有几百字节的日志文件,即使这个文件超过100M,占用内存也只是KB级别。

但很多时候我们并不需要一次性读完整个文件,比如当我们想分页读取一个1G大小的日志文件的时候,可能想第一页读取前面1000行,第二页读取第1000行到2000行,这时候就不能用上面的方法了,因为那方法虽然占用内存低,但是数以万计的循环是需要消耗时间的。

这时候,就改用 SplFileObject 处理,SplFileObject 可以从指定行数开始读取。下面例子是写入数组返回,可以根据自己业务决定要不要写入数组,我懒得改了。

  1. <?php 
  2.  
  3. function read_file2arr($path$count$offset=0) { 
  4.  
  5.   $arr = array(); 
  6.   if (! is_readable($path)) 
  7.     return $arr
  8.  
  9.   $fp = new SplFileObject($path'r'); 
  10.     
  11.   // 定位到指定的行数开始读 
  12.   if ($offset
  13.     $fp->seek($offset);  
  14.  
  15.   $i = 0; 
  16.     
  17.   while (! $fp->eof()) { 
  18.       
  19.     // 必须放在开头 
  20.     $i++; 
  21.       
  22.     // 只读 $count 这么多行 
  23.     if ($i > $count
  24.       break
  25.       
  26.     $line = $fp->current(); 
  27.     $line = trim($line); 
  28.  
  29.     $arr[] = $line
  30.  
  31.     // 指向下一个,不能少 
  32.     $fp->next(); 
  33.   } 
  34.     
  35.   return $arr

以上所说的都是文件巨大但是每一行数据量都很小的情况,有时候情况不是这样,有时候是一行数据也有上百MB,那这该怎么处理呢?

如果是这种情况,那就要看具体业务了,SplFileObject 是可以通过 fseek 定位到字符位置(注意,跟 seek 定位到行数不一样),然后通过 fread 读取指定长度的字符。

也就是说通过 fseek 和 fread 是可以实现分段读取一个超长字符串的,也就是可以实现超低内存处理,但是具体要怎么做还是得看具体业务要求允许你怎么做。

复制大文件

顺便说下 PHP 复制文件,复制小文件用 copy 函数是没问题的,复制大文件的话还是用数据流好,例子如下:

  1. <?php 
  2.  
  3. function copy_file($path$to_file) { 
  4.  
  5.   if (! is_readable($path)) 
  6.     return false; 
  7.  
  8.   if(! is_dir(dirname($to_file))) 
  9.     @mkdir(dirname($to_file).'/', 0747, TRUE); 
  10.     
  11.   if ( 
  12.     ($handle1 = fopen($path'r'))  
  13.     && ($handle2 = fopen($to_file'w')) 
  14.   ) { 
  15.  
  16.     stream_copy_to_stream($handle1$handle2); 
  17.  
  18.     fclose($handle1); 
  19.     fclose($handle2); 
  20.   } 

最后:我这只说结论,没有展示测试数据,可能难以服众,如果你持怀疑态度想求证,可以用 memory_get_peak_usage 和 microtime 去测一下代码的占用内存和运行时间。

Tags: PHP遍历目录文件 PHP读取大文件

分享到: