当前位置:首页 > 开发 > 编程语言 > Java > 正文

Java高效读取大文件

发表于: 2015-01-21   作者:tomcat_oracle   来源:转载   浏览:
摘要:   读取文件行的标准方式是在内存中读取,Guava 和Apache Commons IO都提供了如下所示快速读取文件行的方法:   Files.readLines(new File(path), Charsets.UTF_8);   FileUtils.readLines(new File(path));   这种方法带来的问题是文件的所有行都被存放在内存中,当文件足够大时很快就会导致
  读取文件行的标准方式是在内存中读取,Guava 和Apache Commons IO都提供了如下所示快速读取文件行的方法:
  Files.readLines(new File(path), Charsets.UTF_8);
  FileUtils.readLines(new File(path));
  这种方法带来的问题是文件的所有行都被存放在内存中,当文件足够大时很快就会导致程序抛出OutOfMemoryError 异常。
  例如:读取一个大约1G的文件:
  @Test
  public void givenUsingGuava_whenIteratingAFile_thenWorks() throws IOException {
  String path = ...
  Files.readLines(new File(path), Charsets.UTF_8);
  }
  这种方式开始时只占用很少的内存:(大约消耗了0Mb内存)
  [main] INFO  org.baeldung.java.CoreJavaIoUnitTest - Total Memory: 128 Mb
  [main] INFO  org.baeldung.java.CoreJavaIoUnitTest - Free Memory: 116 Mb
  然而,当文件全部读到内存中后,我们最后可以看到(大约消耗了2GB内存):
  [main] INFO  org.baeldung.java.CoreJavaIoUnitTest - Total Memory: 2666 Mb
  [main] INFO  org.baeldung.java.CoreJavaIoUnitTest - Free Memory: 490 Mb
  这意味这一过程大约耗费了2.1GB的内存——原因很简单:现在文件的所有行都被存储在内存中。
  把文件所有的内容都放在内存中很快会耗尽可用内存——不论实际可用内存有多大,这点是显而易见的。
  此外,我们通常不需要把文件的所有行一次性地放入内存中——相反,我们只需要遍历文件的每一行,然后做相应的处理,处理完之后把它扔掉。所以,这正是我们将要做的——通过行迭代,而不是把所有行都放在内存中。
   3、文件流
  现在让我们看下这种解决方案——我们将使用java.util.Scanner类扫描文件的内容,一行一行连续地读取:
FileInputStream inputStream = null;
Scanner sc = null;
try {
inputStream = new FileInputStream(path);
sc = new Scanner(inputStream, "UTF-8");
while (sc.hasNextLine()) {
String line = sc.nextLine();
// System.out.println(line);
}
// note that Scanner suppresses exceptions
if (sc.ioException() != null) {
throw sc.ioException();
}
} finally {
if (inputStream != null) {
inputStream.close();
}
if (sc != null) {
sc.close();
}
}
   这种方案将会遍历文件中的所有行——允许对每一行进行处理,而不保持对它的引用。总之没有把它们存放在内存中:(大约消耗了150MB内存)
  [main] INFO  org.baeldung.java.CoreJavaIoUnitTest - Total Memory: 763 Mb
  [main] INFO  org.baeldung.java.CoreJavaIoUnitTest - Free Memory: 605 Mb
   4、Apache Commons IO流
  同样也可以使用Commons IO库实现,利用该库提供的自定义LineIterator:
LineIterator it = FileUtils.lineIterator(theFile, "UTF-8");
try {
while (it.hasNext()) {
String line = it.nextLine();
// do something with line
}
} finally {
LineIterator.closeQuietly(it);
}
  由于整个文件不是全部存放在内存中,这也就导致相当保守的内存消耗:(大约消耗了150MB内存)
  [main] INFO  o.b.java.CoreJavaIoIntegrationTest - Total Memory: 752 Mb
  [main] INFO  o.b.java.CoreJavaIoIntegrationTest - Free Memory: 564 Mb
   5、结论
  这篇短文介绍了如何在不重复读取与不耗尽内存的情况下处理大文件——这为大文件的处理提供了一个有用的解决办法。
  所有这些例子的实现和代码片段都可以在我的github项目上获取到——这是一个基于Eclipse的项目,所以它应该很容易被导入和运行。

Java高效读取大文件

  • 0

    开心

    开心

  • 0

    板砖

    板砖

  • 0

    感动

    感动

  • 0

    有用

    有用

  • 0

    疑问

    疑问

  • 0

    难过

    难过

  • 0

    无聊

    无聊

  • 0

    震惊

    震惊

编辑推荐
在php中,对于文件的读取时,最快捷的方式莫过于使用一些诸如file、file_get_contents之类的函数,
简单实现TCP下的大文件高效传输 在TCP下进行大文件传输不象小文件那样直接打包个BUFFER发送出去,因
在TCP下进行大文件传输不象小文件那样直接打包个BUFFER发送出去,因为文件比较大所以不可能把文件读
原帖地址:http://www.cnblogs.com/smark/p/3143597.html 在TCP下进行大文件传输不象小文件那样直接
在TCP下进行大文件传输不象小文件那样直接打包个BUFFER发送出去,因为文件比较大所以不可能把文件读
1.师兄之前常说为了提高系统效率要讲频繁读取的东西放在内存中,但是一直不明白这是什么意思,今天
最近做一个项目,经理给了我TT多数据,让我做数据转换并导入有效Mysql,说是mongo的纯数据文件,直
https://github.com/liyong03/YLGIFImage Asynchronized GIF image class and Image viewer support
测试说明 写2G文件,分批次写入,每批次写入128MB; 分别在Win7系统(3G内存,双核,32位,T系列处
在stackoverflow上有个关于Android大文件上传的讨论。尝试着用Apache HttpComponents来解决。一番折
版权所有 IT知识库 CopyRight © 2009-2015 IT知识库 IT610.com , All Rights Reserved. 京ICP备09083238号