当前位置:首页 > 开发 > 系统架构 > 架构 > 正文

hadoop 报错 org.apache.hadoop.hdfs.server.namenode.LeaseExpiredException

发表于: 2013-09-26   作者:blackproof   来源:转载   浏览次数:
摘要: 报错: org.apache.hadoop.hdfs.DFSClient:Failed to close file org.apache.hadoop.ipc.RemoteException(org.apache.hadoop.hdfs.server.namenode.LeaseExpiredException)   解决方法: 修改linux打开文件最大限制 echo &q

报错:

org.apache.hadoop.hdfs.DFSClient:Failed to close file

org.apache.hadoop.ipc.RemoteException(org.apache.hadoop.hdfs.server.namenode.LeaseExpiredException)

 

解决方法:

修改linux打开文件最大限制

echo "fs.file-max = 65535" >> /etc/sysctl.conf 
echo "* - nofile 65535" >> /etc/security/limits.conf
sysctl -p

ulimit -n

 

修改hadoop配置

vi hdfs-site.xml

<property>
  <name>dfs.datanode.max.xcievers</name>
  <value>8192</value>
</property>

 

 

 

hadoop 报错 org.apache.hadoop.hdfs.server.namenode.LeaseExpiredException

  • 0

    开心

    开心

  • 0

    板砖

    板砖

  • 0

    感动

    感动

  • 0

    有用

    有用

  • 0

    疑问

    疑问

  • 0

    难过

    难过

  • 0

    无聊

    无聊

  • 0

    震惊

    震惊

编辑推荐
问题描述 打开hadoop 集群地址,hostname:8088 选择任何一个已经FINISHED或者FAILED的任务,然后点击
hadoop-分布式安装及报错分析 1. 本人在虚拟机中安装了三台centos ,做了一个全分布式的hadoop集群
这是解压hadoop后,hadoop-1.2.1目录 各目录结构及说明: Eclipse导入Hadoop源码项目: 注意:如果
虚机环境配置 目前只有一台虚拟机,设置IP为192.168.26.131,对这台虚拟机进行环境和Hadoop相关的配
虚机环境配置 目前只有一台虚拟机,设置IP为192.168.26.131,对这台虚拟机进行环境和Hadoop相关的配
虚机环境配置 目前只有一台虚拟机,设置IP为192.168.26.131,对这台虚拟机进行环境和Hadoop相关的配
王家林亲授的上海7月6-7日云计算分布式大数据Hadoop深入浅出案例驱动实战 家林会带您在10分钟内理解
本讲通过实验的方式讲解Hadoop文件系统的操作。 “云计算分布式大数据Hadoop实战高手之路”之完整发
本讲通过实验的方式讲解Hadoop文件系统的操作。 “云计算分布式大数据Hadoop实战高手之路”之完整发
1.如何访问hadoop官网? 2.如何下载hadoop各个版本? 3.如何查看hadoop API? 很多同学开发都没有二
版权所有 IT知识库 CopyRight © 2009-2015 IT知识库 IT610.com , All Rights Reserved. 京ICP备09083238号