Hadoop的2.6.2,MKDIR:无法创建代理提供零

Hadoop的2.6.2,MKDIR:无法创建代理提供零

问题描述:

我不能够创建新的文件或目录,也能列出现有的文件或目录Hadoop的2.6.2,MKDIR:无法创建代理提供零

我使用下面的命令做了手术,你可以请建议

[email protected]:/usr/local/hadoop$ jps 
8546 ResourceManager 
9181 Jps 
1503 NameNode 
8674 NodeManager 
4398 DataNode 
[email protected]:/usr/local/hadoop$ bin/hadoop fs -ls/
ls: Couldn't create proxy provider null 
[email protected]:/usr/local/hadoop$ bin/hadoop fs -mkdir /books 
mkdir: Couldn't create proxy provider null 
[email protected]:/usr/local/hadoop$ 

下面是我的hdfs-site.xml,其中我使用它。

<configuration> 
    <property> 
    <name>dfs.nameservices</name> 
    <value>mycluster</value> 
    </property> 

<property> 
<name>dfs.replicaion</name> 
<value>2</value> 
<description>to specifiy replication</description> 
</property> 

<property> 
<name>dfs.namenode.name.dir</name> 
<value>file:/h3iHA/name</value> 
<final>true</final> 
</property> 

<property> 
<name>dfs.datanode.data.dir</name> 
<value>file:/h3iHA/data2</value> 
<final>true</final> 
</property> 

<property> 
<name>dfs.ha.namenodes.mycluster</name> 
<value>nn1,nn2</value> 
</property> 

<property> 
<name>dfs.namenode.rpc-address.mycluster.nn1</name> 
<value>c:9000</value> 
</property> 

<property> 
<name>dfs.namenode.rpc-address.mycluster.nn2</name> 
<value>a:9000</value> 
</property> 

<property> 
<name>dfs.namenode.http-address.mycluster.nn1</name> 
<value>c:50070</value> 
</property> 

<property> 
<name>dfs.namenode.http-address.mycluster.nn2</name> 
<value>a:50070</value> 
</property> 

<property> 
<name>dfs.namenode.shared.edits.dir</name> 
<value>file:///mnt/filer</value> 
</property> 

<property> 
<name>dfs.client.failover.proxy.provider.mycluster</name> 
<value>org.apache.hadoop.hdfs.server.namenode.ha.configuredFailoverProxyProvider</value> 
</property> 

<property> 
<name>dfs.ha.fencing.methods</name> 
<value>sshfence</value> 
</property> 

<property> 
<name>dfs.ha.fencing.ssh.private-key-files</name> 
<value>/home/hduser/.ssh/id_rsa</value> 
</property> 

<property> 
<name>dfs.ha.fencing.methods</name> 
<value>sshfence 
     shell(/bin/true) 
</value> 
</property> 
</configuration> 

核心文件,这两个节点

<configuration> 
<property> 
<name>fs.defaultFS</name> 
<value>hdfs://mycluster</value> 
</property> 
</configuration> 
+0

这是HA集群的价值? – franklinsijo

+0

是的,这是HA群集。 – Maverick

+0

你可以发布你的'hdfs-site.xml' – franklinsijo

的Java类名称为属性dfs.client.failover.proxy.provider.mycluster是不正确设置相同。它是ConfiguredFailoverProxyProvider而不是configuredFailoverProxyProvider

编辑这个属性的hdfs-site.xml

<property> 
    <name>dfs.client.failover.proxy.provider.mycluster</name> 
    <value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value> 
</property> 
+0

谢谢franklinksijo .i有疑问(1)我需要再次格式化为我的namenode ? (2)或只是我需要启动我的namenode,因为这个命令hduser @ c:/ usr/local/hadoop $ bin/hadoop fs -ls /仍然抛出错误ls:调用从/ 192.168.0.105到a:9000失败连接异常:java.net.ConnectException:连接被拒绝;有关更多详细信息,请参阅:http://wiki.apache.org/hadoop/ConnectionRefused – Maverick

+0

不,格式不是必需的。代理错误是固定的。这是不同的,是'a'你当前活跃的namenode?你为'fs.defaultFS'设定了什么? – franklinsijo

+0

节点c处于活动状态,节点a处于待机状态。和我的核心文件是相同的两个节点,现在更新,您可能会查看 hduser @ c:/ usr/local/hadoop $ bin/hadoop fs -ls/ hduser @ c:/ usr/local/hadoop $ bin/hadoop fs -lsr/ lsr:DEPRECATED:请使用'ls -R'代替。 hduser @ C:在/ usr /本地/ Hadoop的$ JPS 1703 ResourceManager的 1832节点管理器 2729个JPS 1535的NameNode 2570 DataNode会 hduser @一:在/ usr /本地/ Hadoop的$斌/ Hadoop的FS -ls/ hduser @ a:/ usr/local/hadoop $ ls/ – Maverick