安assembly置单元后,Hadoop(本地和主机目标不匹配)

我在运行ubuntu的笔记本电脑上安装了Hadoop 2.2作为单节点集群并运行字数统计示例。 之后,我安装Hive和Hadoop开始给错误即

hdfs dfs -ls throws IOException : localhost is "utbuntu/127.0.1.1 and destination host is localhost:9000" 

我在我的hosts文件中find了下面两个条目

 127.0.0.1 localhost 127.0.1.1 ubuntu #and some IPv6 entries... 

我的问题是为什么在configurationconfiguration单元后发生错误,解决scheme是什么? 任何帮助真的很感激。

谢谢!

你原来的IOException似乎有一个错字' utbuntu '。 你能检查它是正确的主机名或复制粘贴错误?

etc / hosts配置花费了一些尝试和错误,以找出一个Hadoop 2.2.0群集设置,但我所做的是删除所有127.0.1.1分配给主机名,并将实际IP分配给机器名称,它的工作原理。 例如

Ubuntu的192.168.1.101

我有一个双节点的集群,所以我的/ etc / hosts主(NameNode)如下所示:

 127.0.0.1 localhost #127.0.1.1 myhostname 192.168.1.100 myhostname 192.168.1.100 master 

和/usr/local/hadoop/etc/hadoop/core-site.xml有以下几点:

 <property> <name>fs.default.name</name> <value>hdfs://master:9000</value> </property> 

主要要注意的是,我已经注释到myhostname 127.0.1.1关联。