我在运行ubuntu的笔记本电脑上安装了Hadoop 2.2作为单节点集群并运行字数统计示例。 之后,我安装Hive和Hadoop开始给错误即
hdfs dfs -ls throws IOException : localhost is "utbuntu/127.0.1.1 and destination host is localhost:9000"
我在我的hosts文件中find了下面两个条目
127.0.0.1 localhost 127.0.1.1 ubuntu #and some IPv6 entries...
我的问题是为什么在configurationconfiguration单元后发生错误,解决scheme是什么? 任何帮助真的很感激。
谢谢!
你原来的IOException似乎有一个错字' utbuntu '。 你能检查它是正确的主机名或复制粘贴错误?
etc / hosts配置花费了一些尝试和错误,以找出一个Hadoop 2.2.0群集设置,但我所做的是删除所有127.0.1.1分配给主机名,并将实际IP分配给机器名称,它的工作原理。 例如
Ubuntu的192.168.1.101
我有一个双节点的集群,所以我的/ etc / hosts主(NameNode)如下所示:
127.0.0.1 localhost #127.0.1.1 myhostname 192.168.1.100 myhostname 192.168.1.100 master
和/usr/local/hadoop/etc/hadoop/core-site.xml有以下几点:
<property> <name>fs.default.name</name> <value>hdfs://master:9000</value> </property>
主要要注意的是,我已经注释到myhostname 127.0.1.1关联。