Ubuntu10.4安装配置Hadoop-0.20.203.0入门
发布时间:2014-09-05 16:34:37作者:知识屋
1.安装Sun公司的jdk1.6 并且,JAVA_HOME环境变量已经指向jdk的安装目录。(详细见 Ubuntu10.4下手动安装SUN公司的jdk1.6[整理])
2.下载稳定版的hadoop的安装包,解压到/opt/目录下
3.命令行下运行
$ sudo gedit /etc/profile在文件最后添加
#set Hadoop environment
export HADOOP_INSTALL=/opt/hadoop-0.20.203.0
export PATH=$PATH:$HADOOP_INSTALL/bin设置Hadoop的安装位置的环境变量
4.运行hadoop version 命令来测试是否成功
5.配置:
1)独立模式:
在此模式下,不需要特别的配置操作,只需要在/conf目录中的hadoop-env.sh中设置java jdk的HAVA_HOME环境变量
2)伪分布式模式:
自此模式下,需要配置3个配置文件(在conf/目录下的core-site.xml hdfs-site.xml mapred-site.xml)
<!--core-site.xml -->
<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://localhost/</value>
</property>
</configuration><!--hdfs-site.xml -->
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value><!--设置副本为1,程序就不会试图复制的其他的机器上,就不会产生副本无法复制的警告-->
</property>
</configuration><!--mapred-site.xml-->
<configuration>
<property>
<name>mapred.job.tracker</name>
<value>localhost:8021</value>
</property>
</configuration>
6.配置SSH www.zhishiwu.com
%sudo apt-get install ssh
基于空口令创建一个新的SSH密钥,以启动无密码登录
%ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa
%cat~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
用以下指令测试:
%ssh localhost
如果成功,则无须输入密码。
7.启动和终止守护进程
%start-dfs.sh
%start-mapred.sh
本地计算机将启动三个守护进程 一个namenode 一个辅助namenode和一个datanode
在http://localhost:50030/查看jobtracker或在http://localhost:50070/查看namenode java的jps命令也可以查看守护进程是否在运行。
%stop-dfs.sh
%stop-mapred.sh
8.格式化HDFS文件系统:
%hadoop namenode -format、
摘自 怪蜀黍的博客 (免责声明:文章内容如涉及作品内容、版权和其它问题,请及时与我们联系,我们将在第一时间删除内容,文章内容仅供参考)