hadoop ui 端口单机模式有ui端口吗

解决办法:
如果你使用的是Apache Hadoop,那么需要去手动修改hdfs-site.xml的dfs.namenode.http-address,修改为0.0.0.0:50070。
如果使用的是Cloudera Manager,那么去HDFS-&配置-&搜索“通配符地址” ,然后出现的全部勾选即可
最后重新启动HDFS2867人阅读
linux(11)
hadoop(4)
安装Hadoop后, 启动Hadoop时需要开启很多端口, 最简单的办法是关闭Linux防火墙. 具体方法如下:
当Linux打开防火墙后,你会发现,从本机登录9000端口是没有问题的,但是如果从另一台pc登录该linux系统后,你会发现提示这样的错误:&
不能打开到主机的连接, 在端口 9000: 连接失败&
因为linux防火墙默认是关闭9000端口的,如果允许远程登录,可以关掉防火墙,也可以开防火墙开放9000端口,具体如下:&
即时生效,重启后失效&
开启: service iptables start&
关闭: service iptables stop&
重启后生效&
开启: chkconfig iptables on&
关闭: chkconfig iptables off&
在开启了防火墙时,做如下设置,开启相关端口&
修改/etc/sysconfig/iptables 文件,添加以下内容:&
-A RH-Firewall-1-INPUT -m state --state NEW -m tcp -p tcp --dport 9000 -j ACCEPT
查看防火墙 iptables -L
------------------
netstat -nupl (UDP类型的端口)
netstat -ntpl (TCP类型的端口)
你可以使用 lsof 命令来查看某一端口是否开放。查看端口可以这样来使用,我就以9000端口为例:
lsof -i:9000
如果有显示说明已经开放了,如果没有显示说明没有开放。
&&相关文章推荐
* 以上用户言论只代表其个人观点,不代表CSDN网站的观点或立场
访问:102349次
积分:1538
积分:1538
排名:千里之外
原创:21篇
转载:229篇
(39)(8)(13)(35)(15)(7)(13)(29)(19)(16)(12)(29)(21)hadoop系统部署时用到不少端口。有的是Web UI所使用的,有的是内部通信所使用的,有的是监控所使用的。实际系统中可能用于防火墙的端口设计。一些内部通信用的端口可能也需要外部能访问。如两个集群的数据对拷。
8080,80 用于tomcat和apache的端口。
22 ssh的端口
用于访问和监控Hadoop系统运行状态
dfs.http.address
dfs.datanode.http.address
Secondarynamenode
dfs.secondary.http.address
Backup/Checkpoint&node*
dfs.backup.http.address
mapred.job.tracker.http.address
Tasktrackers
mapred.task.tracker.http.address
HRegionServer
* hadoop 0.21以后代替secondarynamenode&.
3.内部端口
fs.default.name
IPC:&ClientProtocol
Filesystem&metadata&operations.
dfs.datanode.address
Custom&Hadoop&Xceiver:&DataNodeand&DFSClient
DFS&data&transfer
dfs.datanode.ipc.address
IPC:InterDatanodeProtocol,ClientDatanodeProtocol&ClientProtocol
Block&metadata&operations&and&recovery
Backupnode
dfs.backup.address
同&namenode
HDFS&Metadata&Operations
Jobtracker
mapred.job.tracker
IPC:JobSubmissionProtocol,InterTrackerProtocol
Job&submission,&task&tracker&heartbeats.
Tasktracker
127.0.0.1:0*
mapred.task.tracker.report.address
IPC:TaskUmbilicalProtocol
和&child&job&通信
*&绑定到未用本地端口
&4.相关产品端口
hbase.master.port
RegionServer
hbase.regionserver.port
RegionServer
HQuorumPeer
hbase.zookeeper.property.clientPort
HBase-managed&ZK&mode
HQuorumPeer
hbase.zookeeper.peerport
HBase-managed&ZK&mode
HQuorumPeer
hbase.zookeeper.leaderport
HBase-managed&ZK&mode
REST&Service
hbase.rest.port
ThriftServer
Pass&-p&&port&&on&CLI
&Avro&server
Pass&&port&&port&&on&CLI
HiveServer
sqoop.metastore.server.port
ZooKeeper&
clientPort
Client&port
X&in&server.N=host:X:Y
Y&in&server.N=host:X:Y
X&in&server.N=host:X:Y
Y&in&server.N=host:X:Y
Beeswax&Server
Beeswax&Metastore
Oozie&Server
OOZIE_HTTP_PORT&in&oozie-env.sh
Oozie&Server
OOZIE_ADMIN_PORT&in&oozie-env.sh
Shutdown&port
5.YARN(Hadoop 2.0)缺省端口
Hadoop&YARN&
ResourceManager
yarn.resourcemanager.address
ResourceManager
yarn.resourcemanager.scheduler.address
ResourceManager
yarn.resourcemanager.resource-tracker.address
ResourceManager
yarn.resourcemanager.admin.address
ResourceManager
yarn.resourcemanager.webapp.address
NodeManager
yarn.nodemanager.localizer.address
NodeManager
yarn.nodemanager.webapp.address
NodeManager
yarn.nodemanager.address
MapReduce&JobHistory&Server
mapreduce.jobhistory.address
MapReduce&JobHistory&Server
mapreduce.jobhistory.webapp.address
6.第三方产品端口
ganglia用于监控Hadoop和HBase运行情况。kerberos是一种网络认证协议,相应软件由麻省理工开发。
ganglia-gmond
ganglia-web
通过&Apache&httpd
KRB5&KDC&Server
[kdcdefaults]&或&[realms]段下的kdc_ports&和&kdc_tcp_ports
KRB5&Admin&Server
&Kdc.conf&文件:[realms]段kadmind_port
阅读(...) 评论()

我要回帖

更多关于 hadoop单机模式配置 的文章

 

随机推荐