" id="b1img" alt="米课”N+1“思维建站-非官方免费技术支持,Wordpress/Zencart/Opencart建站、SEO" title="米课”N+1“思维建站-非官方免费技术支持,Wordpress/Zencart/Opencart建站、SEO">
  • " alt="米课”N+1“思维建站-非官方免费技术支持,Wordpress/Zencart/Opencart建站、SEO" title="米课”N+1“思维建站-非官方免费技术支持,Wordpress/Zencart/Opencart建站、SEO" />
  • " alt="Windows/Linux服务器运维技术支持 环境搭建、应用发布、服务器管理、虚拟化、云计算" title="Windows/Linux服务器运维技术支持 环境搭建、应用发布、服务器管理、虚拟化、云计算" />
  • " alt="高校/小型企业网络运维与建设免费技术支持,网络规划、网络优化、故障排除、网络管理" title="高校/小型企业网络运维与建设免费技术支持,网络规划、网络优化、故障排除、网络管理" />
<a href="http://www.itlogger.com/category/program" rel="category tag">程序设计</a>
程序设计

hbase格式化namenode后,创建旧表显示table already exists

2017-12-26 itlogger阅读(106) 评论(0)
【问题描述】hadoop格式化namenode后,在hbase shell创建表旧表示显示table already exists,list table却显示table为空 【解决方法】进入hbase zkcli模式 (1)查看旧表信息list /hbase/table 如:[hbase:meta, hbase:namespace, t02, randNum, hfiletable, t2] (2)删除旧表信息 rmr /hbase/table/t02
<a href="http://www.itlogger.com/category/program" rel="category tag">程序设计</a>
程序设计

hadoop mapreduce:No job jar file set. User classes may not be found. See Job or Job#setJar(String).

2017-12-18 itlogger阅读(169) 评论(0)
【问题】windows+hadoop运行mapreduce,提示: No job jar file set. User classes may not be found. See Job or Job#setJar(String). 【解决方法】 1.导出程序Jar包 2.job.setJar(“g:\\hadoop\\BulkLoadJob.jar”);
<a href="http://www.itlogger.com/category/program" rel="category tag">程序设计</a>
程序设计

hadoop mapreduce:failed 1 with: CreateSymbolicLink error (1314)

itlogger阅读(208) 评论(0)
【问题】windows下eclIPse运行hadoop mapreduce,提示:WARN [org.apache.hadoop.fs.FileUtil] – Command ‘G:\hadoop\hadoop274\bin\winutils.exe symlink H:\5-04-JAVA\BulckLoadJob\hbase-server-1.2.6.jar \tmp\hadoop-logger\mapred\local\1513566373231\hbase-server-1.2.6.jar’ failed 1 with: CreateSymbolicLink er...
<a href="http://www.itlogger.com/category/program" rel="category tag">程序设计</a>
程序设计

Hadoop运行jar程序OutOfMemoryError: Java heap space的解决方法

2017-11-05 itlogger阅读(304) 评论(0)
【问题描述】Hadoop运行jar程序,如hadoop jar itlogger.jar提示”java.lang.OutOfMemoryError: Java heap space” 【解决方法】先运行export HADOOP_CLIENT_OPTS=”-Xmx16g $HADOOP_CLIENT_OPTS”,再运行hadoop jar itlogger.jar
<a href="http://www.itlogger.com/category/program" rel="category tag">程序设计</a>
程序设计

hadoop日志时间和系统时间不一致的解决方法

2017-10-18 itlogger阅读(363) 评论(0)
【问题描述】hadoop系统时间已经改为中国时区,但是haddop/yarn/hbase的日志时间和date显示时间不一致 【解决方法】 (1)vi hadoop-env.sh 添加 export HADOOP_OPTS=”$HADOOP_OPTS -Duser.timezone=GMT+08″ (2)vi yarn-env.sh 添加 YARN_OPTS=”$YARN_OPTS -Duser.timezone=GMT+08″ (3)vi hbase-env.sh 添加 exp...
<a href="http://www.itlogger.com/category/program" rel="category tag">程序设计</a>
程序设计

Hadoop DataNode无法启动

2017-10-15 itlogger阅读(169) 评论(0)
【故障描述】Hadoop DataNode无法启动,启动完立刻自动关闭,查看DataNode日志: 2017-10-15 06:52:14,827 INFO org.apache.hadoop.hdfs.server.common.Storage: Lock on /tmp/dfs/data/in_use.lock acquired by nodename 9802@s1 2017-10-15 06:52:14,829 WARN org.apache.hadoop.hdfs.server.common.Storage: Failed to add storage direct...
<a href="http://www.itlogger.com/category/program" rel="category tag">程序设计</a>
程序设计

hadoop namenode无法启动

2017-10-08 itlogger阅读(140) 评论(0)
【问题描述】hadoop namenode启动后立即自动关闭 【故障分析】hadoop namenode logs显示 INFO org.apache.hadoop.metrics2.impl.MetricsSystemImpl: Stopping NameNode metrics system… INFO org.apache.hadoop.metrics2.impl.MetricsSystemImpl: NameNode metrics system stopped. INFO org.apache.hadoop.metrics2.impl.MetricsSyste...
<a href="http://www.itlogger.com/category/program" rel="category tag">程序设计</a>
程序设计

Hadoop克隆的两台虚拟机只能同时启动一个DATANODE

2017-10-07 itlogger阅读(178) 评论(0)
【问题描述】hadoop克隆的两台虚拟机,在Hadoop Web界面查看,同时只能启动两台中的一个DATANODE,刷新界面,不停在两台之间切换。 【原因分析】克隆的两台虚拟机对应的storageID\datanodeUuid冲突,导致DATANODE启动加载失败。 【解决方法】以hadoop2.8.0+hbase1.2.6为例,进入hadoop安装目录/hdfs/data/current/,删除VERSION,重启Hadoop
<a href="http://www.itlogger.com/category/program" rel="category tag">程序设计</a>
程序设计

Hadoop部署常见问题汇总

2017-07-02 itlogger阅读(263) 评论(0)
1.Error:JAVA_HOME is not set and could not be found LINUX环境变量已经添加JAVA_HOME,仍然出现该错误,解决方法: hadoop安装目录/etc/haddop/hadoop-env.sh修改 export JAVA_HOME=${JAVA_HOME} 为export JAVA_HOME=JAVA安装目录如/usr/soft/jdk1.8.0_131 2.启动hadoop时,提示mkdir: cannot create directory ‘/usr/local/hadoop/...