码迷,mamicode.com
首页 > 其他好文 > 详细

spark+hadoop+sqoop+hive平台bug解决方法

时间:2014-10-02 23:55:33      阅读:205      评论:0      收藏:0      [点我收藏+]

标签:style   blog   color   io   os   使用   ar   for   文件   

bug集锦

1. hadoop平台datanode无法启动:

原因:

    由于多次hdfs namenode -format导致dfs/data/current/version中的cluserID与当前的cluserID不统一,通过查看hadoop/logs中的datanode日志文件查看到此错误。

解决方法:

    1). 修改每台节点上的/dfs/current/version文件中的cluserID的值为当前的值(当前值可以通过hadoop/logs日志文件中的报错获得)。

    2). 每次format dfs文件系统时,都加上clusterID参数:(此方法没有亲测)

hdfs namenode –format –clusterid YOURID

 

2. hive配置mysql为metastore时,用户权限问题:

问题描述:

    在使用了grant all privileges on *.* to ‘username‘@‘%‘ with grant option;或者 update user set host=‘%‘ where user=‘username‘;命令后,仍然出现权限问题。

解决方法:

# service myqld stop /*停止mysql服务*/
# usr/bin/mysqld_safe --skip-grant-tables /*启动mysql数据库安全模式*/
/*另开一个控制台*/
# mysql
> use mysql;
> update user set password=password(‘newpassword‘) where user=YOURUSERNAME;
/*可能还要查询一下user表,将一些含有空值的重复用户名记录删除*/

 

3. hive部署启动出错

问题描述:

    提示:"enable ... autocreate ..."。

解决方法:

    修改 hive-site.xml最后面的datanucleus.fixedDataStore属性为false。

 

4. hadoop无法启动nodemanager,可能是防火墙没有关闭。

 

5. sqoop 导数据时,连接连接数据库出错,oracle 11+默认对大小写敏感,而sqoop中要求用户名和密码要大写字母,所以可能需要关闭数据库的大小写敏感属性。

alter system set sec_case_sensitive_logon=false;

 

 

    

 



spark+hadoop+sqoop+hive平台bug解决方法

标签:style   blog   color   io   os   使用   ar   for   文件   

原文地址:http://www.cnblogs.com/wrencai/p/4004540.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!