大数据技术学习笔记(16)Hive的客户端及自定义函数
沉沙 2018-10-08 来源 : 阅读 1828 评论 0

摘要:本篇教程探讨了大数据技术学习笔记(16)Hive的客户端及自定义函数,希望阅读本篇文章以后大家有所收获,帮助大家对大数据技术的理解更加深入。

本篇教程探讨了大数据技术学习笔记(16)Hive的客户端及自定义函数,希望阅读本篇文章以后大家有所收获,帮助大家对大数据技术的理解更加深入。

<

一.Hive的Java客户端

JDBC工具类:JDBCUtils.java
复制代码

package demo.jdbc;

import java.sql.DriverManager;
import java.sql.ResultSet;
import java.sql.SQLException;
import java.sql.Statement;

//工具类:(1)获取数据库的链接 (2)释放数据库资源
public class JDBCUtils {
    
    //Hive驱动
    private static String driver = "org.apache.hive.jdbc.HiveDriver";
    
    //Hive的位置
    private static String url = "jdbc:hive2://192.168.153.11:10000/default";
    
    //注册数据库的驱动:Java的反射
    static{
        try {
            Class.forName(driver);
        } catch (ClassNotFoundException e) {
            throw new ExceptionInInitializerError(e);
        }
    }
    
    //获取数据库链接
    public static java.sql.Connection getConnection(){
        try {
            return DriverManager.getConnection(url);
        } catch (SQLException e) {
            e.printStackTrace();
        }
        return null;
    }
    
    //释放资源
    public static void release(java.sql.Connection conn,Statement st,ResultSet rs){
        if(rs != null){
            try {
                rs.close();
            } catch (SQLException e) {
                e.printStackTrace();
            }finally{
                rs = null;
            }
        }
        
        if(st != null){
            try {
                st.close();
            } catch (SQLException e) {
                e.printStackTrace();
            }finally{
                st = null;
            }
        }
        
        if(conn != null){
            try {
                conn.close();
            } catch (SQLException e) {
                e.printStackTrace();
            }finally{
                conn = null;
            }
        }
    }
}

复制代码

DemoTest.java
复制代码

package demo.jdbc;

import java.sql.ResultSet;
import java.sql.Statement;

public class DemoTest {

    public static void main(String[] args) {
        String sql = "select * from emp1";
        
        java.sql.Connection conn = null;
        Statement st = null;
        ResultSet rs = null;
        try {
            conn = JDBCUtils.getConnection();
            //得到SQL的运行环境
            st = conn.createStatement();
            //ִ执行SQL
            rs = st.executeQuery(sql);
            
            while (rs.next()) {
                //姓名 薪水
                String name = rs.getString("ename");
                double sal = rs.getDouble("sal");
                System.out.println(name + "\t" +sal);
            }
        }catch(Exception e){
            e.printStackTrace();
        }finally {
            JDBCUtils.release(conn, st, rs);
        }
    }
}

复制代码

启动HiveServer:hiveserver2,会报错:

java.lang.RuntimeException: org.apache.hadoop.ipc.RemoteException:User:
root is not allowed to impersonate anonymous
在老版本的Hive中,是没有这个问题的

解决:

把Hadoop HDFS的访问用户(代理用户) ---> *
core-site.xml
复制代码

<property>
  <name>hadoop.proxyuser.root.hosts</name>
  <value>*</value>
</property>

<property>
  <name>hadoop.proxyuser.root.groups</name>
  <value>*</value>
</property>

复制代码

 

 二.Hive的自定义函数

例子:

1.concat 拼加两个字符串
复制代码

package udf;

import org.apache.hadoop.hive.ql.exec.UDF;


/**
 * 实现关系型数据库中的concat函数:拼加字符串
 * 需要继承的类:UDF
 *
 */
public class MyConcatString extends UDF{
    
    //必须重写一个方法,方法名叫: evaluate
    public String evaluate(String a,String b){
        return a + "*************"+b;
    }
}

复制代码

 

2.判断员工工资的级别
复制代码

package udf;

import org.apache.hadoop.hive.ql.exec.UDF;

/**
 * 根据员工薪水判断级别
 *
 */
public class CheckSalaryGrade extends UDF{
    public String evaluate(String salary){
        int sal = Integer.parseInt(salary);
        
        if (sal<1000) {
            return "Grade A";
        }else if (sal>=1000 && sal<3000) {
            return "Grade B";
        }else {
            return "Grade C";
        }
    }
}

复制代码

3、打包
将jar包加入hive的classpath
在hive命令行执行:add jar /root/temp/myudf.jar;

创建别名(函数名称)
create temporary function myconcat as 'demo.udf.MyConcatString';
create temporary function checksal as 'demo.udf.CheckSalaryGrade';

 结果:

 

     

本文由职坐标整理发布,学习更多的大数据技术相关知识,请关注职坐标大技术云计算大技术技术频道!

本文由 @沉沙 发布于职坐标。未经许可,禁止转载。
喜欢 | 0 不喜欢 | 0
看完这篇文章有何感觉?已经有0人表态,0%的人喜欢 快给朋友分享吧~
评论(0)
后参与评论

您输入的评论内容中包含违禁敏感词

我知道了

助您圆梦职场 匹配合适岗位
验证码手机号,获得海同独家IT培训资料
选择就业方向:
人工智能物联网
大数据开发/分析
人工智能Python
Java全栈开发
WEB前端+H5

请输入正确的手机号码

请输入正确的验证码

获取验证码

您今天的短信下发次数太多了,明天再试试吧!

提交

我们会在第一时间安排职业规划师联系您!

您也可以联系我们的职业规划师咨询:

小职老师的微信号:z_zhizuobiao
小职老师的微信号:z_zhizuobiao

版权所有 职坐标-一站式AI+学习就业服务平台 沪ICP备13042190号-4
上海海同信息科技有限公司 Copyright ©2015 www.zhizuobiao.com,All Rights Reserved.
 沪公网安备 31011502005948号    

©2015 www.zhizuobiao.com All Rights Reserved