hive是基于Hadoop的一个数据仓库工具,可以将结构化的数据文件映射为一张数据库表,并提供简单的sql查询功能,可以将sql语句转换为MapReduce任务进行运行下面我们来看看.
Hive可以将类sql查询语句转换成Hadoop的map reduce任务,让熟悉关系型数据库的人也可以利用hadoop的强大并行计算能力,Hive提供了强大的内置函数支持,但是总有一些特殊情况,内置函数无法覆盖,这就要求我们对定义自己的函数,接下来我们通过一个例子看一下如何自定义hive函数.
1.自定义函数的实现
假设我们的关系型数据库中user表有一个status字段,代表着用户的活跃等级,取值为1~10,活跃度一次递增,现在我们要根据status字段将用户分为3个活跃度等级,Hive显然没有这种与业务逻辑强耦合的内置函数,但这不应该成为阻碍我们使用Hive的理由,下面的扩展函数就可以满足需求.
- package com.test.example;
- import org.apache.hadoop.hive.ql.exec.Description;
- import org.apache.hadoop.hive.ql.exec.UDF;
- import org.apache.hadoop.io.Text;
- public class UserStatus extends UDF {
- public Text evaluate(Text input) {
- if(input == null) return null;
- int status= Integer.parseInt(input.toString());
- if(status>= 1 && status<= 3){
- return new Text(String.valueOf(1));
- }else if(status>=4 && status<=7){
- return new Text(String.valueOf(2));
- }else if(status>=7 && status<=10){
- return new Text(String.valueOf(3));
- } //Vevb.com
- return null;
- }
- }
从上面的例子可以看出实现自定义的hive函数还是相当简单的,就是继承org.apache.hadoop.hive.ql.exec.UDF 并实现execute函数.
2.自定义函数的使用
定义为自定义函数后该如何使用呢?其实也是相关简单的,假设包含自定义函数的jar包为mydf.jar.
(1).在hive shell中加载,首先加载jar包,并创建临时函数.
- %> hive
- hive> ADD JAR /path/to/mydf.jar;
- hive> create temporary function userStatus as 'com.test.example.UserStatus';
然后就可以直接使用了.
hive> select userStatus(4);
但是每次使用都要加载一次,太费劲了,有没有别的方法呢.
(2).在.hiverc中加载
编辑home目录下的.hiverc文件,如果没有这个文件就新建一个,将加载jar包的命令写入.hiverc文件,启动hive shell时会自动执行.hiverc文件,不需要每个shell都load一遍.
新闻热点
疑难解答