搜索资源列表
phoenix-master
- Phoniex 可以让开发者在HBase数据集上使用SQL查询。Phoenix查询引擎会将SQL查询转换为一个或多个HBase scan,并编排执行以生成标准的JDBC结果集,对于简单查询来说,性能甚至胜过Hive。-Phoniex allows developers using SQL queries on HBase data sets. The Phoenix query engine, the SQL query conversion the HBase scan one or more
myhiveudfs
- 自己实现的hive udf和udaf函数,包括求最大值,最小值,平均值,反编译后可以查看源码-Hive udf and udaf functions themselves to achieve, including maximum, minimum, average, you can view the source code decompiled
testOrcfileWriter
- hadoop hive orcfile.createwriter
HiveJdbcClient
- hive java api hive java api -hive java apihive java apihive java api
cdh-query
- 一个演示通过Maven编辑hadoop中Hive的UDF函数示例项目。-A demonstration by Maven editor hadoop Hive The UDF function in the sample project.
HBase
- 这是用java写的Hadoop要用的API,包括HBase和Hive内容,是学习Hadoop很好的资料。-It is written in java want to use Hadoop API, including HBase and Hive content, learning Hadoop good information.
TestHive
- 测试在Java中链接hive,实现简单的hive数据查询-test Hive
abcAlgoLibrary3264
- Simulates behavior of real bees for solving multidimensional and multimodal optimisation problems. The colony of artificial bees consists of three groups of bees: employed bees, onlookers and scouts. The first half of the colony consists of
JdbcDemo
- mysql与hive进行jdbc连接操作-mysql jdbc connection with the hive perform the operation
Hive_JDBC
- hive JDBC连接实例 maven工程-hive JDBC
hadoop-hive-code
- 此文件是大数据方面的两个小代码,一个是hadoop中wordcount的代码和说明,另外一个是hive的代码,希望可以帮到大家。-This file contains two small codes about the big data,one is the wordcount in hadoop,the other is hive. Hope this can help you!
Hive_UDF
- sqoop、hive命令的封装,可配置化,数据的导入导出功能-sqoop, hive command package can be configured based, data import and export functions
9313_bigdata
- unsw大数据9313课程,lab包括Hadoop的mapreduce,hive,pig,scala语言-unsw Big Data 9313 courses, lab including Hadoop' s mapreduce, hive, pig, scala language
hivetomysql
- JAVA实现HIve的UDAF,完成多条数据插入MYSQL的结果。输入参数与标准Hive插入msyql的jar一致。-翻译 JAVA实现HIve的UDAF,完成多条数据插入MYSQL的结果。输入参数与标准Hive插入msyql的jar一致。 JAVA achieve HIve the UDAF, the completion of multiple data into MYSQL results. The input parameters are the same as th
res
- java registry hive lib
GPRS_Receive
- 很好找了很久,最后在一个人的回复中我发现了问题的所在,java中readUTF必须读取用writeUTF函数输出的中数据,也就是说这种方法只适用于用java写的程序,用其他语言写的程序发送的数据,readUTF是没有办法读取出来的,会一直阻塞在这一行。虽然是一个小问题但是分析起来非常的困难,一方面没有系统的学习java的网络中数据流的相关理论,另一方面网络上资源的确非常少。最后用了字符数组的接收方法,服务器收到相应数据并与发送的数据一致。 所以不同软件进行通信最好使用相对底层的一些发送和接收方
hive-solr-master
- hive与SOLR更新插件, 实现HIVE数据与SOLR的同步(Hive and SOLR update plug-ins to synchronize HIVE data with SOLR)
war-fx_bigData_etl
- 用于数据库的ETL mysql to ES HIVE HBASE(ETL for database mysql to ES HIVE HBASE)