脚步
我们首先获得了 hive2 jar,并通过 java 来检查连接。然后我们意识到要使用的罐子是:
- Hadoop 的共同 -2.7.0-MAPR-1703.jar
- 蜂房共同 -2.1.1-MAPR-1703-r1.jar
- 蜂巢 -JDBC-2.1.1-MAPR-1703-R1-standalone.jar
如果你正在使用 SOLR Cloud,那么这些 jar 将被传输到安装了 SOLR 的 VM,然后在 solrconfig.xml 中引用,如下所示:
在 solrconfig.xml 中导入部件
<lib dir =“/ users / path_to_folder_with_jar”regex =“。*。jar”/>
那么这是最重要的部分:你的 hive 连接字符串:
连接部分
<dataConfig> <dataSource name =ABC
driver =“org.apache.hive.jdbc.HiveDriver”url =“jdbc:hive2://….connectionString”user =username
password =password
/>
<document name =“collection_name”>
<entity name =“collection_lookup”query =“select unique_key as table from table_name”>
</ entity>
</ document>
</ dataConfig>
通过 zookeeper 推送配置
server / scripts / cloud-scripts / zkcli.sh -zkhost host1:2181,host2:2181 -cmd upconfig -confname configName -confdir server / solr / configsets / folder /
转到 http:// host:8983 / solr /#/ collection_name / dataimport // dataimport 然后检查调试并首先检查 10 或 20 条记录。
你将看到数据流动。CH !! 如果你想进一步讨论我可以提供帮助,但我认为应该这样做。它对我有用。