腳步
我們首先獲得了 hive2 jar,並通過 java 來檢查連線。然後我們意識到要使用的罐子是:
- Hadoop 的共同 -2.7.0-MAPR-1703.jar
- 蜂房共同 -2.1.1-MAPR-1703-r1.jar
- 蜂巢 -JDBC-2.1.1-MAPR-1703-R1-standalone.jar
如果你正在使用 SOLR Cloud,那麼這些 jar 將被傳輸到安裝了 SOLR 的 VM,然後在 solrconfig.xml 中引用,如下所示:
在 solrconfig.xml 中匯入部件
<lib dir =“/ users / path_to_folder_with_jar”regex =“。*。jar”/>
那麼這是最重要的部分:你的 hive 連線字串:
連線部分
<dataConfig> <dataSource name =ABC
driver =“org.apache.hive.jdbc.HiveDriver”url =“jdbc:hive2://….connectionString”user =username
password =password
/>
<document name =“collection_name”>
<entity name =“collection_lookup”query =“select unique_key as table from table_name”>
</ entity>
</ document>
</ dataConfig>
通過 zookeeper 推送配置
server / scripts / cloud-scripts / zkcli.sh -zkhost host1:2181,host2:2181 -cmd upconfig -confname configName -confdir server / solr / configsets / folder /
轉到 http:// host:8983 / solr /#/ collection_name / dataimport // dataimport 然後檢查除錯並首先檢查 10 或 20 條記錄。
你將看到資料流動。CH !! 如果你想進一步討論我可以提供幫助,但我認為應該這樣做。它對我有用。