【发布时间】:2016-10-09 21:52:10
【问题描述】:
我正在尝试为 Hadoop (hdfs) 和 Apache Drill 制作存储插件。 实际上我很困惑,我不知道为 hdfs:// 连接设置什么端口,以及为位置设置什么。 这是我的插件:
{
"type": "file",
"enabled": true,
"connection": "hdfs://localhost:54310",
"workspaces": {
"root": {
"location": "/",
"writable": false,
"defaultInputFormat": null
},
"tmp": {
"location": "/tmp",
"writable": true,
"defaultInputFormat": null
}
},
"formats": {
"psv": {
"type": "text",
"extensions": [
"tbl"
],
"delimiter": "|"
},
"csv": {
"type": "text",
"extensions": [
"csv"
],
"delimiter": ","
},
"tsv": {
"type": "text",
"extensions": [
"tsv"
],
"delimiter": "\t"
},
"parquet": {
"type": "parquet"
},
"json": {
"type": "json"
},
"avro": {
"type": "avro"
}
}
}
所以,设置 localhost:54310 是否正确,因为我是通过命令得到的:
hdfs -getconf -nnRpcAddresses
还是:8020?
第二个问题,我需要为位置设置什么?我的 hadoop 文件夹位于:
/usr/local/hadoop
,在那里你可以找到 /etc /bin /lib /log ... 那么,我需要在我的数据节点上设置位置吗?
第三个问题。当我连接到 Drill 时,我正在通过 sqlline 而不是连接到我的 zookeeper 上,例如:
!connect jdbc:drill:zk=localhost:2181
我的问题是,在我制作了存储插件之后,当我用 zk 连接到 Drill 时,我可以查询 hdfs 文件吗?
如果这是一个菜鸟问题,我很抱歉,但我在互联网上没有找到任何有用的东西,或者至少它没有帮助我。 如果您能向我解释一些事情,我将不胜感激。
【问题讨论】:
标签: apache hadoop hdfs apache-drill hadoop-plugins