【发布时间】:2020-08-01 06:12:35
【问题描述】:
我正在使用 hdfs 文件观察服务来加载配置文件,因为它在我的 flink 流作业中发生更改。
观察者服务来源:HDFS file watcher
我在这里面临的问题是观察者服务正在对整个 hdfs 的变化做出反应,而不仅仅是我传递的目录。
我的代码:
public static void main( String[] args ) throws IOException, InterruptedException, MissingEventsException
{
HdfsAdmin admin = new HdfsAdmin( URI.create("hdfs://stage.my-org.in:8020/tmp/anurag/"), new Configuration() );
DFSInotifyEventInputStream eventStream = admin.getInotifyEventStream();
while( true ) {
EventBatch events = eventStream.take();
for( Event event : events.getEvents() ) {
switch( event.getEventType() ) {
case CREATE:
System.out.print( "event type = " + event.getEventType() );
CreateEvent createEvent = (CreateEvent) event;
System.out.print( " path = " + createEvent.getPath() + "\n");
break;
default:
break;
}
}
}
}
程序输出:
event type = CREATE path = /tmp/anurag/newFile.txt
event type = CREATE path = /tmp/newFile2.txt
请帮我解决这个问题,以便我可以查看作为 URI 传递的特定目录中的文件
感谢期待
注意:如果你尝试运行这个程序,请以 hdfs 用户运行,否则你会得到 org.apache.hadoop.security.AccessControlException
【问题讨论】: