【发布时间】:2016-07-31 22:05:25
【问题描述】:
我需要你的帮助。 我使用 Talend ESB,我想制作 java bean。
例如,我有这个平面文件:
11886 1855 0000004309000
11886 1855 0000057370000
11886 1856 0000057374001
11886 1856 0000057375000
在我的示例中,我想要 2 个文件(消息),一个过滤器“1855”和“1856”(这是订单数)。
第一个文件:
11886 1855 0000004309000
11886 1855 0000057370000
第二个文件:
11886 1856 0000057374001
11886 1856 0000057375000
编辑: 但我不知道每个文件的订单数。
如果我的原始文件中有三个订单(每个三行)==> 我想要三个文件,每个订单有 3 行。
如果我的原始文件中有四个订单 ==> 我想要四个文件。
如果我的原始文件中有五个订单 ==> 我想要五个文件。
等等 .....................
这是我的起始代码。 我想分成多个文件。 我真的很困惑如何做到这一点。
package beans;
import java.io.BufferedReader;
import java.io.ByteArrayInputStream;
import java.io.IOException;
import java.io.InputStream;
import java.io.InputStreamReader;
import java.util.HashMap;
import java.util.LinkedHashMap;
import java.util.Map;
import org.apache.camel.*;
public class bean_test implements Processor{
private static final String ENDPOINT_NAME = "Endpoint";
private static final String END_TAG_ENDPOINT_NAME = "endEndpoint";
private static final int NUMERO_SITE_START_POSITION = 6;
private static final int NUMERO_SITE_END_POSITION = 11;
@Override
public void process(Exchange exchange) throws Exception {
ProducerTemplate producerTemplate = exchange.getContext().createProducerTemplate();
String ropEndpoint = exchange.getIn().getHeader(ENDPOINT_NAME, String.class);
String endRopEndpoint = exchange.getIn().getHeader(END_TAG_ENDPOINT_NAME, String.class);
InputStream is = new ByteArrayInputStream(exchange.getIn().getBody(String.class).getBytes());
aggregateBody(producerTemplate, is, ropEndpoint, endRopEndpoint, new HashMap<String, Object>(exchange.getIn().getHeaders()));
}
private void aggregateBody(ProducerTemplate producerTemplate, InputStream content, String ropEndPoint, String endRopEndpoint, Map<String, Object> headers){
BufferedReader br = new BufferedReader(new InputStreamReader(content));
String line;
Map<String, StringBuilder> articles = new LinkedHashMap<String, StringBuilder>();
StringBuilder aggregateFile = new StringBuilder();
try {
String lineId = null;
while((line = br.readLine()) != null){
lineId = line.substring(NUMERO_SITE_START_POSITION, NUMERO_SITE_END_POSITION);
}
} catch (IOException e) {
e.printStackTrace();
}
finally{
try {
if(br != null)br.close();
} catch (IOException e) {
e.printStackTrace();
}
}
}
}
提前谢谢你。
路易莎。
编辑:我的新代码,但我不知道如何返回文件。
package beans;
import java.io.BufferedReader;
import java.io.BufferedWriter;
import java.io.ByteArrayInputStream;
import java.io.File;
import java.io.FileWriter;
import java.io.IOException;
import java.io.InputStream;
import java.io.InputStreamReader;
import java.util.HashMap;
import java.util.Iterator;
import java.util.Map;
import java.util.Set;
import java.util.TreeSet;
import org.apache.camel.*;
public class bean_test implements Processor{
private static final String ENDPOINT = "aggregateEndpoint";
private static final int NUMERO_SITE_START_POSITION = 46;
private static final int NUMERO_SITE_END_POSITION = 55;
@Override
public void process(Exchange exchange) throws Exception {
ProducerTemplate producerTemplate = exchange.getContext().createProducerTemplate();
String endpoint = exchange.getIn().getHeader(ENDPOINT, String.class);
InputStream is = new ByteArrayInputStream(exchange.getIn().getBody(String.class).getBytes());
aggregateBody(producerTemplate, is, endpoint, new HashMap<String, Object>(exchange.getIn().getHeaders()));
}
private void aggregateBody(ProducerTemplate producerTemplate, InputStream content, String endpoint, Map<String, Object> headers){
BufferedReader br = new BufferedReader(new InputStreamReader(content));
String line;
Set<String> order=new TreeSet<String>();
try {
String lineId = null;
while((line = br.readLine()) != null){
lineId = line.substring(NUMERO_SITE_START_POSITION, NUMERO_SITE_END_POSITION);
order.add(lineId);
}
for(int i=0;i<order.size();i++){
String key = "file" + i;
File F = new File(key);
Iterator it = order.iterator();
FileWriter fw = new FileWriter(F.getAbsoluteFile());
BufferedWriter bw = new BufferedWriter(fw);
while((line = br.readLine()) != null){
while(it.hasNext()){
lineId = line.substring(NUMERO_SITE_START_POSITION, NUMERO_SITE_END_POSITION);
if (lineId.equals(it.next())) {
bw.write(line);
}
}
}
}
} catch (IOException e) {
e.printStackTrace();
}
finally{
try {
if(br != null)br.close();
} catch (IOException e) {
e.printStackTrace();
}
}
}
}
【问题讨论】:
-
分割文件的逻辑是什么?
-
您好 Boris,逻辑基于字段 1855 和 1856(我的文件中的位置 7 到 11)。应该在1855年和1856年(两个文件)汇总在一起。
-
那么就这样做吧。 1) 打开两个文件。 2)
stream()输入文件中的行。 3) 根据所讨论的字段,将行写入相应的文件。 4) 关闭文件。 -
回到鲍里斯的问题,why do you need to split files at all - 这是一个巨大的红色警告灯,你问的是如何解决你遇到的问题,而不是问如何解决问题,几乎可以肯定的是,拆分文件甚至不是远程解决方案。
-
告诉我我是否正确:您是否要为每个订单号创建一个新文件,并将具有该订单号的每一行写入其自己的文件中?
标签: java split apache-camel bufferedreader