【发布时间】:2016-06-09 13:38:03
【问题描述】:
我已经用 Spark 创建了一个 Apache Ignite 应用程序
- 点燃版本 - 1.6.0
- Spark 版本 - 1.5.2(基于 Scala 2.11 构建)
应用程序将两个元组存储到 IgniteRDD
当调用retrieve 时,collect 函数耗时3 分钟以上。
提交的作业数量超过 1000 个
代码sn-p:
import java.util.HashMap;
import java.util.LinkedList;
import java.util.List;
import java.util.Map;
import org.apache.ignite.spark.IgniteContext;
import org.apache.ignite.spark.IgniteRDD;
import org.apache.spark.SparkConf;
import org.apache.spark.api.java.JavaPairRDD;
import org.apache.spark.api.java.JavaRDD;
import org.apache.spark.api.java.JavaSparkContext;
import scala.Tuple2;
public class CopyOfMainIgnite {
public static void main(String args[]) {
SparkConf conf = new SparkConf().setAppName("Demo").setMaster(
"spark://169.254.228.183:7077");
System.out.println("Spark conf initialized.");
JavaSparkContext sc = new JavaSparkContext(conf);
sc.addJar("./target/IgnitePOC-0.0.1-SNAPSHOT-jar-with-dependencies.jar");
System.out.println("Spark context initialized.");
IgniteContext ic = new IgniteContext(sc.sc(),
"ignite/client-default-config.xml");
System.out.println("Ignite Context initialized.");
String cacheName = "demo6";
save(sc, ic, cacheName);
retrieve(ic, cacheName);
ic.close(false);
sc.close();
}
private static void retrieve(IgniteContext ic, String cacheName) {
System.out.println("Getting IgniteRDD saved.");
IgniteRDD<String, String> javaIRDDRet = ic.fromCache(cacheName);
long temp1 = System.currentTimeMillis();
JavaRDD<Tuple2<String, String>> javardd = javaIRDDRet.toJavaRDD();
System.out
.println("Is empty Start Time: " + System.currentTimeMillis());
System.out.println("javaIRDDRet.isEmpty(): " + javardd.isEmpty());
System.out.println("Is empty End Time: " + System.currentTimeMillis());
long temp2 = System.currentTimeMillis();
long temp3 = System.currentTimeMillis();
System.out.println("collect and println Start Time: "
+ System.currentTimeMillis());
javardd.collect().forEach(System.out::println);
System.out.println("collect and println End Time: "
+ System.currentTimeMillis());
long temp4 = System.currentTimeMillis();
System.out.println("Is empty : " + temp1 + " " + temp2
+ " Collect and print: " + temp3 + " " + temp4);
}
private static void save(JavaSparkContext sc, IgniteContext ic,
String cacheName) {
IgniteRDD<String, String> igniteRDD = ic.fromCache(cacheName);
System.out.println("IgniteRDD from cache initialized.");
Map<String, String> tempMap = new HashMap<String, String>();
tempMap.put("Aditya", "Jain");
tempMap.put("Pranjal", "Jaju");
Tuple2<String, String> tempTuple1 = new Tuple2<String, String>(
"Aditya", "Jain");
Tuple2<String, String> tempTuple2 = new Tuple2<String, String>(
"Pranjal", "Jaju");
List<Tuple2<String, String>> list = new LinkedList<Tuple2<String, String>>();
list.add(tempTuple1);
list.add(tempTuple2);
JavaPairRDD<String, String> jpr = sc.parallelizePairs(list, 4);
System.out.println("Random RDD saved.");
igniteRDD.savePairs(jpr.rdd(), false);
System.out.println("IgniteRDD saved.");
}
}
所以我的问题是:从 Ignite 获取 2 个 Rdd 元组并在我的进程中收集它们需要 3-4 分钟吗?
或者我的期望是错误的,它会在毫秒内响应?
调试后我发现它在 ignite rdd 中创建了 1024 个分区,这导致它触发了 1024 个作业。而且我没有办法控制分区的数量。
【问题讨论】:
-
您的问题到底是什么?到目前为止,您只陈述了事实。
-
所以我的问题是 - 从 Ignite 获取 2 个 Rdd 元组并在我的进程中收集它们需要 3-4 分钟吗?或者我的期望是错误的,它会在毫秒内响应。
-
肯定不会花这么长时间。你会同时开始 1000 个这样的工作吗?当你开始一个工作时,有什么性能差异吗?
-
调试后我发现它在 ignite rdd 中创建了 1024 个分区,这导致它触发了 1024 个作业。而且我没有办法控制分区的数量。
标签: java apache-spark ignite