【发布时间】:2018-10-29 05:03:50
【问题描述】:
这是我通过 Spark Cluster 在 R 中使用的代码,下面也给出了错误
mydata<-spark_read_csv(spark_cluster,name = "rd_1",path = "IAF_Extracted_Data_Zipped.csv",header = F,delimiter = "|")
mydata %>% select(customer=V1,device_subscriber_id=V2,user_subscriber_id=V3,user_id=V4,location_id=V5)
.f(.x[[i]], ...) 中的错误:找不到对象“V1”
【问题讨论】:
-
您能否提供
str(mydata)的输出。另外,为了确保正确理解,customer, device_subscriber_id, etc你的新名字对吗?还是那些存在的对象? -
是的....这些是新名字
标签: r apache-spark apache-spark-sql sparklyr