【问题标题】:ios Coredata large set insertios Coredata 大集合插入
【发布时间】:2013-09-04 05:51:00
【问题描述】:

嘿,我被同样的问题困扰了好几天,插入时间逐渐增加,在较低的 ipad 中,它也会因内存问题而崩溃。插入 20k 条记录需要 4-5 分钟。后台线程会提高效率吗? ?无论如何我可以优化这个。如果可以,请帮忙。

  +(BOOL) addObjectToProfessionalsDBWithDict:(NSArray*)profArray{

if (!([profArray count]>0 && profArray )) {
    return NO;
}

NSManagedObjectContext *thisContext=[self getManagedObjectContext];


for (int i=0; i<[profArray count]; i++) {
  NSManagedObject *professionalDBObject = [NSEntityDescription
    insertNewObjectForEntityForName:@"ProfessionalsDB"
                                          inManagedObjectContext:thisContext];//initWithDictionary:objectDict];        NSMutableDictionary * objectDict=[profArray objectAtIndex:i];
 [professionalDBObject setValue:[objectDict valueForKey:@"Degree"] forKey:@"degree"];
[professionalDBObject setValue:[objectDict valueForKey:@"First_Name"] 
  // and 10 more  values  

     if(i%500==0){
        NSError *error;
        NSLog(@"saved rec nu %d",i);
        if (![thisContext save:&error]) {
            NSLog(@"Whoops, couldn't save: %@", [error localizedDescription]);
            return NO;
        }
        else{
            NSLog(@"data saved");

        }

         [thisContext reset];


   }

}



[prefs setInteger:numOfRecords forKey:@"numberOfRecords"];
NSError *error;


if (![thisContext save:&error]) {
    NSLog(@"Whoops, couldn't save: %@", [error localizedDescription]);
    return NO;
}

return YES;

}

【问题讨论】:

    标签: ios core-data insert save bulkinsert


    【解决方案1】:

    存储 20k 条记录大约需要 4 分钟。我使用以下代码将其缩短到 8 秒(这真的很棘手!):

      +(NSManagedObjectContext*)getInsertContext{
    NSManagedObjectContext *thisContext=[[NSManagedObjectContext alloc] init];
    AppDelegate *delegate=(AppDelegate*)[[UIApplication sharedApplication] delegate];
    NSPersistentStoreCoordinator *coordinator = [delegate persistentStoreCoordinator];
    [thisContext setPersistentStoreCoordinator:coordinator];
    [thisContext setUndoManager:nil];
    
    return thisContext;
    

    }

    我在此上下文中保存的每 1000 条记录,在保存重置后再次获取新上下文:

        [thisContext reset];
            thisContext=[self getInsertContext];
    

    【讨论】:

    • 我认为您的性能提升主要是 nil 撤消管理器。这是带有子上下文的大型导入的标准做法(在核心数据编程指南中提到)。
    • 是的,这就是那里的主要内容。上面的代码提高了性能,因为大数据不会在单个上下文中膨胀。
    【解决方案2】:

    在启动时将种子数据插入数据库,原则上没有问题。复制现成的 Core Data 数据库当然很快,但准备和保持更新也很麻烦。

    这里有一些想法:

    1) 重写 for 循环,以便您遍历批次并有一个内部循环遍历记录。将两个循环括在单独的 @autoreleasepool 括号中。

    2) 从字典中检索值时,考虑将valueForKey 更改为objectForKey。区别很微妙,但很重要。

    3) 澄清您的thisContext 来自哪里。它是应用程序的主要上下文还是子上下文。在后一种情况下,在父级也保存之前,保存实际上不会写入数据库。

    4) 考虑托管对象上下文的performBlock API,它为您提供额外的线程和内存隔离。

    【讨论】:

    • 它会提高最低性能。不过我已经想通了,在下面回答。
    • 它对我来说就像 12,000 条记录的魅力一样。我花了大约 15 秒..
    【解决方案3】:

    你应该在你的包中已经创建了这个数据库。

    【讨论】:

    • 我从 JSON 形式的请求中获取数据。我在下面找到了解决方案。
    猜你喜欢
    • 1970-01-01
    • 2011-05-07
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 2012-01-30
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    相关资源
    最近更新 更多