【问题标题】:Retain ID references when tokenizing record using generator使用生成器标记记录时保留 ID 引用
【发布时间】:2018-11-29 03:43:45
【问题描述】:

我正在尝试使用 pandas 复制 here 描述的(非常酷的)数据匹配方法。目标是获取记录的组成部分(令牌)并用于匹配另一个 df。

我一直在试图弄清楚如何保留源 ID 并与各个令牌相关联。希望这里有人对我如何做到这一点有一个聪明的建议。我搜索了 Stack,但找不到类似的问题。

这里有一些示例数据和核心代码来说明。这需要一个数据框,标记选择列,生成标记、标记类型和 id(但 ID 部分不起作用):

d = {'Id': [3,6], 'Org_Name': ['Acme Co Inc.', 'Buy Cats Here LLC'], 'Address': ['123 Hammond Lane', 'Washington, DC 20456']}
df = pd.DataFrame(data=d)

def tokenize_name(name):
    if isinstance(name, basestring) is True:
        clean_name = ''.join(c if c.isalnum() else ' ' for c in name)
        return clean_name.lower().split()
    else:
        return name

def tokenize_address(address):
    if isinstance(address, basestring) is True:
        clean_name = ''.join(c if c.isalnum() else ' ' for c in address)
        return clean_name.lower().split()
    else:
        return address

left_tokenizers = [
    ('Org_Name', 'name_tokens', tokenize_name),
    ('Address', 'address_tokens', tokenize_address)
]

#this works except for ID references
def prepare_join_keys(df, tokenizers):
    for source_column, key_name, tokenizer in tokenizers:
        for index in df.index:
            if source_column in df.columns:
                for record in df[source_column]:
                    if isinstance(record, float) is False:
                        for token in tokenizer(record):
                            yield (token, key_name, df.iloc[index]['Id'])

for item in prepare_join_keys(df, left_tokenizers):
    print item

此代码生成正确的标记,但生成所有标记的 Id 值,而不是仅对应的 ID 值。我知道我这里的内容是错误的,但我想不出使用我的生成器函数来做到这一点。期望的输出是:

acme, name_tokens, 3
co, name_tokens, 3
inc, name_tokens, 3
buy, name_tokens, 6
cats, name_tokens, 6
here, name_tokens, 6
llc, name_tokens, 6
123, address_tokens, 3
hammond, address_tokens, 3
etc.

【问题讨论】:

  • 我意识到我在这里实际上是从 df 中为每个标记附加 Id 列和索引。需要找到一种方法将 Id 与每个相应的标记一起插入。

标签: python pandas dataframe token generator


【解决方案1】:

您需要更改Id 的索引,而不是在专用的for 循环中,但同时获得新记录。我会建议类似:

def prepare_join_keys(df, tokenizers):
    for source_column, key_name, tokenizer in tokenizers:
        # for index in df.index:
        if source_column in df.columns:
            for index, record in enumerate(df[source_column]):
                if isinstance(record, float) is False:
                    for token in tokenizer(record):
                        yield (token, key_name, df.iloc[index]['Id'])

【讨论】:

  • 非常感谢!似乎 enumerate 是我缺少的方法。
猜你喜欢
  • 1970-01-01
  • 1970-01-01
  • 2016-12-13
  • 1970-01-01
  • 1970-01-01
  • 1970-01-01
  • 1970-01-01
  • 2023-03-15
  • 1970-01-01
相关资源
最近更新 更多