【问题标题】:Speeding up pandas code by replacing iterrows通过替换 iterrows 来加速 pandas 代码
【发布时间】:2023-03-24 03:31:01
【问题描述】:

我有一个如下所示的数据框

+-----------+----------+-------+-------+-----+----------+-----------+
| InvoiceNo | totalamt | Item# | price | qty | MainCode | ProdTotal |
+-----------+----------+-------+-------+-----+----------+-----------+
| Inv_001   |     1720 |   260 |  1500 |   1 |        0 |      1500 |
| Inv_001   |     1720 |   777 |   100 |   1 |      260 |       100 |
| Inv_001   |     1720 |   888 |   120 |   1 |      260 |       120 |
| Inv_002   |     1160 |   360 |   700 |   1 |        0 |       700 |
| Inv_002   |     1160 |   777 |   100 |   1 |      360 |       100 |
| Inv_002   |     1160 |   888 |   120 |   1 |      360 |       120 |
| Inv_002   |     1160 |   999 |   140 |   1 |      360 |       140 |
| Inv_002   |     1160 |   111 |   100 |   1 |        0 |       100 |
+-----------+----------+-------+-------+-----+----------+-----------+

我想添加ProdTotal 值,其MainCode 等于Item#。 受到我为question 得到的答案的启发,我设法产生了下面提到的所需输出

+-----------+----------+-------+-------+-----+----------+-----------+
| InvoiceNo | totalamt | Item# | price | qty | MainCode | ProdTotal |
+-----------+----------+-------+-------+-----+----------+-----------+
| Inv_001   |     1720 |   260 |  1720 |   1 |        0 |      1720 |
| Inv_002   |     1160 |   360 |  1060 |   1 |        0 |      1060 |
| Inv_002   |     1160 |   111 |   100 |   1 |        0 |       100 |
+-----------+----------+-------+-------+-----+----------+-----------+

使用下面的代码

df = pd.read_csv('data.csv')
df_grouped = dict(tuple(df.groupby(['InvoiceNo'])))

remove_index= []
ids = 0

for x in df_grouped:
    for index, row in df_grouped[x].iterrows():
        ids += 1
        try:
            main_code_data = df_grouped[x].loc[df_grouped[x]['MainCode'] == row['Item#']]
            length = len(main_code_data['Item#'])
            iterator = 0
            index_value = 0    
            for i in range(len(df_grouped[x].index)):
                index_value += df_grouped[x].at[index + iterator, 'ProdTotal']
                df.at[index, 'ProdTotal'] = index_value

                iterator += 1

            for item in main_code_data.index:
                remove_index.append(item)

        except:
            pass

df = df.drop(remove_index)

但是数据包含数百万行,并且这段代码运行速度非常慢。来自其他成员的简短谷歌搜索和 cmets,我知道 iterrows() 正在使代码运行缓慢。如何替换 iterrows() 以使我的代码更高效、更 Python 化?

【问题讨论】:

  • 为什么不为零,没有一行的主代码等于项目编号。你的意思是把它们加起来吗?
  • 什么应该是零? @ifly6
  • MainCode 等于每个InvoiceNo 中的Item#。例如:在Inv_001Item# 777 888MainCode 260。所以这些项目是260的一部分
  • 但在您的示例数据框中,没有一个MainCode 值等于Item#
  • @HS-nebula 专栏Item#。将此视为主要产品和其他项目(例如Inv_001777, 888Inv_002777 888 999)是与此相关的子产品。

标签: python pandas


【解决方案1】:

熊猫合并。将数据拆分为两个数据框,一个带有发票,total_amt,item# price,qty,另一个带有发票,主代码。使用合并操作进行内部连接,之后您可以按行对列的值求和并删除那些不需要的列。

【讨论】:

  • 我不明白为什么我的回答会遭到反对。
【解决方案2】:

这适用于示例数据。它适用于您的实际数据吗?

# Sample data.
df = pd.DataFrame({
    'InvoiceNo': ['Inv_001'] * 3 + ['Inv_002'] * 5,
    'totalamt': [1720] * 3 + [1160] * 5,
    'Item#': [260, 777, 888, 260, 777, 888, 999, 111],
    'price': [1500, 100, 120, 700, 100, 120, 140, 100],
    'qty': [1] * 8,
    'MainCode': [0, 260, 260, 0, 260, 260, 260, 0],
    'ProdTotal': [1500, 100, 120, 700 ,100 ,120, 140, 100]
})

subtotals = df[df['MainCode'].ne(0)].groupby(
    ['InvoiceNo', 'MainCode'], as_index=False)['ProdTotal'].sum()
subtotals = subtotals.rename(columns={'MainCode': 'Item#', 'ProdTotal': 'ProdSubTotal'})

result = df[df['MainCode'].eq(0)]
result = result.merge(subtotals, on=['InvoiceNo', 'Item#'], how='left')
result['ProdTotal'] += result['ProdSubTotal'].fillna(0)
result['price'] = result.eval('ProdTotal / qty')
result = result.drop(columns=['ProdSubTotal'])

>>> result
  InvoiceNo  totalamt  Item#   price  qty  MainCode  ProdTotal
0   Inv_001      1720    260  1720.0    1         0     1720.0
1   Inv_002      1160    260  1060.0    1         0     1060.0
2   Inv_002      1160    111   100.0    1         0      100.0

我们首先要获得ProdTotalInvoiceNoMainCode 的聚合(但仅在MainCode 不等于0 的情况下,.ne(0)):

subtotals = df[df['MainCode'].ne(0)].groupby(
    ['InvoiceNo', 'MainCode'], as_index=False)['ProdTotal'].sum()
>>> subtotals
  InvoiceNo  MainCode  ProdTotal
0   Inv_001       260        220
1   Inv_002       260        360

然后我们需要从主数据帧中过滤这些数据,所以我们只过滤MainCode 等于零的位置,.eq(0)

result = df[df['MainCode'].eq(0)]
>>> result
  InvoiceNo  totalamt  Item#  price  qty  MainCode  ProdTotal
0   Inv_001      1720    260   1500    1         0       1500
3   Inv_002      1160    260    700    1         0        700
7   Inv_002      1160    111    100    1         0        100

我们希望将小计加入到此结果中,其中InvoiceNo 匹配并且result 中的Item# 匹配subtotal 中的MainCode。一种方法是更改​​subtotal 中的列名,然后执行左合并:

subtotals = subtotals.rename(columns={'MainCode': 'Item#', 'ProdTotal': 'ProdSubTotal'})
result = result.merge(subtotals, on=['InvoiceNo', 'Item#'], how='left')
>>> result
  InvoiceNo  totalamt  Item#  price  qty  MainCode  ProdTotal  ProdSubTotal
0   Inv_001      1720    260   1500    1         0       1500         220.0
1   Inv_002      1160    260    700    1         0        700         360.0
2   Inv_002      1160    111    100    1         0        100           NaN

现在我们将ProdSubTotal 添加到ProdTotal 并删除该列。

result['ProdTotal'] += result['ProdSubTotal'].fillna(0)
result = result.drop(columns=['ProdSubTotal'])
>>> result
  InvoiceNo  totalamt  Item#  price  qty  MainCode  ProdTotal
0   Inv_001      1720    260   1500    1         0     1720.0
1   Inv_002      1160    260    700    1         0     1060.0
2   Inv_002      1160    111    100    1         0      100.0

最后,我们根据qty 和新的ProdTotal 重新计算price

result['price'] = result.eval('ProdTotal / qty')
>>> result
  InvoiceNo  totalamt  Item#   price  qty  MainCode  ProdTotal
0   Inv_001      1720    260  1720.0    1         0     1720.0
1   Inv_002      1160    260  1060.0    1         0     1060.0
2   Inv_002      1160    111   100.0    1         0      100.0

【讨论】:

  • 在示例数据中效果很好。但是,在原始数据中并非如此。让我进一步检查我的代码并回复您。谢谢你..
  • 完美。现在快了 3 倍。非常感谢您建议避免使用 iterrows() 并提供此解决方案。
猜你喜欢
  • 2021-10-17
  • 1970-01-01
  • 2022-12-22
  • 2020-08-02
  • 2021-08-02
  • 2013-01-21
  • 2021-03-06
  • 1970-01-01
  • 2020-08-29
相关资源
最近更新 更多