【问题标题】:pyspark init super class warningpyspark init 超类警告
【发布时间】:2020-02-21 13:19:27
【问题描述】:

我在我的 pySpark 程序的 pyCharm 中创建了一个单元测试类。

class TableLiteral(unittest.TestCase):
   def __init__(self, table_value):
      self.table_value = [x.strip().strip("|") for x in table_value.split("\n") if x.strip() != '']
      # The above code is as part of my development

现在,我唯一担心的是 __init_ 正在突出显示对超类的 __init_ 的警告调用丢失。您能否更新我必须更新的地方,因为我是 python 类的新手。

【问题讨论】:

    标签: python pyspark superclass


    【解决方案1】:

    这不是强制性的,很大程度上取决于您是否使用真正的类继承协作层次结构。换句话说:在这种情况下,pycharm 过于热心了——因为通常不必调用 unittest.TestCase 的超类。

    也就是说,您所要做的就是在您的 __init__ 方法中添加类似 super().__init__() 的行。

    (如果您使用的是 Python 2 而不是 Python 3(您应该使用它),则对 super 的调用需要您明确填写类和实例参数 - 所以它变成:super(TableLiteral, self).__init__()

    【讨论】:

      猜你喜欢
      • 1970-01-01
      • 1970-01-01
      • 2023-02-01
      • 1970-01-01
      • 2015-12-20
      • 2011-11-15
      • 1970-01-01
      • 1970-01-01
      • 1970-01-01
      相关资源
      最近更新 更多