【问题标题】:Vowpal Wabbit predictions for multi-label classification用于多标签分类的 Vowpal Wabbit 预测
【发布时间】:2014-03-12 14:55:09
【问题描述】:

对不起,我确实觉得我忽略了一些非常明显的事情。

但怎么会发生以下情况:

$ cat myTrainFile.txt
1:1 |f 1:12 2:13
2:1 |f 3:23 4:234
3:1 |f 5:12 6:34

$ cat myTestFile.txt 
14:1 |f 1:12 2:13
14:1 |f 3:23 4:234
14:1 |f 5:12 6:34

$ vw --csoaa 3 -f myModel.model --compressed < myTrainFile.txt 
final_regressor = myModel.model
...
...

$ vw -t -i myModel.model -p myPred.pred < myTestFile.txt 
only testing
Num weight bits = 18
...
...

$ cat myPred.pred 
14.000000
14.000000
14.000000

所以测试文件与训练文件相同,但标签不同。 因此,我希望 vw 生成它从训练文件中学习到的原始标签,因为它完全忽略了测试文件中的标签。

但是,它似乎从测试文件中复制了标签?!?

显然,我在这里做错了什么……但是什么?

【问题讨论】:

    标签: vowpalwabbit multilabel-classification


    【解决方案1】:

    如果您在 --csoaa 中仅指定一个标签(即使在 -t 测试模式下),这意味着对于此示例只有该标签是“可用的”,因此无法预测其他标签。 这是与 --oaa 的另一个区别(您始终只指定正确的标签)。 见https://groups.yahoo.com/neo/groups/vowpal_wabbit/conversations/topics/2949

    如果所有标签对于任何测试示例都是“可用的”(可能),则您必须始终在每一行中包含所有标签。 使用 -t 如果您只想获得 --predictions (如果您不需要 vw 来计算测试损失),则不需要包括标签的成本。 所以你的 myTestFile.txt 应该是这样的:

    1 2 3 |f 1:12 2:13
    1 2 3 |f 3:23 4:234
    1 2 3 |f 5:12 6:34
    

    您的 myTrainFile.txt 应该如下所示:

    1:0 2:1 3:1 |f 1:12 2:13
    1:1 2:0 3:1 |f 3:23 4:234
    1:1 2:1 3:0 |f 5:12 6:34
    

    【讨论】:

    • 确实如此。而已!非常感谢。这不会很快发生在我身上...... ;-)
    【解决方案2】:

    因此,为了完整起见,以下是它的工作原理

    $ cat myTrainFile.txt
    1:1.0 |f 1:12 2:13
    2:1.0 |f 3:23 4:234
    3:1.0 |f 5:12 6:34
    
    $ cat myTestFile.txt
    1 2 3 |f 1:12 2:13
    1 2 3 |f 3:23 4:234
    1 2 3 |f 5:12 6:34
    
    $ vw -t -i myModel.model -p myPred.pred < myTestFile.txt 
    only testing
    ...
    
    $ cat myPred.pred 
    2.000000
    1.000000
    2.000000
    

    因此,没有一个示例被正确分类可能有点令人惊讶,但这是另一个问题。

    感谢@Martin Popel!

    【讨论】:

    • 尝试将--passes=20 添加到您的训练集中。它可能在 1 次观察 3 次后没有收敛。
    • 你的意思是:vw --csoaa 3 -f myModel.model --compressed --passes=20 --cache_file=myCache &lt; myTrainFile.txt ??因为这似乎没有帮助......
    猜你喜欢
    • 2016-01-05
    • 2013-10-15
    • 2017-10-09
    • 2016-09-21
    • 2016-01-18
    • 2014-08-27
    • 2017-11-25
    • 2017-10-07
    • 2016-04-20
    相关资源
    最近更新 更多