【发布时间】:2012-10-04 09:21:44
【问题描述】:
我一直在尝试在 Ruby 中实现局部加权逻辑回归算法。据我所知,目前还没有这个算法的库,可用的信息也很少,所以很难。
我的主要资源是dissertation of Dr. Kan Deng,他在其中描述了我认为非常简单的算法细节。我目前在图书馆的工作是here。
我在尝试计算 B(测试版)时遇到了麻烦。据我了解,B 是一个(1+d x 1) 向量,表示特定点的局部权重。之后,该点的pi(正输出的概率)是基于该点的B 的sigmoid 函数。要获得B,请递归使用Newton-Raphson 算法一定次数,可能不超过十次。
第 66 页上的公式 4-4,Newton-Raphson 算法本身,对我来说没有意义。根据我对X 和W 的理解,(x.transpose * w * x).inverse * x.transpose * w 应该是(1+d x N) 矩阵,它与B 不匹配,即(1+d x 1)。那么,唯一可行的方法是,如果 e 是 (N x 1) 向量。
在第67页的顶部,在图片下方,邓博士只是说e是一个比率,这对我来说没有意义。是 e 欧拉常数吗?碰巧这个比率总是 2.718:1,还是别的什么?无论哪种方式,对我来说,解释似乎都没有暗示它是一个向量,这让我感到困惑。
pi' 的使用也让我感到困惑。公式 4-5,sigmoid 函数 w.r.t. 的导数B,给出一个常数乘以一个向量,或一个向量。不过,据我了解,pi' 应该是一个数字,乘以 w 并形成权重算法 W 的对角线。
所以,我在这里的两个主要问题是,第 67 页上的 e 是什么,这是我需要的 1xN 矩阵,以及等式 4-5 中的 pi' 如何以数字结尾?
我知道这是一个很难回答的问题,所以如果有一个好的答案,我会在几天后回来并给它 50 分的赏金。我会发邮件给邓博士,但我一直没能查到他在 1997 年之后发生了什么事。
如果有人对此算法有任何经验或知道任何其他资源,我们将不胜感激!
【问题讨论】:
-
应该只实现Dr.Deng的方程吗?您是否考虑过逻辑回归的其他变体?
-
我正在寻找,特别是局部加权逻辑回归。普通逻辑回归无法处理多个区间,并且有一些不优雅的解决方案,但我认为局部加权算法更平滑,特别适合我的特定应用。
-
要查看我想要拟合的图表类型的粗略示例,请转到uscfstats.com/deltas 并输入 12842311。我想找出一条曲线来大致划分绿色/蓝色点和红点。
-
这是一个非常好的问题,但我认为您不会在这里找到太多帮助。你真的应该考虑尝试scicomp.stackexchange.com/?as=1 或cstheory.stackexchange.com。
-
谢谢,如果版主认为我更有可能在其中一个网站上找到成功的答案,那么如果他们为我移动它,我会非常高兴。我认为我自己没有足够的声誉来移动它,如果这是非版主甚至可以做的事情。
标签: algorithm matrix machine-learning linear-algebra regression