【发布时间】:2010-11-21 16:47:02
【问题描述】:
我有一组相对较少(约 100 个值)的整数:每个整数代表我运行的测试持续了多长时间(以毫秒为单位)。
计算平均值的简单算法是将所有n值相加,然后将结果除以n,但这并没有考虑到一些可笑的高/低值一定是错误的,应该得到丢弃。
有哪些算法可用于估计实际平均值?
【问题讨论】:
-
没有“实际”平均值这样的东西:如果不做一些假设,您无法严格区分统计异常值和实际数据。什么构成实际数据,什么是错误最终是一个概率决定。此外,这不是严格意义上的编程问题,而是关于统计的问题。
-
+1 stakx。另外,我可能会建议“荒谬”值是“错误”的假设可能是不正确的。我建议只运行更多测试(1000 或 10000)并按原样获取 mean 值。
标签: algorithm language-agnostic estimation average