Отчасти ты прав. Но многие наверное забыли мат.статистику ... :) Простой пример. У нас есть эмпирическая выборка из 1000 величин. По сути - выборка:
1) Означает какое-то влияние
2) У этого влияния есть какой-то коэффициент
3) У эмпирически собранных данных есть разброс - это де факто
Но есть еще и Ситуация Йопта) когда по какой-то причине сбиваются вычисления/отсчеты.
Напомню, как поступают бородатые дядьки... в плане их собственной "нормализации"
1) Все величины сортирют
2) Начинают отсекать "экстремумы". Для этого делят весь отрезок на 4 части. Из частей 2-3 получают либо среднне, либо средне-квадратичное
3) Из отрезков 1 и 4 начинают удалять значения, которые по модулю разности меньше вычлененных значений и удаляемых более, чем в два раза
4) Если число усечений справа и слева не превышает 20-25% - получают верный коэффициент влияния
5) Если не получилось - или повторяют, или утверждают, что эксперимент носит вааще никакую детерминированность (типа искать не тут, давайде другие данные)
Спрашивается а при чем тут "милисекунды"? А они просто - часть эксперимента. Запустив 1000 раз одно и то же здание в реальных условиях (загружжености компа, незагруженности) - мы выйдем к "СРЕДНЕМУ". По методе, как я описал выше. Коэффициент какойта! Как назвать, сами считайте - скорости, мощности, офигительности ...