>> Артефакты
>> Часть 5, критерий: величина артефакта, оценка погрешностей
Прежде, чем перейти к рассмотрнию другого критерия, оценим
погрешность результатов, полученных в части 4. Оценивать
погрешности есть несколько методик: попроще, посложнее...
В данном случае для оценки разнобоя нашей, как кто-то
правильно выразился, машины "спортлото", будем использовать
стандартную методику с некоторой модификацией для оценки
погрешностей самих погрешностей, а также проанализируем динамику
(движение во времени) процесса нахождения... Посмотрим что из этого
будет. Перед данной работой набросаем-ка план, то есть, разложим
инструмент, что нам нужно будет проделать в данной главе, чтобы
найти следущую песчинку на пляже песка...
>-> Пункт 1: Очень краткое введение в теорию ошибок (или погрешностей).
(Не путаем со словом: грехов

)) ). Ну и конечно введем
обозначения для дальнейшего кручения-верчения...
>-> Пункт 2: Из базы данных сосчитаем вероятности по критерию величина
артефакта таким методом: артефакты: 0-100, 101-200, 201-300,
301-400, ... , 901-1000. + сравним с выборкой: 1-1000. То есть
надо получить 11-ти ступенчатую матрицу для дальнейшей обработки
Пунктом 1. Получить резултаты погрешностей для нашего критерия.
>-> Пункт 3: Из базы данных сосчитаем вероятности по критерию величина
артефакта таким методом: артефакты: 0-333, 334-666, 667-1000.
+ сравним с выборкой: 1-1000. То есть надо получить
4-ех ступенчатую матрицу для обработки Пунктом 1.
Получить резултаты погрешностей для нашего критерия.
>-> Пункт 4: Из базы данных сосчитаем вероятности по критерию величина
артефакта таким методом: артефакты: 0-100, 0-200, 0-300,
0-400, ...., 0-1000. То есть надо получить 10-ти ступенчатую
матрицу для обработки Пунктом 1 (волновая обработка)
Получить резултаты погрешностей для нашего критерия.
>-> Пункт 5: Сделать выводы и замечания на будущее...
И так, можно по немногу приступать. Часть 5 нужна нам для оценки
величины разнобоя. В будущем, может быть, такого анализа каждого
критерия делать не нужно будет, однако данная часть должна помочь
нам в этом определиться.
<< Разборка пункта 1 >>
Ошибки бывают как системные/абсолютные, так и относительные.
Системные/абсолютные связаны с погрешностями самого инструмента.
В нашем случае, это сервера... обычно в програмном обеспечении
(я не профессиональный програмист, однако занимался серьезно
программированием более 10 лет: как языками низкого/подвального
уровня /Ассемблер/, так и высокого уровня /Си, Паскал, Фортран...
и т.д../) погрешность величины составляет 1Е-13, то абсолютные
ошибки есть на много порядков ниже, чем относительные, поэтому
абсолютные ошибки вычеркнем из нашего поля разборки.
Относительные ошибки зависят, как от самого процесса получения
статистического резултата, так и от чистоты эксперимента. Чистота
эксперимента заключается в том, на сколько аккуратно и методично
полученно каждое данное. О чистоте методик написано немало книг,
однако книги книгами, а опыт приходит со временем... Поскольку
делал эксперименты я сам, то я не буду писать об этом много.
Конечно, никакой эксперимент не может быть идеально чистым, но
я старался исполнить его без особо фальшивых нот

. (Кстати, об
игре на музыкальном инструменте: кто играет на каком инструменте,
после некоторого навыка, во время игры вы вдруг замечаете, что
вы куда-то уходите,... пальцы сами играют мелодию, вы даже не
присутствуете... и когда вы задумываетесь, а что же делают ваши
пальцы,... игра обрывается... я не профессионал игры на музыкальных
инструментах, я всего лишь закончил музыкальную школу по аккордеону и
фортепиано... только 7 лет... Сама игра, интересное дело,...
очень помогает для концентрации мыслей и нахождения нестандартных решений....).
Возвращаясь к чистоте эксперимента, могу сказать, что эксперимент, конечно
не был уж очень идеальным.... Постоянные лаги и баги меня выводили из равновесия...
Такие вещи удлиннили время сбора менее-более приличных данных...
Неплохо бы было, чтобы, всяких лагов, багов, откатов, проблем с бонусами,
зданиями и артефактами, и т.д. и тому подобное, которые могут влиять на данные
эксперимента, не было,... но реальность есть реальность...
Поэтому отклонение данных от програмных начинок из-за этого фактора есть.
Нам остается только надеятся, что она невелика. Кажется, этот момент,
обсудили.
Теперь переходим к части, которая имеет найбольшие относительные ошибки:
это так называемые относительные ошибки данных.
Введем обозначения:
Nn - результат номера данного i
Nmiddle - средний результат n элементов
n - количество данных
Nmiddle=(N1+N2+...+Nn)/n (5.1)
Каждое значение наших матриц будет являтся уже средним значением,
поэтому надо будет прокрутить этот процесс несколько раз. А также,
как кто-то выше уже правильно заметил, надо будет находить отклонение
каждого элемента от среднего значения.
Dev_Nn=(Nn-Nmiddle)/Nmiddle (5.2)
Как видно из формулы значение Dev_Nn может принимать и отрицательные
значения. Это иногда полезно, однако в нашем случае лучше от знака
минуса избавиться и взять модуль формулы (5.2), то есть, имеем:
Dev_Nn=|Nn-Nmiddle|/Nmiddle (5.3)
Только отклонения надо будет считать дважды: сначала от начальных данных,
а затем от их отклонений, то есть отклонения от отклонений (это надо будет
для динамического анализа из составленных матриц). Также посчитаем среднее
значение отклонения для каждого ряда матрицы и соответствующую разность.
В принципе, основа данной части заложена. Если, по ходу действий,
чего-то будет не хватать, добавим. Если у кого-то здесь возникли
вопросы, надеюсь ветерок последующих пунктов их развеет, а может
кого-то и снесет с трассы

.
Итак, встали на горке на лыжи, закрыли глаза и покатились...
Посмотрим, что принесет следующее мгновение...
<< Разборка пункта 2 >>
Ну, вот, все инструменты разложили, вплотную подошли к этому вопросу.
Для начала вспомним и запишем первичную матрицу, которая
отображает наш критерий по величине (критерий 1):
Matrix [A1]
Tiny Little Middle Bigger Big Huge
[0-1000] 0.507 0.234 0.145 0.068 0.025 0.021
Теперь аналогичным методом составим матрицу по принципу:
(Данные я беру из таблицы данных, суммирую соответствующие
столбцы и используя стандартную формулу вероятности:
P(A)=m/n (5.4),
где: P(A) - вероятность процесса А
А - процесс
m - определенное значение
n - число всевозможных значений
Matrix [A2]
Tiny Little Middle Bigger Big Huge
х1 х2 х3 х4 х5 х6
[000-0100] y01 0.5 0.29 0.14 0.04 0 0.03
[101-0200] y02 0.56 0.23 0.11 0.05 0.05 0
[201-0300] y03 0.57 0.16 0.13 0.05 0.04 0.05
[301-0400] y04 0.47 0.35 0.08 0.09 0 0.01
[401-0500] y05 0.52 0.21 0.15 0.09 0.01 0.02
[501-0600] y06 0.59 0.16 0.12 0.09 0.02 0.02
[601-0700] y07 0.49 0.22 0.15 0.08 0.06 0
[701-0800] y08 0.4 0.29 0.19 0.05 0.03 0.04
[801-0900] y09 0.51 0.19 0.18 0.08 0.03 0.01
[901-1000] y10 0.46 0.24 0.2 0.06 0.01 0.03
[001-1000] 0.507 0.234 0.145 0.068 0.025 0.021
(Каздый элемент этой матрицы - это сумма сотни чесел,
нормированная по количеству их количества).
среднее арифметическое для х1=(х11+х12+...+х110)/10=0.57
Таблица рассчетов, из которой можно выделить отклонение
в %, получается следующая:
0,5 0,507 0,007 1,4 %
0,56 0,507 0,053 9,5 %
0,57 0,507 0,063 11,1 %
0,47 0,507 0,037 7,9 %
0,52 0,507 0,013 2,5 %
0,59 0,507 0,083 14,1 %
0,49 0,507 0,017 3,5 %
0,4 0,507 0,107 26,8 %
0,51 0,507 0,003 0,6 %
0,46 0,507 0,047 10,2 %
для столбцов х2, х3, ..., х6 разнобой еще больший (писать здесь
еще 5 таблиц не буду, не зачем, можете сами посчитать по тому же
принципу), так как для больших артефактов статистика меньше...
Да, разнобой, в принципе, не слабый. Сразу напрашивается один вывод:
что статистика для проверки ЛЮБОЙ гипотезы должна быть достаточно
большой. Я это предположил сразу, и поэтому, интенсивно собирал
статистику 3 месяца. Поэтому, кто делал статистику по 2-3 недели,
к сожалению, этого будет недостаточно...

.
Вот это археологи... У меня также была идея, что качество находки
зависит от археологов опыта, то есть, накрутки часов, однако смотря
на столбцы чисел, я вижу что эта идея не верна... Ничего похожего не
наблюдается... Ну чтож,... такой результат тоже является резултатом.
Это даже с какой-то стороны упрощает дело. Значит археологи не учатся,
и.е. являются тугодумами..

. Понятно, а я был о них более высокого
мнения

. Чтож, раскусили мы и этот момент.
Переходим к пункту 3:
<< Разборка пункта 3 >>
Аналогично получаем матрицу 3:
Matrix [A3]
Tiny Little Middle Bigger Big Huge
х1 х2 х3 х4 х5 х6
[000-0333] y01 0.52 0.24 0.12 0.057 0.027 0.027
[334-0666] y02 0.53 0.23 0.13 0.084 0.02 0.012
[667-1000] y03 0.46 0.23 0.19 0.062 0.026 0.023
[001-1000] 0.507 0.234 0.145 0.068 0.025 0.021
Аналогично таблица отклонений для столбца х1 следующая:
0,52 0,503 0,017 3,3 %
0,53 0,503 0,027 5,1 %
0,46 0,503 0,043 9,3 %
Как видно, чем больше статистика, тем меньше отклонение...
Ну, это в принципе, так и должно было быть.
По ходу рассмотрения пункта 2 и 3, видно, что рассматривать
пункт 4 (волновая (приливная) обработка данных) не нужно. И так
уже стало все понятно.
Переходим к ВЫВОДАМ:
1. Чтобы менее-более достоверно проверить какую-либо либо гипотезу,
нужно набрать БОЛьШУЮ статистику. Погрешности моей статистики
в случае с крохотными артефактами составляет 2-3%. С более большими
артефактами достоверность ~10%, даже больше. Та что, имея так себе
статистики, ничего сказать нельзя... Максимум: можно предположить...
2. Моя идея о том (мне так показалось), что чем дальше, тем
археологи находят лучшие артефакты, - ПРОВАЛИЛАСь. Ничего не лучшие.
И ничего не хуже. Эта новость примется с радостью новичками, но
для игроков со стажем - это информация так себе. Однако это хорошая
информация, жалко я этого не знал раньше... Я бы вел себя на рынке
немного иначе... Да, ладно... не велика потеря.
Археологи опыта не набираются !
3. В общем, статистический разнос достаточно велик. И эта информация
является краеугольной для дальнейших разработок.
Все. Этот вопрос можно прикрыть.
В следующей части (6) рассмотрим
такой интересный момент: вероятность нахождения артефакта по
критерию: локальный/сотовый артефакт. Часть не будет большой, однако,
я думаю, интересной. Формул там тоже, наверное, не будет

.