Нет.
Просто ты в свойственной тебе манере не видишь разницы между понятием и его применением, контекстом.
Слабая вероятностная аксиоматика, в отличие от сильной применяется в основном для процессов с зависимыми событиями. И для прогнозирования зависимых событий соответственно. Поэтому я и не ответил на твои очередные высказывания о прогнозировании. Ты нахватываешься терминов, не понимая, что они означают и с чем их едят и бросаешься их "применять".
Ты по-прежнему не понимаешь, что называется независимым событием в ТВ? Или притворяешься?
По поводу применения слабой вероятностной аксиоматики - вот тебе достаточно простой и иллюстративный пример:
Пусть задано множество объектов X и выборка X L = (x1 , . . . , xL ) ⊆ X
длины L. Рассмотрим множество всех её разбиений на две подвыборки
длины ℓ и k соответственно: X L = Xn ∪Xn , ℓ+k = L, где нижний индекс
ℓ k
k
n = 1, . . . , N пробегает все N = CL разбиений.
Пусть задано множество R и функция T : X∗ × X∗ → R, где X∗
множество всех конечных выборок из X.
Рассмотрим эксперимент, в котором с равной вероятностью реали-
зуется одно из разбиений n, после чего наблюдателю сообщается вы-
ℓ k
борка Xn . Не зная скрытой выборки Xn , наблюдатель должен постро-
ˆ ∗
ить функцию T : X → R, значение которой на наблюдаемой выборке
ˆ ˆ ℓ k ℓ
Tn = T (Xn ) предсказывало бы значение Tn = T (Xn , Xn ), существенно за-
k
висящее от скрытой выборки Xn . Требуется также оценить надёжность
предсказания, т. е. указать оценочную функцию η(ε) такую, что
ˆ
Pn d(Tn , Tn ) > ε η(ε), (1)
где d : R × R → R заданная функция, характеризующая величину от-
клонения d(ˆ, r) предсказанного значения r ∈ R от неизвестного истин-
r ˆ
ного значения r ∈ R. Параметр ε называется точностью, а величина
(1 − η(ε)) надёжностью предсказания. Если в (1) достигается равен-
ство, то η(ε) называется точной оценкой. Оценка η(ε) может зависеть
ˆ
от ℓ и k, а также от вида функций T и T . Если (1) выполняется при
достаточно малых ε и η, то говорят, что в окрестности предсказываемого
значения имеет место концентрация вероятности [5].
Заметим, что данная постановка задачи не опирается на классиче-
скую аксиоматику теории вероятностей. Здесь понятие вероятности яв-
1 N
ляется лишь синонимом доли разбиений: Pn {ϕ(n)} = N n=1 ϕ(n) для
произвольного предиката ϕ : {1, . . . , N } → {0, 1}, заданного на множестве
разбиений выборки X L . Тем не менее, мы предпочитаем пользоваться
привычным термином вероятность и говорить, что задача эмпириче-
ского предсказания поставлена в слабой вероятностной аксиоматике.
Слабая аксиоматика ориентирована на задачи анализа данных, в ко-
торых все выборки конечные и все величины наблюдаемые, т. е. являют-
ся функциями конечных выборок.