К.т.н. Юдин А.С.
Тульский филиал
Российского государственного торгово-экономического университета, Россия
Эконометрическое моделирование на базе Н-статистики
Наиболее распространенными методами анализа статистических данных являются методы корреляционно-регрессионного анализа. В то же время эти методы могут быть использованы только при линейных взаимосвязях и нормальных распределениях всех входящих в модель параметров. При нарушении этих требований не может быть обеспечена надежность получаемых результатов.
Авторы предлагают использовать новую статистику – энтропию распределения, имеющую нормальное распределение при любых входных распределениях.
Статистические методы исследования сложных экономических и социологических процессов являются одними из основных методов. Полученные с их помощью результаты невозможно переоценить. Тем не менее, во многих случаях точность результатов, полученных на их основе, является крайне низкой из-за пренебрежения некоторыми важными особенностями используемых статистик.
Теория регрессионного анализа базируется на двух основных посылках:
1) исследуемые факторы имеют нормальное (гауссово) распределение;
2) анализируемые взаимосвязи являются линейными. При нарушении этих допущений полученные модели могут быть неадекватными, интервальные оценки – неточными.
Как показали в своих исследованиях Н.С. Райбман, В.М. Чадеев [1] и В.И Городецкий [2], корреляционные модели не дают надежных результатов, а используемые в качестве меры связи величина остаточной дисперсии и корреляционное отношение не могут служить адекватной оценкой точности и надежности модели.
На основании длительных исследований, проведенных авторами с 1980 года, предлагается использовать для построения и анализа моделей статистику «энтропия распределения» [3].
Для дискретных случайных величин энтропия определяется как мера Шеннона-Винера:
, ( 1 )
где pi – вероятность i-го состояния.
Пусть нормированная непрерывная случайная величина X имеет функцию плотности вероятностей w(x). Введем следующие интегральные параметры распределения:
( 2 )
Оценкой энтропии являются выборочная энтропия имеющая нормальное распределение со следующими математическим ожиданием и дисперсией [4]:
( 3 )
Здесь - эмпирическая вероятность попадания случайной величины в соответствующий интервал; n – объем выборки. Суммирование производится по всем интервалам.
Если рассматривать пару взаимозависимых случайных величин X и Y, то можно ввести меру взаимодействия – взаимную информацию
I(X, Y) = H(X) + H(Y) – H(X,Y) ( 4 )
и коэффициент информационной связи
( 5 )
Как показано в работе [5], мера (4) имеет распределение Пирсона.
Анализ структуры коэффициента (5) дал основание полагать, что в случае линейных взаимосвязей он эквивалентен квадрату коэффициента корреляции. Истинность этого утверждения позволило бы использовать его в качестве меры определенности процесса и при нелинейных связях.
Авторами был проведен вычислительный эксперимент методами имитационного моделирования, результаты которого показали, что с вероятностью 0,999 коэффициент информационной связи совпадает с квадратом коэффициента корреляции в линейных моделях. Именно его и целесообразно использовать в качестве меры определенности процесса.
Литература:
1. Райбман Н.С., Чадеев В.М. Построение моделей процессов производства. - М.: Энергия, 1975. - 376 с.
2. Городецкий В.И. Информативность контроля и построение оптимальных планов испытаний// "Надежность и контроль качества", 1981, № 9.
3. Юдин С.В. Алгоритмы и методы анализа сложных систем на основе информационной меры Шеннона-Винера. //Алгоритмы и структуры специализированных вычислительных систем/ТулПИ. - Тула, 1987. - С. 5-10.
4. Башарин Г.П. О статистической оценке энтропии независимых случайных величин// "Теория вероятностей и ее применения", 1956, т. IV, № 3, с. 361-364
5. Eye, A. von. On the Equivalence of the Information-Theoretic Transmission-Measure to the Common c2-Statistic. - "Biom. J.", v. 24, 1982, p.p. 391-398.