А. Н. Ширяев ВЕРОЯТНОСТЬ – –2 Суммы и последовательности случайных величин – – стационарные, мартингалы, марковские цепи Издание четвертое, переработанное и дополненное Допущено Министерством образования России в качестве учебника для студентов высших учебных заведений по физико-математическим направлениям и специальностям Москва Издательство МЦНМО, 2007 УДК 519.21(075.8) ББК 22.171 Ш64 Ш64 Ширяев А. Н. Вероятность: В 2-х кн. – – 4-е изд., переработ. и доп. – – М.: МЦНМО, 2007. ISBN 978-5-94057-036-3 Кн. 2. – – 416 с. – – ISBN 978-5-94057-106-3 Настоящее издание (в двух книгах «Вероятность – – 1» и «Вероятность – – 2») представляет собой расширенный курс лекций по теории вероятностей. Вторая книга «Вероятность – – 2» посвящена случайным процессам с дискретным временем (случайным последовательностям). Основное внимание здесь уделяется стационарным последовательностям (в узком и широком смысле), мартингалам и марковским цепям. Даны применения к вопросам оценивания и фильтрации в случайных последовательностях, к стохастической финансовой математике, теории страхования и задачам об оптимальной остановке. Приведен также очерк истории становления теории вероятностей. В историко-библиографической справке указываются источники приводимых результатов, даются комментарии и указывается дополнительная литература. В конце каждого параграфа даются задачи. Первая книга «Вероятность – – 1» содержит материал, относящийся к элементарной теории вероятностей, математическим основаниям и предельным теоремам. Книги рассчитаны на студентов физико-математических специальностей университетов. Могут служить учебным пособием для аспирантов и справочным пособием для специалистов. Табл. 9. Ил. 42. Библиогр. 137 назв. Предыдущее издание вышло в 2004 г. ББК 22.171 ISBN 978-5-94057-106-3 9 785940 571063 > ISBN 978-5-94057-036-3 ISBN 978-5-94057-106-3 (кн. 2) © Ширяев А. Н., 2007 © МЦНМО, 2007 ОГЛАВЛЕНИЕ КНИГА ПЕРВАЯ. ВЕРОЯТНОСТЬ – –1 Предисловие к четвертому изданию . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Предисловие к третьему изданию . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Предисловие ко второму изданию . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Предисловие к первому изданию . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Введение . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8 9 11 13 16 Глава I. Элементарная теория вероятностей § 1. Вероятностная модель эксперимента с конечным числом исходов § 2. Некоторые классические модели и распределения . . . . . . . . . . . . § 3. Условные вероятности. Независимость . . . . . . . . . . . . . . . . . . . . . . § 4. Случайные величины и их характеристики . . . . . . . . . . . . . . . . . . . § 5. Схема Бернулли. I. Закон больших чисел . . . . . . . . . . . . . . . . . . . . § 6. Схема Бернулли. II. Предельные теоремы (локальная, Муавра– – Лапласа, Пуассона) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . § 7. Оценка вероятности «успеха» в схеме Бернулли . . . . . . . . . . . . . § 8. Условные вероятности и математические ожидания относительно разбиений . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . § 9. Случайное блуждание. I. Вероятности разорения и средняя продолжительность при игре с бросанием монеты . . . . . . . . . . . . . . . § 10. Случайное блуждание. II. Принцип отражения. Закон арксинуса § 11. Мартингалы. Некоторые применения к случайному блужданию § 12. Марковские цепи. Эргодическая теорема. Строго марковское свойство . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . § 13. Производящие функции . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . § 14. Принцип включения-исключения . . . . . . . . . . . . . . . . . . . . . . . . . . . 22 23 38 45 55 69 81 97 103 112 123 131 139 163 179 Глава II. Математические основания теории вероятностей 190 § 1. Вероятностная модель эксперимента с бесконечным числом исходов. Аксиоматика Колмогорова . . . . . . . . . . . . . . . . . . . . . . . . . . . 191 § 2. Алгебры и σ-алгебры. Измеримые пространства . . . . . . . . . . . . . 201 556 ОГЛАВЛЕНИЕ § 3. Способы задания вероятностных мер на измеримых пространствах . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . § 4. Случайные величины. I . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . § 5. Случайные элементы . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . § 6. Интеграл Лебега. Математическое ожидание . . . . . . . . . . . . . . . . . § 7. Условные вероятности и условные математические ожидания относительно σ-алгебр . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . § 8. Случайные величины. II . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . § 9. Построение процесса с заданными конечномерными распределениями . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . § 10. Разные виды сходимости последовательностей случайных величин . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . § 11. Гильбертово пространство случайных величин с конечным вторым моментом . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . § 12. Характеристические функции . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . § 13. Гауссовские системы . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 221 244 251 256 296 330 344 354 368 382 410 Глава III. Близость и сходимость вероятностных мер. Центральная предельная теорема 426 § 1. Слабая сходимость вероятностных мер и распределений . . . . . . 427 § 2. Относительная компактность и плотность семейств вероятностных распределений . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 437 § 3. Метод характеристических функций в доказательстве предельных теорем . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 443 § 4. Центральная предельная теорема для сумм независимых случайных величин. I. Условие Линдеберга . . . . . . . . . . . . . . . . . . . . . 451 § 5. Центральная предельная теорема для сумм независимых случайных величин. II. Неклассические условия . . . . . . . . . . . . . . . . . 463 § 6. Безгранично делимые и устойчивые распределения . . . . . . . . . . . 468 § 7. «Метризуемость» слабой сходимости . . . . . . . . . . . . . . . . . . . . . . . 477 § 8. О связи слабой сходимости мер со сходимостью случайных элементов почти наверное («метод одного вероятностного пространства») . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 482 § 9. Расстояние по вариации между вероятностными мерами. Расстояние Какутани– –Хеллингера и интегралы Хеллингера. Применение к абсолютной непрерывности и сингулярности мер . . . 490 § 10. Контигуальность (сближаемость) и полная асимптотическая разделимость вероятностных мер . . . . . . . . . . . . . . . . . . . . . . . . . . . 500 § 11. О скорости сходимости в центральной предельной теореме . . . . 505 ОГЛАВЛЕНИЕ 557 § 12. О скорости сходимости в теореме Пуассона . . . . . . . . . . . . . . . . . 509 § 13. Фундаментальные теоремы математической статистики . . . . . . . 511 Библиографическая справка (главы I– –III) . . . . . . . . . . . . . . . . . . . . . . . . Список литературы . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Предметный указатель . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Указатель обозначений . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 523 527 534 549 КНИГА ВТОРАЯ. ВЕРОЯТНОСТЬ – –2 Предисловие . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 560 Глава IV. Последовательности и суммы независимых случайных величин § 1. Законы «нуля или единицы» . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . § 2. Сходимость рядов . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . § 3. Усиленный закон больших чисел . . . . . . . . . . . . . . . . . . . . . . . . . . . . § 4. Закон повторного логарифма . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . § 5. О скорости сходимости в усиленном законе больших чисел и о вероятностях больших уклонений . . . . . . . . . . . . . . . . . . . . . . . . . . . 562 563 568 574 585 591 Глава V. Стационарные (в узком смысле) случайные последовательности и эргодическая теория 596 § 1. Стационарные (в узком смысле) случайные последовательности. Сохраняющие меру преобразования . . . . . . . . . . . . . . . . . . . . . 597 § 2. Эргодичность и перемешивание . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 601 § 3. Эргодические теоремы . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 604 Глава VI. Стационарные (в широком смысле) случайные после612 довательности. L2 -теория § 1. Спектральное представление ковариационной функции . . . . . . . 613 § 2. Ортогональные стохастические меры и стохастические интегралы 623 § 3. Спектральное представление стационарных (в широком смысле) последовательностей . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 629 § 4. Статистическое оценивание ковариационной функции и спектральной плотности . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 641 § 5. Разложение Вольда . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 648 § 6. Экстраполяция, интерполяция и фильтрация . . . . . . . . . . . . . . . . . 657 § 7. Фильтр Калмана– –Бьюси и его обобщения . . . . . . . . . . . . . . . . . . . 668 558 ОГЛАВЛЕНИЕ Глава VII. Последовательности случайных величин, образующие мартингал 680 § 1. Определения мартингалов и родственных понятий . . . . . . . . . . . . 681 § 2. О сохранении свойства мартингальности при замене времени на случайный момент . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 693 § 3. Основные неравенства . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 707 § 4. Основные теоремы о сходимости субмартингалов и мартингалов 724 § 5. О множествах сходимости субмартингалов и мартингалов . . . . . 733 § 6. Абсолютная непрерывность и сингулярность вероятностных распределений на измеримом пространстве с фильтрацией . . . . . . . 742 § 7. Об асимптотике вероятности выхода случайного блуждания за криволинейную границу . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 757 § 8. Центральная предельная теорема для сумм зависимых случайных величин . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 762 § 9. Дискретная версия формулы Ито . . . . . . . . . . . . . . . . . . . . . . . . . . . 777 § 10. Вычисление вероятности разорения в страховании. Мартингальный метод . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 783 § 11. О фундаментальных теоремах стохастической финансовой математики. Мартингальная характеризация отсутствия арбитража 788 § 12. О расчетах, связанных с хеджированием в безарбитражных моделях . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 804 § 13. Задачи об оптимальной остановке. Мартингальный подход . . . . 813 Глава VIII. Последовательности случайных величин, образующие марковскую цепь 824 § 1. Определения и основные свойства . . . . . . . . . . . . . . . . . . . . . . . . . . 825 § 2. Обобщенное марковское и строго марковское свойства . . . . . . . 838 § 3. О проблематике предельных, эргодических и стационарных распределений вероятностей для марковских цепей . . . . . . . . . . . 847 § 4. Классификация состояний марковских цепей по алгебраическим свойствам матриц переходных вероятностей . . . . . . . . . . . . 850 § 5. Классификация состояний марковских цепей по асимптотическим свойствам переходных вероятностей . . . . . . . . . . . . . . . . . . . 857 § 6. О предельных, стационарных и эргодических распределениях для счетных марковских цепей . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 871 § 7. О предельных, стационарных и эргодических распределениях для конечных марковских цепей . . . . . . . . . . . . . . . . . . . . . . . . . . . . 879 § 8. Простое случайное блуждание как марковская цепь . . . . . . . . . . 880 § 9. Задачи об оптимальной остановке для марковских цепей . . . . . . 894 ОГЛАВЛЕНИЕ Очерк истории становления математической теории вероятностей . . Библиографическая справка (главы IV– –VIII) . . . . . . . . . . . . . . . . . . . . . Список литературы . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Предметный указатель . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Указатель обозначений . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 559 914 938 943 950 965 Предисловие При построении университетского вероятностно-статистического образовательного цикла, как правило, предполагается наличие трех односеместровых курсов – – «Теория вероятностей», «Теория случайных процессов», «Математическая статистика». Содержание книги «Вероятность – – 1» вполне покрывает весь тот материал, который обычно включается в программу курса «Теория вероятностей». Представляемая книга «Вероятность – – 2» содержит достаточно обширный материал для курса «Теория случайных процессов», в той его части, которая посвящена случайным процессам с дискретным временем – – случайным последовательностям. (Читателю, желающему познакомиться с теорией случайных процессов с непрерывным временем, можно порекомендовать обратиться к книге [131] , во многом примыкающей к настоящим учебникам «Вероятность – – 1» и «Вероятность – – 2».) В главе IV, открывающей эту книгу, основной акцент сделан на свойствах с вероятностью единица (закон «нуля или единицы», сходимость рядов, усиленный закон больших чисел, закон повторного логарифма и др.) последовательностей, образованных суммами независимых случайных величин. Главы V и VI относятся к стационарным случайным последовательностям, являющимся стационарными в узком и в широком смысле соответственно. В главах VII и VIII рассматриваются случайные последовательности, образующие мартингалы и марковские цепи. Оба эти класса процессов с дискретным временем дают возможность изучать поведение разнообразных стохастических систем в «будущем» в зависимости от их «настоящего» и «прошлого», что определяет исключительную роль таких процессов в современной теории вероятностей и ее применениях. Завершает книгу «Очерк истории становления математической теории вероятностей». Москва, 2003 А. Ширяев Глава IV ПОСЛЕДОВАТЕЛЬНОСТИ И СУММЫ НЕЗАВИСИМЫХ СЛУЧАЙНЫХ ВЕЛИЧИН § 1. Законы «нуля или единицы» . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 563 § 2. Сходимость рядов . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 568 § 3. Усиленный закон больших чисел . . . . . . . . . . . . . . . . . . . . . . . . . . . . 574 § 4. Закон повторного логарифма . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 585 § 5. О скорости сходимости в усиленном законе больших чисел и о вероятностях больших уклонений . . . . . . . . . . . . . . . . . . . . . . . . . . . 591 Понятие н е з а в и с и м о с т и двух или нескольких опытов занимает в известном смысле центральное место в теории вероятностей. . . Исторически независимость испытаний и случайных величин явилась тем математическим понятием, которое придало теории вероятностей своеобразный отпечаток. А. Н. Колмогоров. «Основные понятия теории вероятностей» [32] § 1. Законы «нуля или единицы» 1. Ряд ∞ 1 P n=1 n расходится, а ряд ∞ P (−1) n n=1 1 сходится. Поставим n следующий вопрос. Что можно сказать о сходимости или расходимости ∞ ξ P n ряда , где ξ1 , ξ2 , . . . – – последовательность независимых одинакоn=1 n во распределенных бернуллиевских случайных величин с {ξ1 = +1} = = {ξ1 = −1} = 1/2? Иначе говоря, что можно сказать о сходимости ряда с общим членом ±1/n, где знаки + и − «разбросаны» в случайном порядке в соответствии с рассматриваемой последовательностью ξ1 , ξ2 , . . . ? Обозначим ) ( ∞ X ξn сходится A1 = ω : n=1 n – – множество тех элементарных исходов, где ряд ∞ ξ P n n=1 n сходится (к ко- нечным значениям), и рассмотрим вероятность (A1) этого множества. Заранее не ясно, какие значения может принимать эта вероятность. Замечательным оказывается, однако, то обстоятельство, что a priori можно утверждать, что эта вероятность может принимать только два значения 0 или 1. Этот результат является следствием так называемого закона «нуля или единицы» («0 или 1») Колмогорова, формулировка и доказательство которого составляют основное содержание данного параграфа. 2. Пусть (Ω, F , ) – – вероятностное пространство, ξ1 , ξ2 , . . . – – некоторая последовательность случайных величин. Обозначим Fn∞ = = σ (ξn , ξn+1 , . . .) – – σ-алгебру, порожденную случайными величинами ξn , ξn+1 , . . . , и пусть ∞ \ X = Fn∞ . n=1 Поскольку пересечение σ-алгебр есть снова σ-алгебра, то X есть σ-алгебра. Эта σ-алгебра будет называться «хвостовой» или «остаточной», 564 ГЛ. IV. НЕЗАВИСИМЫЕ СЛУЧАЙНЫЕ ВЕЛИЧИНЫ в связи с тем, что всякое событие A ∈ X не зависит от значений случайных величин ξ1 , . . . , ξn при любом конечном числе n, а определяется лишь «поведением бесконечно далеких значений последовательности ξ1 , ξ2 , . . . ». Поскольку для любого k > 1 (∞ ) (∞ ) X ξn X ξn A1 ≡ сходится = сходится ∈ Fk∞ , n=1 то A1 ∈ T k n n=k n Fk∞ ≡ X . Точно так же, если ξ1 , ξ2 , . . . – – произвольная после- довательность, то A2 = (∞ X n=1 ) ξn сходится ∈ X . Следующие события также являются «хвостовыми»: A3 = {ξn ∈ In б. ч.} (= lim{ξn ∈ In }), n где In ∈ B (R), n > 1; n A4 = lim n n A5 = lim n n A6 = lim n n Sn A7 = n n A8 = lim n С другой стороны, o ξn < ∞ ; ξ1 + . . . + ξn <∞ ; n o ξ1 + . . . + ξn <c ; n o сходится ; √ o Sn =1 . 2n ln n o B1 = {ξn = 0 для всех n > 1}, n o B2 = lim (ξ1 + . . . + ξn) существует и меньше c n являются примерами событий, не принадлежащих X . Будем теперь предполагать, что рассматриваемые случайные величины являются независимыми. При этом допущении из леммы Бореля– –Кантелли следует, что X (A3) = 0 ⇔ {ξn ∈ In } < ∞, X (A3) = 1 ⇔ {ξn ∈ In } = ∞. § 1. ЗАКОНЫ «НУЛЯ ИЛИ ЕДИНИЦЫ» 565 Таким образом, вероятность события A3 может принимать лишь два значения 0 или 1 в зависимости от сходимости или расходимости ряда P {ξn ∈ In }. Это утверждение, носящее название закона «0 или 1» Бореля, является частным случаем следующего утверждения. Теорема 1 (закон «0 или 1» Колмогорова). Пусть ξ1 , ξ2 , . . . – – последовательность независимых случайных величин и A ∈ X . Тогда вероятность (A) может принимать лишь два значения: нуль или единица. Доказательство. Идея доказательства состоит в том, чтобы показать, что каждое «хвостовое» событие A не зависит от самого себя и, значит, (A ∩ A) = (A) · (A), т. е. (A) = 2 (A), S откуда (A) = 0 или 1. Если A ∈ X , то A ∈ F1∞ = σ{ξ1 , ξ2 , . . . } = σ ( F1n), где F1n = σ{ξ1 , . . . . . . , ξn }, и можно найти (задача 8 из § 3 гл. II) такие множества An ∈ F1n , n > 1, что (A △ An) → 0, n → ∞. Отсюда следует, что (An) → (A), (An ∩ A) → (A). (1) Но если A ∈ X , то для каждого n > 1 события An и A независимы: (A ∩ An) = (A) (An), откуда в силу (1) следует, что (A) = 2 (A), и, значит, (A) = 0 или 1. Следствие. Пусть η – – случайная величина, измеримая относительно «хвостовой» σ-алгебры X , т. е. {η ∈ B} ∈ X , B ∈ B (R). Тогда η является вырожденной случайной величиной, т. е. существует константа c такая, что {η = c} = 1. 3. Приводимая ниже теорема 2 служит иллюстрацией нетривиального применения закона «нуля или единицы» Колмогорова. Пусть ξ1 , ξ2 , . . . – – последовательность независимых бернуллиевских случайных величин с {ξn = 1} = p, {ξn = −1} = q, p + q = 1, n > 1, и Sn = ξ1 + . . . + ξn . Интуитивно понятно, что в симметричном случае (p = 1/2) «типичные» траектории случайного блуждания Sn , n > 1, бесконечно много раз проходят через нуль, а в случае p 6= 1/2 «уходят» в бесконечность. Сформулируем теперь точный результат. Теорема 2. a) Если p = 1/2, то {Sn = 0 б. ч.} = 1. b) Если p 6= 1/2, то {Sn = 0 б. ч.} = 0. Доказательство. Прежде всего отметим, T что событие B = {Sn = 0 б. ч.} не является «хвостовым», т. е. B ∈ / X = Fn∞ , Fn∞ = σ{ξn , ξn+1 , . . . }. Поэтому в принципе не ясно, что вероятность события B принимает лишь значения 0 или 1. Утверждение b) легко доказывается применением (первой части) леммы Бореля– –Кантелли. Действительно, если B2n = {S2n = 0}, то по формуле 566 ГЛ. IV. НЕЗАВИСИМЫЕ СЛУЧАЙНЫЕ ВЕЛИЧИНЫ Стирлинга (формула (6) § 2 гл. I) (4pq) n , πn n (B2n) = C2n pnqn ∼ √ P и, значит, (B2n) < ∞. Поэтому {Sn = 0 б. ч.} = 0. Для доказательства утверждения a) достаточно показать, что событие n o Sn Sn A = lim √ = ∞, lim √ = −∞ n n имеет вероятность 1, поскольку nA ⊆ B. o n o Sn Sn Пусть Ac = A′c ∩ A′′c , где A′c = lim √ > c , A′′c = lim √ 6 −c . Тогда n n n n Ac ↓ A, c → ∞, при этом как событие A, так и все события A′c , A′′c являются хвостовыми. Покажем, что для каждого c > 0 (A′c) = (A′′c ) = 1. Поскольку A′c ∈ X , A′′c ∈ X , то достаточно лишь установить, что (A′c) > 0, (A′′c ) > 0. Но, согласно задаче 5 и теореме Муавра– –Лапласа (§ 6 гл. I), n n o n o o Sn Sn Sn √ > c > 0. lim √ > c > lim lim √ 6 −c = n n Итак, для всех c > 0 n n (Ac) = 1 и, значит, n n (A) = lim c→∞ (Ac) = 1. 4. Отметим еще раз, что событие B = {Sn = 0 б. ч.} не является «хвостовым». Тем не менее из теоремы 2 следует, что для схемы Бернулли вероятность этого события, как и в случае «хвостовых» событий, принимает лишь два значения 0 или 1. Оказывается, что это обстоятельство неслучайно и является следствием так называемого закона «0 или 1» Хьюитта и Сэвиджа, который обобщает для случая независимых одинаково распределенных случайных величин результат теоремы 1 на класс так называемых «перестановочных» событий (включающий в себя и класс «хвостовых» событий). Введем необходимые определения. Взаимно однозначное отображение π = (π1 , π2 , . . .) множества (1, 2, . . .) в себя назовем конечной перестановкой, если πn = n для всех n, за исключением, быть может, конечного числа. Если ξ = (ξ1 , ξ2 , . . .) – – последовательность случайных величин, то через π (ξ) будем обозначать последовательность (ξπ1 , ξπ2 , . . .). Если событие A = {ξ ∈ B}, B ∈ B (R ∞), то через π (A) обозначим событие {π (ξ) ∈ B}, B ∈ B (R ∞). Назовем событие A = {ξ ∈ B}, B ∈ B (R ∞), перестановочным, если для любой конечной перестановки π событие π (A) совпадает с A. Примером перестановочного события является событие A = {Sn = = 0 б. ч.), где Sn = ξ1 + . . . + ξn . Более того, можно показать (задача 4), что § 1. ЗАКОНЫ «НУЛЯ ИЛИ ЕДИНИЦЫ» 567 T каждое событие из «хвостовой» σ-алгебры X (S) = Fn∞ (S), Fn∞ (S) = = σ{ω : Sn , Sn+1 , . . . }, порожденной величинами S1 = ξ1 , S2 = ξ1 + ξ2 , . . . , является перестановочным. Теорема 3 (закон «0 или 1» Хьюитта и Сэвиджа). Пусть ξ = (ξ1 , ξ2 , . . .) – – последовательность независимых одинаково распределенных случайных величин и A = {ξ ∈ B} – – перестановочное событие. Тогда (A) = 0 или 1. Доказательство. Пусть A = {ξ ∈ B} – – перестановочное событие. Выберем (см. задачу 8 из § 3 гл. II) множества Bn ∈ B (R n) такими, что для An = {ω : (ξ1 , . . . , ξn) ∈ Bn } (A △ An) → 0, n → ∞. (2) Поскольку случайные величины ξ1 , ξ2 , . . . независимы и одинаково распределены, то распределения вероятностей Pξ (B) ≡ {ξ ∈ B} и Pπn (ξ) (B) ≡ ≡ {πn (ξ) ∈ B}, где πn (ξ) = (ξn+1 , . . . , ξ2n , ξ1 , . . . , ξn , ξ2n+1 , ξ2n+2 , . . .) для всякого n > 1, совпадают. Значит, (A △ An) = Pξ (B △ Bn) = Pπn (ξ) (B △ Bn). (3) Раз событие A является перестановочным, то A ≡ {ξ ∈ B} = πn (A) ≡ {πn (ξ) ∈ B}. Поэтому Pπn (ξ) (B △ Bn) = ({πn (ξ) ∈ B} △ {πn (ξ) ∈ Bn }) = = ({ξ ∈ B} △ {πn (ξ) ∈ Bn }) = (A △ πn (An)). (4) (A △ An) = (A △ πn (An)). (5) Итак, из (3) и (4) В силу (2) отсюда следует, что (A △ (An ∩ πn (An))) → 0, n → ∞. (6) (An) → (A), (πn (An)) → (A), (An ∩ πn (An)) → (A). (7) Поэтому из (2), (5) и (6) заключаем, что Далее, в силу независимости случайных величин ξ1 , ξ2 , . . . (An ∩ πn (An)) = {(ξ1 , . . . , ξn) ∈ Bn , (ξn+1 , . . . , ξ2n) ∈ Bn } = = {(ξ1 , . . . , ξn) ∈ Bn } · {(ξn+1 , . . . , ξ2n) ∈ Bn } = (An) (πn (An)), 568 ГЛ. IV. НЕЗАВИСИМЫЕ СЛУЧАЙНЫЕ ВЕЛИЧИНЫ откуда по свойствам (7) (A) = 2 (A) и, значит, (A) = 0 или 1. 5. Задачи. 1. Доказать следствие к теореме 1. 2. Показать, что если (ξn) n>1 – – последовательность независимых случайных величин, то случайные величины lim ξn и lim ξn являются вырожденными. 3. Пусть (ξn) n>1 – – последовательность независимых случайных величин, Sn = ξ1 + . . . + ξn и константы bn таковы, что 0 < bn ↑ ∞. Показать, что случайные величины lim Sn Sn и lim являются вырожденными. bn bn T 4. Пусть Sn = ξ1 + . . . + ξn , n > 1, и X (S) = Fn∞ (S), Fn∞ (S) = = σ{ω : Sn , Sn+1 , . . . }. Показать, что каждое событие из X (S) является перестановочным. 5. Пусть (ξn) n>1 – – последовательность случайных величин. Показать, что {lim ξn > c} ⊇ lim{ξn > c} для всякой константы c. 6. Привести пример «хвостового» события, вероятность которого строго больше нуля и меньше единицы. 7. Пусть ξ1 , ξ2 , . . . – – независимые случайные величины с ξn = 0, ξn2 = 1, n > 1, для которых выполняется центральная предельная теорема √ ( {Sn / n 6 x} → Φ(x), x ∈ R, где Sn = ξ1 + . . . + ξn). Доказать, что тогда lim n−1/2 Sn = +∞ n→∞ ( -п. н.). В частности, это свойство выполнено для последовательности независимых одинаково распределенных случайных величин (с ξ1 = 0, ξ12 = 1). 8. Пусть ξ1 , ξ2 , . . . – – независимые одинаково распределенные случайные величины с |ξ1 | > 0. Показать, что lim n→∞ n X ξk = +∞ ( -п. н.). k=1 § 2. Сходимость рядов 1. Будем предполагать, что ξ1 , ξ2 , . . . – – последовательность независимых случайных величин,P Sn = ξ1 + . . . + ξn и A – – множество тех элементарных исходов ω, где ряд ξn (ω) сходится к конечному пределу. Из закона что вероятность (A) = 0 или 1, т. е. с «0 или 1» Колмогорова следует, P вероятностью единица ряд ξn сходится или расходится. Цель настоящего параграфа – – дать критерии, позволяющие определять, сходится или расходится ряд из независимых случайных величин. § 2. СХОДИМОСТЬ РЯДОВ 569 Теорема 1 (Колмогоров и Хинчин). а) Пусть ξn = 0, n > 1. Тогда, если X ξn2 < ∞, (1) P то ряд ξn сходится с вероятностью единица. b) Если к тому же случайные величины ξn , n > 1, равномерно ограничены ( {|ξn | 6 c} = P1 для некоторого c < ∞), то верно и обратное: из сходимости ряда ξn с вероятностью единица следует условие (1). Доказательство этой теоремы существенно опирается на Неравенства Колмогорова. а) Пусть ξ1 , ξ2 , . . . , ξn – – независимые случайные величины с ξi = 0, ξi2 < ∞, 1 6 i 6 n. Тогда для всякого ε>0 n o S2 max |Sk | > ε 6 2n . (2) 16k6n ε b) Если к тому же {|ξi | 6 c} = 1, 1 6 i 6 n, то n o (c + ε) 2 . max |Sk | > ε > 1 − 2 (3) Sn 16k6n Доказательство. а) Обозначим n o A = max |Sk | > ε , 16k6n Ak = {|Si | < ε, i = 1, . . . , k − 1, |Sk | > ε}, P Тогда A = Ak и X Sn2 > Sn2 IA = Sn2 IAk . 1 6 k 6 n. Но Sn2 IAk = (Sk + (ξk+1 + . . . + ξn)) 2 IAk = = Sk2 IAk + 2 Sk (ξk+1 + . . . + ξn)IAk + (ξk+1 + . . . + ξn) 2 IAk > Sk2 IAk , поскольку Sk (ξk+1 + . . . + ξn)IAk = Sk IAk · (ξk+1 + . . . + ξn) = 0 в силу предположенной независимости и условий ξi = 0, 1 6 i 6 n. Поэтому X X Sn2 > Sk2 IAk > ε2 (Ak) = ε2 (A), что и доказывает первое неравенство. Для доказательства (3) заметим, что Sn2 IA = Sn2 − Sn2 IA > Sn2 − ε2 (A) = Sn2 − ε2 + ε2 (A). С другой стороны, на множестве Ak |Sk−1 | 6 ε, |Sk | 6 |Sk−1 | + |ξk | 6 ε + c (4) 570 ГЛ. IV. НЕЗАВИСИМЫЕ СЛУЧАЙНЫЕ ВЕЛИЧИНЫ и, значит, X Sn2 IA = k Sk2 IAk + (IAk (Sn − Sk) 2) 6 X k 6 (ε + c) 2 X (Ak) + k 6 (A) (ε + c) 2 + n X j=1 Из (4) и (5) находим, что Sn2 − ε2 2 (ε + c) + Sn2 − ε2 (Ak) k=1 " (A) > n X =1− n X ξ 2j 6 j=k+1 # ξ 2j = (A) [(ε + c) 2 + Sn2 ] . (5) (ε + c) 2 (ε + c) 2 >1− . 2 2 2 (ε + c) + Sn − ε Sn2 Неравенство (3) доказано. Доказательство теоремы 1. a) Согласно теореме 4 из § 10 гл. II, последовательность (Sn) n>1 сходится с вероятностью единица тогда и только тогда, когда эта последовательность фундаментальна с вероятностью единица. По теореме 1 из § 10 гл. II последовательность (Sn) n>1 фундаментальна ( -п. н.) в том и только том случае, когда n o sup |Sn+k − Sn | > ε → 0, n → ∞. (6) k>1 В силу (2) n o sup |Sn+k − Sn | > ε = lim N →∞ k>1 n o max |Sn+k − Sn | > ε 6 16k6N n+N P k=n 6 lim N →∞ ε2 ∞ P ξk2 = k=n ε2 ξk2 . ∞ P Поэтому, если ξk2 < ∞, то выполнено условие (6) и, следовательно, k=1 P ряд ξk сходится P с вероятностью единица. b) Пусть ряд ξk сходится. Тогда в силу (6) для достаточно больших n n o 1 sup |Sn+k − Sn | > ε < . (7) k>1 2 В силу (3) n o (c + ε) 2 . sup |Sn+k − Sn | > ε > 1 − P ∞ k>1 k=n ξk2 § 2. СХОДИМОСТЬ РЯДОВ 571 ∞ P Поэтому, если допустить, что ξk2 = ∞, то получим k=1 n o sup |Sn+k − Sn | > ε = 1, k>1 что противоречит неравенству (7). Пример. Если ξ1 , ξ2 , . . . – – последовательность независимых бернуллиевских случайных величин с {ξn = +1} = {ξn = −1} = 1/2, то ряд P ξn an , где P |an | 6 c, сходится с вероятностью единица тогда и только тогда, когда a2n < ∞. 2. Теорема 2 (теорема Колмогорова и ХинчинаPо «двух рядах»). Для сходимости с вероятностью единица ряда ξn из независимых случайных величин достаточно, чтобы одновременно сходились P P два ряда ξn и ξn . Если к тому же для некоторого c > 0 {|ξn | 6 c} = 1, n > 1, то этоP условие является и необходимым. P Доказательство. Если ξn < ∞, то по теореме 1 ряд (ξn − ξn) P сходится ( -п. н.). Но по предположению ряд ξ сходится, поэтому n P сходится ( -п. н) и ряд ξn . Для доказательства необходимости воспользуемся следующим приемом «симметризации». Наряду с последовательностью ξ1 , ξ2 , . . . рассмотрим не зависящую от нее последовательность независимых случайных величин ξ̃1 , ξ̃2 , . . . таких, что ξ̃n имеет то же распределение, что и ξn , n > 1. (Когда исходное пространство элементарных событий предполагается достаточно «богатым», существование такой последовательности следует из следствия 1 к теореме 1 § 9 гл. II. В свою очередь можно показать, что это предположение не ограничивает общности.) P P Тогда, если ξn , то сходится и ряд ξ̃n , а Pсходится ( -п. н.) ряд значит, и ряд (ξn − ξ̃n). Но P (ξn − ξ̃n) = 0 и {|ξn − ξ̃n | 6 2c} = 1. Поэтому по утверждению b) теоремы 1 (ξn − ξ̃n) < ∞. Далее, X 1 X (ξn − ξ̃n) < ∞. ξn = 2 Значит, единица сходится P по утверждению a) теоремы 1 с вероятностью P ряд (ξn − ξn), а значит, сходится и ряд ξnP . Таким образом, из сходимости ( -п. н.) P ряда ξP n (в предположении {|ξn | 6 c} = 1, n > 1) вытекает, что оба ряда ξn и ξn сходятся. 3. Следующая теорема дает необходимое и достаточное условие схоP димости ряда ξn без предположений об ограниченности случайных величин. Пусть c – – некоторая константа и ( ξ, |ξ| 6 c, ξc = 0, |ξ| > c. 572 ГЛ. IV. НЕЗАВИСИМЫЕ СЛУЧАЙНЫЕ ВЕЛИЧИНЫ Теорема 3 (теорема Колмогорова о «трех рядах»). Пусть ξ1 , ξ2 , . . . – случайных величин. Для – последовательность независимых P сходимости с вероятностью единица ряда ξn необходимо, чтобы для любого c > 0 сходились ряды X X X ξnc , ξnc , {|ξn | > c}, и достаточно, чтобы эти ряды сходились при некотором c > 0. Достаточность. По теореме P Доказательство. Pо «двух рядах» ряд ξnc сходится с вероятностью единица. Но если P {|ξn | > c} < ∞, то по лемме Бореля– I(|ξn | > c) < ∞, а –Кантелли с вероятностью единица значит, ξn = ξncPдля всех n, за исключением, быть может, конечного числа. Поэтому ряд ξn также сходится P ( -п. н.). Необходимость. Если ряд ξn сходится ( -п. н.), то ξn → 0 ( -п. н.) и, значит, для всякого c > 0 может P произойти ( -п. н.) не более конечного числа событий {|ξn | > c}. ПоэтомуP I(|ξn | > c) < ∞ ( -п. н.) и по второй частиP леммы Бореля– {|ξ –Кантелли Pn | >c c} < ∞. Далее, из сходимости ряда ξn следует и сходимость ряда ξn . Поэтому по теореме о «двух P P рядах» каждый из рядов ξnc и ξnc сходится. Следствие. Пусть ξ1 , ξ2 , . . . – – независимые случайные величины с ξn = 0. Тогда, если X ξn2 < ∞, 1 + |ξn | P то ряд ξn сходится с вероятностью единица. Для доказательства заметим, что X X ξn2 <∞ ⇔ 1 + |ξn | Поэтому, если ξn1 = ξn I(|ξn | 6 1), то X [ξn2 I(|ξn | 6 1) + |ξn |I(|ξn | > 1)] < ∞. (ξn1) 2 < ∞. Поскольку ξn = 0, то X X X | ξn1 | = | ξn I(|ξn | 6 1)| = | ξn I(|ξn | > 1)| 6 X 6 |ξn | I(|ξn | > 1) < ∞. P 1 P Значит, каждый из рядов ξn и ξn1 сходится. Далее, по неравенству Чебышева {|ξn | > 1} = {|ξn |I(|ξn | > 1) > 1} 6 |ξn |I(|ξn | > 1). § 2. СХОДИМОСТЬ РЯДОВ 573 P P Поэтому {|ξn | > 1} < ∞. Тем самым сходимость ряда ξn следует из теоремы о «трех рядах». 4. Задачи. 1. Пусть ξ1 , ξ2 , . . . – – последовательность независимых случайных величин, SP теорему о «трех рядах», показать, что: n = ξ1 + . . . + ξn . ИспользуяP а) если ξn2 < ∞ ( -п. н.), то ряд ξn сходится с вероятностью единица вPтом и только том случае, P когда сходится ряд ξi I(|ξi | 6 1); b) если ряд ξn сходится ( -п. н.), то ξn2 < ∞ ( -п. н.) в том и только том случае, когда X ( |ξn |I(|ξn | 6 1)) 2 < ∞. 2. Пусть ξ1 , ξ2 , . . .P – – последовательность независимых случайных величин. Показать, что ξn2 < ∞ ( -п. н.) тогда и только тогда, когда X ξn2 < ∞. 2 1 + ξn 3. Пусть ξ1 , ξ2 , . . . – – последовательность независимых случайных величин. Показать, что тогда следующие три условия эквивалентны: P a) ряд P ξn сходится с вероятностью единица; b) ряд P ξn сходится по вероятности; c) ряд ξn сходится по распределению. 4. Привести пример, показывающий, что в теоремах 1 и 2 нельзя, вообще говоря, отказаться от условия равномерной ограниченности ( {|ξn | 6 c} = 1 для некоторого c > 0). 5. Пусть ξ1 , . . . , ξn – – независимые одинаково распределенные случайные величины с ξ1 = 0, ξ12 < ∞ и Sn = ξ1 + . . . + ξn . Доказать следующий односторонний аналог (А. В. Маршалл) неравенства Колмогорова (2): n o S2 max Sk > ε 6 2 n 2 . 16k6n ε + Sn 6. Пусть ξ1 , ξ2 , . . . – (произвольных) случайных – последовательность P P величин. Доказать, что если |ξn | < ∞, то ряд ξn сходится абсоn>1 n>1 лютно с вероятностью единица. 7. Пусть ξ1 , ξ2 , . . . – – независимые симметрично распределенные случайные величины. Показать, что " !2 # X X ξn ∧ 1 6 (ξn2 ∧ 1). n n 8. Пусть ξ1 , ξ2 , . . . – величины с конечными – независимые случайные P вторыми моментами.P Показать, что ряд ξ сходится в L2 , если и только n P если сходятся ряды ξn и ξn . 574 ГЛ. IV. НЕЗАВИСИМЫЕ СЛУЧАЙНЫЕ ВЕЛИЧИНЫ P 9. Пусть ξ1 , ξ2 , . . . – ξn – независимые случайные величины и ряд сходится п. н. Показать, что п. н. значение этого ряда не зависит от порядка P суммирования тогда и только тогда, когда | (ξn ; |ξn | 6 1)| < ∞. 10. Пусть ξ1 , ξ2 , . . . – – независимые случайные величины с ξn = 0, n > 1, и ∞ X [ξn2 I(|ξn | 6 1) + |ξn |I(|ξn | > 1)] < ∞. n=1 Тогда ряд ∞ P ξn сходится -п. н. n=1 ∞ P n=1 11. Пусть A1 , A2 , . . . – – независимые события с (An) > 0, n > 1, и (An) = ∞. Показать, что тогда n X I(A j) j=1 n .X j=1 (A j) → 1 ( -п. н.) при n → ∞. 12. Пусть ξ1 , ξ2 , . . . – – независимые случайные величины со средними ∞ P 2 ξn и дисперсиями σn такими, что lim ξn = c и σn−2 = ∞. Показать, n n=1 что тогда n n X ξj . X 1 j=1 σ 2j j=1 σ 2j →c ( -п. н.) при n → ∞. § 3. Усиленный закон больших чисел 1. Пусть ξ1 , ξ2 , . . . – – последовательность независимых случайных величин с конечными вторыми моментами, Sn = ξ1 + . . . + ξn . Согласно задаче 2 из § 3 гл. III, если дисперсии ξi равномерно ограничены, то имеет место закон больших чисел: Sn − Sn → 0, n n → ∞. (1) Усиленным законом больших чисел называется утверждение, в котором сходимость по вероятности в (1) заменяется сходимостью с вероятностью единица. Один из первых общих результатов в этом направлении дается следующей теоремой. Теорема 1 (Кантелли). Пусть ξ1 , ξ2 , . . . – – независимые случайные величины с конечным четвертым моментом такие, что для некоторой константы C |ξn − ξn |4 6 C, n > 1. § 3. УСИЛЕННЫЙ ЗАКОН БОЛЬШИХ ЧИСЕЛ Тогда при n → ∞ Sn − Sn →0 n 575 ( -п. н.). (2) Доказательство. Не ограничивая общности, будем считать ξn = 0, Sn n > 1. По следствию к теореме 1 из § 10 гл. II для сходимости →0 n ( -п. н.) достаточно, чтобы для любого ε > 0 o X n Sn > ε < ∞. n В свою очередь, в силу неравенства Чебышева для этого достаточно выполнения условия X Sn 4 < ∞. n Покажем, что при сделанных предположениях это условие действительно выполнено. Имеем Sn4 4 = (ξ1 + . . . + ξn) = n X ξi4 + X 4! 2! 2! i, j i< j i=1 ξi2 ξ 2j + X i6= j i6=k j<k + X 4! ξ2ξ ξ + 2! 1! 1! i j k 4! ξi ξ j ξk ξl + i6= j i< j<k<l Учитывая, что Sn4 = n X 3! 1! ξi3 ξ j . ξk = 0, k 6 n, отсюда находим ξi4 + 6 i=1 X 4! n X i, j=1 ξi2 · ξ 2j 6 nC + 6 6 nC + n q X i, j=1 i< j ξi4 · ξ 4j 6 6n(n − 1) C = (3n2 − 2n)C < 3n2 C. 2 Следовательно, X Sn n 4 6 3C X 1 n2 < ∞. 2. Привлечение более тонких методов позволяет существенно ослабить предположения, сделанные в теореме 1, для справедливости усиленного закона больших чисел. Теорема 2 (Колмогоров). Пусть ξ1 , ξ2 , . . . – – последовательность независимых случайных величин с конечными вторыми моментами, 576 ГЛ. IV. НЕЗАВИСИМЫЕ СЛУЧАЙНЫЕ ВЕЛИЧИНЫ положительные числа bn таковы, что bn ↑ ∞ и X ξn < ∞. 2 (3) bn Тогда Sn − Sn →0 bn ( -п. н.). (4) В частности, если ξn < ∞, n2 X то Sn − Sn →0 n (5) ( -п. н.). (6) Для доказательства этой теоремы, а также нижеследующей теоремы 3 нам понадобятся два вспомогательные утверждения. Лемма 1 (Тёплиц). Пусть (an) n>1 – – последовательность неотриn P цательных чисел, bn = ai , b1 = a1 > 0 и bn ↑ ∞, n → ∞. Пусть также i=1 (xn) n>1 – – последовательность чисел, сходящаяся к некоторому числу x. Тогда n 1 X a j x j → x. (7) bn j=1 В частности, если an = 1, то x1 + . . . + xn → x. n (8) Доказательство. Пусть ε > 0 и n0 = n0 (ε) таково, что для всех n > n0 |xn − x| 6 ε/2. Выберем n1 > n0 так, что n0 1 X a j |x j − x| < ε/2. bn1 j=1 Тогда для n > n1 n n 1 X 1 X aj xj − x 6 a j |x j − x| = bn bn j=1 j=1 = 6 1 bn n0 X j=1 a j |x j − x| + n0 1 X 1 a j |x j − x| + bn1 bn j=1 1 bn n X j=n0 +1 n X j=n0 +1 a j |x j − x| 6 a j |x j − x| 6 bn − bn0 ε ε + 6 ε. 2 bn 2 § 3. УСИЛЕННЫЙ ЗАКОН БОЛЬШИХ ЧИСЕЛ 577 Лемма 2 (Кронекер). Пусть (bn) n>1 – – последовательность положительных возрастающих чисел, bnP ↑ ∞, n → ∞, и (xn) n>1 – – последовательность чисел таких, что ряд xn сходится. Тогда n 1 X b j x j → 0, bn n → ∞. j=1 В частности, если bn = n, xn = P yn yn и ряд сходится, то n n y1 + . . . + yn → 0, n n → ∞. Доказательство. Пусть b0 = 0, S0 = 0, Sn = j=1 bjxj = x j . Тогда («суммиро- j=1 вание по частям») n X n P (9) n X j=1 b j (S j − S j−1) = bn Sn − b0 S0 − n X j=1 S j−1 (b j − b j−1) и, значит (мы полагаем a j = b j − b j−1), n n 1 X 1 X b j x j = Sn − S j−1 a j → 0, bn bn j=1 j=1 так как если Sn → x, то по лемме Тёплица n 1 X S j−1 a j → x. bn j=1 Доказательство теоремы 2. Поскольку n 1 X ξ − ξk Sn − Sn , = bk k bn bn bk k=1 то в силу леммы Кронекера для выполнения (4) достаточно, чтобы ( -п. н.) P ξk − ξk сходился ряд . Но этот ряд действительно сходится в силу bk условия (3) и теоремы 1 из § 2. Пример 1. Пусть ξ1 , ξ2 , . . . – – последовательность независимых бернуллиевских случайных величин с {ξn = 1} = {ξn = −1} = 1/2. Тогда поP 1 < ∞, то скольку 2 n ln n √ Sn →0 n ln n ( -п. н.). (10) 578 ГЛ. IV. НЕЗАВИСИМЫЕ СЛУЧАЙНЫЕ ВЕЛИЧИНЫ 3. В том случае, когда величины ξ1 , ξ2 , . . . не только независимы, но и к тому же одинаково распределены, для справедливости усиленного закона больших чисел нет надобности требовать (как в теореме 2) существования второго момента, а достаточно лишь существования первого абсолютного момента. Теорема 3 (Колмогоров). Пусть ξ1 , ξ2 , . . . – – последовательность независимых одинаково распределенных величин с |ξ1 | < ∞. Тогда Sn →m n ( -п. н.), (11) где m = ξ1 . Для доказательства нам понадобится следующая Лемма 3. Пусть ξ – – неотрицательная случайная величина. Тогда ∞ X {ξ > n} 6 ξ 6 1 + n=1 ∞ X {ξ > n}. (12) n=1 Доказательство дается следующей цепочкой неравенств: ∞ X {ξ > n} = n=1 ∞ X X {k 6 ξ < k + 1} = n=1 k>n = 6 ∞ X k=0 ∞ X ∞ X k {k 6 ξ < k + 1} = k=1 [kI(k 6 ξ < k + 1)] 6 ∞ X [ξI(k 6 ξ < k + 1)] = ξ 6 k=0 [(k + 1)I(k 6 ξ < k + 1)] = k=0 ∞ X (k + 1) {k 6 ξ < k + 1} = k=0 = ∞ X n=1 {ξ > n} + ∞ X {k 6 ξ < k + 1} = k=0 ∞ X {ξ > n} + 1. n=1 Доказательство теоремы 3. В силу леммы 3 и леммы Бореля– – Кантелли (§ 10 гл. II) X |ξ1 | < ∞ ⇔ {|ξ1 | > n} < ∞ ⇔ X ⇔ {|ξn | > n} < ∞ ⇔ {|ξn | > n б. ч.} = 0. Поэтому с вероятностью единица для всех n, за исключением лишь конечного числа, |ξn | < n. Обозначим ( ξ̃n = ξn , 0, |ξn | < n, |ξn | > n, § 3. УСИЛЕННЫЙ ЗАКОН БОЛЬШИХ ЧИСЕЛ и будем считать, что только если но ξn = 0, n > 1. Тогда 579 ξ1 + . . . + ξn → 0 ( -п. н.), если и n ξ˜ 1 + . . . + ξ˜ n → 0 ( -п. н.). Заметим, что, вообще говоря, n ξ̃n 6= 0, ξ̃n = ξn I(|ξn | < n) = ξ1 I(|ξ1 | < n) → ξ1 = 0. Поэтому по лемме Тёплица n 1 X n ξ̃k → 0, k=1 и, следовательно, ( -п. н.) n → ∞, ξ1 + . . . + ξn → 0 ( -п. н.) в том и только том случае, когда n (ξ˜ 1 − ξ˜ 1) + . . . + (ξ˜ n − ξ˜ n) → 0, n n → ∞. (13) Обозначим ξ̄n = ξ̃n − ξ̃n . В силу леммы Кронекера для выполнения (13) P ξ¯ n достаточно лишь установить, что ряд сходится ( -п. н.). В свою n очередь, согласно теореме 1 из § 2, для этого достаточно показать, что P ξ¯ n предположение |ξ1 | < ∞ обеспечивает сходимость ряда . n2 Следующая цепочка неравенств показывает, что это действительно так: X ∞ ∞ ξ¯ n X ξ˜ n2 X 1 6 = n2 n2 n2 n=1 = ∞ X 1 n=1 = ∞ X k=1 n2 [ξn I(|ξn | < n)] 2 = n=1 [ξ12 I(|ξ1 | < n)] = [ξ12 I(k − 1 6 |ξ1 | < k)] 62 ∞ n X 1 X n=1 n2 ∞ X 1 n=k ∞ X k=1 n2 k=1 ∞ X 62 k=1 [ξ12 I(k − 1 6 |ξ1 | < k)] = 1 k [ξ12 I(k − 1 6 |ξ1 | < k)] 6 [|ξ1 |I(k − 1 6 |ξ1 | < k)] = 2 |ξ1 | < ∞. Замечание 1. Утверждение теоремы допускает обращение в следующем смысле. Пусть ξ1 , ξ2 , . . . – – последовательность независимых одинаково распределенных случайных величин, для которых с вероятностью единица ξ1 + . . . + ξn → C, n где C – – некоторая (конечная) константа. Тогда |ξ1 | < ∞ и C = ξ1 . 580 ГЛ. IV. НЕЗАВИСИМЫЕ СЛУЧАЙНЫЕ ВЕЛИЧИНЫ В самом деле, если Sn → C ( -п. н.), то n Sn ξn = − n n и, значит, n − 1 Sn−1 →0 n n−1 ( -п. н.) {|ξn | > n б. ч.} = 0. По лемме Бореля– –Кантелли (§ 10 гл. II) X {|ξ1 | > n} < ∞ и в силу леммы 3 |ξ1 | < ∞. Тогда из доказанной теоремы следует, что C = ξ1 . Таким образом, для независимых одинаково распределенных случайных величин условие |ξ1 | < ∞ является необходимым и достаточным для сходимости (с вероятностью единица) отношений Sn /n к конечному пределу. Замечание 2. Если математическое ожидание m = ξ1 существует, но не обязательно конечно, то утверждение (9) теоремы также остается в силе. В самом деле, пусть, например, ξ1− < ∞ и ξ1+ = ∞. Для C > 0 положим n X SnC = ξi I(ξi 6 C). i=1 Тогда ( -п. н.) lim n Но при C → ∞ поэтому Sn SC > lim n = ξ1 I(ξ1 6 C). n n n ξ1 I(ξ1 6 C) → ξ1 = ∞, Sn → +∞ ( -п. н.). n Sn → m ( -п. н.). Замечание 3. В теореме 3 утверждается сходимость n Следует отметить, что здесь помимо сходимости с вероятностью единица Sn L1 Sn имеет место также и сходимость в среднем −m → −→ m , т. е. n n → 0, n → ∞. Это следует из эргодической теоремы 3 из § 3 гл. V. Но в рассматриваемом случае независимых одинаково распределенных случайных величин ξ1 , ξ2 , . . . и Sn = ξ1 + ξ2 + . . . + ξn это может быть доказано (задача 7) и непосредственно без обращения к эргодической теореме. 4. Остановимся на некоторых применениях усиленного закона больших чисел. Пример 2 (применение к теории чисел). Пусть Ω = [0, 1), B – – борелевская система подмножеств Ω и – – мера Лебега на [0, 1). Рассмотрим § 3. УСИЛЕННЫЙ ЗАКОН БОЛЬШИХ ЧИСЕЛ 581 двоичное разложение ω = 0,ω1 ω2 . . . чисел ω ∈ Ω (с бесконечным количеством нулей) и определим случайные величины ξ1 (ω), ξ2 (ω), . . . , полагая ξn (ω) = ωn . Поскольку для любого n > 1 и любых x1 , . . . , xn , принимающих значения 0 или 1, {ω : ξ1 (ω) = x1 , . . . , ξn (ω) = xn } = n o x xn x xn x 1 = ω : 1 + 22 + . . . + n 6 ω < 1 + . . . + n + n , 2 2 2 2 2 2 то -мера этого множества равна 1/2 . Значит, ξ1 , ξ2 , . . . – – последовательность независимых одинаково распределенных случайных величин с n 1 2 {ξ1 = 0} = {ξ1 = 1} = . Отсюда и из усиленного закона больших чисел вытекает следующий результат Бореля: почти все числа интервала [0, 1) нормальны в том смысле, что с вероятностью единица доля нулей и единиц в их двоичном разложении стремится к 1/2, т. е. n 1 1 X I(ξk = 1) → n 2 ( -п. н.). k=1 Пример 3 (применение к «методу Монте-Карло»). Пусть f(x) – – непрерывная функция, заданная на интервале [0, 1] и принимающая значения из [0, 1] . Следующие рассуждения лежат в основе статистического метода ]1 численного вычисления интегралов f(x) dx («метод Монте-Карло»). 0 Пусть ξ1 , η1 , ξ2 , η2 , . . . – – последовательность независимых случайных величин, равномерно распределенных на [0, 1] . Положим ( 1, если f(ξi) > ηi , ρi = 0, если f(ξi) 6 ηi . Ясно, что ]1 ρ1 = {f(ξ1) > η1 } = f(x) dx. 0 Согласно усиленному закону больших чисел (теорема 3), n ]1 1 X ρi → f(x) dx n i=1 0 ( -п. н.). 582 ГЛ. IV. НЕЗАВИСИМЫЕ СЛУЧАЙНЫЕ ВЕЛИЧИНЫ Таким образом, численный подсчет интеграла ]1 f(x) dx можно осу- 0 ществлять с помощью моделирования пар случайных чисел (ξi , ηi), i > 1, n 1 P ρi . с последующим подсчетом величин ρi и n i=1 Пример 4 (усиленный закон больших чисел для процесса восстановления). Пусть N = (Nt ) t>0 – – процесс восстановления, введенный в п. 4 § 9 ∞ P гл. II: Nt = I(Tn 6 t), Tn = σ1 + . . . + σn , где σ1 , σ2 , . . . – – последовательn=1 ность независимых одинаково распределенных положительных случайных величин. Будем сейчас предполагать, что µ = σ1 < ∞. В этом предположении для процесса N выполняется усиленный закон больших чисел: Nt 1 → t µ ( -п. н.), (14) t → ∞. Для доказательства заметим прежде всего, что поскольку TNt 6 t < TNt +1 , t > 0, то в предположении Nt > 0 справедливы неравенства T TNt 1 t . (15) 6 < Nt +1 1 + Nt Nt Nt + 1 Nt Ясно, что Nt = Nt (ω) → ∞ ( -п. н.), t → ∞. В то же самое время, согласно теореме 3, Tn (ω) σ (ω) + . . . + σn (ω) = 1 →µ n n ( -п. н.), n → ∞. Поэтому также и TNt (ω) (ω) →µ Nt (ω) ( -п. н.), n → ∞, а следовательно, из (15) заключаем, что ( -п. н.) существует предел lim t→∞ t , равный µ, что и доказывает усиленный закон больших чисел (14). Nt 5. Задачи. 1. Показать, что ξ 2 < ∞ тогда и только тогда, когда ∞ P n {|ξ| > n} < n=1 < ∞. 2. Предполагая, что ξ1 , ξ2 , . . . независимы и одинаково распределеSn →0 n1/α Sn − n ξ 1 |ξ1 |β < ∞ для некоторого 1 6 β < 2, то →0 n1/β ны, показать, что если ( -п. н.), и если ( -п. н.). |ξ1 |α < ∞ для некоторого 0 < α < 1, то § 3. УСИЛЕННЫЙ ЗАКОН БОЛЬШИХ ЧИСЕЛ 583 3. Пусть ξ1 , ξ2 , . . . – – последовательность независимых одинаково распределенных случайных величин с |ξ1 | = ∞. Показать, что для любой последовательности констант {an } lim n Sn − an = ∞ n ( -п. н.). 4. Будут ли все рациональные числа из [0, 1) нормальными (в смысле примера 2 в п. 4)? 5. Привести пример последовательности независимых случайных величин ξ1 , ξ2 , . . . таких, что предел lim n→∞ Sn существует по вероятности, но не n существует с вероятностью единица. 6. (Н. Этемади.) Показать, что утверждение теоремы 3 остается справедливым, если «независимость» случайных величин ξ1 , ξ2 , . . . заменить их «попарной независимостью». 7. Показать, что в условиях теоремы 3 имеет место также и сходимость Sn − m → 0, n → ∞). в среднем ( n 8. Пусть ξ1 , ξ2 , . . . – – независимые одинаково распределенные случайные величины с |ξ1 |2 < ∞. Показать, что √ 1 n {|ξ1 | > ε n} → 0 и √ max |ξk | → 0. n k6n 9. Рассмотрим десятичные разложения чисел ω = 0,ω1 ω2 . . . из интервала [0, 1). (a) Перенести на этот случай усиленный закон больших чисел, данный в п. 4 для двоичных разложений. (b) Показать, что рациональные числа не являются нормальными (по Борелю), т. е. для них в десятичном разложении (ξk (ω) = ωk , k > 1) n 1 1 X I(ξk (ω) = i) 6→ n 10 ( -п. н.) для любого i = 0, 1, . . . , 9. k=1 (с) Показать, что число Champernowne’a ω = 0,12345678910111213 . . . , где подряд выписываются все числа, является нормальным (см. пример 2). 10. (a) Пусть ξ1 , ξ2 , . . . – – последовательность независимых случайных величин с {ξn = ±na } = 1/2. Показать, что для этой последовательности закон больших чисел выполняется тогда и только тогда, когда a < 1/2. (b) Пусть f = f(x) – – ограниченная непрерывная функция на (0, ∞). Показать, что для всякого a > 0 и всех x > 0 ∞ X k −an (an) k lim f x+ e = f(x + a). n→∞ k=1 n k! 584 ГЛ. IV. НЕЗАВИСИМЫЕ СЛУЧАЙНЫЕ ВЕЛИЧИНЫ 11. Доказать, что усиленному закону больших чисел Колмогорова (теорема 3) можно придать такой вид: пусть ξ1 , ξ2 , . . . – – независимые одинаково распределенные случайные величины, тогда |ξ1 | < ∞ ⇔ n−1 Sn → ξ1 ( -п. н.), |ξ1 | = ∞ ⇔ lim n−1 Sn = +∞ ( -п. н.). Доказать, что первое утверждение остается в силе, если независимость заменить попарной независимостью. 12. Пусть ξ1 , ξ2 , . . . – – последовательность независимых одинаково распределенных случайных величин. Показать, что sup n ξn <∞ ⇔ n |ξ1 | ln+ |ξ1 | < ∞. 13. Пусть Sn = ξ1 + . . . + ξn , n > 1, где ξ1 , ξ2 , . . . – – последовательность независимых одинаково распределенных случайных величин с ξ1 = 0, |ξ1 | > 0. Показать, что ( -п. н.) lim n−1/2 Sn = ∞, lim n−1/2 Sn = −∞. 14. Пусть Sn = ξ1 + . . . + ξn , n > 1, где ξ1 , ξ2 , . . . – – последовательность независимых одинаково распределенных случайных величин. Показать, что для всякого α ∈ (0, 1/2] выполнено одно из следующих свойств: (a) n−α Sn → ∞ ( -п. н.); (b) n−α Sn → −∞ ( -п. н.); (c) lim n−α Sn = ∞, lim n−α Sn = −∞ ( -п. н.). 15. Пусть Sn = ξ1 + . . . + ξn , n > 1, S0 = 0, ξ1 , ξ2 , . . . – – последовательность независимых одинаково распределенных случайных величин. Показать, что: (a) для любого ε > 0 ∞ X n=1 (b) если {|Sn | > nε} < ∞ ⇔ ξ1 = 0, ξ1 < 0, то для p > 1 p−1 <∞ ⇔ sup Sn n>0 ξ12 < ∞; (ξ1+) p < ∞; (c) если ξ1 = 0 и 1 < p 6 2, то для некоторой константы C p ∞ n o n o X max |Sk | > n 6 2C p |ξ1 | p ; max Sk > n 6 C p |ξ1 | p , ∞ X n=1 k6n (d) если n=1 ξ1 = 0, k6n ξ12 < ∞ и M(ε) = sup (Sn − nε), ε > 0, то n>0 lim εM(ε) = σ 2 /2. ε→∞ § 4. ЗАКОН ПОВТОРНОГО ЛОГАРИФМА 585 § 4. Закон повторного логарифма 1. Пусть ξ1 , ξ2 , . . . – – последовательность независимых бернуллиевских случайных величин с {ξn = 1} = {ξn = −1} = 1/2, Sn = ξ1 + . . . + ξn . Из доказательства теоремы 2 в § 1 следует, что с вероятностью единица S n lim √ = +∞, n S n lim √ = −∞. (1) n С другой стороны, согласно (10) § 3, √ Sn →0 n ln n ( -п. н.). (2) Сравним эти два результата. Из (1) следует, что с вероятностью единица √ траектории (Sn) n>1 бесконечное число раз пересекают «кривые» ±ε n, где ε – – любое положительное число, но в то же самое время они в силу (2) лишь конечное √ число раз выходят из внутренности области, ограниченной кривыми ±ε n ln n. Эти два результата дают весьма полезную информацию о характере «размаха» колебаний симметричного случайного блуждания (Sn) n>1 . Приводимый ниже закон повторного логарифма существенно уточняет эти представления о «размахе» колебаний (Sn) n>1 . Введем такое Определение. Функция ϕ∗ = ϕ∗ (n), n > 1, называется верхней (для (Sn) n>1), если с вероятностью единица Sn 6 ϕ∗ (n) для всех n, начиная с некоторого n = n0 (ω). Функция ϕ∗ = ϕ∗ (n), n > 1, называется нижней (для (Sn) n>1), если с вероятностью единица Sn > ϕ∗ (n) для бесконечно многих n. В соответствии с этим определением и в силу (1) и (2) можно сказать, √ ∗ n ln n, ε > 0, является верхней, а функция что каждая из функций ϕ = ε √ ϕ∗ = ε n – – нижней, ε > 0. Пусть ϕ = ϕ(n) – – некоторая функция и ϕ∗ε = (1 + ε) ϕ, ϕ∗ε = (1 − ε) ϕ, где ε > 0. Тогда нетрудно видеть, что o n Sm Sn 61 ⇔ 6 1 = lim sup lim ϕ(n) ⇔ n sup m>n1 (ε) m>n Sm 61+ε ϕ(m) ⇔ ϕ(m) для всякого ε > 0 и некоторого n1 (ε) Sm 6 (1 + ε)ϕ(m) для всякого ε > 0 и всех m, . начиная с некоторого n1 (ε) ⇔ (3) 586 ГЛ. IV. НЕЗАВИСИМЫЕ СЛУЧАЙНЫЕ ВЕЛИЧИНЫ Точно так же o n Sm Sn >1 ⇔ > 1 = lim sup lim ϕ(n) ⇔ n sup m>n2 (ε) m>n Sm >1−ε ϕ(m) ⇔ ( ϕ(m) для всякого ε > 0 и некоторого n2 (ε) ) Sm > (1 − ε)ϕ(m) для всякого ε > 0 и для бесконечно многих значений m, начиная с . некоторого n3 (ε) > n2 (ε) ⇔ (4) Из (3) и (4) вытекает, что для того, чтобы проверить, что каждая из функций ϕ∗ε = (1 + ε)ϕ, ε > 0, является верхней, надо доказать, что n o Sn 6 1 = 1. (5) lim ϕ(n) А для того, чтобы доказать, что функции ϕ∗ε = (1 − ε)ϕ, ε > 0, являются нижними, надо установить, что n o Sn > 1 = 1. (6) lim ϕ(n) 2. Теорема 1 (закон повторного логарифма). Пусть ξ1 , ξ2 , . . . – – последовательность независимых одинаково распределенных случайных величин с ξi = 0 и ξi2 = σ 2 > 0. Тогда n o Sn = 1 = 1, (7) lim ψ (n) где ψ (n) = p 2σ 2 n ln ln n. (8) Для случая равномерно ограниченных случайных величин закон повторного логарифма был установлен Хинчиным (1924 г.). В 1929 г. Колмогоров обобщил этот результат на широкий класс независимых случайных величин. В условиях, сформулированных в теореме 1, закон повторного логарифма установлен Хартманом и Винтнером (1941 г.). Поскольку доказательство этой теоремы довольно сложно, ограничимся рассмотрением лишь частного случая, когда случайные величины ξn являются нормально распределенными, ξn ∼ N (0, 1), n > 1. Начнем с доказательства двух вспомогательных результатов. Лемма 1. Пусть ξ1 , . . . , ξn – – независимые случайные величины с симметричным распределением ( {ξk ∈ B} = {−ξk ∈ B} для каждого B ∈ B (R), k 6 n). Тогда для любого действительного a n o max Sk > a 6 2 {Sn > a}. (9) 16k6n § 4. ЗАКОН ПОВТОРНОГО ЛОГАРИФМА 587 Положим Ak = {Si 6 a, i 6 k − 1; Sk > a}, и пусть A = nДоказательство. o = max Sk > a и B = {Sn > a}. Поскольку Ak ∩ B ⊇ Ak ∩ {Sn > Sk }, то 16k6n (B ∩ Ak) > (Ak ∩ {Sn > Sk }) = (Ak) {Sn > Sk } = = (Ak) {ξk+1 + . . . + ξn > 0}. В силу симметричности распределений вероятностей случайных величин ξ1 , . . . , ξn {ξk+1 + . . . + ξn > 0} = {ξk+1 + . . . + ξn < 0}. Поэтому {ξk+1 + . . . + ξn > 0} > 1/2 и, значит, (B) > n X k=1 (Ak ∩ B) > n 1 X 2 (Ak) = k=1 1 2 (A), что и доказывает (9). (Ср. с доказательством в п. 3 § 2 гл. VIII.) Лемма 2. Пусть Sn ∼ N (0, σ 2 (n)), σ 2 (n) ↑ ∞ и числа a(n), n > 1, таковы, что a(n) → ∞, n → ∞. Тогда σ (n) a2 (n) {Sn > a(n)} ∼ √ − σ (n) e 2σ2 (n) . 2πa(n) (10) Доказательство следует из того, что при x → ∞ ∞ ] 2 2 1 1 √ e −x /2 , e −y /2 dy ∼ √ 2π x 2πx а случайная величина Sn /σ (n) ∼ N (0, 1). Доказательство теоремы 1 (для ξi ∼ N (0, 1)). Установим сначала соотношение (5). Пусть ε > 0, λ = 1 + ε, nk = λk , где k > k0 , а k0 выбирается так, чтобы ln ln k0 был определен. Обозначим также Ak = {Sn > λψ (n) для некоторого n ∈ (nk , nk+1 ] }, (11) и пусть A = {Ak б. ч.} = {Sn > λψ (n) для бесконечно многих n}. В соответствии с (3) для доказательства (5) достаточно доказать, что (A) = 0. P Покажем, что (Ak) < ∞. Тогда по лемме Бореля– –Кантелли (§ 10 гл. II) будем иметь (A) = 0. 588 ГЛ. IV. НЕЗАВИСИМЫЕ СЛУЧАЙНЫЕ ВЕЛИЧИНЫ Из (11), (9) и (10) находим, что (Ak) 6 {Sn > λψ (nk) для некоторого n ∈ (nk , nk+1 ] } 6 6 {Sn > λψ (nk) для некоторого n 6 nk+1 } 6 2 {Snk+1 > λψ (nk)} ∼ 1 − 2 ∼√ e 2 λψ (nk) 2π √ nk λψ √(nk) nk 2 k 6 C1 e −λ ln ln λ 6 C2 e −λ ln k = C2 k−λ , где C1 и C2 – – некоторые константы. Но ∞ P k=1 k−λ < ∞, поэтому P (Ak) < < ∞. Итак, соотношение (5) доказано. Перейдем к доказательству (6). В соответствии с (4) надо показать, что для λ = 1 − ε, ε > 0, с вероятностью единица Sn > λψ (n) для бесконечно многих n. Применим доказанное соотношение (5) к последовательности (−Sn) n>1 . Тогда получим, что для всех n, за исключением, быть может, конечного числа, ( -п. н.) −Sn 6 2ψ (n). Следовательно, если nk = N k , N > 1, то для достаточно больших k Snk−1 > −2ψ (nk−1), или Snk > Yk − 2ψ (nk−1), (12) Yk > λψ (nk) + 2ψ (nk−1), (13) где Yk = Snk − Snk−1 . Поэтому, если доказать, что для бесконечно многих k то вместе с (12) это даст, что ( -п. н.) Snk > λψ (nk) также для бесконечно многих k. Возьмем некоторое λ′ ∈ (λ, 1). Тогда можно найти такое N > 1, что для всех k λ′ [2(N k − N k−1) ln ln N k ] 1/2 > λ(2N k ln ln N k) 1/2 + 2(2N k−1 ln ln N k−1) 1/2 ≡ ≡ λψ (N k) + 2ψ (N k−1). Теперь достаточно показать, что для бесконечно многих k Yk > λ′ [2(N k − N k−1) ln ln N k ] 1/2 . Очевидно, Yk ∼ N (0, N − N k ). Поэтому в силу леммы 2 {Yk > λ′ [2(N k − N k−1) ln ln N k ] 1/2 } ∼ ∼√ 2π λ′ (2 (14) k−1 ′ 2 1 e −(λ ) k 1 2 ln ln N ) / ln ln N k > ′ 2 C1 C2 . k−(λ ) > 1 2 / k ln k (ln k) § 4. ЗАКОН ПОВТОРНОГО ЛОГАРИФМА 589 P 1 Так как = ∞, то, по второй части леммы Бореля– –Кантелли, с веk ln k роятностью единица для бесконечно многих k выполнено (14), что и доказывает соотношение (6). Замечание 1. Применяя (7) к случайным величинам (−Sn) n>1 , находим, что ( -п. н.) lim Sn = −1. ψ (n) (15) Из (7) и (15) следует, что закону повторного логарифма можно придать также следующую форму: o n |Sn | = 1 = 1. (16) lim ψ (n) Замечание 2. Закон повторного логарифма говорит о том, что для любого ε > 0 каждая из функций ψε∗ = (1 + ε)ψ является верхней, а функция ψ∗ε = (1 − ε)ψ – – нижней. Утверждение (7) закона повторного логарифма эквивалентно также тому, что для всякого ε > 0 {|Sn | > (1 − ε)ψ (n) б. ч.} = 1, {|Sn | > (1 + ε)ψ (n) б. ч.} = 0. 3. Задачи. 1. Пусть ξ1 , ξ2 , . . . – – последовательность независимых случайных величин, ξn ∼ N (0, 1). Показать, что n o ξn lim √ = 1 = 1. 2 ln n 2. Пусть ξ1 , ξ2 , . . . – – последовательность независимых случайных величин, распределенных по закону Пуассона с параметром λ > 0. Показать, что (независимо от λ) n o ξn ln ln n lim = 1 = 1. ln n 3. Пусть ξ1 , ξ2 , . . . – – последовательность независимых одинаково распределенных случайных величин с α e itξ1 = e −|t| , 0 < α < 2. Показать, что lim Sn n1/α 1 ln ln n = e 1/α = 1. 590 ГЛ. IV. НЕЗАВИСИМЫЕ СЛУЧАЙНЫЕ ВЕЛИЧИНЫ 4. Установить справедливость следующего обобщения неравенства (9). Пусть ξ1 , . . . , ξn – – независимые случайные величины, S0 = 0, Sk = ξ1 + + . . . + ξk . Тогда для всякого действительного a справедливо неравенство Леви: n o max [Sk + µ(Sn − Sk)] > a 6 2 {Sn > a}, 06k6n где µ(ξ) – – медиана случайной величины ξ, т. е. такая константа, что 1 2 {ξ > µ(ξ)} > , 1 2 {ξ 6 µ(ξ)} > . 5. Пусть ξ1 , . . . , ξn – – независимые случайные величины и S0 = 0, Sk = ξ1 + . . . + ξk . Доказать, что: (a) (в дополнение к задаче 4) n o max |Sk + µ(Sn − Sk)| > a 6 2 {|Sn | > a}, 16k6n где µ(ξ) есть медиана случайной величины ξ; (b) если ξ1 , . . . , ξn одинаково распределены и симметричны, то n o 1 − e −n {|ξ1 |>x} 6 max |ξk | > x 6 2 {|Sn | > x}. 16k6n 6. Пусть ξ1 , . . . , ξn – – независимые случайные величины с 1 6 i 6 n, и Sk = ξ1 + . . . + ξk . Показать, что n o max Sk > a 6 2 {Sn > a − |Sn |} для a > 0. ξi = 0, 16k6n 7. Пусть ξ1 , . . . , ξn – – независимые одинаково распределенные случайные величины, ξi = 0, σ 2 = ξi2 < ∞, Sn = ξ1 + . . . + ξn и |ξi | 6 C ( -п. н.), i 6 n. Показать, что тогда e xSn 6 exp{2−1 nx 2 σ 2 (1 + xC)} для всякого 0 6 x 6 2C −1 . При тех же предположениях установить, √ что если (an) – – последовательность действительных чисел такая, что an / n → ∞, но an = o(n), то для всякого ε > 0 и достаточно больших n o n a2 {Sn > an } > exp − n 2 (1 + ε) . 2nσ 8. Пусть ξ1 , . . . , ξn – – независимые одинаково распределенные случайn P ные величины, ξi = 0, |ξi | 6 C ( -п. н.), i 6 n. Пусть Dn = ξi . Показать, i=1 что для Sn = ξ1 + . . . + ξn справедливо неравенство (Ю. В. Прохоров) o n a ac , a ∈ R. {Sn > a} 6 exp − arcsin 2c 2Dn § 5. СКОРОСТЬ СХОДИМОСТИ В У. З. Б. Ч. 591 § 5. О скорости сходимости в усиленном законе больших чисел и о вероятностях больших уклонений 1. Обратимся к схеме Бернулли, рассмотренной в § 6 гл. I. Для этой схемы теорема Муавра– –Лапласа дает аппроксимацию √ для вероятностей стандартных (нормальных) уклонений |Sn − np| > ε √ n, т. е. отклонений Sn от центрального значения np на величину порядка n. В то же самое время в том же § 6 гл. I была приведена оценка вероятностей для так называемых больших уклонений |Sn − np| > εn, т. е. отклонений Sn от np порядка n: n o 2 Sn − p > ε 6 2e −2nε (1) n (см. формулу (42) в § 6 гл. I). Отсюда, конечно, следуют неравенства X n o 2 2 Sm Sm − p >ε 6 − p >ε 6 sup e −2nε , (2) −2ε2 m>n m 1−e m m>n дающие определенное представление о скорости сходимости с вероятноSn к p. стью единица величин n Рассмотрим теперь вопрос о справедливости формул типа (1), (2) в несколько более общей ситуации, когда Sn = ξ1 + . . . + ξn – – сумма независимых одинаково распределенных случайных величин. 2. Говорят, что случайная величина ξ удовлетворяет условию Крамера, если существует такая окрестность нуля, что для любого λ из этой окрестности e λξ < ∞ (3) (можно показать, что это условие равносильно экспоненциальному убыванию {|ξ| > x}). Положим ϕ(λ) = e λξ и ψ (λ) = ln ϕ(λ). (4) На внутренности множества Λ = {λ ∈ R : ψ (λ) < ∞} (5) функция ψ (λ) является выпуклой (книзу) и бесконечно дифференцируемой. При этом ψ (0) = 0, ψ ′ (0) = m (= ξ), ψ ′′ (λ) > 0. 592 ГЛ. IV. НЕЗАВИСИМЫЕ СЛУЧАЙНЫЕ ВЕЛИЧИНЫ Образуем функцию H(a) = sup [aλ − ψ (λ)] , λ a ∈ R, (6) называемую преобразованием Крамера (функции распределения F = = F(x) случайной величины ξ). Функция H(a) также выпукла (книзу), причем ее минимальное значение, равное нулю, достигается в точке a = m. Если a > m, то H(a) = sup [aλ − ψ (λ)] . λ>0 Поэтому {ξ > a} 6 inf λ>0 e λ(ξ−a) = inf e − [aλ−ψ (λ)] = e −H(a) . λ>0 (7) Точно так же H(a) = sup [aλ − ψ (λ)] для a < m и λ<0 {ξ 6 a} 6 e −H(a) . (8) Следовательно (ср. с (42) в § 6 гл. I), {|ξ − m| > ε} 6 2e −min{H(m−ε),H(m+ε)} . (9) Если ξ, ξ1 , . . . , ξn – – независимые одинаково распределенные случайные величины, удовлетворяющие условию Крамера (3), Sn = ξ1 + . . . + ξn , ψn (λ) = ln eλ Sn n , ψ (λ) = ln e λξ , Hn (a) = sup [aλ − ψn (λ)] , (10) λ то Hn (a) = nH(a) (= n sup [aλ − ψ (λ)]) λ и неравенства (7), (8) и (9) принимают следующий вид: o n Sn > a 6 e −nH(a) , a > m, n n o Sn 6 a 6 e −nH(a) , a < m, n n o Sn − m > ε 6 2e −min{H(m−ε),H(m+ε)}·n . n Замечание 1. Результаты типа n o Sn − m > ε 6 ae −bn , n (11) (12) (13) (14) § 5. СКОРОСТЬ СХОДИМОСТИ В У. З. Б. Ч. 593 где a > 0 и b > 0, говорят об экспоненциальной сходимости, «peгулируемой» константами a и b. В теории больших уклонений часто соответствующие результаты формулируют в несколько иной, более «грубой» форме: n o Sn 1 − m > ε < 0, (15) lim ln n n n вытекающей, разумеется, из (14) и говорящей об «экспоненциальной» скорости сходимости, но без уточнения значений констант a и b. Обратимся теперь к вопросу об оценках сверху вероятностей n o S S S inf k < a , sup k − m > ε , sup k > a , k>n k k>n k k>n k которые могут давать определенное представление о скорости сходимости в усиленном законе больших чисел. Будем предполагать, что независимые одинаково распределенные невырожденные случайные величины ξ, ξ1 , ξ2 , . . . удовлетворяют условию Крамера (3). Зафиксируем n > 1 и положим n o S κ = inf k > n : k > a , k S считая κ = ∞, если k 6 a, k > n. k Пусть, далее, a и λ > 0 таковы, что λa − ln ϕ(λ) > 0. Тогда Sk >a = sup k>n k [ nS k k k>n ! o n o Sκ >a = > a, κ < ∞ = κ = {e λSκ > e λaκ , κ < ∞} = {e λSκ −κ 6 {e λSκ −κ (16) ln ϕ(λ) ln ϕ(λ) > e κ (λa−ln ϕ(λ)) , κ < ∞} 6 > e n(λa−ln ϕ(λ)) , κ < ∞} 6 n o 6 sup e λSk −k ln ϕ(λ) > e n(λa−ln ϕ(λ)) . (17) k>n Чтобы сделать заключительный шаг, заметим, что последовательность случайных величин e λSk −k ln ϕ(λ) , k > 1, относительно потока σ-алгебр Fk = σ{ξ1 , . . . , ξk }, k > 1, образует мартингал. (Подробнее см. гл. VII и, в частности, пример 2 в § 1.) 594 ГЛ. IV. НЕЗАВИСИМЫЕ СЛУЧАЙНЫЕ ВЕЛИЧИНЫ Тогда из неравенства (8) в § 3 гл. VII вытекает, что n o sup e λSk −k ln ϕ(λ) > e n(λa−ln ϕ(λ)) 6 e −n(λa−ln ϕ(λ)) , k>n и, следовательно, (при условии (16)) получаем неравенство S sup k > a 6 e −n(λa−ln ϕ(λ)) . k>n (18) k Пусть a > m. Поскольку функция f(λ) = aλ − ln ϕ(λ) такова, что f(0) = 0, f ′ (0) > 0, то найдется λ > 0, для которого выполнено (16), и, следовательно, из (18) получаем: если a > m, то −n sup [λa−ln ϕ(λ)] S = e −nH(a) . (19) sup k > a 6 e λ>0 k>n k Аналогично, если a < m, то n o −n sup [λa−ln ϕ(λ)] S inf k < a 6 e λ<0 = e −nH(a) . k>n (20) k Из (19) и (20) заключаем, что S sup k − m > ε 6 2e −min[H(m−ε),H(m+ε)] ·n . k>n (21) k Замечание 2. Совпадение правых частей в неравенствах (11) и (19) заставляет думать, что это обстоятельство не является случайным. Действительно, объяснение кроется в том, что последовательности Sk k n6k6N при любых n 6 N образуют обращенные мартингалы (см. задачу 5 в § 1 гл. VII и пример 4 в § 11 гл. I). 3. Задачи. 1. Провести доказательство неравенств (8), (20). 2. Проверить, что в предположении (3) на внутренности множества Λ (см. (5)) функция ψ (λ) является выпуклой книзу (и строго выпуклой, если случайная величина ξ невырождена) и бесконечно дифференцируемой. 3. В предположении невырожденности случайной величины ξ доказать, что функция H(a) дифференцируема на всей прямой и является выпуклой (книзу). 4. Доказать следующую формулу обращения для преобразования Крамера: ψ (λ) = sup [λa − H(a)] a (для всех λ, за исключением, быть может, концевых точек множества Λ = {λ : ψ (λ) < ∞}). § 5. СКОРОСТЬ СХОДИМОСТИ В У. З. Б. Ч. 595 5. Пусть Sn = ξ1 + . . . + ξn , где ξ1 , . . . , ξn , n > 1, – – независимые одинаково распределенные простые случайные величины с ξ1 < 0, {ξ1 > 0} > 0. Пусть ϕ(λ) = e λξ1 и inf ϕ(λ) = ρ (0 < ρ < 1). λ Показать, что справедлив следующий результат (теорема Чернова): lim 1 ln n {Sn > 0} = ln ρ. (22) 6. Используя (22), показать, что в бернуллиевском случае ( {ξ1 = 1} = = p, {ξ1 = 0} = q) при p < x < 1 lim 1 ln n {Sn > nx} = −H(x), (23) где (ср. с обозначениями в § 6 гл. I) H(x) = x ln 1−x x + (1 − x) ln . p 1− p 7. Пусть Sn = ξ1 + . . . + ξn , n > 1, где ξ1 , ξ2 , . . . – – независимые одинаково распределенные случайные величины с ξ1 = 0, ξ1 = 1. Пусть (xn) n>1 – – xn последовательность такая, что xn → ∞ и √ → 0 при n → ∞. n Показать, что xn2 √ {Sn > xn n} = e − 2 (1+yn) , где yn → 0, n → ∞. 8. Вывести из (23), что в бернуллиевском случае ( {ξ1 = 1} = p, {ξ1 = 0} = q) (a) при p < x < 1 и xn = n(x − p) n o xn {Sn > np + xn } = exp −nH p + (1 + o(1)) ; (24) n √ an b) при xn = an npq с an → ∞, √ → 0 n o n x2 {Sn > np + xn } = exp − n (1 + o(1)) . 2npq (25) Сопоставить (24) и (25) и сравнить их с соответствующими результатами из § 6 гл. I. Глава V СТАЦИОНАРНЫЕ (В УЗКОМ СМЫСЛЕ) СЛУЧАЙНЫЕ ПОСЛЕДОВАТЕЛЬНОСТИ И ЭРГОДИЧЕСКАЯ ТЕОРИЯ § 1. Стационарные (в узком смысле) случайные последовательности. Сохраняющие меру преобразования . . . . . . . . . . . . . . . . . . . . . 597 § 2. Эргодичность и перемешивание . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 601 § 3. Эргодические теоремы . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 604 Теория стационарных случайных последовательностей в узком смысле может излагаться вне рамок теории вероятностей как теория однопараметрических групп сохраняющих меру преобразований измеримого пространства с мерой на нем; она близко соприкасается с общей теорией динамических систем и эргодической теорией. Математическая энциклопедия, т. 5, стлб. 210 [121] § 1. Стационарные (в узком смысле) случайные последовательности. Сохраняющие меру преобразования 1. Пусть (Ω, F , ) – – вероятностное пространство и ξ = (ξ1 , ξ2 , . . .) – – некоторая последовательность случайных величин, или случайная последовательность. Обозначим θk ξ последовательность (ξk+1 , ξk+2 , . . .). Определение 1. Случайная последовательность ξ называется стационарной (в узком смысле), если для любого k > 1 распределения вероятностей θk ξ и ξ совпадают: {(ξ1 , ξ2 , . . .) ∈ B} = {(ξk+1 , ξk+2 , . . .) ∈ B}, B ∈ B (R ∞). Простейшим примером такой последовательности ξ является последовательность ξ = (ξ1 , ξ2 , . . .), состоящая из независимых одинаково распределенных случайных величин. Отправляясь от такой последовательности, можно сконструировать широкий класс стационарных последовательностей η = (η1 , η2 , . . .), если взять произвольную борелевскую функцию g(x1 , . . . , xn) и положить ηk = g(ξk , ξk+1 , . . . , ξk+n). Если ξ = (ξ1 , ξ2 , . . .) – – последовательность независимых одинаково распределенных случайных величин с |ξ1 | < ∞ и ξ1 = m, то, согласно усиленному закону больших чисел, с вероятностью единица ξ1 + . . . + ξn → m, n n → ∞. В 1931 г. Биркгоф получил замечательное обобщение этого результата, сформулировав его как теорему механики, относящуюся к поведению «относительных времен пребывания» динамических систем, описываемых дифференциальными уравнениями, допускающими интегральный инвариант («консервативные системы»). Вскоре (1932 г.) А. Я. Хинчин показал, что на самом деле теорема Биркгофа допускает обобщение на более общий случай «стационарных движений многомерного пространства в себе самом, оставляющих меру множества неизменной». 598 ГЛ. V. СТАЦИОНАРНЫЕ СЛУЧАЙНЫЕ ПОСЛЕДОВАТЕЛЬНОСТИ Наше последующее изложение результатов Биркгофа и Хинчина будет вестись одновременно как в рамках теории «динамических систем», так и в рамках теории «стационарных в узком смысле случайных последовательностей». При этом основной акцент будет делаться на «эргодические» результаты этих теорий. 2. Пусть (Ω, F , ) – – некоторое (полное) вероятностное пространство. Определение 2. Отображение T пространства Ω в себя называется измеримым, если для всякого A ∈ F T −1 A = {ω : T ω ∈ A} ∈ F . Определение 3. Измеримое отображение T называется сохраняющим меру преобразованием (морфизмом), если для всякого A ∈ F (T −1 A) = (A). Пусть T – – сохраняющее меру преобразование, T n – – его n-я степень и ξ1 = ξ1 (ω) – – некоторая случайная величина. Положим ξn (ω) = ξ1 (T n−1 ω), n > 2, и рассмотрим последовательность ξ = (ξ1 , ξ2 , . . .). Мы утверждаем, что эта последовательность является стационарной. В самом деле, пусть A = {ω : ξ ∈ B}, A1 = {ω : θ1 ξ ∈ B}, где B ∈ B (R ∞). Тогда ω ∈ A1 в том и только том случае, когда T ω ∈ A, т. е. A1 = T −1 A. Но (T −1 A) = (A), и поэтому (A1) = (A). Аналогичным образом (Ak) = (A) для любого Ak = {ω : θk ξ ∈ B}, k > 2. Итак, введение сохраняющего меру преобразования дает возможность построения стационарных (в узком смысле) случайных последовательностей. В определенном смысле верен и обратный результат: для каждой стационарной последовательности ξ, рассматриваемой на (Ω, F , ), можно h Fh , h ), случайную величину указать новое вероятностное пространство (Ω, ξ̃1 (ω̃) и сохраняющее меру преобразование Th такие, что распределение случайной последовательности ξ̃ = {ξ̃1 (ω̃), ξ̃1 (Th ω̃), . . . } совпадает с распределением последовательности ξ = {ξ1 (ω), ξ2 (ω), . . . }. h «координатное» пространство Действительно, возьмем в качестве Ω ∞ ∞ h h R и положим F = B (R ), = Pξ , где Pξ (B) = {ω : ξ ∈ B}, B ∈ B (R ∞). h определим по формуле Th (x1 , x2 , . . .) = Преобразование Th , действующее в Ω, = (x2 , x3 , . . .). Положим также для ω̃ = (x1 , x2 , . . .) ξ̃1 (ω̃) = x1 , ξ̃n (ω̃) = ξ̃1 (Th n−1 ω̃), n > 2. Пусть теперь A = {ω̃ : (x1 , . . . , xk) ∈ B}, B ∈ B (R k) и Th −1 A = {ω̃ : (x2 , . . . . . . , xk+1) ∈ B}. Тогда в силу стационарности h (A) = {ω : (ξ1 , . . . , ξk) ∈ B} = {ω : (ξ2 , . . . , ξk+1) ∈ B} = (Th −1 A), § 1. СОХРАНЯЮЩИЕ МЕРУ ПРЕОБРАЗОВАНИЯ 599 т. е. Th – – сохраняющее меру преобразование. Поскольку h {ω̃ : (ξ̃1 , . . . , ξ̃k) ∈ ∈ B} = {ω : (ξ1 , . . . , ξk) ∈ B} для любого k, то отсюда следует, что распределения ξ и ξ̃ совпадают. Приведем примеры сохраняющих меру преобразований. Пример 1. Пусть Ω = {ω1 , . . . , ωn } – – множество, состоящее из конечного числа точек, n > 2, F – – все его подмножества, T ωi = ωi+1 , 1 6 i 6 n − 1, и T ωn = ω1 . Если (ωi) = 1/n, то T – – сохраняющее меру преобразование. Пример 2. Если Ω = [0, 1), F = B ([0, 1)), – – мера Лебега, λ ∈ [0, 1), то Tx = (x + λ) mod 1 является сохраняющим меру преобразованием. Остановимся на физических предпосылках, приводящих к изучению преобразований, сохраняющих меру. Будем представлять себе Ω как фазовое пространство состояний ω некоторой системы, эволюционирующей (в дискретном времени) в соответствии с заданным законом движения. Тогда, если ω есть состояние в момент n = 1, то T n ω, где T – – оператор сдвига (индуцируемый данным законом движения), есть то состояние, в которое перейдет система через n шагов. Далее, если A – – какое-то множество состояний ω, то T −1 A = = {ω : T ω ∈ A} есть по своему определению множество тех «начальных» состояний ω, которые через один шаг окажутся в множестве A. Поэтому, если интерпретировать Ω как «несжимаемую жидкость», то условие (T −1 A) = (A) можно рассматривать как вполне естественное условие сохранения «объема». (Для классических консервативных гамильтоновых систем известная теорема Лиувилля утверждает, что соответствующее преобразование T является преобразованием, сохраняющим меру Лебега.) 3. Одним из первых результатов относительно преобразований, сохраняющих меру, была следующая теорема Пуанкаре (1912 г.) о «возвратности». Теорема. Пусть (Ω, F , ) – – некоторое вероятностное пространство, T – – преобразование, сохраняющее меру, и A ∈ F . Тогда T n ω ∈ A для бесконечно многих n > 1 для почти каждой точки ω ∈ A. Доказательство. Обозначим C = {ω ∈ A : T n ω ∈ / A для всех n > 1}. Поскольку C ∩ T −n C = ∅ для любого n > 1, то T −m C ∩ T −(m+n) C = T −m (C ∩ ∩ T −n C) = ∅. Таким образом, последовательность {T −n C} состоит из непересекающихся множеств, -мера которых одна и та же. Поэтому ∞ ∞ P P (C) = (T −n C) 6 (Ω) = 1 и, следовательно, (C) = 0. Таким n=1 n=1 образом, для почти каждой точки ω ∈ A, по крайней мере для одного n > 1, T n ω ∈ A. Выведем отсюда, что тогда и для бесконечно многих n > 1 T n ω ∈ A. Применим предшествующий результат к преобразованиям T k , k > 1. Тогда для каждой точки ω ∈ A \ N, где N – – множество нулевой вероятно- 600 ГЛ. V. СТАЦИОНАРНЫЕ СЛУЧАЙНЫЕ ПОСЛЕДОВАТЕЛЬНОСТИ сти, являющееся объединением соответствующих множеств, отвечающих разным k, найдется такое nk , что (T k) nk ω ∈ A. Отсюда, разумеется, следует, что T n ω ∈ A для бесконечно многих n. Следствие. Пусть ξ (ω) > 0. Тогда на множестве {ω : ξ (ω) > 0} ∞ X k=0 ξ (T k ω) = ∞ ( -п. н.). n o 1 В самом деле, пусть An = ω : ξ (ω) > . Тогда, согласно теореме, на n n P множестве An ξ (T k ω) = ∞ ( -п. н.), и требуемый результат следует, k=0 если положить n → ∞. Замечание. Теорема сохраняет свою силу, если вместо вероятностной меры рассмотреть любую конечную меру µ, µ(Ω) < ∞. 4. Задачи. 1. Пусть T – – сохраняющее меру преобразование и ξ = ξ (ω) – – случайная величина такая, что существует математическое ожидание ξ (ω). Показать, что ξ (ω) = ξ (T ω). 2. Показать, что в примерах 1 и 2 преобразования T являются преобразованиями, сохраняющими меру. 3. Пусть Ω = [0, 1), F = B ([0, 1)) и – – некоторая мера с непрерывной функцией распределения. Показать, что преобразования Tx = λx, 0 < λ < 1, и Tx = x 2 не являются преобразованиями, сохраняющими меру. 4. Пусть Ω – – множество всех последовательностей ω = (. . . , ω−1 , ω0 , ω1 , . . .) действительных чисел, F – – σ-алгебра, порожденная измеримыми цилиндрами {ω : (ωk , . . . , ωk+n−1) ∈ Bn }, где n = 1, 2, . . . , k = 0, ±1, ±2, . . . и множество Bn ∈ B (R n). Пусть – – вероятностная мера на (Ω, F) и двустороннее преобразование T определено формулой T(. . . , ω−1 , ω0 , ω1 , . . .) = (. . . , ω0 , ω1 , ω2 , . . .). Показать, что T является сохраняющим меру преобразованием в том и только том случае, когда {ω : (ω0 , . . . , ωn−1) ∈ Bn } = {ω : (ωk , . . . , ωk+n−1) ∈ Bn } для всех n = 1, 2, . . . , k = 0, ±1, ±2, . . . и Bn ∈ B (R n). 5. Пусть ξ0 , ξ1 , . . . – – некоторая стационарная последовательность случайных элементов со значениями в борелевском пространстве S (см. определение 9 в § 7 гл. II). Показать, что можно построить (быть может, на расширении исходного вероятностного пространства) случайные элементы ξ−1 , ξ−2 , . . . со значениями в S такие, что двусторонняя последовательность . . . , ξ−1 , ξ0 , ξ1 , . . . будет стационарной. § 2. ЭРГОДИЧНОСТЬ И ПЕРЕМЕШИВАНИЕ 601 6. Пусть T – – измеримое преобразование на (Ω, F , ) и E есть πсистема подмножеств Ω, порождающая F (π (E ) = F). Доказать, что если равенство (T −1 A) = (A) верно для A ∈ E , то оно верно и для A ∈ F (= π (E )). 7. Пусть T – – сохраняющее меру преобразование на (Ω, F , ) и G – – под-σ-алгебра F . Показать, что для каждого A ∈ F (A | G ) (T ω) = (T −1 A | T −1 G ) (ω) ( -п. н.). (A | ξn) (T ω) = (T −1 A | ξn+1) (ω) ( -п. н.). (1) В частности, пусть Ω = R ∞ – – пространство числовых последовательностей ω = (ω0 , ω1 , . . .) и ξk (ω) = ωk . Пусть T – – преобразование сдвига: T(ω0 , ω1 , . . .) = (ω1 , ω2 , . . .) (иначе говоря, если ξk (ω) = ωk , то ξk (T ω) = ωk+1). Тогда равенство (1) приобретает вид 8. Пусть T – – некоторое измеримое преобразование на (Ω, F) и P – – множество всех вероятностных мер , относительно которых T является сохраняющим -меру преобразованием. Показать, что: (a) множество P выпукло; (b) T является эргодическим преобразованием относительно меры в том и только том случае, когда есть крайняя точка множества P (т. е. не может быть представлена в виде = λ1 1 + λ2 2 с λ1 > 0, λ2 > 0, λ1 + λ2 = 1, 1 6= 2 и 1 , 2 ∈ P). § 2. Эргодичность и перемешивание 1. На протяжении всего данного параграфа будем через T обозначать сохраняющее меру преобразование, действующее на вероятностном пространстве (Ω, F , ). Определение 1. Множество A ∈ F называется инвариантным, если T −1 A = A. Множество A ∈ F называется почти инвариантным, если A и T −1 A отличаются на множество меры нуль, т. е. (A △ T −1 A) = 0. Нетрудно проверить, что класс инвариантных (почти инвариантных) множеств I (соответственно I ∗) образует σ-алгебру. Определение 2. Сохраняющее меру преобразование T называется эргодическим (или метрически транзитивным), если каждое инвариантное множество A имеет меру нуль или единица. Определение 3. Случайная величина η = η (ω) называется инвариантной (почти инвариантной), если η (ω) = η (T ω) для всех ω ∈ Ω (для почти всех ω ∈ Ω). Следующая лемма устанавливает связь между инвариантными и почти инвариантными множествами. 602 ГЛ. V. СТАЦИОНАРНЫЕ СЛУЧАЙНЫЕ ПОСЛЕДОВАТЕЛЬНОСТИ Лемма 1. Если A является почти инвариантным множеством, то найдется такое инвариантное множество B, что (A △ B) = 0. Доказательство. Пусть B = lim T −n A. Тогда T −1 B = lim T −(n+1) A = B, ∞ S т. е. B ∈ I . Нетрудно убедиться в том, что A △ B ⊆ (T −k A △ T −(k+1) A). k=0 Но (T −k A △ T −(k+1) A) = (A △ T −1 A) = 0. Поэтому (A △ B) = 0. Лемма 2. Преобразование T эргодично тогда и только тогда, когда каждое почти инвариантное множество имеет меру нуль или единица. Доказательство. Пусть A ∈ I ∗ . Тогда по лемме 1 найдется инвариантное множество B такое, что (A △ B) = 0. Но T эргодично и, значит, (B) = 0 или 1. Поэтому (A) = 0 или 1. Обратное очевидно, поскольку I ⊆ I ∗. Теорема 1. Пусть T – – сохраняющее меру преобразование. Следующие условия эквивалентны: (1) T эргодично; (2) каждая почти инвариантная случайная величина есть константа ( -п. н.); (3) каждая инвариантная случайная величина есть константа ( -п. н.). Доказательство. (1) ⇒ (2). Пусть T эргодично и ξ почти инвариантна, т. е. ( -п. н.) ξ (ω) = ξ (T ω). Тогда для любого c ∈ R множество Ac = {ω : ξ (ω) 6 c} ∈ I ∗ и по лемме 2 (Ac) = 0 или 1. Пусть C = = sup{c : (Ac) = 0}. Поскольку Ac ↑ Ω при c ↑ ∞ и Ac ↓ ∅ при c ↓ −∞, то |C| < ∞. Тогда ! ∞ n o [ 1 =0 {ω : ξ (ω) < C} = ξ (ω) 6 C − n=1 n и аналогично {ω : ξ (ω) > C} = 0. Тем самым {ω : ξ (ω) = C} = 1. (2) ⇒ (3). Очевидно. (3) ⇒ (1). Пусть A ∈ I , тогда IA – – инвариантная случайная величина и, значит, ( -п. н.) IA = 0 или IA = 1, откуда (A) = 0 или 1. Замечание. Утверждение теоремы остается в силе и в том случае, когда рассматриваемые в ней случайные величины ограничены. В качестве иллюстрации применения этой теоремы pacсмотрим такой Пример. Пусть Ω = [0, 1), F = B ([0, 1)), – – мера Лебега и T ω = = (ω + λ) mod 1. Покажем, что T эргодично в том и только том случае, когда λ иррационально. Пусть ξ = ξ (ω) – – инвариантная случайная величина с ξ 2 (ω) < ∞. Из∞ P вестно, что ряд Фурье cn e 2πinω функции ξ (ω) с ξ 2 (ω) < ∞ сходится в n=−∞ § 2. ЭРГОДИЧНОСТЬ И ПЕРЕМЕШИВАНИЕ 603 P среднеквадратическом смысле, |cn |2 < ∞. Поскольку T – – сохраняющее меру преобразование (пример 2 § 1), то (задача 1 § 1) в cилу предполагаемой инвариантности случайной величины ξ = ξ (ω) находим, что cn = ξ (ω)e −2πinω = ξ (T ω)e −2πinT ω = e −2πinλ ξ (T ω)e −2πinω = = e −2πinλ ξ (ω)e −2πinω = cn e −2πinλ . Поэтому cn (1 − e −2πinλ) = 0. По предположению λ иррационально и, значит, для всех n 6= 1 e −2πinλ 6= 1. Поэтому cn = 0, n 6= 1, ξ (ω) = c0 ( -п. н.) и по теореме 1 преобразование T эргодично. С другой стороны, пусть λ рационально, т. е. λ = k/m, где k и m – – целые. Рассмотрим множество A= 2m−2 [ k=0 n ω: k k+1 . 6ω< 2m 2m o Ясно, что это множество является инвариантным, но (A) = 1/2. Следовательно, T не эргодично. 2. Определение 4. Сохраняющее меру преобразование T называется перемешиванием (обладающим свойством перемешивания), если для любых A, B ∈ F lim n→∞ (A ∩ T −n B) = (A) (B). (1) Следующая теорема устанавливает связь между эргодичностью и свойством перемешивания. Теорема 2. Всякое преобразование T , обладающее свойством перемешивания, является эргодическим. Доказательство. Пусть A ∈ F , B ∈ I . Тогда B = T −n B, n > 1, и, значит, (A ∩ T −n B) = (A ∩ B) для всех n > 1. В силу (1) (A ∩ B) = (A) (B). Поэтому при A = B находим, что (B) = 2 (B), и, следовательно, (B) = 0 или 1. 3. Задачи. 1. Показать, что случайная величина ξ является инвариантной тогда и только тогда, когда она I -измерима. 2. Показать, что множество A является почти инвариантным тогда и только тогда, когда (T −1 A \ A) = 0. 3. Показать, что преобразование T есть перемешивание в том и только том случае, когда для любых двух случайных величин ξ и η с ξ 2 < ∞, η2 < ∞ ξ (T n ω)η (ω) → ξ (ω) η (ω), n → ∞. 604 ГЛ. V. СТАЦИОНАРНЫЕ СЛУЧАЙНЫЕ ПОСЛЕДОВАТЕЛЬНОСТИ 4. Привести пример сохраняющего меру эргодического преобразования, которое не является перемешиванием. 5. Пусть T – – сохраняющее меру преобразование на (Ω, F , ). Пусть A – – алгебра подмножеств Ω и σ (A ) = F . Предположим, что определение 4 предполагает выполнение свойства (A ∩ T −n B) = (A) lim n→∞ (B) лишь для множеств A и B из A . Показать, что тогда это свойство будет выполнено и для всех A и B из F = σ (A ) (и, следовательно, преобразование T есть перемешивание). Показать, что утверждение остается справедливым, если A является π-системой такой, что π (A ) = F . 6. Пусть A является почти инвариантным множеством. Показать, что ω ∈ A ( -п. н.), если и только если T n ω ∈ A для всех n = 1, 2, . . . (Ср. с теоремой в § 1.) 7. Привести пример сохраняющих меру преобразований T на (Ω, F , ), для которых: (a) из того, что A ∈ F , вовсе не следует, что TA ∈ F ; (b) из того, что A ∈ F и TA ∈ F , вовсе не следует, что (A) = (TA). § 3. Эргодические теоремы 1. Теорема 1 (Биркгоф и Хинчин). Пусть T – – сохраняющее меру преобразование и ξ = ξ (ω) – случайная величина с |ξ| < ∞. Тогда – lim n n−1 1 X ξ (T k ω) = n (ξ|I ) ( -п. н.). (1) k=0 Если к тому же T эргодично, то lim n n−1 1 X ξ (T k ω) = ξ n ( -п. н.). (2) k=0 Приводимое ниже доказательство существенно опирается на следующее предложение, простое доказательство которого было найдено А. Гарсиа (1965 г.). Лемма (максимальная эргодическая теорема). Пусть T – – сохраняющее меру преобразование, ξ – – случайная величина с |ξ| < ∞ и Sk (ω) = ξ (ω) + ξ (T ω) + . . . + ξ (T k−1 ω), Mk (ω) = max{0, S1 (ω), . . . , Sk (ω)}. § 3. ЭРГОДИЧЕСКИЕ ТЕОРЕМЫ 605 Тогда для любого n > 1 [ξ (ω)I{Mn >0} (ω)] > 0. Доказательство. Если n > k, то Mn (T ω) > Sk (T ω) и, значит, ξ (ω) + + Mn (T ω) > ξ (ω) + Sk (T ω) = Sk+1 (ω). Так как очевидно, что ξ (ω) > S1 (ω) − − Mn (T ω), то ξ (ω) > max{S1 (ω), . . . , Sn (ω)} − Mn (T ω). Значит, поскольку {Mn (ω) > 0} = {max(S1 (ω), . . . , Sn (ω)) > 0}, то [ξ (ω)I{Mn >0} (ω)] > [(max(S1 (ω), . . . , Sn (ω)) − Mn (T ω))I{Mn >0} (ω)] > > {(Mn (ω) − Mn (T ω))I{Mn (ω)>0} } > {Mn (ω) − Mn (T ω)} = 0, где мы воспользовались тем, что если T – – сохраняющее меру преобразование, то Mn (ω) = Mn (T ω) (задача 1 из § 1). Доказательство теоремы. Будем предполагать (ξ|I ) = 0 (в противном случае от ξ надо перейти к ξ − (ξ|I )). Sn Sn Пусть η = lim и η = lim . Для доказательства достаточно устаноn n вить, что ( -п. н.) 0 6 η 6 η 6 0. Рассмотрим случайную величину η = η(ω). Поскольку η (ω) = η (T ω), то η инвариантна и, следовательно, для каждого ε > 0 множество Aε = {η (ω) > ε} также является инвариантным. Введем новую случайную величину ξ ∗ (ω) = (ξ (ω) − ε)IAε (ω), и пусть Sk∗ (ω) = ξ ∗ (ω) + . . . + ξ ∗ (T k−1 ω), M∗k (ω) = max(0, S1∗ , . . . , Sk∗). Тогда, согласно лемме, для любого n > 1 [ξ ∗ I{M∗n >0} ] > 0. Но при n → ∞ {M∗n > 0} = n max 16k6n Sk∗ o n o Sk∗ ∗ > 0 ↑ sup Sk > 0 = sup >0 = k>1 k>1 k S = sup k > ε ∩ Aε = Aε , k>1 где последнее равенство следует из того, что sup k>1 k Sk > η, а Aε = {ω : η > ε}. k 606 ГЛ. V. СТАЦИОНАРНЫЕ СЛУЧАЙНЫЕ ПОСЛЕДОВАТЕЛЬНОСТИ Далее, сти |ξ ∗ | 6 |ξ| + ε. Поэтому по теореме о мажорируемой сходимо0 6 [ξ ∗ I{M∗n >0} ] → [ξ ∗ IAε ] . Итак, 0 6 [ξ ∗ IAε ] = [(ξ − ε)IAε ] = [ξIAε ] − ε (Aε) = = [ (ξ|I )IAε ] − ε (Aε) = −ε (Aε), откуда (Aε) = 0 и, значит, {η 6 0} = 1. Аналогично, рассматривая вместо ξ (ω) величину −ξ (ω), найдем, что S Sn n lim − = − lim = −η n n и {−η 6 0} = 1, т. е. {η > 0} = 1. Тем самым 0 6 η 6 η 6 0 ( -п. н.), что и доказывает первое утверждение теоремы. Для доказательства второго утверждения достаточно заметить, что поскольку (ξ | I ) – – инвариантная случайная величина, то в эргодическом случае (ξ | I ) = ξ ( -п. н.). Следствие. Сохраняющее меру преобразование T эргодично в том и только том случае, когда для любых A, B ∈ F lim n n−1 1 X n k=0 (A ∩ T −k B) = (A) (B). (3) Для доказательства эргодичности T положим в (3) A = B ∈ I . Тогда A ∩ T −k B = B и, значит, (B) = 2 (B), т. е. (B) = 0 или 1. Обратно, пусть T эргодично. Тогда, применяя (2) к случайной величине ξ = IB (ω), где B ∈ F , найдем, что ( -п. н.) lim n n−1 1 X IT −k B (ω) = n (B), k=0 откуда, интегрируя обе части по множеству A ∈ F и используя теорему о мажорируемой сходимости, получаем требуемое соотношение (3). 2. Покажем теперь, что в условиях теоремы 1 в (1) и (2) имеет место сходимость не только почти наверное, но и в среднем. (Этот результат будет использован далее в доказательстве теоремы 3.) Теорема 2. Пусть T – – сохраняющее меру преобразование и ξ = ξ (ω) – – случайная величина с |ξ| < ∞. Тогда n−1 1 X ξ (T k ω) − n k=0 (ξ | I ) → 0, n → ∞. (4) § 3. ЭРГОДИЧЕСКИЕ ТЕОРЕМЫ 607 Если к тому же T эргодично, то n−1 1 X ξ (T k ω) − ξ → 0, n k=0 (5) n → ∞. Доказательство. Для всякого ε > 0 можно найти такую ограниченную случайную величину η (|η (ω)| 6 M), что |ξ − η| 6 ε. Тогда n−1 1 X ξ (T k ω) − n k=0 + (ξ | I ) 6 1 n n−1 X k=0 n−1 1 X (ξ (T k ω) − η (T k ω)) + n k=0 (η (T k ω) − (η | I )) + | (ξ | I ) − (η | I )|. (6) Поскольку |η| 6 M, то по теореме о мажорируемой сходимости и в силу (1) находим, что второй член в правой части (6) стремится к нулю при n → ∞. Что же касается первого и третьего членов, то каждый из них меньше или равен ε. Поэтому для достаточно больших n левая часть в (6) меньше 2ε, что и доказывает (4). Наконец, если T эргодично, то (5) следует из (4) и того замечания, что (ξ | I ) = ξ ( -п. н.). 3. Перейдем теперь к вопросу о справедливости эргодической теоремы для стационарных (в узком смысле) случайных последовательностей ξ = (ξ1 , ξ2 , . . .), заданных на некотором вероятностном пространстве (Ω, F , ). Вообще говоря, на (Ω, F , ) может и не существовать сохраняющее меру преобразование, так что непосредственное применение теоремы 1 невозможно. Однако в § 1 отмечалось, что можно построить h Fh , h ), случайную после(координатное) вероятностное пространство (Ω, ˜ ˜ довательность ξ = (ξ̃1 , ξ2 , . . .) и сохраняющее меру преобразование Th такие, что ξ̃n (ω̃) = ξ˜ 1 (Th −1 ω̃) и по распределению ξ и ξ̃ совпадают. Поскольку такие свойства, как сходимость почти наверное и в среднем, определяются лишь n 1 P ξ̃1 (Th k−1 ω̃) ( -п. н. распределениями вероятностей, то из сходимости n k=1 и в среднем) к некоторой случайной величине η̃ следует, что n 1 P ξ (ω) n k=1 k также сходятся ( -п. н. и в среднем) к некоторой случайной величине η таd кой, что η = η̃. Из теоремы 1 следует, что если h |ξ̃1 | < ∞, то η̃ = h (ξ˜ 1 |Ih), где Ih – – совокупность инвариантных множеств ( h – – усреднение по мере h ). Опишем структуру величины η. Определение 1. Множество A ∈ F будем называть инвариантным по отношению к последовательности ξ, если найдется такое множество 608 ГЛ. V. СТАЦИОНАРНЫЕ СЛУЧАЙНЫЕ ПОСЛЕДОВАТЕЛЬНОСТИ B ∈ B (R ∞), что для любого n > 1 A = {ω : (ξn , ξn+1 , . . .) ∈ B}. Совокупность таких инвариантных множеств образует σ-алгебру, которую обозначим Iξ . Определение 2. Стационарная последовательность ξ называется эргодической, если мера любого инвариантного множества принимает лишь два значения 0 или 1. Покажем, что случайная величина η, являющаяся пределом ( -п. н. и в n 1 P среднем) величин ξk (ω), n → ∞, может быть взята равной (ξ1 | Iξ). n k=1 С этой целью заметим прежде всего, что, конечно, можно полагать η (ω) = lim n n 1 X ξk (ω). n (7) k=1 Из определения lim следует, что для определенной таким образом величины η (ω) множества {ω : η (ω) < y}, y ∈ R, являются инвариантными и, значит, η P 1 n−1 ξk − η → 0, Iξ -измерима. Далее, пусть A ∈ Iξ . Тогда, поскольку n то для η, определенной формулой (7), n 1 X ] ξk d n k=1 A k=1 ] → ηd . (8) A Пусть B ∈ B (R ∞) таково, что A = {ω : (ξk , ξk+1 , . . .) ∈ B} для любого k > 1. Тогда в силу стационарности ξ ] ] ] ] ξ1 d = ξ1 d . ξk d = ξk d = A {ω : (ξk ,ξk+1 ,...)∈B} {ω : (ξ1 ,ξ2 ,...)∈B} A Поэтому из (8) следует, что для любого A ∈ Iξ выполнено равенство ] ] ξ1 d = η d , A A означающее (см. формулу (1) в § 7 гл. II), что (Iξ -измеримая) величина η = (ξ1 | Iξ). При этом (ξ1 | Iξ) = ξ1 , если последовательность ξ является эргодической. Итак, доказана Теорема 3 (эргодическая теорема). Пусть ξ = (ξ1 , ξ2 , . . .) – – стационарная (в узком смысле) случайная последовательность с |ξ1 | < ∞. § 3. ЭРГОДИЧЕСКИЕ ТЕОРЕМЫ 609 Тогда ( -п. н. и в среднем) n 1 X lim ξk (ω) = n k=1 (ξ1 | Iξ). Если к тому же ξ – – эргодическая последовательность, то ( -п. н. и в среднем) n 1 X ξk (ω) = ξ1 . lim n k=1 4. Задачи. 1. Пусть ξ = (ξ1 , ξ2 , . . .) – – гауссовская стационарная последовательность с ξn = 0 и ковариационной функцией R(n) = ξk+n ξk . Показать, что условие R(n) → 0 является достаточным для того, чтобы сохраняющее меру преобразование, соответствующее последовательности ξ, было перемешиванием (и, следовательно, являлось эргодическим). 2. Показать, что для всякой последовательности ξ = (ξ1 , ξ2 , . . .), состоящей из независимых одинаково распределенных случайных величин, соответствующее сохраняющее меру преобразование является перемешиванием. 3. Показать, что стационарная последовательность ξ эргодична в том и только том случае, когда для любого B ∈ B (R k), k = 1, 2, . . . , n 1 X IB (ξi , . . . , ξi+k−1) → {(ξ1 , . . . , ξk) ∈ B} n ( -п. н.). i=1 4. Пусть на (Ω, F) заданы две вероятностные меры и , относительно которых сохраняющее меру преобразование T является эргодическим. Доказать, что тогда или = , или ⊥ . 5. Пусть T – – сохраняющее меру преобразование на (Ω, F , ) и A – – алгебра подмножеств Ω такая, что σ (A ) = F . Пусть (n) IA = n−1 1 X IA (T k ω). n k=0 Доказать, что преобразование T эргодично в том и только том случае, когда выполнено хотя бы одно из следующих условий: (n) (a) IA − → (A) для любого A ∈ A ; P 1 n−1 (A ∩ T −k B) = (A) (B) для всех A, B ∈ A ; (b) lim n (c) (n) IA k=0 − → (A) для любого A ∈ F . 610 ГЛ. V. СТАЦИОНАРНЫЕ СЛУЧАЙНЫЕ ПОСЛЕДОВАТЕЛЬНОСТИ 6. Пусть T – – сохраняющее меру преобразование на (Ω, F , ). Доказать, что это преобразование эргодично (относительно меры ) тогда и только тогда, когда на (Ω, F) не существует меры 6= такой, что ≪ и преобразование T относительно этой меры является сохраняющим меру преобразованием. 7. (Бернуллиевские сдвиги.) Пусть S – – некоторое конечное множество (скажем, S = {1, 2, . . . , N}) и Ω = S ∞ – – пространство последовательностей ω = (ω0 , ω1 , . . .) с ωi ∈ S. Будем полагать ξk (ω) = ωk и определим преобразование сдвига T(ω0 , ω1 , . . .) = (ω1 , ω2 , . . .), или, в терминах ξ0 , ξ1 , . . . : если ξk (ω) = ωk , то ξk (T ω) = ωk+1 . Предположим, что на элементах i мноN P жества {1, 2, . . . , N} заданы неотрицательные числа pi такие, что pi = 1 i=1 (т. е. набор (p1 , . . . , pN ) образует вероятностное распределение). С помощью этого распределения можно задать меру на (S ∞ , B (S ∞)) (см. § 3 гл. II) такую, что {ω : (ω1 , . . . , ωk) = (u1 , . . . , uk)} = pu1 . . . puk . Иначе говоря, вероятностная мера вводится по принципу, обеспечивающему независимость величин ξ0 (ω), ξ1 (ω), . . . Относительно так построенной меры введенное преобразование сдвига T принято называть бернуллиевским сдвигом или преобразованием Бернулли. Показать, что преобразование Бернулли обладает свойством перемешивания. 8. Пусть T – – сохраняющее меру преобразование на (Ω, F , ). Будем обозначать T −n F = {T −n A : A ∈ F } и говорить, что σ-алгебра ∞ \ T −n F F−∞ = n=1 является тривиальной ( -тривиальной), если каждое множество из F−∞ имеет меру 0 или 1 (такие преобразования называют преобразованиями Колмогорова). Доказать, что преобразования Колмогорова обладают свойством эргодичности и, более того, свойством перемешивания. 9. Пусть 1 6 p < ∞ и T – – сохраняющее меру преобразование на вероятностном пространстве (Ω, F , ). Пусть случайная величина ξ (ω) ∈ ∈ L p (Ω, F , ). Доказать справедливость следующей эргодической теоремы (фон Нейман) в L p (Ω, F , ): существует случайная величина η (ω) такая, что n−1 1 X ξ (T k ω) − η (ω) n k=0 p → 0, n → ∞. § 3. ЭРГОДИЧЕСКИЕ ТЕОРЕМЫ 611 10. Теорема Бореля о нормальности утверждает (пример 2 в § 3 гл. IV), что доля единиц и нулей в двоичном разложении чисел ω из [0, 1) сходится почти наверное (относительно меры Лебега) к 1/2. Доказать этот результат, рассматривая преобразование T : [0, 1) → [0, 1), определенное формулой T(ω) = 2ω (mod 1), и применяя эргодическую теорему 1. 11. Как и в задаче 10, пусть ω ∈ [0, 1). Рассмотрим преобразование T : [0, 1) → [0, 1), определенное формулой ( 0, если ω = 0, T(ω) = n 1 o , если ω 6= 0, ω где {x} – – дробная часть числа x. Показать, что преобразование T сохраняет меру P = P(·) Гаусса на [0, 1), определяемую формулой 1 ] dx , A ∈ B ([0, 1)). P(A) = ln 2 A 1+x 12. Дать пример, показывающй, что теорема Пуанкаре о «возвратности» (п. 3 § 1) не верна, вообще говоря, в случае измеримых пространств с бесконечной мерой. Глава VI СТАЦИОНАРНЫЕ (В ШИРОКОМ СМЫСЛЕ) СЛУЧАЙНЫЕ ПОСЛЕДОВАТЕЛЬНОСТИ. L2 -ТЕОРИЯ § 1. Спектральное представление ковариационной функции . . . . . . . 613 § 2. Ортогональные стохастические меры и стохастические интегралы 623 § 3. Спектральное представление стационарных (в широком смысле) последовательностей . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 629 § 4. Статистическое оценивание ковариационной функции и спектральной плотности . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 641 § 5. Разложение Вольда . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 648 § 6. Экстраполяция, интерполяция и фильтрация . . . . . . . . . . . . . . . . . 657 § 7. Фильтр Калмана– –Бьюси и его обобщения . . . . . . . . . . . . . . . . . . . 668 Центральное место в теории стационарных случайных процессов в широком смысле занимают спектральные представления, дающие основание рассматривать такие процессы как суперпозицию совокупности некоррелированных друг с другом гармонических колебаний различных частот со случайными амплитудами и фазами. . . Математическая энциклопедия, т. 5, стлб. 211– –212 [121] § 1. Спектральное представление ковариационной функции 1. Согласно определению, данному в предшествующей главе, случайная последовательность ξ = (ξ1 , ξ2 , . . .) называется стационарной в узком смысле, если для любого множества B ∈ B (R ∞) и любого n > 1 {(ξ1 , ξ2 , . . .) ∈ B} = {(ξn+1 , ξn+2 , . . .) ∈ B}. ξ12 < ∞, то Отсюда, в частности, вытекает, что если ξn не зависит от n: ξn = ξ1 , а ковариация от m: (1) (2) (ξn+m , ξn) = (ξn+m − ξn+m) (ξn − ξn) зависит лишь (ξn+m , ξn) = (ξ1+m , ξ1). (3) В настоящей главе будут исследоваться так называемые стационарные в широком смысле последовательности (с конечным вторым моментом), для которых условие (1) заменяется условиями (2) и (3). Рассматриваемые случайные величины ξn будут предполагаться определенными для n ∈ Z = {0, ±1, . . . } и к тому же комплекснозначными. Последнее предположение не только не усложняет теорию, но и наоборот – – делает ее более изящной. При этом, разумеется, результаты для действительных случайных величин легко могут быть получены в качестве частного случая из соответствующих результатов для комплексных величин. Пусть H 2 = H 2 (Ω, F , ) – – пространство (комплекснозначных) случайных величин ξ = α + iβ, α, β ∈ R, с |ξ|2 < ∞, где |ξ|2 = α2 + β 2 . Если ξ, η ∈ H 2 , то положим (ξ, η) = ξ η, (4) где η = α − iβ – – комплексно-сопряженная величина к η = α + iβ, и kξk = (ξ, ξ) 1/2 . (5) 614 ГЛ. VI. СТАЦИОНАРНЫЕ СЛУЧАЙНЫЕ ПОСЛЕДОВАТЕЛЬНОСТИ Как и для действительных случайных величин, пространство H 2 (точнее, пространство классов эквивалентных случайных величин; ср. с §§ 10 и 11 из гл. II) со скалярным произведением (ξ, η) и нормой kξk является полным. В соответствии с терминологией функционального анализа пространство H 2 называется унитарным (иначе – – комплексным) гильбертовым пространством (случайных величин, рассматриваемых на вероятностном пространстве (Ω, F , )). Если ξ, η ∈ H 2 , то их ковариацией назовем величину (ξ, η) = (ξ − ξ) (η − η). Из (4) и (6) следует, что если (6) ξ = η = 0, то (ξ, η) = (ξ, η). (7) Определение. Последовательность комплекснозначных случайных величин ξ = (ξn) n∈Z c |ξn |2 < ∞, n ∈ Z, называется стационарной (в широком смысле), если для всех n ∈ Z ξn = ξ0 , (ξn+k , ξk) = (ξn , ξ0), k ∈ Z. (8) Для простоты изложения в дальнейшем будем предполагать ξ0 = 0. Это предположение не умаляет общности, но в то же самое время дает возможность (согласно (7)), отождествляя ковариацию со скалярным произведением, более просто применять методы и результаты теории гильбертовых пространств. Обозначим (ξn , ξ0), R(n) = и (в предположении R(0) = |ξ0 |2 6= 0) ρ(n) = R(n) , R(0) n ∈ Z, n ∈ Z. (9) (10) Функцию R(n) будем называть ковариационной функцией, a ρ(n) – – корреляционной функцией (стационарной в широком смысле) последовательности ξ. Непосредственно из определения (9) следует, что ковариационная функция R(n) является неотрицательно определенной, т. е. для любых комплексных чисел a1 , . . . , am и любых t1 , . . . , tm ∈ Z, m > 1, m X i, j=1 ai a j R(ti − t j) > 0. (11) § 1. СПЕКТРАЛЬНОЕ ПРЕДСТАВЛЕНИЕ 615 В свою очередь отсюда (или непосредственно из (9)) нетрудно вывести (задача 1) следующие свойства ковариационной функции: R(0) > 0, |R(n)| 6 R(0), R(−n) = R(n), |R(n) − R(m)|2 6 2R(0) [R(0) − Re R(n − m)] . (12) 2. Приведем некоторые примеры стационарных последовательностей ξ = (ξn) n∈Z . (В дальнейшем слова «в широком смысле», а также указание на то, что n ∈ Z, часто будут опускаться.) Пример 1. Пусть ξn = ξ0 g(n), где ξ0 = 0, |ξ0 |2 = 1 и g = g(n) – – некоторая функция. Последовательность ξ = (ξn) будет стационарной в том и только том случае, когда функция g(k + n) g(k) зависит лишь от n. Отсюда нетрудно вывести, что найдется такое λ, что g(n) = g(0)e iλn . Таким образом, последовательность случайных величин ξn = ξ0 g(0)e iλn является стационарной с R(n) = |g(0)|2 e iλn . В частности, «случайная во времени константа» ξn ≡ ξ0 образует стационарную последовательность. Замечание. В связи с этим примером отметим, что поскольку e iλn = in(λ+2πk) =e , k = ±1, ±2, . . . , то (круговая) частота λ определяется лишь с точностью до произвольного слагаемого, кратного 2π. По традиции в дальнейшем будет считаться всюду, что λ ∈ [−π, π). Пример 2. Почти периодическая последовательность. Пусть ξn = N X zk e iλk n , k=1 n ∈ Z, (13) где z1 , . . . , zN – – ортогональные ( zi z j = 0, i 6= j) случайные величины с нулевыми средними и |zk |2 = σk2 > 0; −π 6 λk < π, k = 1, . . . , N; λi 6= λ j , i 6= j. Последовательность ξ = (ξn) является стационарной с R(n) = N X σk2 e iλk n . (14) k=1 В обобщение (13) предположим теперь, что ξn = ∞ X k=−∞ zk e iλk n , (15) 616 ГЛ. VI. СТАЦИОНАРНЫЕ СЛУЧАЙНЫЕ ПОСЛЕДОВАТЕЛЬНОСТИ где величины zk , k ∈ Z, обладают теми же свойствами, что и в (13). Если ∞ P предположить, что σk2 < ∞, то ряд в правой части формулы (15) k=−∞ сходится в среднем квадратическом и R(n) = ∞ X σk2 e iλk n . (16) k=−∞ Введем функцию F(λ) = X σk2 . (17) {k : λk 6λ} Тогда ковариационная функция (16) может быть записана в виде интеграла Лебега– –Стилтьеса π ] ] e iλn dF(λ) . (18) R(n) = e iλn dF(λ) = −π [−π,π) Стационарные последовательности (15) образованы как суммы «гармоник» e iλk n с «частототами» λk и случайными «амплитудами» zk «интенсивности» σk2 = |zk |2 . Таким образом, значение функции F(λ) дает исчерпывающую информацию о структуре «спектра» последовательности ξ, т. е. о величине интенсивностей, с которыми те или иные частоты входят в представление (15). Согласно (18), знание функции F(λ) полностью определяет также и структуру ковариационной функции R(n). С точностью до постоянного множителя (невырожденная) функция F(λ) является, очевидно, функцией распределения, причем в рассматриваемом примере эта функция кусочно-постоянна. Весьма примечательно, что ковариационная функция любой стационарной в широком смысле случайной последовательности может быть представлена (см. теорему в п. 3) в виде (18), где F(λ) – – некоторая (с точностью до нормировки) функция распределения, носитель которой сосредоточен на множестве [−π, π), т. е. F(λ) = 0 для λ < −π и F(λ) = F(π−) для λ > π. Результат об интегральном представлении ковариационной функции, сопоставленный с (15) и (16), наводит на мысль, что произвольная стационарная последовательность также допускает «интегральное» представление. Так оно на самом деле и есть, что будет показано в § 3 с помощью так называемых стохастических интегралов по ортогональным стохастическим мерам (§ 2). Пример 3. Белый шум. Пусть ε = (εn) – – последовательность ортонормированных случайных величин, εn = 0, εi ε j = δi j , где δi j – – символ § 1. СПЕКТРАЛЬНОЕ ПРЕДСТАВЛЕНИЕ 617 Кронекера. Понятно, что такая последовательность является стационарной и ( 1, n = 0, R(n) = 0, n 6= 0. Отметим, что эта функция R(n) может быть представлена в виде π ] R(n) = e iλn dF(λ), (19) −π где F(λ) = λ ] f(ν) dν, f(λ) = −π 1 , 2π −π 6 λ < π. (20) Сравнение «спектральных» функций (17) и (20) показывает, что если в примере 2 «спектр» был дискретным, то в настоящем примере он оказался абсолютно непрерывным с постоянной «спектральной» плотностью f(λ) ≡ 1/2π. В этом смысле можно сказать, что последовательность ε = (εn) «составлена из гармоник, интенсивность которых одна и та же». Именно это обстоятельство и послужило поводом называть последовательность ε = (εn) «белым шумом» по аналогии с («физическим») белым цветом, составленным из различных цветов одной и той же интенсивности. Пример 4. Последовательности скользящего среднего. Отправляясь от белого шума ε = (εn), введенного в примере 3, образуем новую последовательность ∞ X ξn = ak εn−k , (21) k=−∞ где ak – – комплексные числа такие, что k=−∞ Из (21) находим (ξn+m , ξm) = ∞ P (ξn , ξ0) = |ak |2 < ∞. ∞ X an+k ak , k=−∞ так что ξ = (ξk) является стационарной последовательностью, которую принято называть последовательностью, образованной с помощью (двустороннего) скользящего среднего из последовательности ε = (εk). В том частном случае, когда все ak с отрицательными индексами равны нулю и, значит, ∞ X ξn = ak εn−k , k=0 618 ГЛ. VI. СТАЦИОНАРНЫЕ СЛУЧАЙНЫЕ ПОСЛЕДОВАТЕЛЬНОСТИ последовательность ξ = (ξn) называют последовательностью одностороннего скользящего среднего. Если к тому же все ak = 0 при k > p, т. е. если ξn = a0 εn + a1 εn−1 + . . . + a p εn− p , (22) то ξ = (ξn) называется последовательностью скользящего среднего порядка p. Можно показать (задача 3), что для последовательности (22) ковариπ ] ационная функция R(n) имеет вид R(n) = e iλn f(λ) dλ, где спектральная −π плотность равна f(λ) = с 1 |P(e −iλ)|2 2π (23) P(z) = a0 + a1 z + . . . + a p z p . Пример 5. Авторегрессионная схема. Пусть снова ε = (εn) – – белый шум. Будем говорить, что случайная последовательность ξ = (ξn) подчиняется авторегрессионной схеме порядка q, если для n ∈ Z ξn + b1 ξn−1 + . . . + bq ξn−q = εn . (24) При каких условиях на коэффициенты b1 , . . . , bq можно утверждать, что уравнение (24) имеет стационарное решение? Чтобы ответить на этот вопрос, рассмотрим сначала случай q = 1: ξn = αξn−1 + εn , (25) где α = −b1 . Если |α| < 1, то нетрудно проверить, что стационарная последовательность ξ̃ = (ξ̃n) с ξ̃n = ∞ X α j εn− j (26) j=0 является решением уравнения (25). (Ряд в правой части (26) сходится в среднеквадратическом смысле.) Покажем теперь, что в классе стационарных последовательностей ξ = (ξn) (c конечным вторым моментом) это решение является единственным. В самом деле, из (25) последовательными итерациями находим, что ξn = αξn−1 + εn = α[αξn−2 + εn−1 ] + εn = . . . = αk ξn−k + k−1 X j=0 α j εn− j . § 1. СПЕКТРАЛЬНОЕ ПРЕДСТАВЛЕНИЕ 619 Отсюда следует, что #2 " k−1 X j 2 α εn− j = [αk ξn−k ] 2 = α2k ξn−k ξn − = α2k ξ02 → 0, j=0 k → ∞. Таким образом, при |α| < 1 стационарное решение уравнения (25) существует и представляется в виде одностороннего скользящего среднего (26). Аналогичный результат имеет место и в случае произвольного q > 1: если все нули полинома Q(z) = 1 + b1 z + . . . + bq z q (27) лежат вне единичного круга, то уравнение авторегрессии (24) имеет, и притом единственное, стационарное решение, представимое в виде одностороннего скользящего среднего (задача 2). При этом ковариационная функция R(n) представима (задача 3) в виде π ] R(n) = где e iλn dF(λ), F(λ) = −π λ ] f(ν) dν, f(λ) = 1 1 · . 2π |Q(e −iλ)|2 (29) В частном случае q = 1 из (25) легко находим, что |ξ0 |2 = (28) −π 1 , 1 − |α|2 R(n) = αn , 1 − |α|2 ξ0 = 0, n>0 (R(n) = R(−n) для n < 0). При этом f(λ) = 1 1 . · 2π |1 − αe −iλ |2 Пример 6. Этот пример иллюстрирует возникновение авторегрессионных схем при построении вероятностных моделей в гидрологии. Рассмотрим некоторый водный бассейн (например, Каспийское море) и постараемся построить вероятностную модель, описывающую отклонения уровня в этом бассейне от среднего значения, вызванные колебаниями в стоке и испарением с водной поверхности. Если за единицу измерения взять год и обозначить Hn «уровень» в бассейне в n-й год, то получим следующее уравнение баланса: Hn+1 = Hn − KS(Hn) + Σn+1 , (30) где через Σn+1 обозначена величина стока в (n + 1)-й год, S(H) – – площадь поверхности водного бассейна на уровне H, а K – – коэффициент испарения. 620 ГЛ. VI. СТАЦИОНАРНЫЕ СЛУЧАЙНЫЕ ПОСЛЕДОВАТЕЛЬНОСТИ Обозначим через ξn = Hn − H отклонение от среднего уровня H (который нaxoдитcя по результатам многолетних наблюдений) и предположим, что S(H) = S(H) + c(H − H). Тогда из уравнения баланса следует, что величины ξn подчиняются уравнениям (31) ξn+1 = αξn + εn+1 с α = 1 − cK , εn = Σn − KS(H). Случайные величины εn естественно считать имеющими нулевые средние и в первом приближении некоррелированными и одинаково распределенными. Тогда, как это было показано в примере 5, уравнение (31) (при |α| < 1) имеет единственное стационарное решение, которое следует считать решением, описывающим установившийся (с годами) режим колебаний уровня в рассматриваемом бассейне. В качестве тех практических выводов, которые можно сделать из (теоретической) модели (31), укажем на возможность построения прогноза отклонений уровня на следующий год по результатам наблюдений за настоящий и предшествующий годы. А именно, оказывается (см. далее пример 2 в § 6), что оптимальной (в среднеквадратическом смысле) линейной оценкой величины ξn+1 по значениям . . . , ξn−1 , ξn служит просто величина αξn . Пример 7. Смешанная модель авторегрессии и скользящего среднего. Если предположить, что в правой части уравнения (24) вместо εn стоит величина a0 εn + a1 εn−1 + . . . + a p εn− p , то получим так называемую смешанную модель авторегрессии и скользящего среднего порядка (p, q): ξn + b1 ξn−1 + . . . + bq ξn−q = a0 εn + a1 εn−1 + . . . + a p εn− p . (32) При тех же предположениях относительно нулей полинома Q(z), что и в примере 5, далее показывается (следствие 2 к теореме 3 § 3), что уравнение (32) имеет стационарное решение ξ = (ξn), для которого ковариационная π λ ] ] функция равна R(n) = e iλn dF(λ) с F(λ) = f(ν) dν, где −π −π f(λ) = 1 P(e −iλ) 2π Q(e −iλ) 2 . 3. Теорема (Герглотц). Пусть R(n) – – ковариационная функция стационарной (в широком смысле) случайной последовательности с нулевым средним. Тогда на ([−π, π), B ([−π, π))) найдется такая конечная мера F = F(B), B ∈ B ([−π, π)), что для любого n ∈ Z R(n) = π ] −π e iλn F(dλ), (33) § 1. СПЕКТРАЛЬНОЕ ПРЕДСТАВЛЕНИЕ где интеграл π ] 621 e iλn F(dλ) понимается как интеграл Лебега– –Стил- −π тьеса по множеству [−π, π). Доказательство. Положим для N > 1 и λ ∈ [−π, π] fN (λ) = N N 1 XX R(k − l)e −ikλ e ilλ . 2πN (34) k=1 l=1 В силу неотрицательной определенности R(n) функция fN (λ) неотрицательна. Поскольку число тех пар (k, l), для которых k − l = m, есть N − |m|, то |m| 1 X 1− R(m)e −imλ . (35) fN (λ) = 2π Пусть FN (B) = ] N |m|<N fN (λ) dλ, B ∈ B ([−π, π)). B Тогда π ] e iλn FN (dλ) = −π π ] −π 1 − |n| R(n), iλn N e fN (λ) dλ = 0, |n| < N, (36) |n| > N. Меры FN , N > 1, сосредоточены на интервале [−π, π] и FN ([−π, π]) = = R(0) < ∞ для любого N > 1. Следовательно, семейство мер {FN }, N > 1, плотно, и по теореме Прохорова (теорема 1 § 2 гл. III) существуют w подпоследовательность {Nk } ⊆ {N} и мера F такие, что FNk → F . (Понятия плотности, относительной компактности, слабой сходимости и теорема Прохорова очевидным образом с вероятностных мер переносятся на любые конечные меры.) Тогда из (36) следует, что π ] −π e iλn F(dλ) = lim Nk →∞ π ] e iλn FNk (dλ) = R(n). −π Построенная мера F сосредоточена на интервале [−π, π] . Не изменяя инπ ] теграла e iλn F(dλ), можно переопределить меру F , перенеся «массу» −π F({π}), сосредоточенную в точке π, в точку −π. Так полученная новая мера (обозначим ее снова через F) будет уже сосредоточенной на интервале [−π, π). (По поводу целесообразности выбора для значений λ именно интервала [−π, π), а не, скажем, [−π, π] , см. замечание к примеру 1 в п. 2.) 622 ГЛ. VI. СТАЦИОНАРНЫЕ СЛУЧАЙНЫЕ ПОСЛЕДОВАТЕЛЬНОСТИ Замечание 1. Меру F = F(B), участвующую в представлении (33), называют спектральной мерой, а функцию F(λ) = F([−π, λ]) – – спектральной функцией стационарной последовательности с ковариационной функцией R(n). В рассмотренном выше примере 2 спектральная мера оказалась дискретной (сосредоточенной в точках λk , k = 0, ±1, . . .). В примерах 3– –6 спектральная мера абсолютно непрерывна. Замечание 2. Спектральная мера F однозначно определяется по ковариационной функции. В самом деле, пусть F1 и F2 – – две спектральные меры и π π ] ] e iλn F1 (dλ) = e iλn F2 (dλ), n ∈ Z. −π −π Поскольку любая ограниченная непрерывная функция g(λ) может быть равномерно приближена на [−π, π) тригонометрическими полиномами, то π π ] ] g(λ) F1 (dλ) = g(λ) F2 (dλ), −π −π откуда (ср. с доказательством теоремы 2 § 12 гл. II) следует, что F1 (B) = = F2 (B) для любых B ∈ B ([−π, π)). Замечание 3. Если ξ = (ξn) – – стационарная последовательность, состоящая из действительных случайных величин ξn , то R(n) = R(−n) и поэтому π ] R(n) + R(−n) = cos λn F(dλ). R(n) = 2 −π 4. Задачи. 1. Вывести свойства (12) из (11). 2. Доказать, что если все нули полинома Q(z), определенного в (27), лежат вне единичного круга, то уравнение авторегрессии (24) имеет, и притом единственное, стационарное решение, представимое в виде одностороннего скользящего среднего. 3. Показать, что спектральные функции последовательностей (22) и (24) имеют плотности, задаваемые соответственно формулами (23) и (29). +∞ P |R(n)|2 < ∞, то спектральная функция F(λ) 4. Показать, что если n=−∞ имеет плотность f(λ), определяемую формулой ∞ 1 X e −iλn R(n), f(λ) = 2π n=−∞ где ряд сходится в комплексном L2 = L2 ([−π, π), B ([−π, π)), λ), λ – – мера Лебега. § 2. ОРТОГОНАЛЬНЫЕ СТОХАСТИЧЕСКИЕ МЕРЫ 623 § 2. Ортогональные стохастические меры и стохастические интегралы 1. Как уже отмечалось в § 1, интегральное представление ковариационной функции и пример стационарной последовательности ξn = ∞ X zk e iλk n (1) k=−∞ с попарно ортогональными случайными величинами zk , k ∈ Z, наводят на мысль о возможности получения представления произвольной стационарной последовательности в виде соответствующего интегрального обобщения суммы (1). Если положить X Z(λ) = zk , (2) {k : λk 6λ} то (1) запишется в виде ξn = ∞ X e iλk n ∆Z(λk), (3) k=−∞ где ∆Z(λk) ≡ Z(λk) − Z(λk −) = zk . Правая часть (3) напоминает интегральную сумму для «интеграла тиπ ] па Римана– e iλn dZ(λ). Однако в рассматриваемом нами –Стилтьеса» −π случае функция Z(λ) является случайной (зависящей также и от ω). При этом выясняется, что для интегрального представления произвольной стационарной последовательности приходится привлекать к рассмотрению и такие функции Z(λ), которые при каждом ω имеют неограниченную вариπ ] ацию. Поэтому простое понимание интеграла e iλn dZ(λ) как интеграла −π Римана– –Стилтьеса для каждого ω становится неприемлемым. 2. По аналогии с общей концепцией интегралов Лебега, Лебега– – Стилтьеса и Римана– –Стилтьеса (§ 6 гл. II) рассмотрение интересующего нас случая начнем с определения стохастической меры. Пусть (Ω, F , ) – – вероятностное пространство, E – – некоторое множество с алгеброй E0 его подмножеств и σ-алгеброй E = σ (E0). Определение 1. Комплекснозначная функция Z(∆) = Z(ω; ∆), определенная для ω ∈ Ω и ∆ ∈ E0 , называется конечно-аддитивной стохастической мерой, если: 1) |Z(∆)|2 < ∞ для любого ∆ ∈ E0 ; 624 ГЛ. VI. СТАЦИОНАРНЫЕ СЛУЧАЙНЫЕ ПОСЛЕДОВАТЕЛЬНОСТИ 2) для любых двух непересекающихся множеств ∆1 и ∆2 из E0 Z(∆1 + ∆2) = Z(∆1) + Z(∆2) ( -п. н.). (4) Определение 2. Конечно-аддитивная стохастическая мера Z(∆) называется элементарной стохастической мерой, если для любых непе∞ P ресекающихся множеств ∆1 , ∆2 , . . . из E0 таких, что ∆ = ∆k ∈ E0 , k=1 Z(∆) − n X k=1 2 Z(∆k) → 0, n → ∞. (5) Замечание 1. В данном определении элементарной стохастической меры, заданной на множествах из E0 , предполагается, что ее значения принадлежат гильбертову пространству H 2 = H 2 (Ω, F , ), а счетная аддитивность выполнена в среднеквадратическом смысле (5). Существуют и другие определения стохастических мер, в которых отсутствует требование существования второго момента, а счетная аддитивность понимается, например, в смысле сходимости по вероятности или с вероятностью единица. Замечание 2. По аналогии с неслучайными мерами можно показать, что для конечно-аддитивных стохастических мер условие (5) счетной аддитивности (в среднеквадратическом смысле) эквивалентно непрерывности (в среднеквадратическом смысле) в «нуле»: |Z(∆n)|2 → 0, ∆n ↓ ∅, ∆n ∈ E0 . (6) В классе элементарных стохастических мер особо важны меры, являющиеся ортогональными в смысле следующего определения. Определение 3. Элементарная стохастическая мера Z(∆), ∆ ∈ E0 , называется ортогональной (или мерой с ортогональными значениями), если для любых двух непересекающихся множеств ∆1 и ∆2 из E0 Z(∆1)Z(∆2) = 0, (7) или, что эквивалентно, если для любых ∆1 и ∆2 из E0 Z(∆1)Z(∆2) = |Z(∆1 ∩ ∆2)|2 . (8) m(∆) = |Z(∆)|2 , (9) Обозначим ∆ ∈ E0 . Для элементарных ортогональных стохастических мер функция множеств m = m(∆), ∆ ∈ E0 , является, как легко видеть, конечной мерой, и, следовательно, по теореме Каратеодори (§ 3 гл. II) она может быть продолжена на (E, E ). Так полученную меру будем снова обозначать через m = m(∆) и § 2. ОРТОГОНАЛЬНЫЕ СТОХАСТИЧЕСКИЕ МЕРЫ 625 называть структурной функцией (элементарной ортогональной стохастической меры Z = Z(∆), ∆ ∈ E0). Теперь естественным образом возникает следующий вопрос: раз функция множеств m = m(∆), определенная на (E, E0), допускает продолжение на (E, E ), где E = σ (E0), то нельзя ли элементарную ортогональную стохастическую меру Z = Z(∆), ∆ ∈ E0 , продолжить на множества ∆ из E , причем так, чтобы |Z(∆)|2 = m(∆), ∆ ∈ E . Ответ на этот вопрос утвердительный, что вытекает из нижеследующих конструкций, приводящих в то же самое время и к построению стохастического интеграла, необходимого для интегрального представления стационарных последовательностей. 3. Итак, пусть Z = Z(∆) – – элементарная ортогональная стохастическая мера, ∆ ∈ E0 , со структурной функцией m = m(∆), ∆ ∈ E . Для каждой функции X f(λ) = fk I∆k (λ), ∆k ∈ E0 , (10) принимающей лишь конечное число различных (комплексных) значений, определим случайную величину X I (f) = fk Z(∆k). Пусть L2 = L2 (E, E , m) – – гильбертово пространство комплекснозначных функций со скалярным произведением ] hf, gi = f(λ) g(λ) m(dλ) E и нормой k f k = hf, f i1/2 , а H 2 = H 2 (Ω, F , ) – – гильбертово пространство комплекснозначных случайных величин со скалярным произведением (ξ, η) = ξ η и нормой kξk = (ξ, ξ) 1/2 . Тогда очевидным образом для любых двух функций f и g вида (10) и (I (f), I (g)) = hf, gi kI (f)k2 = k f k2 = ] E |f(λ)|2 m(dλ). Пусть теперь f ∈ L2 и {fn } – – функции типа (10) такие, что k f − fn k → 0, n → ∞ (см. задачу 2). Тогда kI (fn) − I (fm)k = k fn − fm k → 0, n, m → ∞. 626 ГЛ. VI. СТАЦИОНАРНЫЕ СЛУЧАЙНЫЕ ПОСЛЕДОВАТЕЛЬНОСТИ Следовательно, последовательность {I (fn)} фундаментальна в среднеквадратическом смысле, и в силу теоремы 7 из § 10 гл. II найдется случайная величина (обозначим ее I (f)) такая, что I (f) ∈ H 2 и kI (fn) − I (f)k → 0, n → ∞. Так построенная случайная величина I (f) определяется однозначно (с точностью до стохастической эквивалентности) и не зависит от выбора аппроксимирующей последовательности {fn }. Ее естественно назвать стохастическим интегралом от функции f ∈ L2 по элементарной ортогональной стохастической мере Z и пользоваться для наглядности (наряду с I (f)) «интегральной» записью ] f(λ) Z(dλ). E Отметим следующие основные свойства стохастического интеграла I (f), непосредственно вытекающие из его конструкции. Пусть функции g, f, fn ∈ L2 . Тогда (I (f), I (g)) = hf, gi; kI (f)k = k f k; I (af + bg) = aI (f) + bI (g) (11) (12) ( -п. н.), (13) где a и b – – константы; kI (fn) − I (f)k → 0, (14) если k fn − f k → 0, n → ∞. 4. Используем определенный выше стохастический интеграл для продолжения элементарной ортогональной стохастической меры Z(∆), ∆ ∈ E0 , на множества из E = σ (E0). Поскольку мера m предполагается конечной, то функция I∆ = I∆ (λ) ∈ h (∆) = I (I∆). Ясно, что для ∆ ∈ E0 ∈ L2 для всякого ∆ ∈ E . Обозначим Z h (∆) = Z(∆). Из (13) следует, что если ∆1 ∩ ∆2 = ∅, ∆1 , ∆2 ∈ E , то Z h (∆1 + ∆2) = Z h (∆1) + Z h (∆2) ( -п. н.), Z а из (12) вытекает, что h (∆)|2 = m(∆), |Z ∆∈E. h (∆), ∆ ∈ E , является Покажем, что случайная функция множеств Z счетно-аддитивной в среднеквадратическом смысле. В самом деле, пусть ∞ P ∆k ∈ E и ∆ = ∆k . Тогда k=1 h (∆) − Z n X k=1 h (∆k) = I (gn), Z § 2. ОРТОГОНАЛЬНЫЕ СТОХАСТИЧЕСКИЕ МЕРЫ 627 где gn (λ) = I∆ (λ) − Но n X ∞ I∆k (λ) = I P k=1 |I (gn)|2 = k gn k2 = m т. е. h (∆) − Z n X k=1 ∆k (λ). k=n+1 ∞ X ∆k k=n+1 ! ↓ 0, n → ∞, 2 h (∆k) → 0, Z n → ∞. Из (11) следует также, что для ∆1 ∩ ∆2 = ∅, ∆1 , ∆2 ∈ E , h (∆2) = 0. h (∆1) Z Z h (∆), определенная на мноИтак, построенная случайная функция Z жествах ∆ ∈ E , является счетно-аддитивной в среднеквадратическом смысле и на множествах ∆ ∈ E0 совпадает с Z(∆). Будем называть h (∆), ∆ ∈ E , ортогональной стохастической мерой (являющейся Z продолжением элементарной ортогональной стохастической меры Z(∆)) со структурной функцией m(∆), ∆ ∈ E , а определенный выше интеграл ] h (dλ) – I (f) = f(λ) Z – стохастическим интегралом по этой мере. E 5. Обратимся теперь к наиболее важному для наших целей случаю (E, E ) = (R, B (R)). Как известно (теорема 1 § 3 гл. II), всякая конечная мера m = m(∆) на (R, B (R)) находится во взаимно однозначном соответствии с некоторой (обобщенной) функцией распределения G = G(x), причем m(a, b] = G(b) − G(a). Оказывается, нечто подобное справедливо и для ортогональных стохастических мер. Введем Определение 4. Совокупность (комплекснозначных) случайных величин {Zλ }, λ ∈ R, заданных на (Ω, F , ), назовем случайным процессом с ортогональными приращениями, если 1) |Zλ |2 < ∞, λ ∈ R; 2) для каждого λ ∈ R |Zλ − Zλn |2 → 0, λn ↓ λ, λn ∈ R; 3) для любых λ1 < λ2 < λ3 < λ4 (Zλ4 − Zλ3) (Zλ2 − Zλ1) = 0. 628 ГЛ. VI. СТАЦИОНАРНЫЕ СЛУЧАЙНЫЕ ПОСЛЕДОВАТЕЛЬНОСТИ Условие 3) является условием ортогональности приращений. Условие 1) означает, что Zλ ∈ H 2 . Наконец, условие 2) носит технический характер и является требованием непрерывности справа (в среднеквадратическом смысле) в каждой точке λ ∈ R. Пусть Z = Z(λ) – – ортогональная стохастическая мера со структурной функцией m = m(∆), являющейся конечной мерой с (обобщенной) функцией распределения G(λ). Положим Zλ = Z(−∞, λ] . Тогда |Zλ |2 = m(−∞, λ] = G(λ) < ∞, |Zλ − Zλn |2 = m(λn , λ] ↓ 0, λn ↓ λ, и, очевидно, выполнено также условие 3). Таким образом, построенный процесс {Zλ } является процессом с ортогональными приращениями. С другой стороны, если G(λ) – – обобщенная функция распределения с G(−∞) = 0, G(+∞) < ∞ и {Zλ } – – процесс с ортогональными приращениями с |Zλ |2 = G(λ), то положим для ∆ = (a, b] Z(∆) = Zb − Za . Пусть E0 – – алгебра, порожденная множествами вида ∆ = Z(∆) = n P n P (ak , bk ] , и k=1 Z(ak , bk ] . Ясно, что k=1 где m(∆) = |Z(∆)|2 = m(∆), n P k=1 [G(bk) − G(ak)] , и для непересекающихся интервалов ∆1 = = (a1 , b1 ] и ∆2 = (a2 , b2 ] Z(∆1) Z(∆2) = 0. Ввиду непрерывности справа функции G(λ), λ ∈ R, отсюда вытекает, что Z = Z(∆), ∆ ∈ E0 , является элементарной стохастической мерой с ортогональными значениями. Функция множеств m = m(∆), ∆ ∈ E0 , однозначно продолжается до меры на E = B (R), и из предшествующих конструкций следует, что тогда Z = Z(∆), ∆ ∈ E0 , также можно продолжить на множества ∆ ∈ E , где E = B (R), при этом |Z(∆)|2 = m(∆), ∆ ∈ B (R). Тем самым между процессами {Zλ }, λ ∈ R, с ортогональными приращениями и |Zλ |2 = G(λ), G(−∞) = 0, G(+∞) < ∞, и ортогональными стохастическими мерами Z = Z(∆), ∆ ∈ B (R), со структурной функцией m = m(∆) существует взаимно однозначное соответствие, при котором Zλ = Z(−∞, λ] , G(λ) = m(−∞, λ] § 3. СПЕКТРАЛЬНОЕ ПРЕДСТАВЛЕНИЕ ПОСЛЕДОВАТЕЛЬНОСТЕЙ 629 и Z(a, b] = Zb − Za , m(a, b] = G(b) − G(a). По аналогии с обозначениями, принятыми в теории интегрирования по Лебегу– –Стилтьесу и Риману]– –Стилтьесу (гл. II, § 6, пп. 9 и 11), под стохастическим интегралом f(λ)dZλ , где {Zλ } – – некоторый процесс R с] ортогональными приращениями, понимается стохастический интеграл f(λ)Z(dλ) по соответствующей этому процессу ортогональной стохастиR ческой мере. 6. Задачи. 1. Доказать эквивалентность условий (5) и (6). 2. Пусть функция f ∈ L2 . Используя результаты гл. II (теорема 1 в § 4, следствие к теореме 3 § 6 и задача 8 в § 3), доказать, что найдется последовательность {fn } функций вида (10) таких, что k f − fn k → 0, n → ∞. 3. Установить справедливость следующих свойств ортогональной стохастической меры Z(∆) со структурной функцией m(∆): |Z(∆1) − Z(∆2)|2 = m(∆1 △ ∆2), Z(∆1 \ ∆2) = Z(∆1) − Z(∆1 ∩ ∆2) ( -п. н.), Z(∆1 △ ∆2) = Z(∆1) + Z(∆2) − 2Z(∆1 ∩ ∆2) ( -п. н.). § 3. Спектральное представление стационарных (в широком смысле) последовательностей 1. Если ξ = (ξn) – – стационарная последовательность с ξn = 0, n ∈ Z, то, согласно теореме из § 1, найдется такая конечная мера F = F(∆) на ([−π, π), B ([−π, π))), что ковариационная функция R(n) = (ξk+n , ξk) допускает спектральное представление π ] R(n) = e iλn F(dλ). (1) −π Следующий результат дает соответствующее спектральное представление самой последовательности ξ = (ξn), n ∈ Z. Теорема 1. Существует такая ортогональная стохастическая мера Z = Z(∆), ∆ ∈ B ([−π, π)), что для каждого n ∈ Z ( -п. н.) π ] ] ξn = e iλn Z(dλ) = e iλn Z(dλ) . (2) [−π,π) −π При этом Z(∆) = 0, |Z(∆)|2 = F(∆). 630 ГЛ. VI. СТАЦИОНАРНЫЕ СЛУЧАЙНЫЕ ПОСЛЕДОВАТЕЛЬНОСТИ Доказательство проще всего провести, опираясь на некоторые факты теории гильбертовых пространств. Пусть L2 (F) = L2 (E, E , F) – – гильбертово пространство комплекснозначных функций, E = [−π, π), E = B ([−π, π)), со скалярным произведением π ] (3) hf, gi = f(λ) g(λ) F(dλ), x −π и L20 (F) – – линейное многообразие en = en (λ), n ∈ Z, где en (λ) = e iλn . (L20 (F) ⊆ L2 (F)), порожденное функциями Заметим, что поскольку E = [−π, π) и мера F конечна, то замыкание многообразия L20 (F) совпадает (задача 1) с L2 (F): L20 (F) = L2 (F). Пусть, далее, L20 (ξ) – – линейное многообразие, порожденное случайными величинами ξn , n ∈ Z, и L2 (ξ) (= L20 (ξ)) – – eгo замыкание в среднеквадратическом смысле (по мере ). Установим между элементами L20 (F) и L20 (ξ) взаимно однозначное соответствие «↔», полагая en ↔ ξn , n ∈ Z, (4) и доопределяя для произвольных элементов (точнее – – классов эквивалентных элементов) по линейности: X X αn en ↔ αn ξn (5) (здесь предполагается, что только конечное число комплексных чисел αn отлично от нуля). что P Отметим, что соответствие (5) корректно определено в том смысле, P αn en = 0 почти всюду по мере F тогда и только тогда, когда αn ξn = 0 ( -п. н.). Так определенное соответствие «↔» является изометрическим, т. е. сохраняющим скалярные произведения. В самом деле, в силу (3) hen , em i = π ] en (λ)em (λ) F(dλ) = −π π ] −π e iλ(n−m) F(dλ) = = R(n − m) = ξn ξm = (ξn , ξm) и аналогично DX αn en , X E X X αn ξn , βn ξn . βn en = (6) § 3. СПЕКТРАЛЬНОЕ ПРЕДСТАВЛЕНИЕ ПОСЛЕДОВАТЕЛЬНОСТЕЙ 631 Пусть теперь η ∈ L2 (ξ). Поскольку L2 (ξ) = L20 (ξ), то найдется такая последовательность (ηn), что ηn ∈ L20 (ξ) и kηn − ηk → 0, n → ∞. Следовательно, последовательность (ηn) фундаментальна и, значит, таковой же является и последовательность функций (fn), где fn ∈ L20 (F) и fn ↔ ηn . Пространство L2 (F) полно, и, следовательно, найдется такая функция f ∈ L2 (F), чтo k fn − f k → 0. Очевидным образом верно и обратное: если f ∈ L2 (F) и k f − fn k → 0, fn ∈ L20 (F), то найдется такой элемент η ∈ L2 (ξ), что kη − ηn k → 0, ηn ∈ L20 (ξ) и ηn ↔ fn . До сих пор (изометрическое) соответствие «↔» было определено лишь между элементами из L20 (ξ) и L20 (F). Доопределим его по непрерывности, полагая f ↔ η, где f и η – – рассмотренные выше элементы. Нетрудно проверить, что так установленное соответствие является взаимно однозначным (между классами эквивалентных случайных величин и функций), линейным и сохраняющим скалярное произведение. Рассмотрим функцию f(λ) = I∆ (λ), где ∆ ∈ B ([−π, π)), λ ∈ [−π, π), и пусть Z(∆) – – элемент из L2 (ξ) такой, что I∆ (λ) ↔ Z(∆). Ясно, что 2 kI∆ (λ)k = F(∆) и, значит, |Z(∆)|2 = F(∆). Поскольку ξn = 0, n ∈ Z, то для каждого элемента L20 (ξ) (а следовательно, и L2 (ξ)) его математическое ожидание равно нулю. В частности, Z(∆) = 0. Далее, если ∆1 ∩ ∆2 = ∅, 2 n ∞ P P Z(∆k) → 0, n → ∞, где ∆ = ∆k . то Z(∆1)Z(∆2) = 0 и Z(∆) − k=1 k=1 Тем самым совокупность элементов Z(∆), ∆ ∈ B ([−π, π)), образует ортогональную стохастическую меру, по которой (согласно § 2) можно определить стохастический интеграл I (f) = π ] f(λ) Z(dλ), −π f ∈ L2 (F). Пусть f ∈ L2 (F) и η ↔ f . Обозначим элемент η через Φ(f) (точнее говоря, выберем по одному представителю из соответствующих классов эквивалентных случайных величин и функций). Покажем, что ( -п. н.) I (f) = Φ(f). (7) Действительно, если f(λ) = X αk I∆k (λ) (8) есть конечная линейная комбинация функций I∆k (λ), ∆k =P (ak , bk ] , то по самому определению стохастического интеграла I (f) = αk Z(∆k), что, очевидно, равно Φ(f). Таким образом, (7) справедливо для функций вида (8). Но если f ∈ L2 (F) и k fn − f k → 0, где fn – – функции вида (8), 632 ГЛ. VI. СТАЦИОНАРНЫЕ СЛУЧАЙНЫЕ ПОСЛЕДОВАТЕЛЬНОСТИ то kΦ(fn) − Φ(f)k → 0 и kI (fn) − I (f)k → 0 (согласно (14) § 2). Значит, Φ(f) = I (f) ( -п. н.). Возьмем функцию f(λ) = e iλn . Тогда согласно (4) Φ(e iλn) = ξn ; с другой π ] стороны, I (e iλn) = e iλn Z(dλ). Поэтому в силу (7) ( -п. н.) −π ξn = π ] e iλn Z(dλ), −π n ∈ Z. Следствие 1. Пусть ξ = (ξn) – – стационарная последовательность, состоящая из действительных случайных величин ξn , n ∈ Z. Тогда стохастическая мера Z = Z(∆), участвующая в спектральном представлении (2), такова, что для любого ∆ ∈ B ([−π, π)) Z(∆) = Z(−∆), (9) где множество −∆ = {λ : − λ P ∈ ∆}. P В самом деле, пусть f(λ) = αk e iλk и η = αk ξk (суммы конечные). Тогда f ↔ η и, значит, X X (10) η= αk ξk ↔ αk e iλk = f(−λ). Поскольку I∆ (λ) ↔ Z(∆), то из (10) вытекает, что I∆ (−λ) ↔ Z(∆) (или, равносильно, I−∆ (λ) ↔ Z(∆)). Но, с другой стороны, I−∆ (λ) ↔ Z(−∆). Поэтому Z(∆) = Z(−∆) ( -п. н.). Следствие 2. Пусть снова ξ = (ξn) – – стационарная последовательность, где ξn – – действительные случайные величины, и Z(∆) = = Z1 (∆) + iZ2 (∆). Тогда для любых ∆1 и ∆2 из B ([−π, π)) Z1 (∆1)Z2 (∆2) = 0, (11) и если ∆1 ∩ ∆2 = ∅ и (−∆1) ∩ ∆2 = ∅, то Z1 (∆1)Z1 (∆2) = 0, Z2 (∆1)Z2 (∆2) = 0. (12) Действительно, поскольку Z(∆) = Z(−∆), то Z1 (−∆) = Z1 (∆), Далее, так как Z2 (−∆) = −Z2 (∆). (13) Z(∆1)Z(∆2) = |Z(∆1 ∩ ∆2)|2 , то Im Z(∆1)Z(∆2) = 0, т. е. Z1 (∆1)Z2 (∆2) − Z2 (∆1)Z1 (∆2) = 0. (14) § 3. СПЕКТРАЛЬНОЕ ПРЕДСТАВЛЕНИЕ ПОСЛЕДОВАТЕЛЬНОСТЕЙ 633 Взяв вместо ∆1 интервал −∆1 , отсюда находим Z1 (−∆1)Z2 (∆2) − Z2 (−∆1)Z1 (∆2) = 0, что в силу (13) преобразуется к виду Z1 (∆1)Z2 (∆2) + Z2 (∆1)Z1 (∆2) = 0. (15) Из (14) и (15) получаем равенство (11). Если же ∆1 ∩ ∆2 = ∅ и (−∆1) ∩ ∆2 = ∅, то Z(∆1)Z(∆2) = 0, откуда Re Z(∆1)Z(∆2) = 0 и Re Z(−∆1)Z(∆2) = 0, что вместе с (13) очевидным образом доказывает равенства (12). Следствие 3. Пусть ξ = (ξn) – – гауссовская последовательность. Тогда для любого набора ∆1 , . . . , ∆k вектор (Z1 (∆1), . . . , Z1 (∆k), Z2 (∆1), . . . , Z2 (∆k)) имеет гауссовское (нормальное) распределение. В самом деле, линейное многообразие L20 (ξ) состоит из (комплекснозначных) гауссовских случайных величин η, т. е. вектор (Re η, Im η) имеет гауссовское распределение. Тогда в соответствии с п. 5 § 13 гл. II замыкание L20 (ξ) также состоит из гауссовских величин. Отсюда и из следствия 2 вытекает, что в случае гауссовской последовательности ξ = (ξn) действительные и мнимые части Z1 и Z2 независимы в том смысле, что любые наборы случайных величин (Z1 (∆1), . . . , Z1 (∆k)) и (Z2 (∆1), . . . , Z2 (∆k)) независимы между собой. Из (12) следует, что для множеств ∆1 , . . . , ∆k , таких, что ∆i ∩ ∆ j = (−∆i) ∩ ∆ j = ∅, i, j = 1, . . . , k, i 6= j, случайные величины Zi (∆1), . . . , Zi (∆k) независимы в совокупности, i = 1, 2. Следствие 4. Если ξ = (ξn) – – стационарная последовательность действительных случайных величин, то ( -п. н.) ξn = π ] −π cos λn Z1 (dλ) − π ] sin λn Z2 (dλ). (16) −π Замечание. Если {Zλ }, λ ∈ [−π, π), – – процесс с ортогональными приращениями, соответствующий ортогональной стохастической мере Z = Z(∆), то спектральное представление (2) можно (в соответствии с § 2) записать также в следующем виде: ξn = π ] −π e iλn dZλ , n ∈ Z. (17) 2. Пусть ξ = (ξn) – – стационарная последовательность со спектральным разложением (2), и пусть η ∈ L2 (ξ). Следующая теорема описывает структуру таких случайных величин. 634 ГЛ. VI. СТАЦИОНАРНЫЕ СЛУЧАЙНЫЕ ПОСЛЕДОВАТЕЛЬНОСТИ Теорема 2. Если η ∈ L2 (ξ), то найдется такая функция ϕ ∈ L2 (F), что ( -п. н.) π ] η= ϕ(λ) Z(dλ). (18) X (19) −π Доказательство. Если ηn = αk ξk , |k|6n то в силу (2) ηn = π ] −π X αk e |k|6n iλk ! Z(dλ), (20) т. е. (18) выполнено с функцией ϕn (λ) = X αk e iλk . (21) |k|6n В общем случае, если η ∈ L2 (ξ), то найдутся величины ηn вида (19) такие, что kη − ηn k → 0, n → ∞. Но тогда kϕn − ϕm k = kηn − ηm k → 0, n, m → ∞, т. е. последовательность (ϕn) фундаментальна в L2 (F), и, значит, найдется такая функция ϕ ∈ L2 (F), что kϕ − ϕn k → 0, n → ∞. В соответствии со свойством (14) § 2 kI (ϕn) − I (ϕ)k → 0, и так как ηn = I (ϕn), то η = I (ϕ) ( -п. н.). Замечание. Пусть H0 (ξ) и H0 (F) – – замкнутые линейные многообразия, порожденные величинами ξ 0 = (ξn) n60 и функциями e 0 = (en) n60 соответственно. Тогда, если η ∈ H0 (ξ), то найдется такая функция ϕ ∈ H0 (F), что π ] ( -п. н.) η = ϕ(λ)Z(dλ). −π 3. Формула (18) описывает структуру тех случайных величин, которые получаются из ξn , n ∈ Z, с помощью линейных преобразований, т. е. в виде конечных сумм (19) и их пределов в среднеквадратическом смысле. Частный, но важный класс таких линейных преобразований задается с помощью тaк называемых (линейных) фильтров. Предположим, что в момент времени m на вход некоторой системы (фильтр) подается сигнал xm , при этом реакция системы на этот сигнал такова, что на ее выходе в момент времени n получается сигнал h(n − m)xm , где h = h(s), s ∈ Z, – – некоторая комплекснозначная функция, называемая импульсной переходной функцией (фильтра). § 3. СПЕКТРАЛЬНОЕ ПРЕДСТАВЛЕНИЕ ПОСЛЕДОВАТЕЛЬНОСТЕЙ 635 Таким образом, суммарный сигнал yn на выходе системы представляется в виде ∞ X yn = h(n − m)xm . (22) m=−∞ Для физически осуществимых систем значение выходного сигнала в момент времени n определяется лишь «прошлыми» значениями входного сигнала, т. е. значениями xm при m 6 n. Естественно поэтому фильтр с импульсной переходной функцией h = h(s) назвать физически осуществимым, если h(s) = 0 для всех s < 0, иначе говоря, если yn = ∞ X m=−∞ h(n − m)xm = ∞ X h(m)xn−m . (23) m=0 Важной спектральной характеристикой фильтра с импульсной переходной функцией h является ее преобразование Фурье ϕ(λ) = ∞ X e −iλm h(m), (24) m=−∞ называемое частотной характеристикой фильтра. Остановимся теперь на условиях сходимости рядов в (22) и (24), о которых до сих пор ничего не говорилось. Предположим, что на вход фильтра подается стационарная случайная последовательность ξ = (ξn), n ∈ Z, с ковариационной функцией R(n) и спектральным разложением (2). Тогда, если ∞ X (25) h(k)R(l − k)h(l) < ∞, k,l=−∞ то ряд ∞ P m=−∞ h(n − m)ξm сходится в среднеквадратическом смысле и, сле- довательно, определена стационарная последовательность η = (ηn) с ηn = ∞ X m=−∞ h(n − m)ξm = ∞ X h(m)ξn−m . (26) m=−∞ В спектральных терминах условие (25), очевидно, эквивалентно тому, что ϕ(λ) ∈ L2 (F), т. е. π ] |ϕ(λ)|2 F(dλ) < ∞. (27) −π 636 ГЛ. VI. СТАЦИОНАРНЫЕ СЛУЧАЙНЫЕ ПОСЛЕДОВАТЕЛЬНОСТИ При условии (25) или (27) из (26) и (2) находим спектральное представление последовательности η: ηn = π ] e iλn ϕ(λ) Z(dλ), −π n ∈ Z. (28) Следовательно, ковариационная функция Rη (n) последовательности η определяется формулой π ] Rη (n) = −π e iλn |ϕ(λ)|2 F(dλ). (29) В частности, если на вход фильтра с частотной характеристикой ϕ = ϕ(λ) подается белый шум ε = (εn), то на его выходе будет получаться стационарная последовательность (скользящего среднего) ηn = ∞ X (30) h(m)εn−m m=−∞ со спектральной плотностью fη (λ) = 1 |ϕ(λ)|2 . 2π Следующая теорема показывает, что в определенном смысле всякая стационарная последовательность со спектральной плотностью есть последовательность, полученная с помощью скользящего среднего. Теорема 3. Пусть η = (ηn) – – стационарная последовательность со спектральной плотностью fη (λ). Тогда можно найти (быть может, за счет расширения исходного вероятностного пространства) такую последовательность ε = (εn), являющуюся белым шумом, и такой фильтр, что справедливо представление (30). Доказательство. По заданной (неотрицательной) функции fη (λ) найπ ] 1 дем такую функцию ϕ(λ), что fη (λ) = |ϕ(λ)|2 . Поскольку fη (λ) dλ < 2π −π 2 < ∞, то ϕ(λ) ∈ L (dµ), где dµ – – мера Лебега на [−π, π). Поэтому функцию ϕ(λ) можно представить в виде ряда Фурье (24) с h(m) = π 1 ] imλ e ϕ(λ) dλ, причем сходимость понимается в том смысле, что = 2π −π π ] −π 2 ϕ(λ) − X |m|6n e −iλm h(m) dλ → 0, n → ∞. § 3. СПЕКТРАЛЬНОЕ ПРЕДСТАВЛЕНИЕ ПОСЛЕДОВАТЕЛЬНОСТЕЙ 637 Пусть ηn = π ] e iλn Z(dλ), −π n ∈ Z. Наряду с мерой Z = Z(∆) введем в рассмотрение не зависящую от нее h =Z h (∆) с |Z h (a, b] |2 = b − a . новую ортогональную стохастическую меру Z 2π (Возможность построения такой меры предполагает, вообще говоря, что исходное вероятностное пространство является достаточно «богатым».) Положим ] ] h (dλ), Z (∆) = ϕ⊕ (λ) Z(dλ) + [1 − ϕ⊕ (λ)ϕ(λ)] Z ∆ где ∆ ( a−1 , если a 6= 0, a = 0, если a = 0. ⊕ Стохастическая мера Z = Z (∆) является мерой с ортогональными значениями, при этом для всякого ∆ = (a, b] 1 ] |∆| 1 ] , |ϕ⊕ (λ)|2 |ϕ(λ)|2 dλ + |1 − ϕ⊕ (λ)ϕ(λ)|2 dλ = |Z (∆)|2 = 2π 2π ∆ 2π ∆ где |∆| = b − a. Поэтому стационарная последовательность ε = (εn), n ∈ Z, с εn = e iλn Z (dλ) −π является белым шумом. Заметим теперь, что π ] π ] e iλn ϕ(λ) Z (dλ) = −π π ] e iλn Z(dλ) = ηn (31) −π и, с другой стороны, из определения ϕ(λ) и свойства (14) § 2 ( -п. н.) ! ∞ π π X ] ] iλn −iλm iλn e ϕ(λ) Z (dλ) = e h(m) Z (dλ) = e −π −π = m=−∞ ∞ X m=−∞ h(m) π ] −π e iλ(n−m) Z (dλ) = ∞ X h(m)εn−m , m=−∞ что вместо с (31) доказывает представление (30). Замечание. Если fη (λ) > 0 (почти всюду по мере Лебега), то введение h =Z h (∆) становится излишним (поскольку тогда вспомогательной меры Z 638 ГЛ. VI. СТАЦИОНАРНЫЕ СЛУЧАЙНЫЕ ПОСЛЕДОВАТЕЛЬНОСТИ 1 − ϕ⊕ (λ)ϕ(λ) = 0 почти всюду по мере Лебега) и оговорка относительно необходимости расширения исходного вероятностного пространства может быть опущена. Следствие 1. Пусть спектральная плотность fη (λ) > 0 (почти всюду по мере Лебега) и fη (λ) = 1 |ϕ(λ)|2 , 2π где ϕ(λ) = ∞ X e −iλk h(k), k=0 ∞ X k=0 |h(k)|2 < ∞. Тогда последовательность η допускает представление в виде одностороннего скользящего среднего ηn = ∞ X h(m)εn−m . m=0 В частности, пусть P(z) = a0 + a1 z + . . . + a p z p . Тогда последовательность η = (ηn) со спектральной плотностью fη (λ) = 1 |P(e −iλ)|2 2π представима в виде ηn = a0 εn + a1 εn−1 + . . . + a p εn− p . Следствие 2. Пусть ξ = (ξn) – – стационарная последовательность с рациональной спектральной плотностью fξ (λ) = 1 P(e −iλ) 2π Q(e −iλ) 2 , (32) где P(z) = a0 + a1 z + . . . + a p z p , Q(z) = 1 + b1 z + . . . + bq z q . Если полином Q(z) не имеет нулей на множестве {z : |z| = 1}, то найдется такой белый шум ε = (εn), что ( -п. н.) ξn + b1 ξn−1 + . . . + bq ξn−q = a0 εn + a1 εn−1 + . . . + a p εn− p . (33) Обратно, всякая стационарная последовательность ξ = (ξn), удовлетворяющая такому уравнению с некоторым белым шумом ε = (εn) и полиномом Q(z), не имеющим нулей на множестве {z : |z| = 1}, имеет спектральную плотность (32). Действительно, пусть ηn = ξn + b1 ξn−1 + . . . + bq ξn−q . Тогда fη (λ) = = 1 |P(e −iλ)|2 и требуемое представление вытекает из следствия 1. 2π § 3. СПЕКТРАЛЬНОЕ ПРЕДСТАВЛЕНИЕ ПОСЛЕДОВАТЕЛЬНОСТЕЙ 639 С другой стороны, если имеет место представление (33) и Fξ (λ) и Fη (λ) – – спектральные функции последовательностей ξ и η, то Fη (λ) = λ ] −π |Q(e −iν )|2 dFξ (ν) = λ 1 ] |P(e −iν )|2 dν. 2π −π Поскольку |Q(e −iν )|2 > 0, то отсюда следует, что Fξ (λ) имеет плотность, определяемую формулой (32). 4. Следующая эргодическая теорема (в среднеквадратическом смысле) может рассматриваться как аналог закона больших чисел для стационарных (в широком смысле) случайных последовательностей. Теорема 4. Пусть ξ = (ξn), n ∈ Z, – – стационарная последовательность с ξn = 0, ковариационной функцией (1) и спектральным разложением (2). Тогда n−1 1 X L2 ξk −→ Z({0}) n (34) k=0 и n−1 1 X R(k) → F({0}). n (35) k=0 Доказательство. В силу (2) n−1 n−1 π π ] 1 X ] 1 X ξk = e ikλ Z(dλ) = ϕn (λ) Z(dλ), n n −π k=0 где ϕn (λ) = n−1 1 X n −π k=0 e ikλ = k=0 Очевидно, что |ϕn (λ)| 6 1. L2 (F) 1, inλ 1 · e −1, n e iλ − 1 λ = 0, λ 6= 0. (36) Далее, ϕn (λ) −−−→ I{0} (λ), поэтому по свойству (14) § 2 π ] −π L2 ϕn (λ) Z(dλ) −→ π ] I{0} (λ)Z(dλ) = Z({0}), −π что и доказывает (34). Аналогичным образом доказывается и утверждение (35). Следствие. Заметим, что если спектральная функция непрерывна в нуле, т. е. F({0}) = 0, то Z({0}) = 0 ( -п. н.). Поэтому в силу 640 ГЛ. VI. СТАЦИОНАРНЫЕ СЛУЧАЙНЫЕ ПОСЛЕДОВАТЕЛЬНОСТИ (34), (35) n−1 n−1 1 X 1 X L2 R(k) → 0 ⇒ ξk −→ 0. n n k=0 Поскольку n−1 1 X R(k) n k=0 2 n−1 1 X ξk ξ0 n = k=0 k=0 ! 2 n−1 2 1 X ξk , n 6 |ξ0 |2 k=0 то верна и обратная импликация: n−1 n−1 1 X 1 X L2 ξk −→ 0 ⇒ R(k) → 0. n n k=0 Таким образом, условие k=0 1 n n−1 P k=0 R(k) → 0 является необходимым и до- статочным для сходимости (в среднеквадратическом смысле) средних P 1 n−1 арифметических ξk к нулю. Отсюда следует, что если исходная поn k=0 следовательность ξ = (ξn) такова, что ее математическое ожидание есть m ( ξ0 = m), то n−1 n−1 1 X 1 X L2 R(k) → 0 ⇔ ξk −→ m, (37) n k=0 n k=0 где R(n) = (ξn − ξn) (ξ0 − ξ0). Отметим также, что если Z({0}) 6= 0 с положительной вероятностью, а m = 0, то это означает, что последовательность ξn содержит «случайную константу α»: ξn = α + ηn , π ] где α = Z({0}), а в спектральном представлении ηn = e iλn Zη (dλ) мера −π Zη = Zη (∆) уже такова, что Zη ({0}) = 0 ( -п. н.). Утверждение (34) означает, что средние арифметические сходятся в среднеквадратическом смысле именно к этой случайной константе α. 5. Задачи. 1. Показать, что L20 (F) = L2 (F) (обозначения см. в доказательcтве теоремы 1). 2. Пусть ξ = (ξn) – – стационарная последовательность, обладающая тем свойством, что для некоторого N и всех n ξn+N = ξn . Показать, что спектральное представление такой последовательности сводится к представлению (13) § 1. § 4. СТАТИСТИЧЕСКОЕ ОЦЕНИВАНИЕ и 641 3. Пусть ξ = (ξn) – – стационарная последовательность такая, что ξn = 0 N −1 N −1 1 1 X X R(k − l) = N N2 k=0 l=0 X |k|6N −1 h i |k| R(k) 1 − 6 CN −α N при некоторых C > 0, α > 0. Используя лемму Бореля– –Кантелли, показать, что тогда N 1 X ξk → 0 N ( -п. н.). k=0 4. Пусть спектральная плотность fξ (λ) последовательности ξ = (ξm) является рациональной, fξ (λ) = 1 |Pn−1 (e −iλ)| , 2π |Qn (e −iλ)| (38) где Pn−1 (z) = a0 + a1 z + . . . + an−1 z n−1 и Qn (z) = 1 + b1 z + . . . + bn z n , причем корни полинома Qn не лежат на единичной окружности. Показать, что найдется такой белый шум ε = (εm), m ∈ Z, что последовательность (ξm) будет компонентой n-мерной последовательности 1 2 n 1 (ξm , ξm , . . . , ξm ), ξm = ξm , удовлетворяющей системе уравнений i i+1 ξm+1 = ξm + βi εm+1 , n ξm+1 =− где β1 = a0 , βi = ai−1 − i−1 P n−1 X i = 1, . . . , n − 1, bn− j ξmj+1 + βn εm+1 , (39) j=0 βk bi−k . k=1 § 4. Статистическое оценивание ковариационной функции и спектральной плотности 1. Задачи статистического оценивания тех или иных характеристик распределений вероятностей стационарных случайных последовательностей возникают в самых разнообразных областях науки (геофизика, медицина, экономика и др.). Материал, излагаемый в настоящем параграфе, дает представление о понятиях и методах оценивания и о тех трудностях, которые здесь возникают. 642 ГЛ. VI. СТАЦИОНАРНЫЕ СЛУЧАЙНЫЕ ПОСЛЕДОВАТЕЛЬНОСТИ Итак, пусть ξ = (ξn), n ∈ Z, – – стационарная в широком смысле (действительная – – для простоты) случайная последовательность с математическим π ] ожиданием ξn = m и ковариацией R(n) = e iλn F(dλ). −π Пусть x0 , x1 , . . . , xN −1 – – полученные в ходе наблюдений значения случайных величин ξ0 , ξ1 , . . . , ξN −1 . Как по ним построить «хорошую» оценку (неизвестного) среднего значения m? Положим N −1 1 X mN (x) = xk . (1) N k=0 Тогда из элементарных свойств математического ожидания следует, что эта оценка является «хорошей» оценкой величины m в том смысле, что «в среднем по всем реализациям x0 , . . . , xN −1 » она является несмещенной, т. е. ! N −1 1 X (2) ξk = m. mN (ξ) = N k=0 Более того, из теоремы 4 § 3 вытекает, что при условии N 1 P R(k) → 0, N k=0 N → ∞, рассматриваемая оценка является также и состоятельной (в среднеквадратическом смысле), т. е. |mN (ξ) − m|2 → 0, N → ∞. (3) Займемся теперь вопросом оценивания ковариационной функции R(n), спектральной функции F(λ) = F([−π, λ]) и спектральной плотности f(λ), предполагая, что m = 0. Поскольку R(n) = ξn+k ξk , то в качестве оценки этой величины по результатам N наблюдений x0 , x1 , . . . , xN −1 естественно взять (для 0 6 n < N) величину AN (n; x) = R 1 N −n NX −n−1 xn+k xk . k=0 Ясно, что оценка является несмещенной в том смысле, что AN (n; ξ) = R(n), R 0 6 n < N. Рассмотрим теперь вопрос о ее состоятельности. Подставляя в (37) § 3 вместо ξk величины ξn+k ξk и предполагая, что для каждого целого числа n последовательность ζ = (ζk) k∈Z , ζk = ξn+k ξk , стационарна § 4. СТАТИСТИЧЕСКОЕ ОЦЕНИВАНИЕ 643 в широком смысле (в частности, отсюда будет следовать существование четвертого момента ξ04 < ∞), находим, что условие N −1 1 X N k=0 [ξn+k ξk − R(n)] [ξn ξ0 − R(n)] → 0, N → ∞, (4) является необходимым и достаточным для того, чтобы AN (n; ξ) − R(n)|2 → 0, |R N → ∞. (5) Предположим, что исходная последовательность ξ = (ξn) является гауссовской (с нулевым средним и ковариацией R(n)). Тогда в силу (51) § 12 главы II [ξn+k ξk − R(n)] [ξn ξ0 − R(n)] = ξn+k ξk ξn ξ0 − R 2 (n) = = ξn+k ξk · ξn ξ0 + ξn+k ξn · ξk ξ0 + ξn+k ξ0 · ξk ξn − R 2 (n) = = R 2 (k) + R(n + k)R(n − k). Поэтому в гауссовском случае условие (4) эквивалентно условию N −1 1 X [R 2 (k) + R(n + k)R(n − k)] → 0, N k=0 N → ∞. (6) Поскольку |R(n + k)R(n − k)| 6 |R(n + k)|2 + |R(n − k)|2 , то из условия N −1 1 X 2 R (k) → 0, N k=0 N → ∞, (7) вытекает и условие (6). В свою очередь, если (6) верно для n = 0, то выполняется условие (7). Таким образом, доказана следующая Теорема. Пусть ξ = (ξn) – – гауссовская стационарная последовательностъ с ξn = 0 и ковариационной функцией R(n). Тогда выполнение условия (7) является необходимым и достаточным для того, AN (n; x) была состоятельной в средчтобы при любом n > 0 оценка R неквадратическом смысле (т. е. чтобы было выполнено условие (5)). Замечание. Если воспользоваться спектральным представлением ковариационной функции, то получим N −1 −1 π π ] π] 1 NX ] π] 1 X 2 R (k) = e i(λ−ν)k F(dλ) F(dν) = fN (λ, ν) F(dλ) F(dν), N N k=0 −π −π k=0 −π −π 644 ГЛ. VI. СТАЦИОНАРНЫЕ СЛУЧАЙНЫЕ ПОСЛЕДОВАТЕЛЬНОСТИ где (ср. с (36) § 3) fN (λ, ν) = Но при N → ∞ 1, λ = ν, i(λ−ν)N 1−e , N[1 − e i(λ−ν) ] ( 1, fN (λ, ν) → f(λ, ν) = 0, λ 6= ν. λ = ν, λ 6= ν. Поэтому N π ] 1 X 2 R (k) → N k=0 π ] f(λ, ν) F(dλ) F(dν) = −π −π π ] F({λ}) F(dλ) = −π X F 2 ({λ}), λ где сумма по λ не более чем счетна, поскольку мера F конечна. Тем самым, условие (7) эквивалентно условию X F 2 ({λ}) = 0, (8) λ означающему, что спектральная функция F(λ) = F([−π, λ]) является непрерывной. 2. Перейдем теперь к вопросу построения оценок для спектральной функции F(λ) и спектральной плотности f(λ) (в предположении, что она существует). Естественно напрашивающийся путь построения оценок спектральной плотности следует из проведенного выше доказательства теоремы Герглотца. Напомним, что введенная в § 1 функция 1 X |n| fN (λ) = 1− R(n)e −iλn (9) 2π N |n|<N обладала тем свойством, что построенная по ней функция FN (λ) = λ ] fN (ν) dν −π сходилась в основном к спектральной функции F(λ). Поэтому, если F(λ) имеет плотность f(λ), то для каждого λ ∈ [−π, π) λ ] −π fN (ν) dν → λ ] −π f(ν) dν. (10) § 4. СТАТИСТИЧЕСКОЕ ОЦЕНИВАНИЕ 645 Исходя из этих фактов и вспоминая, что в качестве оценки R(n) (по AN (n; x), возьмем в канаблюдениям x0 , x1 , . . . , xN −1) брались величины R честве оценки f(λ) функцию |n| A 1 X 1− f̂N (λ; x) = RN (n; x)e −iλn , (11) 2π N |n|<N AN (n; x) = R AN (|n|; x). полагая R Функцию f̂N (λ; x) принято называть периодограммой, и нетрудно проверить, что ее можно представить также в следующем несколько более удобном виде: f̂N (λ; x) = Поскольку 1 2πN N −1 X 2 xn e −iλn . (12) n=0 AN (n; ξ) = R(n), |n| < N, то R f̂N (λ; ξ) = fN (λ). Если спектральная функция F(λ) имеет плотность f(λ), то, учитывая, что fN (λ) может быть записана также в виде (34) § 1, найдем, что fN (λ) = N −1 N −1 π 1 X X ] iν (k−l) iλ(l−k) e e f(ν) dν = 2πN k=0 l=0 −π = π ] −π 1 2πN Функция ΦN (λ) = 1 2πN N −1 X 2 e iλk = k=0 1 2πN N −1 X 2 e i(ν−λ)k f(ν) dν. k=0 λ N 2 sin λ/2 2 sin называется ядром Фейера. Из свойств этой функции известно, что для почти всех λ (по мере Лебега) π ] −π ΦN (λ − ν) f(ν) dν → f(λ). Поэтому для почти всех λ ∈ [−π, π) f̂N (λ; ξ) → f(λ), (13) (14) иначе говоря, оценка f̂N (λ; x) спектральной плотности f(λ) по наблюдениям x0 , x1 , . . . , xN −1 является асимптотически несмещенной. 646 ГЛ. VI. СТАЦИОНАРНЫЕ СЛУЧАЙНЫЕ ПОСЛЕДОВАТЕЛЬНОСТИ В этом смысле оценку f̂N (λ; x) можно было бы считать достаточно «хорошей». Однако на индивидуальных наблюдениях x0 , . . . , xN −1 значения периодограммы f̂N (λ; x) оказываются зачастую далекими от истинных значений f(λ). Например, пусть ξ = (ξn) – – стационарная последовательность независимых гауссовских случайных величин, ξn ∼ N (0, 1). Тогда f(λ) ≡ 1/2π, а f̂N (λ; ξ) = N −1 2 1 1 X √ ξk e −iλk . 2π N k=0 Поэтому 2π f̂N (0; ξ) по распределению совпадает с квадратом гауссовской случайной величины η ∼ N (0, 1). Отсюда при любом N | f̂N (0; ξ) − f(0)|2 = 1 4π 2 |η 2 − 1|2 > 0. Более того, несложный подсчет показывает, что если f(λ) – – спектральная плотность стационарной последовательности ξ = (ξn), образованной по схеме скользящего среднего: ξn = ∞ X (15) ak εn−k k=0 с ∞ P k=0 |ak | < ∞, ∞ P k=0 lim N →∞ |ak |2 < ∞, где ε = (εn) – – белый шум с ( 2f 2 (0), | f̂N (λ; ξ) − f(λ)| = f 2 (λ), 2 ε40 < ∞, то λ = 0, ±π, λ 6= 0, ±π. (16) Отсюда становится понятным, что периодограмма не может служить удовлетворительной оценкой спектральной плотности. Чтобы исправить это положение, в качестве оценок для f(λ) часто используют оценки вида fNW (λ; x) = π ] −π WN (λ − ν) f̂N (ν; x) dν, (17) которые строятся по периодограмме f̂N (λ; x) и некоторым «сглаживающим» функциям WN (λ), называемым спектральными окнами. Естественные требования, предъявляемые к функциям WN (λ), состоят в том, чтобы: a) WN (λ) имели резко выраженный максимум в окрестности точки λ = 0; π ] b) WN (λ) dλ = 1; c) −π | f̂NW (λ; ξ) − f(λ)|2 → 0, N → ∞, λ ∈ [−π, π). § 4. СТАТИСТИЧЕСКОЕ ОЦЕНИВАНИЕ 647 В силу (14) и требования b) оценки f̂NW (λ; ξ) являются асимптотически несмещенными. Требование с) является условием асимптотической состоятельности в среднеквадратическом смысле, что, как было показано выше, нарушается для периодограммы. Наконец, требование а) обеспечивает «вырезание» из периодограммы требуемой частоты λ. Приведем некоторые примеры оценок вида (17). Оценка Бартлетта основана на выборе спектрального окна WN (λ) = aN B(aN λ), где aN ↑ ∞, aN /N → 0, N → ∞, и B(λ) = 1 2π λ 2 λ/ 2 sin 2 . Оценка Парзена использует в качестве спектрального окна функцию WN (λ) = aN P(aN λ), где aN такие же, как и выше, а P(λ) = 3 8π λ 4 λ/ 4 sin 4 . Оценки Журбенко строятся с помощью спектральных окон вида WN (λ) = aN Z(aN λ), где Z(λ) = ( α+1 α+1 − |λ|α + , 0, 2α |λ| 6 1, 2α |λ| > 1, где 0 < α 6 2, а величины aN подбираются специальным образом. Не останавливаясь подробнее на вопросах оценивания спектральных плотностей, укажем лишь, что имеется обширная статистическая литература, посвященная построению спектральных окон и сравнению свойств соответствующих им оценок f̂NW (λ; x). (См., например, [133] , [71] , [72] .) 3. Рассмотрим теперь вопрос оценивания спектральной функции F(λ) = F([−π, λ]). С этой целью положим FN (λ) = λ ] −π fN (ν) dν, FAN (λ; x) = λ ] f̂N (ν; x) dν, −π где f̂N (ν; x) – – периодограмма, построенная по (x0 , x1 , . . . , xN −1). 648 ГЛ. VI. СТАЦИОНАРНЫЕ СЛУЧАЙНЫЕ ПОСЛЕДОВАТЕЛЬНОСТИ Из доказательства теоремы Герглотца (§ 1) следует, что для любого n ∈ Z при N → ∞ π ] −π e iλn dFN (λ) → π ] e iλn dF(λ). −π Отсюда (ср. со следствием к теореме 1 § 3 гл. III) вытекает, что FN ⇒ F , т. е. FN (λ) сходятся к F(λ) в каждой точке непрерывности функции F(λ). Заметим, что для всех |n| < N π ] AN (n; ξ) 1 − |n| . e iλn d FAN (λ; ξ) = R N −π AN (n; ξ) сходятся с вероятностью едиПоэтому, если предположить, что R ница к R(n) при N → ∞, то тогда π ] −π e iλn d FAN (λ; ξ) → π ] e iλn dF(λ) ( -п. н.) −π и, значит, FAN (λ; ξ) ⇒ F(λ) ( -п. н.). Отсюда легко вывести (переходя в случае необходимости от послеAN (n; ξ) → R(n) по довательностей к подпоследовательностям), что если R A вероятности, то тогда и FN (λ; ξ) ⇒ F(λ) по вероятности. 4. Задачи. 1. Пусть в схеме (15) величины εn ∼ N (0, 1). Показать, что для любого n и N →∞ π ] AN (n; ξ) → 2π (N − |n|) R (1 + e 2inλ) f 2 (λ) dλ. −π 2. Установить справедливость формулы (16) и ния: 2f 2 (0), lim (f̂N (λ; ξ), f̂N (ν; ξ)) = f 2 (λ), N →∞ 0, следующего ее обобщеλ = ν = 0, ±π, λ = ν 6= 0, ±π, λ 6= ν. § 5. Разложение Вольда 1. В отличие от представления (2) § 3, дающего разложение стационарной последовательности в частотной области, рассматриваемое ниже разложение Вольда действует во временно́й области. Суть этого разложения сводится к тому, что стационарная последовательность ξ = (ξn), n ∈ Z, представляется в виде суммы двух стационарных последовательностей, § 5. РАЗЛОЖЕНИЕ ВОЛЬДА 649 одна из которых полностью предсказуема (в том смысле, что ее значения полностью восстанавливаются по «прошлому»), а вторая этим свойством не обладает. Введем прежде всего некоторые обозначения. Пусть Hn (ξ) = L2 (ξ n) и H(ξ) = L2 (ξ) – – замкнутые линейные многообразия, порожденные величинами ξ n = (. . . , ξn−1 , ξn) и ξ = (. . . , ξn−1 , ξn , . . .) соответственно. Пусть также \ S(ξ) = Hn (ξ). n Для любого элемента η ∈ H(ξ) обозначим через π̂n (η) = A (η | Hn (ξ)) проекцию элемента η на подпространство Hn (ξ) (см. § 11 гл. II). Будем обозначать также π̂−∞ (η) = A (η | S(ξ)). Каждый элемент η ∈ H(ξ) можно представить следующим образом: η = π̂−∞ (η) + (η − π̂−∞ (η)), где η − π̂−∞ (η) ⊥ π̂−∞ (η). Поэтому пространство H(ξ) представляется в виде ортогональной суммы H(ξ) = S(ξ) ⊕ R(ξ), где S(ξ) состоит из элементов π̂−∞ (η) с η ∈ H(ξ), а R(ξ) – – из элементов вида η − π̂−∞ (η). Всюду в дальнейшем будем предполагать, что ξn = 0 и ξn > 0. Тем самым пространство H(ξ) заведомо является нетривиальным (содержит элементы, отличные от нулевого). Определение 1. Стационарная последовательность ξ = (ξn) называется регулярной, если H(ξ) = R(ξ), и сингулярной, если H(ξ) = S(ξ). Замечание 1. Сингулярные последовательности называют также детерминированными, регулярные – – чисто или вполне недетерминированными. Если S(ξ) есть собственное подпространство пространства H(ξ), то последовательность ξ называют недетерминированной. 650 ГЛ. VI. СТАЦИОНАРНЫЕ СЛУЧАЙНЫЕ ПОСЛЕДОВАТЕЛЬНОСТИ Теорема 1. Всякая стационарная в широком смысле случайная последовательность ξ допускает разложение ξn = ξnr + ξns , (1) где ξ r = (ξnr ) – – регулярная, а ξ s = (ξns) – – сингулярная последовательs ность. При этом ξ r и ξ s ортогональны (ξnr ⊥ ξm для всех n и m). Доказательство. По определению положим ξ s = A (ξn | S(ξ)), ξ r = ξn − ξ s . n n n Поскольку ⊥ S(ξ) для любого n, то S(ξ ) ⊥ S(ξ). С другой стороны, S(ξ r) ⊆ S(ξ), и, значит, S(ξ r) тривиально (содержит лишь случайные величины, совпадающие почти наверное с нулем). Следовательно, процесс ξ r является регулярным. Далее, Hn (ξ) ⊆ Hn (ξ s) ⊕ Hn (ξ r) и Hn (ξ s) ⊆ Hn (ξ), Hn (ξ r) ⊆ Hn (ξ). Поэтому Hn (ξ) = Hn (ξ s) ⊕ Hn (ξ r), и, значит, для любого n ξnr r S(ξ) ⊆ Hn (ξ s) ⊕ Hn (ξ r). (2) Поскольку ξnr ⊥ S(ξ), то из (2) следует, что S(ξ) ⊆ Hn (ξ s), и, значит, S(ξ) ⊆ S(ξ s) ⊆ H(ξ s). Но ξns ∈ S(ξ), поэтому H(ξ s) ⊆ S(ξ), и, следовательно, S(ξ) = S(ξ s) = H(ξ s), что означает сингулярность последовательности ξ s . Ортогональность последовательностей ξ s и ξ r следует очевидным образом из того, что ξns ∈ S(ξ), а ξnr ⊥ S(ξ). Замечание 2. Разложение (1) на регулярную и сингулярную компоненты единственно (задача 4). 2. Определение 2. Пусть ξ = (ξn) – – невырожденная стационарная последовательность. Случайную последовательность ε = (εn) назовем обновляющей последовательностью (для ξ), если: a) ε = (εn) состоит из попарно ортогональных случайных величин с εn = 0, |εn |2 = 1; b) Hn (ξ) = Hn (ε) для любого n ∈ Z. Замечание 1. Смысл термина «обновление» обусловлен ассоциацией с тем, что εn+1 как бы привносит новую «информацию», не содержащуюся в Hn (ξ) (иначе – – «обновляет информацию» в Hn (ξ), которая необходима для образования Hn+1 (ξ)). Следующая важная теорема устанавливает связь между введенными выше (пример 4 в § 1) последовательностями одностороннего скользящего среднего и регулярными последовательностями. § 5. РАЗЛОЖЕНИЕ ВОЛЬДА 651 Теорема 2. Для того, чтобы невырожденная последовательность ξ была регулярной, необходимо и достаточно, чтобы нашлись такие обновляющая последовательность ε = (εn) и последователь∞ P ность комплексных чисел (an), n > 0, с |an |2 < ∞, что ( -п. н.) n=0 ξn = ∞ X ak εn−k . (3) k=0 Доказательство. Необходимость. Представим Hn (ξ) в виде Hn (ξ) = Hn−1 (ξ) ⊕ Bn . Поскольку Hn (ξ) порождается элементами из Hn−1 (ξ) и элементами вида βξn , где β – – комплексные числа, то размерность пространства Bn равна нулю или единице. Пространство Hn (ξ) не может совпадать с Hn−1 (ξ) ни при одном n. В самом деле, если при каком-то n Bn тривиально, то в силу стационарности тривиальными будут пространства Bk при всех k, а, значит, тогда H(ξ) = S(ξ), что противоречит предположению о регулярности последовательности ξ. Итак, пространство Bn имеет размерность 1. Пусть ηn – – ненулевой элемент из Bn . Положим εn = ηn , kηn k где kηn k2 = |ηn |2 > 0. Для фиксированных n и k > 0 рассмотрим разложения Hn (ξ) = Hn−k (ξ) ⊕ Bn−k+1 ⊕ . . . ⊕ Bn . Тогда εn−k , . . . , εn образуют ортонормированный базис в Bn−k+1 ⊕ . . . ⊕ ⊕ Bn и k−1 X a j εn− j + π̂n−k (ξn), (4) ξn = j=0 где a j = ξn εn− j . В силу неравенства Бесселя (6) § 11 главы II ∞ X j=0 Отсюда следует, что ряд |a j |2 6 kξn k2 < ∞. ∞ P j=0 a j εn− j сходится в среднеквадратическом смысле, и в силу (4) для доказательства (3) осталось лишь доказать, что L2 π̂n−k (ξn) −→ 0, k → ∞. 652 ГЛ. VI. СТАЦИОНАРНЫЕ СЛУЧАЙНЫЕ ПОСЛЕДОВАТЕЛЬНОСТИ Достаточно рассмотреть случай n = 0. Обозначим π̂i = π̂i (ξ0). Поскольку k X π̂−k = π̂0 + [π̂−i − π̂−i+1 ] , i=0 а слагаемые, участвующие в сумме, ортогональны, то для любого k > 0 k X i=0 2 kπ̂−i − π̂−i+1 k = k X i=0 2 (π̂−i − π̂−i+1) = kπ̂−k − π̂0 k2 6 4kξ0 k2 < ∞. Поэтому существует (в среднеквадратическом смысле) предел lim π̂−k . k→∞ Для каждого k π̂−k ∈ H−k (ξ), и, значит, рассматриваемый предел должен T принадлежать подпространству H−k (ξ) = S(ξ). Но по предположению k>0 L2 S(ξ) тривиально, и поэтому π̂−k −→ 0, k → ∞. Достаточность. Пусть невырожденная последовательность ξ допускает представление в виде (3), где ε = (εn) – – ортонормированная система (не обязательно удовлетворяющая условию Hn (ξ) = Hn (ε), n ∈ Z). T Тогда Hn (ξ) ⊆ Hn (ε) и, значит, S(ξ) = Hk (ξ) ⊆ Hn (ε) для любого n. Но k εn+1 ⊥ Hn (ε), поэтому εn+1 ⊥ S(ξ), и в то же самое время ε = (εn) является базисом в H(ξ). Отсюда следует, что подпространство S(ξ) является тривиальным, и, значит, последовательность ξ регулярна. Замечание 2. Из проведенного доказательства следует, что невырожденная последовательность ξ является регулярной тогда и только тогда, когда она допускает, если следовать определению в примере 4 § 1, представление в виде одностороннего скользящего среднего ξn = ∞ X ãk ε̃n−k , (5) k=0 где ε̃ = (ε̃n) – – некоторая ортонормированная система. В этом смысле утверждение теоремы 2 говорит о большем, а именно о том, что для регулярной последовательности ξ найдутся такие a = (an) и ортонормированная система ε = (εn), что наряду с (5) будет справедливо представление (3), для которого Hn (ξ) = Hn (ε), n ∈ Z. Из теорем 1 и 2 непосредственно вытекает Теорема 3 (разложение Вольда). Если ξ = (ξn) – – невырожденная стационарная последовательность, то ξn = ξns + ∞ X k=0 ak εn−k , (6) § 5. РАЗЛОЖЕНИЕ ВОЛЬДА где ∞ P k=0 653 |ak |2 < ∞ и ε = (εn) – – некоторая обновляющая последователь- ность (для ξ r). 3. Смысл введенных выше понятий регулярной и сингулярной последовательностей становится особенно прозрачным при рассмотрении следующей задачи (линейной) экстраполяции, для общего решения которой оказывается весьма полезным использование разложения Вольда (6). Пусть H0 (ξ) = L2 (ξ 0) – – замкнутое линейное многообразие, порожденное величинами ξ 0 = (. . . , ξ−1 , ξ0). Рассмотрим задачу построения оптимальной (в среднеквадратическом смысле) линейной оценки ξˆ n величины ξn по «прошлым» наблюдениям ξ 0 = (. . . , ξ−1 , ξ0). Из § 11 гл. II следует, что ξ̂n = A (ξn | H0 (ξ)). (7) (В обозначениях п. 1 ξ̂n = π̂0 (ξn).) Поскольку ξ r и ξ s ортогональны и H0 (ξ) = = H0 (ξ r) ⊕ H0 (ξ s), то с учетом (6) находим ξ̂n = A (ξns + ξnr | H0 (ξ)) = A (ξns | H0 (ξ)) + A (ξnr | H0 (ξ)) = = A (ξ s | H0 (ξ r) ⊕ H0 (ξ s)) + A (ξ r | H0 (ξ r) ⊕ H0 (ξ s)) = n n = A (ξns | H0 (ξ s)) + A (ξnr | H0 (ξ r)) = ξns + A ∞ X k=0 r ! ak εn−k | H0 (ξ ) . В (6) последовательность ε = (εn) является обновляющей для ξ r = (ξnr ) и, значит, H0 (ξ r) = H0 (ε). Поэтому ! ∞ ∞ X X ˆξn = ξ s + A ak εn−k | H0 (ε) = ξ s + ak εn−k (8) n n k=0 k=n и среднеквадратическая ошибка предсказания ξn по ξ 0 = (. . ., ξ−1 , ξ0) равна σn2 = |ξn − ξ̂n |2 = n−1 X k=0 |ak |2 . (9) Отсюда вытекают следующие два важных вывода. a) Если последовательность ξ сингулярна, то для любого n > 1 ошибка (экстраполяции) σn2 равна нулю, иначе говоря, возможно безошибочное предсказание ξn по «прошлому» ξ 0 = (. . . , ξ−1 , ξ0). 2 b) Если последовательность ξ регулярна, то σn2 6 σn+1 и lim σn2 = n→∞ ∞ X k=0 |ak |2 . (10) 654 ГЛ. VI. СТАЦИОНАРНЫЕ СЛУЧАЙНЫЕ ПОСЛЕДОВАТЕЛЬНОСТИ Поскольку ∞ X k=0 то из (10) и (9) следует, что |ak |2 = |ξn |2 , L2 ξ̂n −→ 0, n → ∞, т. е. с ростом n прогноз величины ξn по ξ 0 = (. . . , ξ−1 , ξ0) становится тривиальным (совпадающим просто с ξn = 0). 4. Будем предполагать, что ξ – – невырожденная регулярная стационарная последовательность. Согласно теореме 2, всякая такая последовательность допускает представление в виде одностороннего скользящего среднего ∞ X ξn = ak εn−k , (11) k=0 где ∞ P k=0 |ak |2 < ∞ и ортонормированная последовательность ε = (εn) обла- дает тем важным свойством, что Hn (ξ) = Hn (ε), n ∈ Z. (12) Представление (11) означает (см. п. 3 § 3), что ξn можно рассматривать как сигнал на выходе физически осуществимого фильтра с импульсной переходной функцией a = (ak), k > 0, когда на вход подается последовательность ε = (εn). Как и всякая последовательность двустороннего скользящего среднего, регулярная последовательность имеет спектральную плотность f(λ). Но то обстоятельство, что регулярная последовательность допускает представление в виде одностороннего скользящего среднего, позволяет получить дополнительную информацию о свойствах спектральной плотности. Прежде всего ясно, что f(λ) = где ϕ(λ) = ∞ X 1 |ϕ(λ)|2 , 2π e −iλk ak , k=0 Положим Φ(z) = ∞ X k=0 ∞ X k=0 ak z k . |ak |2 < ∞. (13) (14) § 5. РАЗЛОЖЕНИЕ ВОЛЬДА 655 Эта функция является аналитической в открытой области |z| < 1 и в силу ∞ P условия |ak |2 < ∞ принадлежит так называемому классу Харди H 2 , k=0 т. е. классу аналитических в области |z| < 1 функций g = g(z), для которых sup 06r<1 π 1 ] |g(re iθ)|2 dθ < ∞. 2π (15) −π Действительно, ∞ π X 1 ] |Φ(re iθ)|2 dθ = |ak |2 r 2k 2π −π и sup 06r<1 k=0 X |ak |2 r 2k 6 X |ak |2 < ∞. В теории функций комплексного переменного доказывается, что граничное значение Φ(e iλ), −π 6 λ < π, тождественно не равной нулю функции Φ ∈ H 2 обладает тем свойством, что π ] −π ln |Φ(e −iλ)| dλ > −∞. (16) В рассматриваемом нами случае f(λ) = 1 |Φ(e −iλ)|2 , 2π где Φ ∈ H 2 . Поэтому ln f(λ) = − ln 2π + 2 ln |Φ(e −iλ)|, и, следовательно, спектральная плотность f(λ) регулярного процесса удовлетворяет условию π ] ln f(λ) dλ > −∞. (17) −π С другой стороны, пусть спектральная плотность f(λ) такова, что выполнено условие (17). Опять-таки из теории функций комплексного пере∞ P менного следует, что тогда найдется такая функция Φ(z) = ak z k , приk=0 надлежащая классу Харди H 2 , что (почти всюду по мере Лебега) f(λ) = 1 |Φ(e −iλ)|2 . 2π 656 ГЛ. VI. СТАЦИОНАРНЫЕ СЛУЧАЙНЫЕ ПОСЛЕДОВАТЕЛЬНОСТИ Поэтому, полагая ϕ(λ) = Φ(e −iλ), получаем f(λ) = 1 |ϕ(λ)|2 , 2π где ϕ(λ) задается формулой (13). Тогда из следствия 1 к теореме 3 § 3 вытекает, что последовательность ξ допускает представление в виде одностороннего скользящего среднего (11), где ε = (εn) – – некоторая ортонормированная последовательность. Отсюда и из замечания 2 в п. 2 следует, что последовательность ξ регулярна. Итак, имеет место Теорема 4 (Колмогоров). Пусть ξ – – невырожденная регулярная стационарная последовательность. Тогда существует спектральная плотность f(λ) такая, что π ] −π ln f(λ) dλ > −∞. (18) В частности, f(λ) > 0 (почти всюду по мере Лебега). Обратно, если ξ – – некоторая стационарная последовательность, имеющая спектральную плотность, удовлетворяющую условию (18), то эта последовательность является регулярной. 5. Задачи. 1. Показать, что стационарная последовательность с дискретным спектром (спектральная функция F(λ) – – кусочно-постоянна) является сингулярной. 2. Пусть σn2 = |ξn − ξ̂n |2 , ξ̂n = A (ξn | H0 (ξ)). Показать, что если для некоторого n > 1 σn2 = 0, то последовательность ξ является сингулярной; если же при n → ∞ σn2 → R(0), то – – регулярной. 3. Показать, что стационарная последовательность ξ = (ξn), ξn = e inϕ , где ϕ – – равномерная случайная величина на [0, 2π] , является регулярной. Найти оценку ξ̂n , величину σn2 и показать, что нелинейная оценка ξ˜ n = ξ0 ξ−1 n дает безошибочный прогноз ξn по «прошлому» ξ 0 = (. . . , ξ−1 , ξ0), т. е. |ξ̃n − ξn |2 = 0, n > 1. 4. Доказать, что разложение (1) на регулярную и сингулярную компоненты единственно. § 6. ЭКСТРАПОЛЯЦИЯ, ИНТЕРПОЛЯЦИЯ И ФИЛЬТРАЦИЯ 657 § 6. Экстраполяция, интерполяция и фильтрация 1. Экстраполяция. В соответствии с результатами предыдущего параграфа сингулярные последовательности допускают безошибочный прогноз (экстраполяцию) величин ξn , n > 1, по «прошлому» ξ 0 = (. . . , ξ−1 , ξ0). Естественно поэтому при рассмотрении задач экстраполяции для произвольных стационарных последовательностей изучить сначала случаи регулярных последовательностей. Согласно теореме 2 из § 5, всякая регулярная последовательность ξ = (ξn) допускает представление в виде одностороннего скользящего среднего, ∞ X ξn = ak εn−k , (1) k=0 с ∞ P k=0 |ak |2 < ∞ и некоторой обновляющей последовательностью ε = (εn). Представление (1), как следует из § 5, решает задачу нахождения оптимальной (линейной) оценки ξ̂n = A (ξn | H0 (ξ)), поскольку, согласно (8) § 5, ξ̂n = ∞ X (2) ak εn−k k=n и σn2 = |ξn − ξ̂n |2 = n−1 X k=0 |ak |2 . (3) Однако это решение можно считать лишь принципиальным решением в силу следующего обстоятельства. Обычно рассматриваемые последовательности задаются не представлением (1), а с помощью задания их ковариационной функции R(n) или спектральной плотности f(λ) (которая существует для регулярных последовательностей). Поэтому решение (2) можно признать удовлетворительным, если коэффициенты ak будут выражены через значения R(n) или f(λ), а величины εk – – через значения . . . , ξk−1 , ξk . Не затрагивая эту проблему в ее общем виде, ограничимся рассмотрением одного частного (но интересного для приложений) случая, когда спектральная плотность представляется в виде f(λ) = где функция Φ(z) = в области |z| 6 1. ∞ P k=0 1 |Φ(e −iλ)|2 , 2π (4) bk z k имеет радиус сходимости r > 1 и не имеет нулей 658 ГЛ. VI. СТАЦИОНАРНЫЕ СЛУЧАЙНЫЕ ПОСЛЕДОВАТЕЛЬНОСТИ Пусть π ] ξn = e iλn Z(dλ) (5) −π – – спектральное представление последовательности ξ = (ξn), n ∈ Z. Теорема 1. Если спектральная плотность последовательности ξ представима в виде (4), то оптимальная (линейная) оценка ξ̂n величины ξn по ξ 0 = (. . . , ξ−1 , ξ0) задается формулой ξ̂n = π ] ϕ̂n (λ) Z(dλ), (6) Φn (e −iλ) Φ(e −iλ) (7) −π где ϕ̂n (λ) = e iλn и Φn (z) = ∞ X bk z k . k=n Доказательство. Согласно замечанию к теореме 2 § 3, всякая величина ξ̃n ∈ H0 (ξ) допускает представление в виде ξ̃n = π ] ϕ̃n (λ) Z(dλ), −π ϕ̃n ∈ H0 (F), (8) где H0 (F) – – замкнутое линейное многообразие, порожденное функциями λ ] en = e iλn с n > 0 (F(λ) = f(ν) dν). −π Поскольку π ] |ξn − ξ̃n |2 = −π (e iλn − ϕ̃n (λ)) Z(dλ) 2 = π ] −π |e iλn − ϕ̃n (λ)|2 f(λ) dλ, то доказательство оптимальности оценки (6) сводится к доказательству того, что inf ϕ̃n ∈H0 (F) π ] −π |e iλn − ϕ̃n (λ)|2 f(λ) dλ = π ] −π |e iλn − ϕ̂n (λ)|2 f(λ) dλ. (9) Из теории гильбертовых пространств (§ 11 гл. II) следует, что оптимальная (в смысле (9)) функция ϕ̂n (λ) определяется двумя условиями: 1) ϕ̂n (λ) ∈ H0 (F), (10) 2) e iλn − ϕ̂n (λ) ⊥ H0 (F). § 6. ЭКСТРАПОЛЯЦИЯ, ИНТЕРПОЛЯЦИЯ И ФИЛЬТРАЦИЯ 659 Поскольку e iλn Φn (e −iλ) = e iλn [bn e −iλn + bn+1 e −iλ(n+1) + . . . ] ∈ H0 (F) и аналогичным образом 1 ∈ H0 (F), то функция ϕ̂n (λ), определенная Φ(e −iλ) в (7), принадлежит классу H0 (F). Поэтому для доказательства «оптимальности» функции ϕ̂n (λ) достаточно лишь проверить, что для любого m > 0 e iλn − ϕ̂n (λ) ⊥ e −iλm , т. е. In,m ≡ π ] −π [e iλn − ϕ̂n (λ)] e iλm f(λ) dλ = 0, m > 0. Следующая цепочка равенств показывает, что это действительно так: π Φn (e −iλ) 1 ] iλ(n+m) |Φ(e −iλ)|2 dλ = 1− e In,m = −iλ 2π = ) Φ(e −π 1 2π π ] −π e iλ(n+m) [Φ(e −iλ) − Φn (e −iλ)] Φ(e −iλ) dλ = n−1 X π 1 ] iλ(n+m) = e 2π −π bk e −iλk k=0 ! ∞ X bl e l=0 n−1 π 1 ] iλm X e bk e iλ(n−k) = 2π −π iλl k=0 ! ! dλ = ∞ X bl e iλl l=0 ! dλ = 0, где последнее равенство следует из того, что для m > 0 и r > 1 π ] e iλm e iλr dλ = 0. −π Замечание 1. Разлагая функцию ϕ̂n (λ) в ряд Фурье ϕ̂n (λ) = C0 + C−1 e −iλ + C−2 e −2iλ + . . . , находим, что прогноз ξ̂n величины ξn , n > 1, по прошлому ξ 0 = (. . . , ξ−1 , ξ0) определяется формулой ξ̂n = C0 ξ0 + C−1 ξ−1 + C−2 ξ−2 + . . . Замечание 2. Типичным примером спектральной плотности, представимой в виде (4), является рациональная функция f(λ) = 1 P(e −iλ) 2π Q(e −iλ) 2 , 660 ГЛ. VI. СТАЦИОНАРНЫЕ СЛУЧАЙНЫЕ ПОСЛЕДОВАТЕЛЬНОСТИ где полиномы P(z) = a0 + a1 z + . . . + a p z p и Q(z) = 1 + b1 z + . . . + bq z q не имеют нулей в области {z : |z| 6 1}. Действительно, в этом случае достаточно положить Φ(z) = P(z) /Q(z). ∞ P Тогда Φ(z) = Ck z k , причем радиус сходимости этого ряда больше едиk=0 ницы. Приведем два примера, иллюстрирующие теорему 1. Пример 1. Пусть спектральная плотность f(λ) = 1 (5 + 4 cos λ). 2π Соответствующая ковариационная функция R(n) имеет «треугольный» вид: R(0) = 5, R(±1) = 2, R(n) = 0 при |n| > 2. (11) Поскольку рассматриваемая спектральная плотность может быть представлена в виде f(λ) = 1 |2 + e −iλ |2 , 2π то возможно применение теоремы 1. Легко находим, что ϕ̂1 (λ) = e iλ e −iλ , 2 + e −iλ ϕ̂n (λ) = 0 при n > 2. (12) Поэтому для всех n > 2 ξ̂n = 0, т. е. (линейный) прогноз значения ξ пo ξ 0 = (. . . , ξ−1 , ξ0) является тривиальным, что совсем неудивительно, если заметить, что, согласно (11), корреляция между ξn и любой из величин ξ0 , ξ−1 , . . . равна нулю для n > 2. Для n = 1 из (6) и (12) находим, что ξ̂1 = π ] −π e iλ π e −iλ 1 ] Z(dλ) = −iλ 2 2+e −π = ∞ π X (−1) k ] k=0 2k+1 1 e −iλ 1+ 2 e −ikλ Z(dλ) = −π Z(dλ) = ∞ X (−1) k ξk k=0 Пример 2. Пусть ковариационная функция R(n) = an , |a| < 1. Тогда (см. пример 5 в § 1) f(λ) = 1 − |a|2 1 , 2π |1 − ae −iλ |2 2k+1 1 2 1 4 = ξ0 − ξ−1 + . . . § 6. ЭКСТРАПОЛЯЦИЯ, ИНТЕРПОЛЯЦИЯ И ФИЛЬТРАЦИЯ 661 т. е. f(λ) = где Φ(z) = 1 |Φ(e −iλ)|2 , 2π ∞ X (1 − |a|2) 1/2 = (1 − |a|2) 1/2 (az) k , 1 − az k=0 откуда ϕ̂n (λ) = a и, значит, n ξ̂n = π ] an Z(dλ) = an ξ0 . −π Иначе говоря, для прогнозирования величины ξn по наблюдениям ξ 0 = = (. . . , ξ−1 , ξ0) достаточно знания лишь последнего наблюдения ξ0 . Замечание 3. Из разложения Вольда регулярной последовательности ξ = (ξn), ∞ X ξn = ak εn−k , (13) k=0 следует, что спектральная плотность f(λ) допускает представление f(λ) = 1 |Φ(e −iλ)|2 , 2π (14) где Φ(z) = ∞ X ak z k . (15) k=0 Очевидно, что и обратно, если f(λ) допускает представление (14) с функцией Φ(z) вида (15), то рaзлoжeниe Вольда для ξn имеет вид (13). Таким образом, задача представления спектральной плотности f(λ) в виде (14) и задача отыскания коэффициентов ak в разложении Вольда эквивалентны. Сделанные в теореме 1 предположения относительно функции Φ(z) (отсутствие нулей в области |z| 6 1 и r > 1) на самом деле не нужны для ее справедливости. Иначе говоря, если спектральная плотность регулярной последовательности представлена в виде (14), то оптимальная в среднеквадратическом смысле оценка ξ̂n величины ξn по ξ 0 = (. . . , ξ−1 , ξ0) определяется формулами (6) и (7). Замечание 4. Теорема 1 (вместе с предшествующим замечанием 3) дает решение задачи прогноза для регулярной последовательности. Покажем, что на самом деле тот же ответ остается в силе и для произвольной стационарной последовательности. Точнее, пусть ξn = ξns + ξnr , 662 ГЛ. VI. СТАЦИОНАРНЫЕ СЛУЧАЙНЫЕ ПОСЛЕДОВАТЕЛЬНОСТИ π ] ξn = −π e iλn Z(dλ), F(∆) = |Z(∆)|2 и f r (λ) = 1 |Φ(e −iλ)|2 – – спектраль2π ная плотность регулярной последовательности ξ r = (ξnr ). Тогда оценка ξ̂n определяется формулами (6) и (7). В самом деле (см. п. 3 § 5), пусть π π ] ] ξ̂n = ϕ̂n (λ) Z(dλ), ξ̂nr = ϕ̂rn (λ) Z r (dλ), −π −π где Z (∆) – – ортогональная стохастическая мера в представлении регулярной последовательности ξ r . Тогда r |ξn − ξ̂n |2 = π ] −π |e iλn − ϕ̂n (λ)|2 F(dλ) > π ] > −π π ] −π |e iλn − ϕ̂n (λ)|2 f r (λ) dλ > |e iλn − ϕ̂rn (λ)|2 f r (λ) dλ = |ξnr − ξ̂nr |2 . (16) Но ξn − ξ̂n = ξnr − ξ̂nr , поэтому |ξn − ξ̂n |2 = |ξnr − ξ̂nr |2 , и из (16) следует, что в качестве ϕ̂n (λ) можно взять функцию ϕ̂rn (λ). 2. Интерполяция. Будем предполагать, что ξ = (ξn) – – регулярная последовательность со спектральной плотностью f(λ). Простейшей задачей интерполяции является задача построения оптимальной (в среднеквадратическом смысле) линейной оценки по результатам наблюдений {ξn , n = ±1, ±2, . . . } «пропущенного» значения ξ0 . Обозначим через H 0 (ξ) – – замкнутое линейное многообразие, порожденное величинами ξn , n 6= 0. Тогда в соответствии с теоремой 2 § 3 всякая случайная величина η ∈ H 0 (ξ) представима в виде π ] η= ϕ(λ) Z(dλ), −π 0 где ϕ принадлежит H (F) – – замкнутому линейному многообразию, порожденному функциями e iλn , n 6= 0, и оценка π ] ξ̌0 = ϕ̌(λ) Z(dλ) (17) −π будет оптимальной тогда и только тогда, когда inf η∈H 0 (ξ) |ξ0 − η|2 = inf π ] ϕ∈H 0 (F) −π |1 − ϕ(λ)|2 F(dλ) = = π ] −π |1 − ϕ̌(λ)|2 F(dλ) = |ξ0 − ξ̌0 |2 . § 6. ЭКСТРАПОЛЯЦИЯ, ИНТЕРПОЛЯЦИЯ И ФИЛЬТРАЦИЯ 663 Из свойств «перпендикуляров» в гильбертовом пространстве H 0 (F) вытекает, что функция ϕ̌(λ) полностью определяется (ср. с (10)) двумя условиями 1) ϕ̌(λ) ∈ H 0 (F), (18) 2) 1 − ϕ̌(λ) ⊥ H 0 (F). Теорема 2 (Колмогоров). Пусть ξ = (ξn) – – регулярная последовательность с π ] dλ < ∞. (19) −π f(λ) Тогда ϕ̌(λ) = 1 − α , f(λ) (20) где 2π , α = π] dλ −π (21) f(λ) и ошибка интерполяции δ 2 = |ξ0 − ξ̌0 |2 задается формулой δ 2 = 2πα. Доказательство проведем лишь при весьма строгих предположениях относительно спектральной плотности, считая, что 0 < c 6 f(λ) 6 C < ∞. (22) Из условия 2) в (18) следует, что для любого n 6= 0 π ] −π [1 − ϕ̌(λ)] e inλ f(λ) dλ = 0. (23) В силу предположения (22) функция [1 − ϕ̌(λ)] f(λ) принадлежит гильбертову пространству L2 ([−π, π] , B ([−π, π]), dµ) с мерой Лебега dµ. В этом n e iλn o пространстве система функций √ , n = 0, ±1, . . . образует ортонор2π мированный базис (задача 10 § 12 гл. II). Поэтому из (23) следует, что функция [1 − ϕ̌(λ)] f(λ) есть константа, которую обозначим α. Итак, второе условие в (18) приводит к тому, что ϕ̌(λ) = 1 − α . f(λ) (24) Исходя из первого условия в (18), определим теперь константу α. В силу (22) ϕ̌ ∈ L2 и условие ϕ̌ ∈ H 0 (F) равносильно условию, что ϕ̌ принадлежит замкнутому (в смысле нормы в L2) линейному многообразию, 664 ГЛ. VI. СТАЦИОНАРНЫЕ СЛУЧАЙНЫЕ ПОСЛЕДОВАТЕЛЬНОСТИ порожденному функциями e iλn , n 6= 0. Отсюда ясно, что нулевой коэффициент в разложении функции ϕ̌(λ) должен быть равен нулю. Поэтому π ] 0= −π ϕ̌(λ) dλ = 2π − α π ] −π dλ f(λ) и, значит, константа α определяется формулой (21). Наконец, δ 2 = |ξ0 − ξ̌0 |2 = π ] −π |1 − ϕ̌(λ)|2 f(λ) dλ = |α|2 π ] −π 4π 2 f(λ) . dλ = π] 2 f (λ) dλ f(λ) −π Теорема (при дополнительном предположении (22)) доказана. Следствие. Если X ck e iλk , ϕ̌(λ) = 0<|k|6N то ξ̌0 = X ck 0<|k|6N π ] e iλk Z(dλ) = −π X ck ξk . 0<|k|6N Пример 3. Пусть f(λ) – – спектральная плотность из рассмотренного выше примера 2. Тогда нетрудно подсчитать, что ξ̌0 = π ] −π a a [e iλ + e −iλ ] Z(dλ) = [ξ1 + ξ−1 ] , 1 + |a|2 1 + |a|2 а ошибка интерполяции равна δ2 = 1 − |α|2 . 1 + |α|2 3. Фильтрация. Пусть (θ, ξ) = ((θn), (ξn)), n ∈ Z, – – частично наблюдаемая последовательность, где θ = (θn) – – ненаблюдаемая, а ξ = (ξn) – – наблюдаемая компонента. Последовательности θ и ξ будут предполагаться стационарными (в широком смысле) с нулевыми средними и спектральными представлениями θn = π ] e iλn Zθ (dλ), −π ξn = π ] e iλn Zξ (dλ) −π соответственно. Обозначим Fθ (∆) = |Zθ (∆)|2 , Fξ (∆) = |Zξ (∆)|2 § 6. ЭКСТРАПОЛЯЦИЯ, ИНТЕРПОЛЯЦИЯ И ФИЛЬТРАЦИЯ 665 и Fθξ (∆) = Zθ (∆)Zξ (∆). Кроме того, будем считать, что θ и ξ стационарно связаны, т. е. их функция ковариации (θn , ξm) = θn ξm зависит лишь от разности n − m. Обозначим Rθξ (n) = θn ξ0 . Тогда π ] Rθξ (n) = e iλn Fθξ (dλ). −π Рассматриваемая задача фильтрации состоит в построении оптимальной (в среднеквадратическом смысле) линейной оценки θ̂n величины θn по тем или иным наблюдениям последовательности ξ. Совсем просто эта задача решается в предположении, что оценка θ̂n строится по всем значениям ξm , m ∈ Z. Действительно, поскольку θ̂n = A (θn | H(ξ)), то найдется такая функция ϕ̂n (λ), что π ] θ̂n = ϕ̂n (λ) Zξ (dλ). (25) −π Как и в пп. 1 и 2, условия, которым должна удовлетворять «оптимальная» функция ϕ̂n (λ), состоят в том, что: 1) ϕ̂n (λ) ∈ H(Fξ), 2) θn − θ̂n ⊥ H(ξ). Из последнего условия находим, что для любого m ∈ Z π π ] ] e iλ(n−m) Fθξ (dλ) − e −iλm ϕ̂n (λ) Fξ (dλ) = 0. (26) −π −π Поэтому, если предположить, что функции Fθξ (λ) и Fξ (λ) имеют плотности fθξ (λ) и fξ (λ), то из (26) получим π ] e iλ(n−m) [fθξ (λ) − e −iλm ϕ̂n (λ) fξ (λ)] dλ = 0. −π что Если fξ (λ) > 0 (почти всюду по мере Лебега), то отсюда сразу находим, ϕ̂n (λ) = e iλn ϕ̂(λ), где ϕ̂(λ) = fθξ (λ) · fξ⊕ (λ) и fξ⊕ (λ) – – «псевдообращение» fξ (λ), т. е. ( [fξ (λ)] −1 , fξ⊕ (λ) = 0, fξ (λ) > 0, fξ (λ) = 0. (27) 666 ГЛ. VI. СТАЦИОНАРНЫЕ СЛУЧАЙНЫЕ ПОСЛЕДОВАТЕЛЬНОСТИ При этом ошибка фильтрации |θn − θ̂n |2 = π ] 2 [fθ (λ) − fθξ (λ) fξ⊕ (λ)] dλ. −π (28) Как нетрудно проверить, ϕ̂n ∈ H(Fξ) и, следовательно, оценка (25) с функцией (27) является оптимальной. Пример 4. Выделение сигнала из смеси с шумом. Пусть ξn = θn + ηn , где сигнал θ = (θn) и шум η = (ηn) являются некоррелированными последовательностями со спектральными плотностями fθ (λ) и fη (λ). Тогда θ̂n = π ] e iλn ϕ̂(λ) Zξ (dλ), −π где ϕ̂(λ) = fθ (λ) [fθ (λ) + fη (λ)] ⊕ , а ошибка фильтрации |θn − θ̂n |2 = π ] [fθ (λ) fη (λ)] [fθ (λ) + fη (λ)] ⊕ dλ. −π Полученное решение (25) можно теперь использовать для построения оптимальной оценки θ̃n+m величины θn+m по результатам наблюдений ξk , k 6 n, где m – – некоторое заданное число из Z. Предположим, что последовательность ξ = (ξn) регулярна со спектральной плотностью f(λ) = где Φ(z) = ∞ P 1 |Φ(e −iλ)|2 , 2π ak z k . Согласно разложению Вольда, k=0 ξn = ∞ X ak εn−k , k=0 где ε = (εn) – – белый шум со спектральным разложением π ] εn = e iλn Zε (dλ). −π Поскольку и θ̃n+m = A [θn+m | Hn (ξ)] = A [ A [θn+m | H(ξ)] | Hn (ξ)] = A [θ̂n+m | Hn (ξ)] θ̂n+m = π ] −π e iλ(n+m) ϕ̂(λ)Φ(e −iλ) Zε (dλ) = ∞ X k=−∞ ân+m−k εk , § 6. ЭКСТРАПОЛЯЦИЯ, ИНТЕРПОЛЯЦИЯ И ФИЛЬТРАЦИЯ 667 где âk = π 1 ] iλk e ϕ̂(λ)Φ(e −iλ) dλ, 2π (29) −π то θ̃n+m = A " ∞ X k=−∞ # ân+m−k εk | Hn (ξ) . Но Hn (ξ) = Hn (ε), и, значит, " # π X ] X iλk θ̃n+m = ân+m−k εk = ân+m−k e Zε (dλ) = k6n −π k6n π ] = e −π iλn "∞ X âl+m e −iλl l=0 # Φ⊕ (e −iλ) Zξ (dλ), где Φ – – псевдообращение Φ. Итак, доказана следующая Теорема 3. Если наблюдаемая последовательность ξ = (ξn) является регулярной, то оптимaльнaя (в среднеквадратическом смысле) линейная оценка θ̃n+m величины θn+m по ξk , k 6 n, задается формулой ⊕ θ̃n+m = π ] e iλn Hm (e −iλ) Zξ (dλ), (30) −π где Hm (e −iλ )= ∞ X âl+m e −iλl Φ⊕ (e −iλ) (31) l=0 и коэффициенты âk определяются в (29). 4. Задачи. 1. Доказать, что утверждение теоремы 1 сохраняет свою силу и без предположений, что Φ(z) имеет радиус сходимости r > 1, а нули Φ(z) лежат только в области |z| > 1. 2. Показать, что для регулярного процесса функция Φ(z), входящая в (4), может быть представлена в виде ( ) ∞ X √ 1 k c0 + ck z , |z| < 1, Φ(z) = 2π exp 2 где ck = k=1 π 1 ] ikλ e ln f(λ) dλ. 2π −π 668 ГЛ. VI. СТАЦИОНАРНЫЕ СЛУЧАЙНЫЕ ПОСЛЕДОВАТЕЛЬНОСТИ Вывести отсюда, что ошибка прогноза на один шаг σ12 = |ξ̂1 − ξ1 |2 задается формулой Сеге– –Колмогорова ( ) π ] 1 σ12 = 2π exp ln f(λ) dλ . 2π −π 3. Дать доказательство теоремы 2 без предположения (22). 4. Пусть некоррелированные сигнал θ и шум η имеют спектральные плотности fθ (λ) = 1 1 · , 2π |1 + b1 e −iλ |2 fη (λ) = 1 1 · . 2π |1 + b2 e −iλ |2 Опираясь на теорему 3, найти оценку θ̃n+m величины θn+m по значениям ξk , k 6 n, где ξk = θk + ηk . Рассмотреть ту же задачу для спектральных плотностей fθ (λ) = 1 |2 + e −iλ |2 , 2π fη (λ) = 1 . 2π § 7. Фильтр Калмана– –Бьюси и его обобщения 1. С вычислительной точки зрения данное выше решение задачи фильтрации ненаблюдаемой компоненты θ по наблюдениям ξ не является удобным, поскольку, будучи выраженным в спектральных терминах, оно для своей реализации требует обращения к аналоговым устройствам. В схеме, предложенной Калманом и Бьюси, синтезирование оптимального фильтра осуществляется рекуррентным способом, что дает возможность реализации с помощью цифровых вычислительных устройств. Есть и другие причины, обусловившие широкое применение фильтра Калмана– –Бьюси. Одна из них состоит в том, что он «работает» и без предположения стационарности последовательностей (θ, ξ). Ниже будет рассматриваться не только традиционная схема Калмана– – Бьюси, но также и ее обобщения, состоящие в том, что в рекуррентных уравнениях, определяющих (θ, ξ), коэффициенты могут зависеть от всех прошлых наблюдаемых данных. Итак, будем предполагать, что (θ, ξ) = ((θn), (ξn)) есть частично наблюдаемая последовательность, причем θn = (θ1 (n), . . . , θk (n)), ξn = (ξ1 (n), . . . , ξl (n)) управляются рекуррентными уравнениями θn+1 = a0 (n, ξ) + a1 (n, ξ) θn + b1 (n, ξ) ε1 (n + 1) + b2 (n, ξ) ε2 (n + 1), ξn+1 = A0 (n, ξ) + A1 (n, ξ) θn + B1 (n, ξ) ε1 (n + 1) + B2 (n, ξ) ε2 (n + 1). (1) § 7. ФИЛЬТР КАЛМАНА– –БЬЮСИ И ЕГО ОБОБЩЕНИЯ 669 Здесь ε1 (n) = (ε11 (n), . . . , ε1k (n)), ε2 (n) = (ε21 (n), . . . , ε2l (n)) – – независимые гауссовские векторы с независимыми компонентами, каждая из которых имеет нормальное распределение с параметрами 0 и 1; a0 (n, ξ) = = (a01 (n, ξ), . . . , a0k (n, ξ)) и A0 (n, ξ) = (A01 (n, ξ), . . . , A0l (n, ξ)) – – векторфункции, где зависимость от ξ = (ξ0 , ξ1 , . . .) входит неупреждающим образом, т. е. для фиксированного n a01 (n, ξ), . . . , A0l (n, ξ) зависят лишь от ξ0 , . . . , ξn ; матричные функции b1 (n, ξ) = kbi(1) j (n, ξ)k, B1 (n, ξ) = kBi(1) j (n, ξ)k, (1) a1 (n, ξ) = kai j (n, ξ)k, b2 (n, ξ) = kbi(2) j (n, ξ)k, B2 (n, ξ) = kBi(2) j (n, ξ)k, (1) A1 (n, ξ) = kAi j (n, ξ)k имеют порядок k × k, k × l, l × k, l × l, k × k, l × k, соответственно, и также неупреждающим образом зависят от ξ. Предполагается также, что вектор начальных данных (θ0 , ξ0) не зависит от последовательностей ε1 = (ε1 (n)) и ε2 = (ε2 (n)). Для простоты изложения указание на зависимость коэффициентов от ξ в дальнейшем часто будет опускаться. Чтобы система (1) имела решение с конечным вторым моментом, будем k P предполагать, что (kθ0 k2 + kξ0 k2) < ∞ kxk2 = xi2 , x = (x1 , . . . , xk) , (1) i=1 (1) |ai j (n, ξ)| 6 C, |Ai j (n, ξ)| 6 C, и если g(n, ξ) – – любая из функций a0i , A0j , (1) (2) (1) (2) bi j , bi j , Bi j , Bi j , то |g(n, ξ)|2 < ∞, n = 0, 1, . . . В этих допущениях последовательность (θ, ξ) такова, что и (kθn k2 + kξn k2) < ∞, n > 1. Пусть, далее, Fnξ = σ{ω : ξ0 , . . . , ξn } – – наименьшая σ-алгебра, порожденная величинами ξ0 , . . . , ξn , и mn = (θn | Fnξ), γn = [(θn − mn) (θn − mn) ∗ | Fnξ ] . Согласно теореме 1 § 8 гл. II, mn = (m1 (n), . . . , mk (n)) является оптимальной в среднеквадратическом смысле оценкой вектора θn = (θ1 (n), . . . . . . , θk (n)), а γn = [(θn − mn) (θn − mn) ∗ ] есть матрица ошибок оценивания. Отыскание этих величин для произвольных последовательностей (θ, ξ), управляемых уравнениями (1), является весьма трудной задачей. Однако при одном дополнительном предположении относительно (θ0 , ξ0), состоящем в том, что условное распределение (θ0 6 a|ξ0) является гауссовским, 1 (θ0 6 a|ξ0) = p 2πγ0 ]a e − (x−m0) 2 2γ02 dx, (2) −∞ с параметрами m0 = m0 (ξ0), γ0 = γ0 (ξ0), для mn и γn можно вывести систему 670 ГЛ. VI. СТАЦИОНАРНЫЕ СЛУЧАЙНЫЕ ПОСЛЕДОВАТЕЛЬНОСТИ рекуррентных уравнений, включающих в себя и так называемые уравнения фильтра Калмана– –Бьюси. Прежде всего установим один важный вспомогательный результат. Лемма 1. При сделанных выше предположениях относительно коэффициентов системы (1) и условии (2) последовательность (θ, ξ) является условно-гауссовской, т. е. условная функция распределения (θ0 6 a0 , . . . , θn 6 an | Fnξ) есть ( -п. н.) функция распределения n-мерного гауссовского вектора, среднее значение и матрица ковариаций которого зависят от (ξ0 , . . . , ξn). Доказательство. Ограничимся доказательством гауссовости лишь распределения (θn 6 a | Fnξ), что достаточно для вывода уравнений для mn и γn . Прежде всего заметим, что из (1) следует, что условное распределение (θn+1 6 a, ξn+1 6 x | Fnξ , θn = b) является гауссовским с вектором средних значений a0 + a1 b A0 + A1 b = A0 + A1 b и матрицей ковариаций b◦b b◦B B= (b ◦ B) ∗ B ◦ B , где b ◦ b = b1 b1∗ + b2 b2∗ , b ◦ B = b1 B1∗ + b2 B2∗ , B ◦ B = B1 B1∗ + B2 B2∗ . Обозначим ζn = (θn , ξn) и t = (t1 , . . . , tk+l ). Тогда [exp{it ∗ ζn+1 } | Fnξ , θn ] = o n 1 = exp it ∗ (A0 (n, ξ) + A1 (n, ξ)θn) − t ∗ B(n, ξ)t . 2 (3) Допустим теперь, что утверждение леммы справедливо для некоторого n > 0. Тогда [exp{it ∗ A1 (n, ξ)θn } | Fnξ ] = o n 1 = exp it ∗ A1 (n, ξ)mn − t ∗ (A1 (n, ξ)γn A∗1 (n, ξ))t . 2 Докажем, что формула (4) останется верной и при замене n на n + 1. (4) § 7. ФИЛЬТР КАЛМАНА– –БЬЮСИ И ЕГО ОБОБЩЕНИЯ 671 Из (3) и (4) имеем n [exp{it ∗ ζn+1 } | Fnξ ] = exp it ∗ (A0 (n, ξ) + A1 (n, ξ)mn) − − 1 ∗ 1 t B(n, ξ)t − t ∗ (A1 (n, ξ)γn A∗1 (n, ξ))t . 2 2 Поэтому условные распределения (θn+1 6 a, ξn+1 6 x | Fnξ) o (5) являются гауссовскими. Как и при доказательстве теоремы о нормальной корреляция (теорема 2 в § 13 гл. II), проверяется, что существует такая матрица C, что вектор η = [θn+1 − (θn+1 | Fnξ)] − C[ξn+1 − (ξn+1 | Fnξ)] обладает тем свойством, что ( -п. н.) [η (ξn+1 − (ξn+1 | Fnξ)) ∗ | Fnξ ] = 0. Отсюда следует, что условно-гауссовские векторы η и ξn+1 , рассматриваемые при условии Fnξ , являются независимыми, т. е. ( -п. н.) (η ∈ A, ξn+1 ∈ B | Fnξ) = (η ∈ A|Fnξ) · (ξn+1 ∈ B | Fnξ) для любых A ∈ B (R k), B ∈ B (R l ). Поэтому, если s = (s1 , . . . , sk), то [exp(is ∗ θn+1) | Fnξ , ξn+1 ] = = {exp(is ∗ [ (θn+1 | Fnξ) + η + C[ξn+1 − (ξn+1 | Fnξ)] ]) | Fnξ , ξn+1 } = = exp{is ∗ [ (θn+1 | Fnξ) + C[ξn+1 − (ξn+1 | Fnξ)] ] } [exp(is ∗ η) | Fnξ , ξn+1 ] = = exp{is ∗ [ (θn+1 | Fnξ) + C[ξn+1 − (ξn+1 | Fnξ)] ] } (exp(is ∗ η) | Fnξ). (6) Согласно (5), условное распределение (η 6 y | Fnξ) является гауссовским. Вместе с (6) это доказывает, что условное распределение ξ (θn+1 6 a | Fn+1 ) также является гауссовским. Теорема 1. Пусть (θ, ξ) – – частично наблюдаемая последовательность, удовлетворяющая (1) и (2). Тогда (mn , γn) подчиняются следующим рекуррентным уравнениям: mn+1 = [a0 + a1 mn ] + [b ◦ B + a1 γn A∗1 ] [B ◦ B + A1 γn A∗1 ] ⊕ × × [ξn+1 − A0 − A1 mn ] , (7) × [B ◦ B + A1 γn A∗1 ] ⊕ · [b ◦ B + a1 γn A∗1 ] ∗ . (8) γn+1 = [a1 γn a∗1 + b ◦ b] − [b ◦ B + a1 γn A∗1 ] × 672 ГЛ. VI. СТАЦИОНАРНЫЕ СЛУЧАЙНЫЕ ПОСЛЕДОВАТЕЛЬНОСТИ Доказательство. Из (1) (θn+1 | Fnξ) = a0 + a1 mn , (ξn+1 | Fnξ) = A0 + A1 mn (9) и θn+1 − (θn+1 | Fnξ) = a1 [θn − mn ] + b1 ε1 (n + 1) + b2 ε2 (n + 1), ξn+1 − (ξn+1 | Fnξ) = A1 [θn − mn ] + B1ε1 (n + 1) + B2 ε2 (n + 1). (10) Обозначим d11 = d12 = d22 = (θn+1 , θn+1 | Fnξ) = = {[θn+1 − (θn+1 | Fnξ)] [θn+1 − (θn+1 | Fnξ)] ∗ | Fnξ }, (θn+1 , ξn+1 | Fnξ) = = {[θn+1 − (θn+1 | Fnξ)] [ξn+1 − (ξn+1 | Fnξ)] ∗ | Fnξ }, (ξn+1 , ξn+1 | Fnξ) = = {[ξn+1 − (ξn+1 | Fnξ)] [ξn+1 − (ξn+1 | Fnξ)] ∗ | Fnξ }. Тогда из (10) d11 = a1 γn a∗1 + b ◦ b, d12 = a1 γn A∗1 + b ◦ B, d22 = A1 γn A∗1 + B ◦ B. (11) В силу теоремы о нормальной корреляции (см. теорему 2 и задачу 4 в § 13 гл. II) ⊕ mn+1 = (θn+1 | Fnξ , ξn+1) = (θn+1 | Fnξ) + d12 d22 (ξn+1 − (ξn+1 | Fnξ)) и γn+1 = ⊕ ∗ (θn+1 , θn+1 | Fnξ , ξn+1) = d11 − d12 d22 d12 . Подставляя сюда выражения для (θn+1 | Fnξ), (ξn+1 | Fnξ) из (9) и для d11 , d12 , d22 из (11), получаем искомые рекуррентные уравнения (7) и (8). Следствие 1. Если все коэффициенты a0 (n, ξ), . . . , B2 (n, ξ) в системе (1) не зависят от ξ, то соответствующая схема называется схемой Калмана– –Бьюси, а уравнения (7) и (8) для mn и γn – – фильтром Калмана– –Бьюси. Важно подчеркнуть, что в этом случае условная матрица ошибок γn совпадает с безусловной, т. е. γn ≡ γn = [(θn − mn) (θn − mn) ∗ ] . Следствие 2. Предположим, что частично наблюдаемая последовательность (θn , ξn) такова, что для θn справедливо первое из § 7. ФИЛЬТР КАЛМАНА– –БЬЮСИ И ЕГО ОБОБЩЕНИЯ 673 уравнений в (1), а для ξn – – уравнение h 0 (n − 1, ξ) + A h 1 (n − 1, ξ)θn + ξn = A h 1 (n − 1, ξ)ε1 (n) + B h 2 (n − 1, ξ)ε2 (n). +B (12) Тогда, очевидно, h 0 (n, ξ) + A h 1 (n, ξ) [a0 (n, ξ) + a1 (n, ξ)θn + b1 (n, ξ)ε1 (n + 1) + ξn+1 = A h 1 (n, ξ)ε1 (n + 1) + +B h 2 (n, ξ)ε2 (n + 1), + b2 (n, ξ)ε2 (n + 1)] + B и, обозначая h0 + A h 1 a0 , A0 = A h 1 b1 + B h 1, B1 = A h 1 a1 , A1 = A h 2 b2 + B h 2, B2 = A получаем, что рассматриваемый случай также укладывается в схему (1), а mn и γn удовлетворяют уравнениям (7) и (8). 2. Обратимся к линейной схеме (ср. с (1)) θn+1 = a0 + a1 θn + a2 ξn + b1 ε1 (n + 1) + b2 ε2 (n + 1), ξn+1 = A0 + A1 θn + A2 ξn + B1 ε1 (n + 1) + B2 ε2 (n + 1), (13) где все коэффициенты a0 , . . . , B2 могут зависеть от n (но не от ξ), а εi j (n) – – независимые гауссовские случайные величины с εi j (n) = 0 и ε2i j (n) = 1. Пусть система (13) решается при начальных значениях (θ0 , ξ0) таких, что условное распределение (θ0 6 a | ξ0) является гауссовским с параметрами m0 = (θ0 | ξ0) и γ0 = (θ0 , θ0 | ξ0) = γ0 . Тогда в силу теоремы о нормальной корреляции и (7), (8) оптимальная оценка mn = (θn | Fnξ) является линейной функцией от ξ0 , ξ1 , . . . , ξn . Это замечание позволяет доказать следующее важное утверждение о структуре оптимального линейного фильтра при отказе от предположения гауссовости. Теорема 2. Пусть (θ, ξ) = (θn , ξn) n>0 – – частично наблюдаемая последовательность, удовлетворяющая системе (13), где εi j (n) – – некоррелированные случайные величины с εi j (n) = 0, ε2i j (n) = 1, а компоненты вектора начальных значений (θ0 , ξ0) имеют конечный второй момент. Тогда оптимальная линейная оценка m̂n = A (θn | ξ0 , . . . , ξn) удовлетворяет уравнениям (7) с a0 (n, ξ) = a0 (n) + a2 (n)ξn , A0 (n, ξ) = = A0 (n) + A2 (n)ξn , а матрица ошибок γ̂n = A [(θn − m̂n) (θn − m̂n) ∗ ] – – уравнениям (8) с начальными данными m̂0 = γ̂0 = (θ0 , ξ0) (θ0 , θ0) − ⊕ (ξ0 , ξ0) · ξ0 , (θ0 , ξ0) ⊕ (ξ0 , ξ0) ∗ (θ0 , ξ0). (14) 674 ГЛ. VI. СТАЦИОНАРНЫЕ СЛУЧАЙНЫЕ ПОСЛЕДОВАТЕЛЬНОСТИ Для доказательства этой теоремы понадобится следующая лемма, раскрывающая роль гауссовского случая при отыскании оптимальных линейных оценок. Лемма 2. Пусть (α, β) – – двумерный случайный вектор, (α2 + 2 + β ) < ∞, а (α̃, β̃) – – двумерный гауссовский вектор с теми же первыми и вторыми моментами, что и у (α, β), т. е. α̃i = αi , β̃ i = β i , i = 1, 2, α̃β̃ = αβ. Пусть λ(b) – – линейная функция от b такая, что λ(b) = (α̃ | β̃ = b). Тогда λ(β) является оптимальной (в среднеквадратическом смысле) линейной оценкой α по β, т. е. A (α | β) = λ(β). При этом λ(β) = α. Доказательство. Прежде всего отметим, что существование линейной функции λ(b), совпадающей с (α̃ | β̃ = b), вытекает из теоремы о нормальной корреляции. Далее, пусть λ(b) – – какая-то другая линейная оценка. Тогда [α̃ − λ(β̃)] 2 > [α̃ − λ(β̃)] 2 и в силу линейности оценок λ(b) и λ(b) и условий леммы [α − λ(β)] 2 = [α̃ − λ(β̃)] 2 > [α̃ − λ(β̃)] 2 = [α − λ(β)] 2 , что и доказывает оптимальность λ(β) в классе линейных оценок. Наконец, λ(β) = λ(β̃) = [ (α̃ | β̃)] = α̃ = α. Доказательство теоремы 2. Наряду с (13) рассмотрим систему θ̃n+1 = a0 + a1 θ̃n + a2 ξ˜ n + b1 ε̃11 (n + 1) + b2 ε̃12 (n + 1), ξ̃n+1 = A0 + A1 θ̃n + A2 ξ̃n + B1 ε̃21 (n + 1) + B2 ε̃22 (n + 1), (15) где ε̃i j (n) – – независимые гауссовские случайные величины с ε̃i j (n) = 0 и ε̃2i j (n) = 1. Пусть также (θ̃0 , ξ˜ 0) – – гауссовский вектор, имеющий те же первые моменты и ковариации, что и (θ0 , ξ0), и не зависящий от ε̃i j (n). Тогда в силу линейности системы (15) вектор (θ̃0 , . . . , θ̃n , ξ˜ 0 , . . . , ξ̃n) является гауссовским, и, значит, утверждение теоремы следует из леммы 2 (точнее, из ее очевидного многомерного аналога) и теоремы о нормальной корреляции. § 7. ФИЛЬТР КАЛМАНА– –БЬЮСИ И ЕГО ОБОБЩЕНИЯ 675 3. Рассмотрим несколько примеров, иллюстрирующих теоремы 1 и 2. Пример 1. Пусть θ = (θn) и η = (ηn) – – две стационарные (в широком смысле) некоррелированные случайные последовательности с θn = ηn = = 0 и спектральными плотностями fθ (λ) = 1 1 , · 2π |1 + b1 e −iλ |2 fη (λ) = 1 1 , · 2π |1 + b2 e −iλ |2 где |b1 | < 1, |b2 | < 1. В дальнейшем будем интерпретировать θ как полезный сигнал, а η – – как шум и предполагать, что наблюдению подлежит последовательность ξ = (ξn) с ξn = θn + ηn . Согласно следствию 2 к теореме 3 из § 3, найдутся (некоррелированные между собой) белые шумы ε1 = (ε1 (n)) и ε2 = (ε2 (n)) такие, что θn+1 + b1 θn = ε1 (n + 1), ηn+1 + b2 ηn = ε2 (n + 1). Тогда ξn+1 = θn+1 + ηn+1 = −b1 θn − b2 ηn + ε1 (n + 1) + ε2 (n + 1) = = −b2 (θn + ηn) − θn (b1 − b2) + ε1 (n + 1) + ε2 (n + 1) = = −b2 ξn − (b1 − b2)θn + ε1 (n + 1) + ε2 (n + 1). Тем самым для θ и ξ справедливы рекуррентные уравнения θn+1 = −b1 θn + ε1 (n + 1), ξn+1 = −(b1 − b2)θn − b2 ξn + ε1 (n + 1) + ε2 (n + 1) (16) и, согласно теореме 2, mn = A (θn | ξ0 , . . . , ξn) и γn = (θn − mn) 2 удовлетворяют следующей системе рекуррентных уравнений оптимальной линейной фильтрации: mn+1 = −b1 mn + γn+1 = b12 γn b1 (b1 − b2)γn [ξn+1 + (b1 − b2)mn + b2 ξn ] , 2 + (b1 − b2) 2 γn [1 + b1 (b1 − b2)γn ] 2 . +1− 2 + (b1 − b2) 2 γn (17) Найдем начальные значения m0 и γ0 , при которых должна решаться эта система. Обозначим d11 = θn2 , d12 = θn ξn , d22 = ξn2 . Тогда из (16) d11 = b12 d11 + 1, d12 = b1 (b1 − b2)d11 + b1 b2 d12 + 1, d22 = (b1 − b2) 2 d11 + b22 d22 + 2b2 (b1 − b2)d12 + 2, 676 ГЛ. VI. СТАЦИОНАРНЫЕ СЛУЧАЙНЫЕ ПОСЛЕДОВАТЕЛЬНОСТИ откуда d11 = 1 , 1 − b12 1 , 1 − b12 d12 = d22 = 2 − b12 − b22 , (1 − b12) (1 − b22) что в силу (14) приводит к следующим значениям начальных данных: m0 = 1 − b22 d12 ξ0 , ξ0 = d22 2 − b12 − b22 d2 1 − b22 1 1 γ0 = d11 − 12 = = − . 2 2 d22 1 − b1 (1 − b1) (2 − b12 − b22) 2 − b12 − b22 (18) Итак, оптимальная (в среднеквадратическом смысле) линейная оценка mn сигнала θn по ξ0 , . . . , ξn и среднеквадратическая ошибка γn определяются из системы рекуррентных уравнений (17), решаемых при начальных условиях (18). Отметим, что уравнение для γn не содержит случайных составляющих, и, следовательно, величины γn , необходимые для отыскания значений mn , могут быть рассчитаны заранее – – до решения самой задачи фильтрации. Пример 2. Этот пример поучителен с той точки зрения, что показывает, как результат теоремы 2 может быть применен для отыскания оптимального линейного фильтра в задаче, где последовательности (θ, ξ) подчиняются (нелинейной) системе, не совпадающей с системой (13). Пусть ε1 = (ε1 (n)) и ε2 = (ε2 (n)) – – две независимые гауссовские последовательности, состоящие из независимых случайных величин с εi (n) = 0, ε2i (n) = 1, n > 1. Рассмотрим пару последовательностей (θ, ξ) = (θn , ξn), n > 0, с θn+1 = aθn + (1 + θn)ε1 (n + 1), ξn+1 = Aθn + ε2 (n + 1). (19) Будем считать, что θ0 не зависит от (ε1 , ε2) и θ0 ∼ N (m0 , γ0). Система (19) является нелинейной, и непосредственное применение теоремы 2 невозможно. Однако если положить ε̃1 (n + 1) = p 1 + θn (1 + θn) 2 ε1 (n + 1), то замечаем, что ε̃1 (n) = 0, ε̃1 (n) ε̃1 (m) = 0, n 6= m, ε̃21 (n) = 1. Поэтому наряду с (19) исходная последовательность (θ, ξ) подчиняется также линейной системе θn+1 = a1 θn + b1 (n) ε̃1 (n + 1), (20) ξn+1 = A1 θn + ε2 (n + 1), § 7. ФИЛЬТР КАЛМАНА– –БЬЮСИ И ЕГО ОБОБЩЕНИЯ 677 p где b1 (n) = (1 + θn) 2 , a {ε̃1 (n)} – – некоторая последовательность некоррелированных случайных величин. Система (20) является линейной системой типа (13), и, значит, оптимальная линейная оценка m̂n = A (θn | ξ0 , . . . , ξn) и ее ошибка γ̂n могут быть определены в соответствии с теоремой 2 из системы (7), (8), принимающей в рассматриваемом случае следующий вид: m̂n+1 = a1 m̂n + a1 A1 γ̂n [ξn+1 − A1 m̂n ] , 1 + A21 γ̂n γ̂n+1 = (a21 γ̂n + b12 (n)) − (a1 A1 γ̂n) 2 , 1 + A21 γ̂n p (1 + θn) 2 должно быть найдено из первого уравнения систегде b1 (n) = мы (19). Пример 3. Оценка параметров. Пусть θ = (θ1 , . . . , θk) – – гауссовский вектор с θ = m и (θ, θ) = γ. Предположим, что (при известных m и γ) ищется оптимальная оценка θ по результатам наблюдений за l-мерной последовательностью ξ = (ξn), n > 0, с ξn+1 = A0 (n, ξ) + A1 (n, ξ)θ + B1 (n, ξ)ε1 (n + 1), ξ0 = 0, (21) где ε1 – – те же, что и в системе (1). Тогда из (7), (8) для mn = (θ|Fnξ) и γn находим, что mn+1 = mn + γn A∗1 (n, ξ) [(B1 B1∗) (n, ξ) + A1 (n, ξ)γn A∗1 (n, ξ)] ⊕ × × [ξn+1 − A0 (n, ξ) − A1 (n, ξ)mn ] , (22) γn+1 = γn − γn A∗1 (n, ξ) [(B1 B1∗) (n, ξ) + A1 (n, ξ)γn A∗1 (n, ξ)] ⊕ A1 (n, ξ)γn . Если матрицы B1 B1∗ являются невырожденными, то решения системы (22) задаются формулами " mn+1 = E + γ n X A∗1 (i, ξ) (B1 B1∗) −1 (i, ξ)A∗1 (i, ξ) i=0 " × m+γ " n X γn+1 = E + γ A∗1 (i, ξ) (B1 B1∗) −1 (i, i=0 n X i=0 где E – – единичная матрица. A∗1 (i, #−1 × # ξ) (ξi+1 − A0 (m, ξ)) , ξ) (B1 B1∗) −1 (i, ξ)A1 (i, ξ) #−1 γ, (23) 678 ГЛ. VI. СТАЦИОНАРНЫЕ СЛУЧАЙНЫЕ ПОСЛЕДОВАТЕЛЬНОСТИ 4. Задачи. 1. Показать, что для схемы (1) векторы mn и θn − mn не коррелированы: [m∗n (θn − mn)] = 0. 2. Пусть в схеме (1) – (2) γ0 и все коэффициенты, за исключением, быть может, коэффициентов a0 (n, ξ), A0 (n, ξ), не зависят от «случая» (т. е. от ξ). Показать, что тогда условная ковариация γn также не зависит от «случая»: γn = γn . 3. Показать, что решения системы (22) задаются формулами (23). 4. Пусть (θ, ξ) = (θn , ξn) – – гауссовская последовательность, удовлетворяющая следующему частному виду схемы (1): θn+1 = aθn + bε1 (n + 1), ξn+1 = Aθn + Bε2 (n + 1). Показать, что если A 6= 0, b 6= 0, B 6= 0, то предельная ошибка фильтрации γ = lim γn существует и определяется как положительный корень n→∞ уравнения γ2 + h B 2 (1 − a2) b2B2 2 γ − − b = 0. A2 A2 i 5. (Интерполяция; [41, 13.3] .) Пусть (θ, ξ) – – частично наблюдаемая последовательность, подчиняющаяся рекуррентным соотношениям (1) и (2). Пусть условное распределение πa (m, m) = (θm 6 a | Fmξ ) вектора θm является нормальным. (a) Показать, что условное распределение πa (m, n) = (θm 6 a | Fnξ) для n > m также является нормальным, πa (m, n) ∼ N (µ(m, n), γ (m, n)). (b) Найти интерполяционную оценку (величин θm по Fnξ) µ(m, n) и матрицу γ (m, n). 6. (Экстраполяция; [41, 13.4] .) Пусть в соотношениях (1) и (2) a0 (n, ξ) = a0 (n) + a2 (n)ξn , a1 (n, ξ) = a1 (n), A0 (n, ξ) = A0 (n) + A2 (n)ξn , A1 (n, ξ) = A1 (n). (a) Показать, что в этом случае распределение πa,b (m, n) = (θn 6 a, ξn 6 b | Fmξ ) является (n > m) нормальным. (b) Найти экстраполяционные оценки (θn | Fmξ ) и (ξn | Fmξ ). § 7. ФИЛЬТР КАЛМАНА– –БЬЮСИ И ЕГО ОБОБЩЕНИЯ 679 7. (Оптимальное управление; [41, 14.3] .) Рассматривается «управляемая» частично наблюдаемая система (θn , ξn) 06n6N , где θn+1 = un + θn + bε1 (n + 1), ξn+1 = θn + ε2 (n + 1). ξ Здесь «управление» un – – Fn -измеримо и таково, что u2n < ∞ для всех 0 6 n 6 N − 1. Величины ε1 (n) и ε2 (n), n = 1, . . . , N, такие же, как в (1), (2); ξ0 = 0, θ0 ∼ N (m, γ). Будем говорить, что «управление» u∗ = (u∗0 , . . . , u∗N −1) оптимально, если V(u∗) = sup V(u), где u V(u) = "N −1 X (θn2 + u2n) + θN2 n=0 Показать, что u∗n = − [1 + Pn+1 ] + Pn+1 m∗n , где # . n = 0, . . . , N − 1, ( a−1 , a 6= 0, a = 0, a = 0, + (Pn) 06n6N находятся из рекуррентных соотношений а с с (m∗n) m∗0 2 Pn = 1 + Pn+1 − Pn+1 [1 + Pn+1 ] + , PN = 1, определяются из соотношений m∗n+1 = u∗n + γn∗ (1 + γn∗) + (ξn+1 − m∗n), =m и γ0∗ = γ. ∗ γn+1 = γn∗ + 1 − (γn∗) 2 (1 + γn∗) + , 0 6 n 6 N − 1, 0 6 n 6 N − 1, Глава VII ПОСЛЕДОВАТЕЛЬНОСТИ СЛУЧАЙНЫХ ВЕЛИЧИН, ОБРАЗУЮЩИЕ МАРТИНГАЛ § 1. Определения мартингалов и родственных понятий . . . . . . . . . . . . 681 § 2. О сохранении свойства мартингальности при замене времени на случайный момент . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 693 § 3. Основные неравенства . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 707 § 4. Основные теоремы о сходимости субмартингалов и мартингалов 724 § 5. О множествах сходимости субмартингалов и мартингалов . . . . . 733 § 6. Абсолютная непрерывность и сингулярность вероятностных распределений на измеримом пространстве с фильтрацией . . . . . . . 742 § 7. Об асимптотике вероятности выхода случайного блуждания за криволинейную границу . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 757 § 8. Центральная предельная теорема для сумм зависимых случайных величин . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 762 § 9. Дискретная версия формулы Ито . . . . . . . . . . . . . . . . . . . . . . . . . . . 777 § 10. Вычисление вероятности разорения в страховании. Мартингальный метод . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 783 § 11. О фундаментальных теоремах стохастической финансовой математики. Мартингальная характеризация отсутствия арбитража 788 § 12. О расчетах, связанных с хеджированием в безарбитражных моделях . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 804 § 13. Задачи об оптимальной остановке. Мартингальный подход . . . . 813 Теория мартингалов хорошо иллюстрирует историю становления математической вероятности – – ее основные понятия были навеяны практикой азартных игр, но затем эта теория превратилась в одно из изощренных средств современной абстрактной математики. . . Дж. Дуб. «Что такое мартингал?» [127] § 1. Определения мартингалов и родственных понятий 1. Исследование зависимости между случайными величинами осуществляется в теории вероятностей разными способами. В теории стационарных (в широком смысле) случайных последовательностей основным показателем зависимости является ковариационная функция, и все выводы этой теории полностью определяются свойствами этой функции. В теории марковских цепей (§ 12 гл. I и гл. VIII) основной характеристикой зависимости служит переходная функция, которая определяет эволюцию случайных величин, связанных марковской зависимостью. В настоящей главе (см. также § 11 гл. I) выделяется достаточно обширный класс последовательностей случайных величин (мартингалы и их обобщения), для которых изучение зависимости проводится методами, основанными на исследовании свойств условных математических ожиданий. 2. Будем считать заданным вероятностное пространство (Ω, F , ) с фильтрацией (потоком), т. е. семейством (Fn) σ-алгебр Fn , n > 0, таких, что F0 ⊆ F1 ⊆ . . . ⊆ F («фильтрованное вероятностное пространство»). Пусть X0 , X1 , . . . – – последовательность случайных величин, заданных на (Ω, F , ). Если для каждого n > 0 величины Xn являются Fn -измеримыми, то будем говорить, что набор X = (Xn , Fn) n>0 или просто X = (Xn , Fn) образует стохастическую последовательность. Если стохастическая последовательность X = (Xn , Fn) к тому же такова, что для каждого n > 1 величины Xn являются Fn−1 -измеримыми, то будем это записывать в виде X = (Xn , Fn−1), считая F−1 = F0 , и называть X предсказуемой последовательностью. Последовательность (Xn) n>0 будет называться возрастающей, если X0 = 0 и Xn 6 Xn+1 ( -п. н.). Определение 1. Стохастическая последовательность X = (Xn , Fn) называется мартингалом (субмартингалом), если для всех n > 0 |Xn | < ∞, (Xn+1 |Fn) = Xn ( -п. н.). (>) (1) (2) 682 ГЛ. VII. МАРТИНГАЛЫ Стохастическая последовательность X = (Xn , Fn) называется супермартингалом, если последовательность −X = (−Xn , Fn) есть субмартингал. В том частном случае, когда Fn = FnX , где FnX = σ{X0 , . . . , Xn }, и стохастическая последовательность X = (Xn , FnX ) образует мартингал (субмартингал), будем говорить, что сама последовательность (Xn) n>0 образует мартингал (субмартингал). Из свойств условных математических ожиданий легко выводится, что условие (2) эквивалентно тому, что для любого n > 0 и A ∈ Fn ] Xn+1 d A = (>) ] Xn d . (3) A Пример 1. Если (ξn) n>0 – – последовательность независимых случайных величин с |ξn | < ∞, ξn = 0 и Xn = ξ0 + . . . + ξn , Fn = σ{ξ0 , . . . , ξn }, то стохастическая последовательность X = (Xn , Fn) образует мартингал. Пример 2. Если (ξn) n>0 – – последовательность независимых случайных величин с ξn = 1, то стохастическая последовательность X = (Xn , Fn) n Q с Xn = ξk , Fn = σ{ξ0 , . . . , ξn } также образует мартингал. k=0 Пример 3. Пусть ξ – – случайная величина с |ξ| < ∞ и F0 ⊆ F1 ⊆ ⊆ . . . ⊆ F . Тогда последовательность X = (Xn , Fn) с Xn = (ξ | Fn) является мартингалом, называемым мартингалом Леви. Пример 4. Если (ξn) n>0 – – последовательность неотрицательных интегрируемых случайных величин, то последовательность (Xn) с Xn = ξ0 + + . . . + ξn образует субмартингал. Пример 5. Если X = (Xn , Fn) – – мартингал и g(x) – – выпуклая книзу функция такая, что |g(Xn)| < ∞, n > 0, то стохастическая последовательность (g(Xn), Fn) является субмартингалом (что следует из неравенства Иенсена; гл. II, § 6). Если X = (Xn , Fn) – – субмартингал, а g(x) – – выпуклая книзу неубывающая функция с |g(Xn)| < ∞ для всех n > 0, то (g(Xn), Fn) также является субмартингалом. Сделанное в определении 1 предположение (1) гарантирует существование условных математических ожиданий (Xn+1 | Fn), n > 0. Однако эти условные математические ожидания могут существовать и без предполо+ жения |Xn+1 | < ∞. Напомним, что, согласно § 7 гл. II, (Xn+1 | Fn) и − (Xn+1 | Fn) определены всегда, и если (мы пишем A = B ( -п. н.), когда (A △ B) = 0) {ω : + (Xn+1 | Fn) < ∞} ∪ {ω : (Xn− | Fn) < ∞} = Ω ( -п. н.), § 1. ОПРЕДЕЛЕНИЯ МАРТИНГАЛОВ И РОДСТВЕННЫХ ПОНЯТИЙ то говорят, что 683 (Xn+1 | Fn) определено и по определению полагают + − (Xn+1 | Fn) = (Xn+1 | Fn) − (Xn+1 | Fn). Исходя из этого, становится естественным следующее Определение 2. Стохастическая последовательность X = (Xn , Fn) называется обобщенным мартингалом (субмартингалом), если |X0 | < < ∞, (Xn+1 | Fn), n > 0, определены и выполнено условие (2). Заметим, что из этого определения вытекает, что для обобщенного − субмартингала (Xn+1 | Fn) < ∞, а для обобщенного мартингала ( -п. н.) (|Xn+1 | | Fn) < ∞. 3. Вводимое в нижеследующем определении понятие марковского момента играет исключительно важную роль во всей рассматриваемой далее теории. Определение 3. Случайная величина τ = τ (ω), принимающая значения в множестве {0, 1, . . . , +∞}, называется марковским моментом (относительно системы (Fn)) или случайной величиной, не зависящей от будущего, если для каждого n > 0 {τ = n} ∈ Fn . (4) В случае {τ < ∞} = 1 марковский момент τ будем называть моментом остановки. Пусть X = (Xn , Fn) – – некоторая стохастическая последовательность и τ– – марковский момент (относительно системы (Fn)). Обозначим Xτ (ω) = ∞ X Xn (ω)I{τ =n} (ω) n=0 (тем самым, X∞ = 0, т. е. Xτ = 0 на множестве {ω : τ = ∞}). Тогда для каждого B ∈ B (R) {ω : Xτ ∈ B} = {ω : X∞ ∈ B, τ = ∞} + ∞ X n=0 {Xn ∈ B, τ = n} ∈ F , и, следовательно, Xτ = Xτ (ω) (ω) является случайной величиной. Пример 6. Пусть X = (Xn , Fn) – – некоторая стохастическая последовательность и B ∈ B (R). Тогда момент (первого попадания в множество B) τB = inf{n > 0 : Xn ∈ B} (с τB = +∞, если { · } = ∅) является марковским, поскольку для любого n>0 {τB = n} = {X0 ∈ / B, . . . , Xn−1 ∈ / B, Xn ∈ B} ∈ Fn . 684 ГЛ. VII. МАРТИНГАЛЫ Пример 7. Пусть X = (Xn , Fn) – – мартингал (субмартингал) и τ – – марковский момент (относительно системы (Fn)). Тогда «остановленная» последовательность X τ = (Xn∧τ , Fn) также образует мартингал (субмартингал). В самом деле, из соотношения Xn∧τ = n−1 X Xm I{τ =m} + Xn I{τ >n} m=0 следует, что величины Xn∧τ Fn -измеримы, интегрируемы и откуда X (n+1)∧τ − Xn∧τ = I{τ >n} (Xn+1 − Xn), [X (n+1)∧τ − Xn∧τ | Fn ] = I{τ >n} [Xn+1 − Xn | Fn ] = 0. (>) С каждой системой (Fn) и марковским моментом τ относительно нее можно связать совокупность множеств Fτ = {A ∈ F : A ∩ {τ = n} ∈ Fn для всех n > 0}. Ясно, что Ω ∈ Fτ и Fτ замкнуто относительно взятия счетных объединений. Кроме того, если A ∈ Fτ , то A ∩ {τ = n} = {τ = n} \ (A ∩ {τ = n}) ∈ Fn и, значит, A ∈ Fτ . Отсюда следует, что Fτ является σ-алгеброй. Если трактовать Fn как совокупность событий, наблюдаемых до момента времени n (включительно), то тогда Fτ можно представлять как совокупность событий, наблюдаемых за «случайное» время τ . Нетрудно показать (задача 3), что случайные величины τ и Xτ являются Fτ -измеримыми. 4. Определение 4. Стохастическая последовательность X = (Xn , Fn) называется локальным мартингалом (субмартингалом), если найдется такая (локализующая) последовательность (τk) k>1 конечных марковских моментов, что τk 6 τk+1 ( -п. н.), τk ↑ ∞ ( -п. н.), k → ∞, и каждая «остановленная» последовательность X τk = (Xτk ∧n I{τk >0} , Fn) является мартингалом (субмартингалом). Ниже в теореме 1 показывается, что на самом деле класс локальных мартингалов совпадает с классом обобщенных мартингалов. Более того, каждый локальный мартингал может быть получен с помощью так называемого мартингального преобразования из некоторого мартингала и некоторой предсказуемой последовательности. Определение 5. Пусть Y = (Yn , Fn) n>0 – – стохастическая последовательность и V = (Vn , Fn−1) n>0 – – предсказуемая последовательность § 1. ОПРЕДЕЛЕНИЯ МАРТИНГАЛОВ И РОДСТВЕННЫХ ПОНЯТИЙ 685 (F−1 = F0). Стохастическая последовательность V · Y = ((V · Y) n , Fn) с (V · Y) n = V0 Y0 + n X Vi ∆Yi , (5) i=1 где ∆Yi = Yi − Yi−1 , называется преобразованием Y с помощью V . Если к тому же Y – – мартингал (или локальный мартингал), то говорят, что V · Y есть мартингальное преобразование. Теорема 1. Пусть X = (Xn , Fn) n>0 – – стохастическая последовательность с X0 = 0 ( -п. н.). Следующие условия являются эквивалентными: а) X – – локальный мартингал; b) X – – обобщенный мартингал; c) X – – мартингальное преобразование, т. е. существуют предсказуемая последовательность V = (Vn , Fn−1) с V0 = 0 и мартингал Y = (Yn , Fn) с Y0 = 0 такие, что X = V · Y . Доказательство. a) ⇒ b). Пусть X – – локальный мартингал и (τk) – – его локализующая последовательность марковских моментов. Тогда для любого m > 0 [|Xm∧τk | I{τk >0} ] < ∞, (6) [|X (n+1)∧τk | I{τk >n} ] = [|Xn+1 | I{τk >n} ] < ∞. (7) и тем самым Случайная величина I{τk >n} является Fn -измеримой. Поэтому из (7) следует, что [|Xn+1 | I{τk >n} | Fn ] = I{τk >n} [|Xn+1 | | Fn ] < ∞ Здесь I{τk >n} → 1 ( -п. н.), k → ∞, и, значит, [|Xn+1 | | Fn ] < ∞ ( -п. н.). ( -п. н.). (8) В силу этого условия [Xn+1 | Fn ] определено и осталось лишь показать, что [Xn+1 | Fn ] = Xn ( -п. н.). С этой целью надо установить, что ] ] Xn+1 d = Xn d A A для A ∈ Fn . Согласно задаче 7 ]§ 7 гл. II, [|Xn+1 | | Fn ] < ∞ ( -п. н.) тогда и только тогда, когда мера |Xn+1 | d , A ∈ Fn , является σ-конечной. A ] Покажем, что мера |Xn | d , A ∈ Fn , также является σ-конечной. A 686 ГЛ. VII. МАРТИНГАЛЫ Поскольку X τk есть мартингал, то |X τk | = (|Xτk ∧n | I{τk >0} , Fn) – – субмартингал и, значит ({τk > n} ∈ Fn), ] ] |Xn∧τk | I{τk >0} d 6 |Xn | d = A∩{τk >n} A∩{τk >n} ] 6 A∩{τk >n} Полагая k → ∞, находим ] A |X (n+1)∧τk | I{τk >0} d = ] A∩{τk >n} |Xn+1 | d . ] |Xn | d 6 |Xn+1 | d , A ] откуда и следует требуемая σ-конечность меры |Xn | d , A ∈ Fn . A ] Пусть A ∈ Fn таково, что |Xn+1 | d < ∞. Тогда по теореме Лебега о A мажорируемой сходимости можно перейти к пределу в соотношении ] ] Xn+1 d , Xn d = A∩{τk >n} A∩{τk >n} справедливом в силу того, что X – – локальный мартингал. Таким образом, ] ] Xn d = Xn+1 d A для всякого A ∈ Fn такого, что ] A A |Xn+1 | d < ∞. Отсюда уже следует, что последнее соотношение справедливо и для любого A ∈ Fn , а значит, (Xn+1 | Fn) = Xn ( -п. н.). b) ⇒ с). Пусть ∆Xn = Xn − Xn−1 , X0 = 0 и V0 = 0, Vn = [|∆Xn | | Fn−1 ] , n > 1. Положим ( ! Vn−1 , Vn 6= 0 ⊕ Wn = Vn = , 0, Vn = 0 Y0 = 0 и Yn = n P Wi ∆Xi , n > 1. Ясно, что i=1 [|∆Yn | | Fn−1 ] 6 1, [∆Yn | Fn−1 ] = 0, и, следовательно, Y = (Yn , Fn) есть мартингал. Далее, X0 = V0 · Y0 = 0 и ∆(V · Y) n = ∆Xn . Поэтому X = V · Y . с) ⇒ a). Пусть X = V · Y , где V – – предсказуемая последовательность, Y– – мартингал и V0 = Y0 = 0. Положим τk = inf{n > 0 : |Vn+1 | > k}, § 1. ОПРЕДЕЛЕНИЯ МАРТИНГАЛОВ И РОДСТВЕННЫХ ПОНЯТИЙ 687 считая τk = ∞, если множество { · } = ∅. Поскольку Vn+1 являются Fn -измеримыми, то для каждого k > 1 величины τk являются марковскими моментами. Рассмотрим последовательности X τk = ((V · Y) n∧τk I{τk >0} , Fn). На множестве {τk > 0} действует неравенство: |Vn∧τk | 6 k. Отсюда следует, что |(V · Y) n∧τk I{τk >0} | < ∞ для любого n > 1 . Далее, для n > 1 {[(V · Y) (n+1)∧τk − (V · Y) n∧τk ] I{τk >0} | Fn } = = I{τk >0} V (n+1)∧τk {Y (n+1)∧τk − Yn∧τk | Fn } = 0, поскольку (см. пример 7) {Y (n+1)∧τk − Yn∧τk | Fn } = 0. Итак, для каждого k > 1 «остановленные» последовательности X τk являются мартингалами, τk ↑ ∞ ( -п. н.), и, следовательно, X – – локальный мартингал. 5. Пример 8. Пусть (ηn) n>1 – – последовательность независимых одинаково распределенных бернуллиевских случайных величин с {ηn = 1} = p, {ηn = −1} = q, p + q = 1. Будем интерпретировать событие {ηn = 1} как успех (выигрыш), а событие {ηn = −1} как неуспех (проигрыш) некоего игрока в n-й партии. Предположим, что его ставка в n-й партии есть Vn . Тогда суммарный выигрыш игрока за n партий равен Xn = n X Vi ηi = Xn−1 + Vn ηn , X0 = 0. i=1 Вполне естественно, что величина ставки Vn в n-й партии может зависеть от результатов предшествующих партий, т. е. от V1 , . . . , Vn−1 и η1 , . . . , ηn−1 . Иначе говоря, если положить F0 = {∅, Ω} и Fn = σ{η1 , . . . , ηn }, то Vn будет Fn−1 -измеримой случайной величиной, т. е. последовательность V = = (Vn , Fn−1), определяющая «стратегию» игрока, является предсказуемой. Полагая Yn = η1 + . . . + ηn , находим, что Xn = n X Vi ∆Yi , i=1 т. е. последовательность X = (Xn , Fn) с X0 = 0 есть преобразование Y с помощью V . С точки зрения игрока, рассматриваемая игра является справедливой (благоприятной или неблагоприятной), если на каждом шаге величина ожидаемого выигрыша (Xn+1 − Xn | Fn) = 0 (> 0 или 6 0). Поэтому ясно, что игра справедлива, если p = q = 1/2, благоприятна, если p > q, неблагоприятна, если p < q. 688 ГЛ. VII. МАРТИНГАЛЫ Поскольку последовательность X = (Xn , Fn) образует мартингал, если p = q = 1/2, субмартингал, если p > q, супермартингал, если p < q, то можно сказать, что предположение о справедливости (благоприятности или неблагоприятности) игры соответствует предположению о мартингальности (субмартингальности или супермартингальности) последовательности X. Рассмотрим сейчас специальный класс «стратегий» V = (Vn , Fn−1) n>1 с V1 = 1 и ( 2n−1 , если η1 = −1, . . . , ηn−1 = −1, Vn = n > 1, (9) 0, в остальных случаях, смысл которых сводится к тому, что игрок, начиная со ставки V1 = 1, каждый раз увеличивает ставку вдвое при проигрыше и прекращает игру вовсе после первого выигрыша. Если η1 = −1, . . . , ηn = −1, то суммарные потери игрока за n партий будут равны n X 2i−1 = 2n − 1. i=1 Поэтому, если к тому же ηn+1 = 1, то Xn+1 = Xn + Vn+1 = −(2n − 1) + 2n = 1. Обозначим τ = inf{n > 1 : Xn = 1}. Если p = q = 1/2, т. е. рассматриваемая игра является справедливой, то {τ = n} = (1/2) n , {τ < ∞} = 1, {Xτ = 1} = 1 и Xτ = 1. Таким образом, даже в справедливой игре, придерживаясь «стратегии» (9), игрок за конечное (с вероятностью единица) время может вполне успешно закончить игру, добавив к своему капиталу еще одну единицу ( Xτ = 1 > X0 = 0). В игровой практике описанная система игры, заключающаяся в удвоении ставки при проигрыше и прекращении игры при первом выигрыше, называется мартингалом. Именно отсюда ведет свое происхождение математическое понятие «мартингал». Замечание. В случае p = q = 1/2 последовательность X = (Xn , Fn) n>0 с X0 = 0 является мартингалом и, значит, для любого n > 1 Xn = X0 = 0. Можно поэтому ожидать, что это соотношение сохранится, если вместо моментов n рассматривать случайные моменты τ . Как станет ясно из дальнейшего (теорема 1 в § 2), в «типичных» ситуациях Xτ = X0 . Нарушение § 1. ОПРЕДЕЛЕНИЯ МАРТИНГАЛОВ И РОДСТВЕННЫХ ПОНЯТИЙ 689 же этого равенства (как в рассмотренной выше игре) происходит в тех, так сказать, физически нереализуемых ситуациях, когда или τ , или |Xn | принимают слишком большие значения. (Заметим, что рассмотренная выше игра физически нереализуема, поскольку она предполагает неограниченность времени игры и неограниченность начального капитала игрока.) 6. Определение 6. Стохастическая последовательность ξ = (ξn , Fn) n>0 называется мартингал-разностью, если |ξn | < ∞ для всех n > 0 и (ξn+1 | Fn) = 0 ( -п. н.). (10) Из определений 1 и 6 ясна связь между мартингалами и мартингалразностями. А именно, если X = (Xn , Fn) – – мартингал, то ξ = (ξn , Fn) с ξ0 = X0 и ξn = ∆Xn , n > 1, является мартингал-разностью. В свою очередь, если ξ = (ξn , Fn) есть мартингал-разность, то X = (Xn , Fn) с Xn = ξ0 + . . . + + ξn является мартингалом. В соответствии с этой терминологией всякая последовательность ξ = (ξn) n>0 независимых интегрируемых случайных величин образует мартингал-разность (с Fn = σ{ξ0 , ξ1 , . . . , ξn }), если ξn = 0, n > 0. 7. Следующая теорема проясняет структуру субмартингалов (супермартингалов). Теорема 2 (Дуб). Пусть X = (Xn , Fn) n>0 – – субмартингал. Тогда найдутся мартингал m = (mn , Fn) и предсказуемая возрастающая последовательность A = (An , Fn−1) такие, что для каждого n > 0 имеет место разложение Дуба: Xn = mn + An ( -п. н.). (11) Разложение подобного типа является единственным. Доказательство. Положим m0 = X0 , A0 = 0 и mn = m0 + n−1 X j=0 An = n−1 X j=0 [X j+1 − (X j+1 | F j)] , [ (X j+1 | F j) − X j ] . (12) (13) Очевидно, что так определенные m и A обладают требуемыми свойствами. Далее, пусть также Xn = m′n + A′n , где m′ = (m′n , Fn) – – мартингал, а A′ = ′ = (An , Fn−1) – – предсказуемая возрастающая последовательность. Тогда A′n+1 − A′n = (An+1 − An) + (mn+1 − mn) − (m′n+1 − m′n), и, беря от обеих частей условные математические ожидания, получаем, что ( -п. н.) A′n+1 − A′n = An+1 − An . Но A0 = A′0 = 0, и, значит, An = A′n и mn = m′n ( -п. н.) для всех n > 0. 690 ГЛ. VII. МАРТИНГАЛЫ Из разложения (11) вытекает, что последовательность A = (An , Fn−1) компенсирует X = (Xn , Fn) до мартингала. Это замечание оправдывает такое Определение 7. Предсказуемая возрастающая последовательность A = (An , Fn−1), входящая в разложение Дуба (11), называется компенсатором (субмартингала X). Разложение Дуба играет ключевую роль при исследовании квадратично интегрируемых мартингалов M = (Mn , Fn) n>0 , т. е. мартингалов, для которых M2n < ∞, n > 0, что основано на том замечании, что стохастическая последовательность M2 = (M2n , Fn) является субмартингалом. Согласно теореме 2, найдутся такие мартингал m = (mn , Fn) и предсказуемая возрастающая последовательность hMi = (hMin , Fn−1), что M2n = mn + hMin . (14) Последовательность hMi называется квадратической характеристикой мартингала M и во многом определяет его структуру и свойства. Из (13) следует, что hMin = n X j=1 [(∆M j) 2 | F j−1 ] (15) и для всех l 6 k [(Mk − Ml) 2 | Fl ] = [M2k − M2l | Fl ] = [hMik − hMil | Fl ] . (16) В частности, если M0 = 0 ( -п. н.), то M2k = hMik . (17) Полезно заметить, что если M0 = 0 и Mn = ξ1 + . . . + ξn , где (ξn) – – последовательность независимых случайных величин с ξi = 0 и ξi2 < ∞, то квадратическая характеристика hMin = M2n = ξ1 + . . . + ξn (18) является неслучайной и совпадает с дисперсией. Если X = (Xn , Fn) и Y = (Yn , Fn) – – квадратично интегрируемые мартингалы, то положим hX, Y in = 1 [hX + Y in − hX − Y in ] . 4 (19) Нетрудно проверить, что (Xn Yn − hX, Y in , Fn) есть мартингал и, значит, для l 6 k [(Xk − Xl ) (Yk − Yl) | Fl ] = [hX, Y ik − hX, Y il | Fl ] . (20) § 1. ОПРЕДЕЛЕНИЯ МАРТИНГАЛОВ И РОДСТВЕННЫХ ПОНЯТИЙ 691 В случае, когда Xn = ξ1 + . . . + ξn , Yn = η1 + . . . + ηn , где (ξn) и (ηn) – – последовательности независимых случайных величин с ξi = ηi = 0 и ξi2 < ∞, ηi2 < ∞, величина hX, Y in равна hX, Y in = n X (ξi , ηi). i=1 Последовательность hX, Y i = (hX, Y in , Fn−1) часто называют взаимной характеристикой (квадратично интегрируемых) мартингалов X и Y . Нетрудно показать, что (ср. с (15)) hX, Y in = n X [∆Xi ∆Yi | Fi−1 ] . i=1 В теории мартингалов важную роль играют также квадратическая ковариация [X, Y] n = n X ∆Xi ∆Yi i=1 и квадратическая вариация [X] n = n X (∆Xi) 2 , i=1 определяемые для любых случайных последовательностей X = (Xn) n>1 и Y = (Yn) n>1 . 8. В связи с теоремой 1 естественно возникает вопрос о том, когда локальный мартингал (а значит, обобщенный мартингал или мартингальное преобразование) является на самом деле мартингалом. Теорема 3. 1) Пусть стохастическая последовательность X = = (Xn , Fn) n>0 является локальным мартингалом (с X0 = 0 или, более обще, с |X0 | < ∞). Если Xn− < ∞, n > 0, или Xn+ < ∞, n > 0, то последовательность X = (Xn , Fn) n>0 будет мартингалом. 2) Пусть X = (Xn , Fn) 06n6N – – локальный мартингал, N < ∞ и либо XN− < ∞, либо XN+ < ∞. Тогда X = (Xn , Fn) 06n6N есть мартингал. Доказательство. 1) Покажем, что любое из условий « Xn− < ∞, n > 0» и « Xn+ < ∞, n > 0» влечет за собой условие « |Xn | < ∞, n > 0». 692 ГЛ. VII. МАРТИНГАЛЫ В самом деле, пусть, например, Xn− < ∞ для всех n > 0. Тогда по лемме Фату Xn+ = + lim Xn∧τ 6 lim k k k + − Xn∧τ = lim [ Xn∧τk + Xn∧τ ]= k k k = X0 + lim k − Xn∧τ 6 | X0 | + k n X k=0 Xk− < ∞. Следовательно, |Xn | < ∞, n > 0. Для доказательства свойства мартингальности ( (Xn+1 | Fn) = Xn , n > 0) заметим, что для всякого марковского момента τk n+1 X |X (n+1)∧τk | 6 |Xi |, где i=0 n+1 X i=0 |Xi | < ∞. Поэтому по теореме Лебега о мажорируемой сходимости в результате предельного перехода (k → ∞, τk ↑ ∞ ( -п. н.)) в соотношении (X (n+1)∧τk | Fn) = Xn∧τk получаем, что (Xn+1 | Fn) = Xn ( -п. н.). 2) Предположим, например, что XN− < ∞. Покажем, что тогда Xn− < < ∞ для всех n < N. Действительно, поскольку локальный мартингал является обобщенным мартингалом, то Xn = (Xn+1 | Fn), где (|Xn+1 | | Fn) < ∞ ( -п. н.). Тогда по неравенству Иенсена для условных математических ожиданий (см. задачу − − 5 в § 7 гл. II) Xn− 6 (Xn+1 | Fn). Поэтому Xn− 6 Xn+1 6 XN− < ∞. Тем самым требуемое свойство мартингальности локального мартингала X = (Xn , Fn) 06n6N следует из утверждения 1). 9. Задачи. 1. Показать эквивалентность условий (2) и (3). 2. Пусть σ и τ – – марковские моменты. Показать, что τ + σ, τ ∨ σ, τ ∧ σ также являются марковскими моментами, и если σ 6 τ , то Fσ ⊆ Fτ . 3. Показать, что τ и Xτ являются Fτ -измеримыми. 4. Пусть Y = (Yn , Fn) – – мартингал (субмартингал), V = (Vn , Fn−1) – – предсказуемая последовательность и (V · Y) n – – интегрируемые случайные величины, n > 0. Показать, что тогда V · Y есть мартингал (субмартингал). 5. Пусть G1 ⊇ G2 ⊇ . . . – – невозрастающее семейство σ-алгебр и ξ – – интегрируемая случайная величина. Показать, что последовательность (Xn) n>1 с Xn = (ξ | Gn) образует обращенный мартингал, т. е. для любого n > 1. (Xn | Xn+1 , Xn+2 , . . .) = Xn+1 ( -п. н.) § 2. СОХРАНЕНИЕ СВОЙСТВА МАРТИНГАЛЬНОСТИ 693 6. Пусть ξ1 , ξ2 , . . . – – независимые случайные величины, n Y 1 {ξi = 0} = {ξi = 2} = ξi . и Xn = 2 i=1 Показать, что не существует таких интегрируемой случайной величины ξ и неубывающего семейства σ-алгебр (Fn), что Xn = (ξ | Fn). (Этот пример показывает, что не каждый мартингал (Xn) n>1 представим в виде ( (ξ | Fn)) n>1 ; ср. с примером 3 § 11 гл. I.) 7. (a) Пусть ξ1 , ξ2 , . . . – – независимые случайные величины с |ξn | < ∞, ξn = 0, n > 1. Показать, что для каждого k > 1 последовательность X Xn(k) = ξi1 . . . ξik , n > k, 16i1 <...<ik 6n образует мартингал. (b) Пусть ξ1 , ξ2 , . . . – – интегрируемые случайные величины такие, что (ξn+1 | ξ1 , . . . , ξn) = ξ1 + . . . + ξn (= Xn). n Доказать, что последовательность X1 , X2 , . . . образует мартингал. 8. Привести пример мартингала X = (Xn , Fn) n>1 , для которого семейство {Xn , n > 1} не является равномерно интегрируемым. 9. Пусть X = (Xn) n>0 – – марковская цепь (§ 1 гл. VIII) со счетным множеством состояний E = {i, j, . . . } и переходными вероятностями pi j . Пусть P ψ = ψ (x), x ∈ E, – pi j ψ (j) 6 λψ (i) для – ограниченная функция такая, что j∈E λ > 0 и i ∈ E. Показать, что последовательность (λ−n ψ (Xn)) n>0 является супермартингалом. § 2. О сохранении свойства мартингальности при замене времени на случайный момент 1. Если X = (Xn , Fn) n>0 – – мартингал, то для всякого n > 1 Xn = X0 . (1) Сохранится ли это свойство, если вместо момента n взять случайный (скажем, марковский) момент τ ? Приведенный в предыдущем параграфе пример 8 показывает, что, вообще говоря, это не так: существуют мартингалы X и марковские моменты τ (конечные с вероятностью единица) такие, что Xτ 6= X0 . (2) Следующая важная теорема описывает те «типичные» ситуации, для которых, в частности, Xτ = X0 . (На множестве {τ = ∞} полагаем Xτ = 0.) 694 ГЛ. VII. МАРТИНГАЛЫ Теорема 1 (Дуб). (a) Пусть X = (Xn , Fn) n>0 – – субмартингал и τ и σ– – два конечных ( -п. н.) момента остановки такие, что Xτ и Xσ определены (например, такие, что |Xτ | < ∞ и |Xσ | < ∞). Предположим, что + lim Xm I(τ > m) = 0. (3) m→∞ Тогда ( -п. н.) (Xτ | Fσ) > Xτ ∧σ (4) или, равносильно, (Xτ | Fσ) > Xσ ({τ > σ}; -п. н.). (b) Пусть M = (Mn , Fn) n>0 – – мартингал и τ и σ – – два конечных ( -п. н.) момента остановки такие, что Mτ и Mσ определены (например, такие, что |Mτ | < ∞ и |Mσ | < ∞). Предположим, что |Mm | I(τ > m) = 0. (5) lim m→∞ Тогда ( -п. н.) (Mτ | Fσ) = Mτ ∧σ (6) или, равносильно, (Mτ | Fσ) = Mσ ({τ > σ}; -п. н.). Доказательство. (a) Мы должны доказать, что для каждого множества A ∈ Fσ Xτ I(A, τ > σ) > Xσ I(A, τ > σ), (7) где I(A, τ > σ) есть индикатор множества A ∩ {τ > σ}. Чтобы установить справедливость неравенства (7), достаточно доказать, что для всякого n > 0 Xτ I(A, τ > σ, σ = n) > Xσ I(A, τ > σ, σ = n), т.е. что для B = A ∩ {σ = n} Xτ I(B, τ > n) > Xn I(A, τ > n). Пользуясь субмартингальностью процесса X = (Xn , Fn) n>0 и свойством § 2. СОХРАНЕНИЕ СВОЙСТВА МАРТИНГАЛЬНОСТИ 695 B ∪ {τ > n} ∈ Fn , итерациями по n находим, что для всякого m > n Xn I(B, τ > n) = Xn I(B, τ = n) + Xn I(B, τ > n) 6 6 Xn I(B, τ = n) + (Xn+1 | Fn) I(B, τ > n) = = Xn I(B, τ = n) + Xn+1 I(B, τ > n + 1) = = Xτ I(B, n 6 τ 6 n + 1) + Xn+1 I(B, τ > n + 1) 6 6 Xτ I(B, n 6 τ 6 n + 1) + Xn+2 I(B, τ > n + 2) 6 6 · · · 6 Xτ I(B, n 6 τ 6 m) + Xm I(B, τ > m). Отсюда Xτ I(B, n 6 τ 6 m) > Xn I(B, τ > n) − Xm I(B, τ > m). (8) Согласно условиям теоремы, Xτ определено. Поэтому функция Q(C) = = Xτ I(C) как функция от борелевских множеств C ∈ B (R) является счетно-аддитивной (см. п. 8 в § 6 гл. II) и, следовательно, limm→∞ Xτ I (B, n 6 τ 6 m) существует. Тем самым, из (8) в силу конечности ( -п. н.) момента τ вытекает, что Xτ I(B, τ > n) > lim Xn I(B, τ > n) − Xm I(B, τ > m) = m→∞ = Xn I(B, τ > n) − lim Xm I(B, τ > m) > > Xn I(B, τ > n) − lim Xm+ I(B, τ > m) = m→∞ m→∞ = Xn I(B, τ > n). Итак, Xτ I(B, σ = n, τ > n) > Xn I(B, σ = n, τ > n) или Xτ I(A, τ > σ, σ = n) > Xσ I(A, τ > σ, σ = n). Отсюда, с учетом предположения {σ < ∞} = 1 и того, что математические ожидания Xτ и Xσ определены, получаем требуемое неравенство (7). (b) Пусть M = (Mn , Fn) n>0 – – мартингал, для которого выполнено условие (5). Из этого условия следует, что + − lim Mm I(τ > m) = lim Mm I(τ > m) = 0. m→∞ m→∞ Полагая в (a) X = M и X = −M, находим, что ( -п. н.) [Mτ | Fσ ] > Mτ ∧σ Тем самым, ние (6). и [−Mτ | Fσ ] > −Mτ ∧σ , т.е. [Mτ | Fσ ] 6 Mτ ∧σ . [Mτ | Fσ ] = Mτ ∧σ ( -п. н.), что и есть требуемое соотноше- 696 ГЛ. VII. МАРТИНГАЛЫ Следствие 1. Пусть τ и σ – – два момента остановки такие, что для некоторой константы N {σ 6 τ 6 N} = 1. Тогда если X – – субмартингал, то X0 6 Xσ 6 Xτ 6 XN , и если M– – мартингал, то M0 = Mσ = Mτ = MN . Следствие 2. Пусть X = (Xn , Fn) n>0 – – субмартингал. Если семейство случайных величин {Xn , n > 0} равномерно интегрируемо (в частности, если с вероятностью единица |Xn | 6 c, n > 0, для некоторой константы c), то для любых двух конечных ( -п. н.) моментов остановки τ и σ справедливо неравенство (4) и если {σ 6 τ } = 1, то имеют место неравенства X0 6 Xσ 6 Xτ . Если к тому же X = M– – мартингал, то имеет место равенство (6) и если {σ 6 τ } = 1, то справедливы равенства M0 = Mσ = Xτ . Для доказательства, прежде всего, заметим, что свойства (3) и (5) вытекают из утверждения леммы 2 п. 5 в § 6 главы II и того, что {τ > m} → 0 при m → ∞. Установим теперь, что математические ожидания |Xτ | и |Xσ | конечны. Для этого достаточно показать, что |Xτ | 6 3 sup N |XN | (9) (аналогично и для момента σ), поскольку в силу неравенства (16) в § 6 главы II из предположения о равномерной интегрируемости семейства {Xn , n > 0} следует, что supN |XN | < ∞, и, значит, из (9) будем иметь требуемое неравенство |Xτ | < ∞ (и, аналогично, |Xσ | < ∞). Согласно следствию 1, примененному к ограниченному моменту τN = = τ ∧ N, X0 6 XτN . Поэтому |XτN | = 2 Xτ+N − XτN 6 2 Xτ+N − X0 . (10) § 2. СОХРАНЕНИЕ СВОЙСТВА МАРТИНГАЛЬНОСТИ 697 Последовательность X + = (Xn+ , Fn) n>0 является субмартингалом (пример 5 из § 1) и, значит, Xτ+N = N X j=0 = N X j=0 + X j I(τN = j) + XN+ I(τ > N) 6 + XN I(τN = j) + XN+ I(τ > N) = XN+ 6 |XN | 6 sup m |Xm |, что вместе с неравенством в (10) дает неравенство |XτN | 6 3 sup |Xm |, m из которого по лемме Фату (теорема 2 а) в § 6 главы II) |Xτ | = lim |XτN | = N lim |XτN | 6 lim N N |XτN | 6 3 sup N |XN |, что и доказывает требуемое неравенство (9). Замечание. В примере 8 предыдущего параграфа было показано, что для рассмотренного там мартингала X = (Xn , Fn) n>0 (случай p = q = 1/2) |Xm |I(τ > m) = (2m − 1) {τ > m} = (2m − 1) · 2−2 → 1, m → ∞. Тем самым, условие (5) здесь не выполнено. Интересно отметить, что и свойство (6) здесь также не выполнено, поскольку, как показано в этом примере, можно найти такой момент τ , что Xτ = 1 > X0 = 0. В этом смысле можно сказать, что условие (5) (в совокупности с условиями, что математические ожидания Xσ и Xτ определены) не только достаточно для справедливости (6), но и «почти необходимо». 2. Для приложений часто оказывается полезным следующее предложение, выводимое из теоремы 1. Теорема 2. Пусть X = (Xn) – – мартингал (субмартингал) и τ – – момент остановки (относительно (FnX ), FnX = σ{X0 , . . . , Xn }). Предположим, что τ <∞ и для любого n > 0 и некоторой константы C {|Xn+1 − Xn | | FnX } 6 C ({τ > n}; -п. н.). Тогда и |Xτ | < ∞ Xτ = (>) X0 . (11) 698 ГЛ. VII. МАРТИНГАЛЫ Доказательство. Проверим, что для рассматриваемого момента ] остановки τ выполнены свойства |Xτ | < ∞ и lim |Xn | d = 0, обесn→∞ {τ >n} печивающие, согласно теореме 1, соотношение (11). Пусть Y0 = |X0 |, Y j = |X j − X j−1 |, j > 1. Тогда |Xτ | 6 |Xτ | 6 τ X Yj j=0 = ! = τ ] X Yj d = ] n X Yj и j=0 Yj d = n=0 {τ =n} j=0 Ω j=0 ∞ X n X ∞ X τ P ] Yj d = ∞ X ∞ X ] Yj d = j=0 n= j {τ =n} n=0 j=0 {τ =n} ∞ X ] Yj d . j=0 {τ > j} X Множество {τ > j} = Ω \ {τ < j} ∈ F j−1 . Поэтому для j > 1 ] ] [Y j |X0 , . . . , X j−1 ] d 6 C {τ > j}, Yj d = {τ > j} {τ > j} и, значит, |Xτ | 6 τ X Yj j=0 ! 6C ∞ X j=1 Далее, если τ > n, то n X {τ > j} + |X0 | = C τ + |X0 | < ∞. Yj 6 ] {τ >n} Yj, j=0 j=0 и поэтому τ X (12) |Xn | d 6 ] τ X Yj d . {τ >n} j=0 Отсюда, учитывая, что (согласно (12)) τ P j=0 Y j < ∞ и что {τ > n} ↓ ∅, n → ∞, по теореме о мажорируемой сходимости получаем lim ] n→∞ {τ >n} |Xn | d 6 lim ] τ X n→∞ {τ >n} j=0 Y j d = 0. Тем самым выполнены условия теоремы 1, из которой следует требуемое соотношение (11). 3. Остановимся на некоторых применениях доказанных теорем. Теорема 3 (тождества Вальда). Пусть ξ1 , ξ2 , . . . – – независимые одинаково распределенные случайные величины с |ξi | < ∞ и τ – – момент § 2. СОХРАНЕНИЕ СВОЙСТВА МАРТИНГАЛЬНОСТИ остановки (относительно (Fnξ), Fnξ = σ{ξ1 , . . . , ξn }, τ > 1) с Тогда (ξ1 + . . . + ξτ ) = ξ1 · τ . ξ12 Если к тому же < ∞, то {(ξ1 + . . . + ξτ ) − τ ξ1 }2 = ξ1 · τ . Доказательство. Ясно, что X = − n ξ1 есть мартингал с (Xn , Fnξ) n>1 699 τ < ∞. (13) (14) с Xn = (ξ1 + . . . + ξn) − [|Xn+1 − Xn | | X1 , . . . , Xn ] = [|ξn+1 − ξ1 | | ξ1 , . . . , ξn ] = = |ξn+1 − ξ1 | 6 2 |ξ1 | < ∞. Поэтому по теореме 2 Xτ = X0 = 0, что и доказывает (13). Приведем три доказательства «второго тождества Вальда» (14). Первое доказательство. Пусть ηi = ξi − ξi , Sn = η1 + . . . + ηn . Надо показать, что Sτ2 = η12 · τ . Положим τ (n) = τ ∧ n (= min(τ , n)). Поскольку n X X 2 Sn = ηi2 + 2 то последовательность (Sn2 − n P i=1 ηi η j , 16i< j6n i=1 ηi2 , Fnξ) n>1 есть мартингал с нулевым сред- ним. Из следствия 1 к теореме 1 находим, что Sτ2 (n) = τ (n) X ηi2 . i=1 По «первому тождеству Вальда» (13) τ (n) X i=1 Sτ2 (n) η12 ηi2 = η12 · τ (n), и, значит, = · τ (n). Аналогичным образом получаем, что при m, n → ∞ (Sτ (n) − Sτ (m)) 2 = η12 · (τ (n) − τ (m)) → 0, поскольку по предположению τ < ∞. Тем самым, последовательность {Sτ (n) }n>1 является фундаментальной (последовательностью Коши) в L2 700 ГЛ. VII. МАРТИНГАЛЫ (см. п. 5 § 10 гл. II), и, значит, по теореме 7 из § 10 гл. II найдется такая случайная величина S, что (Sτ (n) − S) 2 → 0, n → ∞. Отсюда вытекает (задача 1 в § 11 гл. II), что Sτ2 (n) → S 2 , n → ∞. Как было показано выше, Sτ2 (n) = η12 · τ (n), и, значит, полагая n → ∞, находим, что S 2 = η12 · τ . Осталось теперь лишь идентифицировать величину S. Для этого достаточно заметить, что можно найти такую подпоследовательность {n′ } ⊆ {n}, что с вероятностью единица одновременно имеют место сходимости Sτ (n′) → S и τ (n′) → τ . Но тогда ясно, что с вероятностью единица будет иметь место и сходимость Sτ (n′) → Sτ . Следовательно, S и Sτ совпадают почти наверное, и, значит, Sτ2 = η12 · τ , что и требовалось доказать. Второе доказательство. Из уже установленного равенства Sτ2 (n) = = η12 · τ (n) и леммы Фату (см. a) в теореме 2 § 6 гл. II) находим, что Sτ2 = lim Sτ2 (n) 6 lim Sτ2 (n) = η12 · τ . Требуемое равенство Sτ2 = η12 · τ будет установлено, если показать, что для всякого n > 1 справедливо неравенство Sτ2 (n) 6 Sτ2 . С этой целью заметим, что в силу «первого тождества Вальда» (13) |Sτ | = |η1 + . . . + ητ | 6 (|η1 | + . . . + |ητ |) = |η1 | · τ < ∞, и, значит, |Sn |I(τ > n) = |η1 + . . . + ηn | I(τ > n) 6 (|η1 | + . . . + |ηn |) I(τ > n) 6 6 (|η1 | + . . . |ητ |) I(τ > n) → 0 при n → ∞. Применяя теорему 1 к субмартингалу (|Sn |, Fnξ) n>1), находим, что на множестве {τ > n} ( -п. н.) (|Sτ | | Fnξ) > |Sn |. Отсюда по неравенству Иенсена (для условных математических ожиданий; задача 5 § 7 гл. II) получаем, что на множестве {τ > n} ( -п. н.) (Sτ2 | Fnξ) > Sn2 = Sτ2 (n) . На множестве же {τ < n} (Sτ2 | Fnξ) = Sτ2 = Sτ2 (n) . Тем самым ( -п. н.) (Sτ2 | Fnξ) > Sτ2 (n) и, значит, Sτ2 > Sτ2 (n) , что и требовалось установить. Третье доказательство. Из «первого доказательства» следует, что n P 2 (Sn − ηi2 , Fnξ) n>1 есть мартингал и для τ (n) = τ ∧ n i=1 Sτ2 (n) = η12 · τ (n). § 2. СОХРАНЕНИЕ СВОЙСТВА МАРТИНГАЛЬНОСТИ Так как τ (n) → τ , то надо лишь показать, что достаточно установить, что 701 Sτ2 (n) → Sτ2 . Для этого sup Sτ2 (n) < ∞, n поскольку тогда требуемая сходимость будет следовать из теоремы Лебега о мажорируемой сходимости (теорема 3 в § 6 гл. II). Для доказательства неравенства sup Sτ2 (n) < ∞ воспользуемся приn водимым далее в § 3 «максимальным неравенством» (14). Согласно этому неравенству, примененному к мартингалу (Sτ (k) , Fkξ) k>1 , находим, что i h sup Sτ2 (k) 6 4 Sτ2 (n) 6 4 sup Sτ2 (n) . 16k6n n Отсюда, пользуясь теоремой о монотонной сходимости (теорема 1 в § 6 гл. II), получаем, что sup Sτ2 (k) 6 4 sup n k>1 Sτ2 (n) . Но Тем самым Sτ2 (n) = η12 · τ (n) 6 η12 · τ < ∞. sup Sτ2 (n) 6 4 η12 · τ < ∞, n что и требовалось установить. Следствие. Пусть ξ1 , ξ2 , . . . – – независимые одинаково распределенные случайные величины с {ξi = 1} = {ξi = −1} = 1/2, Sn = ξ1 + . . . . . . + ξn и τ = inf{n > 1 : Sn = 1}. Тогда {τ < ∞} = 1 (см., например, (20) § 9 гл. I) и, значит, {Sτ = 1} = 1, Sτ = 1. Отсюда и из (13) вытекает, что τ = ∞. Теорема 4 (фундаментальное тождество Вальда). Пусть ξ1 , ξ2 , . . . – – последовательность независимых одинаково распределенных случайных величин, Sn = ξ1 + . . . + ξn , n > 1. Пусть ϕ(t) = e tξ1 , t ∈ R, причем для некоторого t0 6= 0 ϕ(t0) существует и ϕ(t0) > 1. ξ Если τ – – момент остановки (относительно Fn = σ{ξ1 , . . . , ξn }, n > 1), такой, что τ > 1, |Sn | 6 C ({τ > n}; -п. н.) и τ < ∞, то h t0 Sτ i e (15) τ = 1. (ϕ(t0)) Доказательство. Положим Yn = e t0 Sn (ϕ(t0)) −n . 702 ГЛ. VII. МАРТИНГАЛЫ Тогда Y = (Yn , Fnξ) n>1 есть мартингал с {|Yn+1 − Yn | | Y1 , . . . , Yn } = Yn n Yn = 1 и на множестве {τ > n} e t0 ξn+1 − 1 | ξ1 , . . . , ξn = ϕ(t0) o = Yn |e t0 ξ1 (ϕ(t0)) −1 − 1| 6 B < ∞, где B – – некоторая константа. Поэтому применима теорема 2, из которой следует (15), поскольку Y1 = 1. Пример 1. Этот пример служит иллюстрацией применения вышеизложенных результатов к задачам нахождения вероятностей разорения и средней продолжительности игры (см. § 9 в гл. I). Пусть ξ1 , ξ2 , . . . – – последовательность независимых бернуллиевских случайных величин с {ξi = 1} = p, {ξi = −1} = q, p + q = 1, Sn = ξ1 + . . . . . . + ξn и τ = inf{n > 1 : Sn = B или A}, (16) где (−A) и B – – положительные целые числа. Из (20) § 9 главы I следует, что {τ < ∞} = 1 и τ < ∞. Тогда, если α = {Sτ = A}, β = {Sτ = B}, то α + β = 1, и при p = q = 1/2 из (13) видим, что 0 = Sτ = αA + βB, откуда α= B , B + |A| β= |A| . B + |A| Применяя (14), получаем τ = Sτ2 = αA2 + βB 2 = |AB|. Если же p 6= q, то, рассматривая мартингал ((q/p) Sn) n>1 , находим, что Sτ S1 q q = = 1, p p и, значит, A B q q α +β = 1. p p Вместе с равенством α + β = 1 это дает q B −1 p α = B A , q q − p p q A p β = B A . q q − p p 1− (17) § 2. СОХРАНЕНИЕ СВОЙСТВА МАРТИНГАЛЬНОСТИ Наконец, учитывая, что 703 Sτ = (p − q) τ , находим τ= Sτ αA + βB = , p −q p −q где α и β определяются из (17). Пример 2. Пусть в рассмотренном выше примере p = q = 1/2. Покаπ и момента τ , определенного в (16), жем, что для всякого 0 < λ < B + |A| B +A 2 = . B + |A| cos λ 2 cos λ (cos λ) −τ (18) С этой целью рассмотрим мартингал X = (Xn , Fnξ) n>0 с B +A Xn = (cos λ) −n cos λ Sn − (19) 2 и S0 = 0. Ясно, что B +A Xn = X0 = cos λ . (20) 2 Покажем, что семейство {Xn∧τ } является равномерно интегрируемым. Для этого заметим, что в силу следствия 1 к теореме 1 при 0 < λ < π B + |A| B +A > X0 = Xn∧τ = (cos λ) −(n∧τ) cos λ Sn∧τ − 2 B −A > (cos λ) −(n∧τ) cos λ . 2 Поэтому из (20) B +A 2 , 6 B + |A| cos λ 2 cos λ (cos λ) −(n∧τ) и, значит, по лемме Фату B +A 2 6 . B + |A| cos λ 2 cos λ (cos λ) −τ Следовательно, согласно (19), |Xn∧τ | 6 (cos λ) −τ , (21) 704 ГЛ. VII. МАРТИНГАЛЫ что вместе с (21) доказывает равномерную интегрируемость семейства {Xn∧τ }. Тогда в силу следствия 2 к теореме 1 B +A B −A cos λ = X0 = Xτ = (cos λ) −τ cos λ , 2 2 откуда следует требуемое равенство (18). 4. В качестве одного из применений тождества Вальда (13) приведем доказательство так называемой элементарной теоремы теории восста∞ P новления: если N = (Nt ) t>0 – I(Tn 6 t), – процесс восстановления (Nt = n=1 Tn = σ1 + . . . + σn , где σ1 , σ2 , . . . – – последовательность независимых одинаково распределенных положительных случайных величин; см. п. 4 § 9 гл. II), µ = σ1 < ∞, то функция восстановления m(t) = Nt обладает тем свойством, что 1 m(t) → , t µ (22) t → ∞. (Напомним, что для самого процесса Nt = (Nt ) t>0 справедлив усиленный закон больших чисел: 1 Nt → t µ ( -п. н.), t → ∞; см. пример 4 § 3 гл. IV.) Для доказательства (22) достаточно показать, что lim t→∞ 1 m(t) > t µ и lim t→∞ 1 m(t) 6 . t µ (23) С этой целью заметим, что TNt 6 t < TNt +1 , t > 0. (24) Поскольку для всякого n > 1 {Nt + 1 6 n} = {Nt 6 n − 1} = {Nt < n} = {Tn > t} = ( n X σk > t k=1 ) ∈ Fn , где Fn есть σ-алгебра, порожденная величинами σ1 , . . . , σn , то (при каждом фиксированном t > 0) момент Nt + 1 (но не момент Nt ) является марковским. Тогда из тождества Вальда (13) вытекает, что TNt +1 = µ[m(t) + 1] , (25) и, значит, из правого неравенства в (24) находим, что t < µ[m(t) + 1] , т. е. m(t) 1 1 > − , t µ t откуда, полагая t → ∞, получаем первое неравенство в (23). (26) § 2. СОХРАНЕНИЕ СВОЙСТВА МАРТИНГАЛЬНОСТИ 705 Далее, из левого неравенства в (24) следует, что t > TNt . Поскольку TNt +1 = TNt + σNt +1 , то t > TNt = (TNt +1 − σNt +1) = µ[m(t) + 1] − σNt +1 . (27) Если считать, что величины σi все ограничены сверху (σi 6 c), то из (27) получим, что t > µ[m(t) + 1] − c, и, значит, m(t) 1 1 c−µ 6 + · . t µ t µ (28) Тогда отсюда будет следовать второе неравенство в (23). Чтобы снять ограничение σi 6 c, i > 1, введем, беря некоторое c > 0, величины σic = σi I(σi < c) + cI(σi > c) и свяжем с ними процесс восстановления N c = (Ntc) t>0 с Ntc = ∞ P n=1 I(Tnc 6 t), Tnc = σ1c + . . . + σnc . Поскольку σic 6 σi , i > 1, то Ntc > Nt и, значит, mc (t) = Ntc > Nt = m(t). Тогда из (28) видим, что mc (t) 1 1 c − µc m(t) 6 6 c + · , t t µ t µc где µc = σ1c . Следовательно, lim t→∞ 1 m(t) 6 c. t µ Полагая теперь c → ∞ и учитывая, что µc → µ, получаем требуемое второе неравенство в (23). Итак, утверждение (22) установлено. Замечание. По поводу более общих результатов теории восстановления см., например, [7, гл. 9] , [69, т. 1, гл. XIII] . 5. Задачи. 1. Показать, что для каждого мартингала или неотрицательного субмартингала X = (Xn , Fn) n > 0 и любого конечного ( -п. н.) момента остановки τ |Xτ | 6 lim n→∞ (Ср. с неравенством |Xτ | 6 3 supN |Xn | |XN | из следствия 2 к теореме 1.) 706 ГЛ. VII. МАРТИНГАЛЫ 2. Пусть X = (Xn , Fn) n>0 – – квадратично интегрируемый мартингал, τ – – момент остановки, X0 = 0, ] lim Xn2 d = 0. n→∞ {τ >n} Показать, что тогда Xτ2 = hXiτ = τ X (∆X j) 2 j=0 ! , где ∆X0 = X0 , ∆X j = X j − X j−1 , j > 1. 3. Показать, что для каждого мартингала или неотрицательного субмартингала X = (Xn , Fn) n>0 и момента остановки τ |Xτ | 6 lim |Xn |. n→∞ 4. Пусть X = (Xn , Fn) n>0 – – супермартингал такой, что Xn > (ξ | Fn) ( -п. н.), n > 0, где |ξ| < ∞. Показать, что если σ и τ – – моменты остановки с {σ 6 τ } = 1, то Xσ > (Xτ | Fσ) ( -п. н.). 5. Пусть ξ1 , ξ2 , . . . – – последовательность независимых случайных величин с {ξi = 1} = {ξi = −1} = 1/2, a и b – – положительные числа, b > a, Xn = a n X k=1 и I(ξk = +1) − b n X k=1 I(ξk = −1) τ = inf{n > 1 : Xn 6 −r}, Показать, что e λτ < ∞ при λ 6 α0 и α0 = r > 0. e λτ = ∞ при λ > α0 , где 2b a 2a b ln + ln . a+b a+b a+b a+b 6. Пусть ξ1 , ξ2 , . . . – – последовательность независимых случайных величин с ξi = 0, ξi = σi2 , Sn = ξ1 + . . . + ξn , Fnξ = σ{ξ1 , . . . , ξn }. Доказать справедливость следующих утверждений, обобщающих тождества Вальда τ τ P P (13) и (14): если |ξ j | < ∞, то Sτ = 0; если ξ 2j < ∞, то j=1 j=1 Sτ2 = τ X j=1 ξ 2j = τ X j=1 σ 2j . (29) § 3. ОСНОВНЫЕ НЕРАВЕНСТВА 707 7. Пусть X = (Xn , F) n>1 – – квадратично интегрируемый мартингал и τ – – момент остановки. Показать, что тогда Xτ2 6 τ X (∆Xn) 2 . n=1 Показать, что если lim n→∞ то (∆Xτ ) 2 = (Xn2 I(τ > n)) < ∞ или τ P n=1 lim n→∞ (|Xn |I(τ > n)) = 0, Xn2 . 8. Пусть X = (Xn , Fn) n>1 есть субмартингал и τ1 6 τ2 6 . . . – – моменты остановки такие, что Xτm определены и lim n→∞ (Xn+ I(τm > n)) = 0, m > 1. Доказать, что последовательность (Xτm , Fτm) m>1 является субмартингалом. (Как обычно, Fτm = {A ∈ F : A ∩ {τm = j} ∈ F j , j > 1}.) § 3. Основные неравенства 1. Пусть X = (Xn , Fn) n>0 – – стохастическая последовательность, Xn∗ = max |X j |, 06 j6n kXn k p = ( |Xn | p) 1/ p , p > 0. В нижеследующих теоремах 1– –3 приводятся основные «максимальные неравенства для вероятностей» и «максимальные неравенства в L p » для субмартингалов, супермартингалов и мартингалов, принадлежащие Дж. Дубу. Теорема 1. I. Пусть X = (Xn , Fn) n>0 – – субмартингал. Тогда для любого λ > 0 n o h i λ max Xk > λ 6 Xn+ I max Xk > λ 6 Xn+ , (1) k6n k6n n o h i λ min Xk 6 −λ 6 Xn I min Xk > −λ − X0 6 Xn+ − X0 , (2) k6n k6n n o λ max |Xk | > λ 6 3 max |Xk |. (3) k6n k6n 708 ГЛ. VII. МАРТИНГАЛЫ II. Пусть Y = (Yn , Fn) n>0 – – супермартингал. Тогда для любого λ > 0 n o h i λ max Yk > λ 6 Y0 − Yn I max Yk < λ 6 Y0 + Yn− , (4) k6n k6n n o h i λ min Yk 6 −λ 6 − Yn I min Yk 6 −λ 6 Yn− , (5) k6n k6n n o λ max |Yk | > λ 6 3 max |Yk |. (6) k6n k6n III. Пусть Y = (Yn , Fn) n>0 – – неотрицательный супермартингал. Тогда для любого λ > 0 n o λ max Yk > λ 6 Y0 , (7) k6n n o λ sup Yk > λ 6 Yn . (8) k>n Теорема 2. Пусть X = (Xn , Fn) n>0 – – неотрицательный субмартингал. Тогда для p > 1 справедливы следующие неравенства: если p > 1, то kXn k p 6 kXn∗ k p 6 p kX k ; p−1 n p (9) если p = 1, то kXn k1 6 kXn∗ k1 6 e {1 + kXn ln+ Xn k1 }. e −1 (10) Теорема 3. Пусть X = (Xn , Fn) n>0 – – мартингал, λ > 0 и p > 1. Тогда n o |Xn | p max |Xk | > λ 6 (11) p k6n λ и в случае p > 1 kXn k p 6 kXn∗ k p 6 p kX k . p−1 n p В частности, при p = 2 n o |Xn |2 max |Xk | > λ 6 , λ2 k6n i h max Xk2 6 4 Xn2 . k6n (12) (13) (14) Доказательство теоремы 1. Поскольку субмартингал с обратным знаком есть супермартингал, то неравенства (1) – – (3) следуют из (4) – – (6). Так что будем рассматривать случай супермартингала Y = (Yn , Fn) n>0 . § 3. ОСНОВНЫЕ НЕРАВЕНСТВА 709 Положим τ = inf{k 6 n : Yk > λ} с τ = n, если max Yk < λ. Тогда в силу k6n свойства (6) § 2 h i h i Y0 > Yτ = Yτ ; max Yk > λ + Yτ ; max Yk < λ > k6n k6n n o h i > λ max Yk > λ + Yn ; max Yk < λ , k6n k6n что и доказывает (4). Положим теперь σ = inf{k 6 n : Yk 6 −λ}, считая σ = n, если min Yk > −λ. k6n Тогда снова в силу свойства (6) § 2 h i h i Yn 6 Yτ = Yτ ; min Yk 6 −λ + Yτ ; min Yk > −λ 6 k6n k6n n o h i 6 −λ min Yk 6 −λ + Yn ; min Yk > −λ . k6n k6n Отсюда λ n o h i min Yk 6 −λ 6 − Yn ; min Yk 6 −λ 6 Yn− , k6n k6n что и доказывает (5). Чтобы доказать неравенство (6), заметим, что Y − = (−Y) + – – субмартингал, и тогда в силу (4) и (1) n o n o n o λ max |Yk | > λ 6 λ max Yk+ > λ + λ max Yk− > λ = k6n k6n k6n n o n o = λ max Yk > λ + λ max Yk− > λ 6 Y0 + 2 Yn− 6 3 max |Yk |. k6n k6n k6n Неравенство (7) следует из (4). Для доказательства (8) положим γ = inf{k > n : Yk > λ}, считая γ = ∞, если Yk < λ при всех k > n. Пусть также n < N < ∞. Тогда в силу (6) § 2 Yn > Yγ∧N > [Yγ∧N I(γ 6 N)] > λ {γ 6 N}, откуда при N → ∞ Yn > λ {γ < ∞} = λ n o sup Yk > λ . k>n Доказательство теоремы 2. Первые неравенства в (9) и (10) очевидны. Для доказательства второго неравенства в (9) предположим сначала, что kXn∗ k p < ∞, (15) 710 ГЛ. VII. МАРТИНГАЛЫ и воспользуемся тем фактом, что для любой неотрицательной случайной величины ξ и r > 0 ∞ ] ξr = r t r−1 {ξ > t} dt. (16) 0 Тогда из (1) и теоремы Фубини получаем, что для p > 1 (Xn∗) p = p ∞ ] t p−1 {Xn∗ > t} dt 6 p 0 =p ∞ ] ∞ ] 0 t p−2 0 ] Xn I{Xn∗ > t} d Ω ] t p−2 ! Xn d {Xn∗ >t} dt = p ] dt = " X∗ ]n t p−2 dt d = p p−1 [Xn (Xn∗) p−1 ] . Xn # 0 Ω = Отсюда по неравенству Гёльдера (Xn∗) p 6 qkXn k p · k(Xn∗) p−1 kq = qkXn k p [ (Xn∗) p ] 1/q , (17) (18) p где q = . p−1 Если выполнено (15), то из (18) сразу получаем второе неравенство в (9). Если же условие (15) не выполнено, то следует поступить таким образом. Рассмотрим в (17) вместо Xn∗ величину (Xn∗ ∧ L), где L – – некоторая константа. Тогда получим (Xn∗ ∧ L) p 6 q [Xn (Xn∗ ∧ L) p−1 ] 6 qkXn k p [ (Xn∗ ∧ L) p ] 1/q , откуда в силу неравенства (Xn∗ ∧ L) p 6 L p < ∞ следует, что (Xn∗ ∧ L) p 6 q p Xnp = q p kXn k pp и, значит, (Xn∗) p = lim L→∞ (Xn∗ ∧ L) p 6 q p kXn k pp . Докажем теперь второе неравенство в (10). Снова применяя (1), находим, что Xn∗ − 1 6 (Xn∗ − 1) + = 6 ∞ ] 0 1 1+t ∞ ] 0 " {Xn∗ − 1 > t} dt 6 ] {Xn∗ >1+t} Xn d # dt = Xn Xn∗]−1 0 dt = Xn ln Xn∗ . 1+t § 3. ОСНОВНЫЕ НЕРАВЕНСТВА 711 Поскольку для любых a > 0 и b > 0 a ln b 6 a ln+ a + be −1 , (19) то Xn∗ − 1 6 Xn ln Xn∗ 6 Xn ln+ Xn + e −1 Xn∗ . Если Xn∗ < ∞, то отсюда сразу получаем второе неравенство в (10). Если же Xn∗ = ∞, то следует поступить, как и выше, перейдя от величин Xn∗ к Xn∗ ∧ L. Доказательство теоремы 3 следует из того замечания, что |X| p , p > 1, является неотрицательным субмартингалом (если |Xn | p < ∞, n > 0), и из неравенств (1) и (9). Следствие к теореме 3. Пусть Xn = ξ0 + . . . + ξn , n > 0, где (ξk) k>0 – – последовательность независимых случайных величин с ξk = 0 и ξk2 < ∞. Тогда неравенство (13) превращается в неравенство Колмогорова (§ 2 гл. IV). 2. Пусть X = (Xn , Fn) – – неотрицательный субмартингал и Xn = Mn + An – – его разложение Дуба. Тогда, поскольку {Xn∗ > ε} 6 Mn = 0, то из (1) следует, что An . ε Нижеследующая теорема 4 показывает, что это неравенство справедливо не только для субмартингалов, но и для более широкого класса последовательностей, обладающих свойством доминируемости в следующем смысле. Определение. Пусть X = (Xn , Fn) – – некоторая неотрицательная стохастическая последовательность и A = (An , Fn−1) – – возрастающая предсказуемая последовательность. Будем говорить, что X доминируется последовательностью A, если Xτ 6 Aτ (20) для всякого момента остановки τ . Теорема 4. Если X = (Xn , Fn) – – неотрицательная стохастическая последовательность, доминируемая возрастающей предсказуемой последовательностью A = (An , Fn−1), то для λ > 0, a > 0 и любого 712 ГЛ. VII. МАРТИНГАЛЫ момента остановки τ Aτ , λ {Xτ∗ > λ} 6 (21) 1 {Xτ∗ > λ} 6 (Aτ ∧ a) + {Aτ > a}, λ 2 − p 1/ p kXτ∗ k p 6 kAτ k p , 0 < p < 1. (22) (23) 1− p Доказательство. Положим σn = min{j 6 τ ∧ n : X j > λ}, считая σn = τ ∧ n, если { · } = ∅. Тогда ] Aτ > Aσn > Xσn > {Xτ∗∧n >λ} Xσn d > λ {Xτ∗∧n > λ}, откуда {Xτ∗∧n > λ} 6 1 λ Aτ , и в силу леммы Фату получаем неравенство (21). Для доказательства (22) введем момент γ = inf{j : A j+1 > a}, полагая γ = ∞, если { · } = ∅. Тогда {Xτ∗ > λ} = {Xτ∗ > λ, Aτ < a} + {Xτ∗ > λ, Aτ > a} 6 6 {I{Aτ <a} Xτ∗ > λ} + {Aτ > a} 6 {Xτ∗∧γ > λ} + {Aτ > a} 6 6 1 λ Aτ ∧γ + {Aτ > a} 6 1 λ (Aτ ∧ a) + {Aτ > a}, где использовано неравенство (21) и то, что I{Aτ <a} Xτ∗ 6 Xτ∗∧γ . Наконец, неравенство (23) следует (с учетом (22)) из следующей цепочки соотношений: kXτ∗ k pp = (Xτ∗) p = 6 ∞ ] 0 ∞ ] 0 {(Xτ∗) p > t} dt = ∞ ] {Xτ∗ > t 1/ p } dt 6 0 t −1/ p [Aτ ∧ t 1/ p ] dt + = A]τp 0 dt + ∞ ] Aτp ∞ ] {Aτp > t} dt = 0 (Aτ t −1/ p) dt + Aτp = 2− p 1− p Aτp . § 3. ОСНОВНЫЕ НЕРАВЕНСТВА 713 Замечание. Предположим, что выполнены условия теоремы 4 за исключением того, что последовательность A = (An , Fn) n>0 является не обязательно предсказуемой, но такой, что для некоторой константы c > 0 n o sup |∆Ak | 6 c = 1, k>1 где ∆Ak = Ak − Ak−1 . Тогда (ср. с (22)) справедливо следующее неравенство: {Xτ∗ > λ} 6 1 λ [Aτ ∧ (a + c)] + {Aτ > a}. (24) Доказательство проводится по аналогии с доказательством неравенства (22). Надо лишь вместо моментов γ = inf{j : A j+1 > a} рассматривать моменты γ = inf{j : A j > a} и принять во внимание, что Aγ 6 a + c. Следствие. Пусть X k = (Xnk , Fnk) и Ak = (Akn , Fnk), n > 0, k > 1, удовлетворяют условиям теоремы 4 или замечания к ней. Пусть также (τ k) k>1 – – последовательность моментов остановки (относительно F k = (Fnk)) и Akτ k − → 0. Тогда (X k) ∗τk − → 0. 3. В этом пункте будет приведен (без доказательства, но с применениями) ряд замечательных неравенств для мартингалов, возникающих как обобщения нижеследующих неравенств Хинчина и неравенств Марцинкевича и Зигмунда для сумм независимых случайных величин. Неравенства Хинчина. Пусть ξ1 , ξ2 , . . . – – независимые одинаково распределенные бернуллиевские случайные величины с {ξi = 1} = = {ξi = −1} = 1/2 и (cn) n>1 – – некоторая последовательность чисел. Тогда для любого 0 < p < ∞ существуют такие универсальные константы A p и B p (не зависящие от (cn)), что для любого n > 1 !1 2 !1 2 n n n / / X X X 2 2 cjξj 6 Bp 6 . (25) cj cj Ap p j=1 j=1 j=1 Неравенства Марцинкевича и Зигмунда. Если ξ1 , ξ2 , . . . – – последовательность независимых интегрируемых случайных величин с ξi = 0, то для p > 1 найдутся такие универсальные константы A p и B p (не зависящие от (ξn)), что для любого n > 1 !1 2 !1 2 n n n / / X X X 2 2 Ap ξj 6 Bp 6 ξj . (26) ξj j=1 p j=1 p j=1 p n P В неравенствах (25) и (26) последовательности X = (Xn) с Xn = cjξj j=1 n P и Xn = ξ j образуют мартингалы. Естественно задаться вопросом о том, j=1 714 ГЛ. VII. МАРТИНГАЛЫ нельзя ли обобщить эти неравенства на случай произвольных мартингалов. Первый результат в этом направлении был получен Буркхольдером. Неравенства Буркхольдера. Если X = (Xn , Fn) – – мартингал, то для всякого p > 1 существуют такие универсальные константы A p и B p (не зависящие от X), что для любого n > 1 p p A p k [X] n k p 6 kXn k p 6 B p k [X] n k p , (27) где [X] n – – квадратическая вариация Xn , [X] n = n X (∆X j) 2 , X0 = 0. (28) j=1 В качестве констант A p и B p можно взять A p = [18p 3/2 / (p − 1)] −1 , B p = 18p 3/2 / (p − 1) 1/2 . где С учетом (12) из (27) следует, что p p A p k [X] n k p 6 kXn∗ k p 6 B ∗p k [X] n k p , A p = [18p 3/2 / (p − 1)] −1 , B ∗p = 18p 5/2 / (p − 1) 3/2 . (29) Неравенства Буркхольдера (27) справедливы для p > 1, в то время как неравенства Марцинкевича– –Зигмунда (26) верны и для p = 1. Что можно сказать о справедливости неравенств (27) для p = 1? Оказывается, их прямое обобщение на случай p = 1 уже несправедливо, что показывает следующий Пример. Пусть ξ1 , ξ2 , . . . – – независимые бернуллиевские случайные величины с {ξi = 1} = {ξi = −1} = 1/2 и Xn = n∧τ X ξj, j=1 n P где τ = inf n > 1 : ξj = 1 . j=1 Последовательность X = (Xn , Fn) является мартингалом с kXn k1 = |Xn | = 2 Xn+ → 2, Но k p [X] n k1 = p [X] n = τ ∧n X j=1 !1 n → ∞. /2 1 = √ τ ∧ n → ∞. Следовательно, первое неравенство в (27) несправедливо. § 3. ОСНОВНЫЕ НЕРАВЕНСТВА 715 Оказалось, что на случай p = 1 обобщаются не неравенства (27), а неравенства (29) (эквивалентные (27), если p > 1). Неравенства Дэвиса. Если X = (Xn , Fn) – – мартингал, то существуют такие универсальные константы A и B, 0 < A < B < ∞, что p p Ak [X] n k1 6 kXn∗ k1 6 Bk [X] n k1 , (30) т. е. v uX h i u n (∆X j) 2 6 max |X j | 6 B A t 16 j6n j=1 v uX u n t (∆X j) 2 . j=1 Следствие 1. Пусть ξ1 , ξ2 , . . . – – независимые одинаково распределенные случайные величины, Sn = ξ1 + . . . + ξn . Если |ξ1 | < ∞ и ξ1 = 0, то, согласно тождеству Вальда (13) § 2, для всякого момента остановки τ (относительно (Fnξ)) с τ < ∞ справедливо равенство Sτ = 0. (31) Если дополнительно предположить, что |ξ1 | < ∞, где 1 < r 6 2, то для справедливости равенства Sτ = 0 достаточно условия τ 1/r < ∞. Для доказательства обозначим τn = τ ∧ n, Y = sup |Sτn |, и пусть для r n t > 0 m = [t r ] – – целая часть числа t r . В силу следствия 1 к теореме 1 § 2 Sτn = 0. Поэтому для справедливости соотношения Sτ = 0 достаточно (согласно теореме о мажорируемой сходимости) проверить, что sup |Sτn | < ∞. n Пользуясь неравенствами (1) и (27), находим {Y > t} = {τ > t r , Y > t} + {τ < t r , Y > t} 6 n o 6 {τ > t r } + max |Sτ j | > t 6 {τ > t r } + t −r |Sτm |r 6 16 j6m !r 2 τm τm / X X 2 r −r r ξj 6 {τ > t } + t Br 6 {τ > t r } + t −r Brr |ξ j |r . j=1 j=1 Заметим, что (F0ξ = {∅, Ω}) τm X j=1 |ξ j |r = ∞ X j=1 I(j 6 τm)|ξ j |r = = ∞ X j=1 ∞ X j=1 ξ [I(j 6 τm)|ξ j |r | F j−1 ]= ξ I(j 6 τm) [|ξr |r | F j−1 ]= τm X j=1 |ξ j |r = µr τm , 716 ГЛ. VII. МАРТИНГАЛЫ где µr = |ξ1 |r . Поэтому {Y > t} 6 {τ > t r } + t −r Brr µr τm = = {τ > t r } + Brr µr t −r m {τ > t r } + ] τd {τ <t r } 6 ] 6 (1 + Brr µr) {τ > t r } + Brr µr t −r τd {τ <t r } и, значит, Y= ∞ ] ∞ ] {Y > t} dt 6 (1 + Brr µr) τ 1/r + Brr µr t −r 0 0 ] = (1 + Brr µr) τ 1/r + Brr µr τ Ω " ∞ ] ] τd {τ <t r } # dt = t −r dt d = τ 1/r B r µr = 1 + Brr µr + r τ 1/r < ∞. r−1 Следствие 2. Пусть M = (Mn) – – мартингал такой, что < ∞ для некоторого r > 1 и ∞ X |∆Mn |2r <∞ n1+r n=1 |Mn |2r < (M0 = 0). (32) Тогда (ср. с теоремой 2 § 3 гл. IV) имеет место усиленный закон больших чисел: Mn →0 n ( -п. н.), n → ∞. (33) В случае r = 1 доказательство проводится по той же схеме, что и доказательство теоремы 2 § 3 гл. IV. А именно, пусть mn = n X ∆Mk k k=1 Тогда n P Mn = n ∆Mk k=1 n = . n 1 X k∆mk n k=1 и, согласно лемме Кронекера (§ 3 гл. IV), для сходимости ( -п. н.) n 1 X k∆mk → 0, n k=1 n → ∞, § 3. ОСНОВНЫЕ НЕРАВЕНСТВА 717 достаточно, чтобы ( -п. н.) существовал конечный предел lim mn , что в n свою очередь (теоремы 1 и 4 из § 10 гл. II) имеет место в том и только том случае, когда n o sup |mn+k − mn | > ε → 0, n → ∞. (34) k>1 В силу неравенства (1) ∞ P n o sup |mn+k − mn | > ε 6 k=n (∆Mk) 2 k2 ε2 k>1 . Поэтому требуемый результат следует из (32) и (34). Пусть теперь r > 1. Утверждение (33) эквивалентно тому (теорема 1 § 10 гл. II), что для всякого ε > 0 |M j | sup ε2r > ε → 0, n → ∞. (35) j j>n В силу неравенства (52) из задачи 1 ε2r |M j | sup > ε = ε2r lim j j>n m→∞ 6 max n6 j6m 1 n2r |M j |2r > ε2r j 2r |Mn |2r + X j>n+1 1 j 2r 6 (|M j |2r − |M j−1 |2r). Из леммы Кронекера вытекает, что lim n→∞ 1 n2r |Mn |2r = 0. Поэтому для доказательства (35) достаточно лишь показать, что X 1 (|M j |2r − |M j−1 |2r) < ∞. 2r j>2 j (36) Имеем IN ≡ N X 1 j=2 j 2r [ |M j |2r − |M j−1 |2r ] 6 6 N h X j=2 1 1 − 2r (j − 1) 2r j i |M j−1 |2r + |MN |2r . N 2r 718 ГЛ. VII. МАРТИНГАЛЫ В силу неравенства Буркхольдера (27) и неравенства Гёльдера #r " j j X X 2r 2r 2r 2 |M j | 6 B2r 6 B2r |∆Mi |2r . (∆Mi) i=1 i=1 Поэтому IN 6 N −1 X j=2 2r B2r h j i X 1 1 r−1 j − j 2r (j + 1) 2r 6 C1 i=1 N −1 X j=2 1 j r+2 |∆Mi |2r j X i=1 |∆Mi |2r |MN |2r 6 N 2r N X |MN |2r 6 C 2 N 2r j=2 |∆M j |2r + C3 j r+1 (Ci – – некоторые константы), что в силу (32) доказывает оценку (36). 4. Последовательность случайных величин (Xn) n>1 имеет с вероятностью единица предел lim Xn (конечный или бесконечный) тогда и только тогда, когда число «осцилляций между двумя любыми (рациональными) числами a и b, a < b» конечно с вероятностью единица. Приводимая ниже теорема 5 дает оценку сверху среднего числа «осцилляций» для субмартингалов, которая в следующем параграфе будет использована для доказательства фундаментального результата о их сходимости. Зафиксируем два числа a и b, a < b, и для последовательности X = = (Xn) n>1 определим моменты: τ0 = 0, τ1 = min{n > 0 : Xn 6 a}, τ2 = min{n > τ1 : Xn > b}, ............................... τ2m−1 = min{n > τ2m−2 : Xn 6 a}, τ2m = min{n > τ2m−1 : Xn > b}, полагая τk = ∞, если соответствующее множество { · } пусто. Далее, для каждого n > 1 определим случайные величины ( 0, если τ2 > n, βn (a, b) = max{m : τ2m 6 n}, если τ2 6 n. По своему смыслу βn (a, b) есть число пересечений (снизу вверх) интервала [a, b] последовательностью X1 , . . . , Xn . Теорема 5 (Дуб). Пусть X = (Xn , Fn) n>1 – – субмартингал. Тогда для любого n > 1 βn (a, b) 6 [Xn − a] + . b−a (37) § 3. ОСНОВНЫЕ НЕРАВЕНСТВА 719 Доказательство. Число пересечений субмартингалом X = (Xn , Fn) интервала [a, b] совпадает с числом пересечений интервала [0, b − a] неотрицательным субмартингалом X + = ((Xn − a) + , Fn). Поэтому, считая рассматриваемый субмартингал X неотрицательным и a = 0, надо доказать, что Xn . b βn (0, b) 6 (38) Положим X0 = 0, F0 = {∅, Ω}, и пусть для i = 1, 2, . . . ( 1, если τm < i 6 τm+1 для некоторого нечетного m, ϕi = 0, если τm < i 6 τm+1 для некоторого четного m. Нетрудно видеть, что bβn (0, b) 6 n X i=1 и {ϕi = 1} = [ m– – нечетно Поэтому b βn (0, b) 6 n X i=1 = n X ] i=1 {ϕi =1} ϕi [Xi − Xi−1 ] [{τm < i} \ {τm+1 < i}] ∈ Fi−1 . ϕi [Xi − Xi−1 ] = n X ] i=1 {ϕi =1} n X ] (Xi − Xi−1 | Fi−1) d = 6 (Xi − Xi−1) d = i=1 {ϕi =1} n ] X i=1 Ω [ (Xi | Fi−1) − Xi−1 ] d 6 [ (Xi | Fi−1) − Xi−1 ] d = Xn , что и доказывает неравенство (38). 5. В этом пункте будут рассмотрены некоторые простейшие неравенства для вероятностей больших уклонений в случае квадратично интегрируемых мартингалов. Пусть M = (Mn , Fn) n>0 – – квадратично интегрируемый мартингал с квадратичной характеристикой hMi = (hMin , Fn−1), M0 = 0. Если воспользоваться неравенством (22) применительно к Xn = M2n , An = hMin , то получим, что для a > 0, b > 0 o n o n max |Mk | > an = max M2k > (an) 2 6 k6n k6n 6 1 (an) 2 [hMin ∧ (bn)] + {hMin > an}. (39) 720 ГЛ. VII. МАРТИНГАЛЫ На самом деле, по крайней мере в том случае, когда |∆Mn | 6 C для всех n и ω ∈ Ω, это неравенство можно существенно улучшить, если воспользоваться идеями, изложенными в § 5 гл. IV при оценивании вероятностей больших уклонений для сумм независимых одинаково распределенных случайных величин. Напомним, что в § 5 гл. IV при выводе соответствующих неравенств существенный момент состоял в использовании того, что последовательность (e λSn / [ϕ(λ)] n , Fn) n>1 , Fn = σ{ξ1 , . . . , ξn }, (40) образовывала неотрицательный мартингал, к которому затем применялось неравенство (8) настоящего параграфа. Если теперь вместо Sn брать Mn , то аналогом (40) будет неотрицательный мартингал (e λMn /En (λ), Fn) n>1 , где En (λ) = n Y j=1 (e λ∆M j | F j−1) (41) – – так называемая стохастическая экспонента (см. также п. 13 в § 6 гл. II). Это выражение довольно сложно. В то же самое время при использовании неравенства (8) вовсе было не обязательно, чтобы образованная последовательность являлась мартингалом. Достаточно лишь, чтобы она образовывала неотрицательный супермартингал. Именно так здесь мы и поступим, образовав последовательность (Zn (λ), Fn) (см. (43) ниже), которая довольно просто зависит от Mn и hMin и к которой можно будет затем применить метод, использованный в § 5 гл. IV. Лемма 1. Пусть M = (Mn , Fn) n>0 – – квадратично интегрируемый мартингал, M0 = 0, ∆M0 = 0 и |∆Mn (ω)| 6 c для всех n и ω. Пусть λ > 0, λc e − 1 − λc , c > 0, c2 (42) ψc (λ) = 2 λ , c = 0, 2 и Zn (λ) = e λMn −ψc (λ)hMin . (43) Тогда для каждого c > 0 последовательность Z(λ) = (Zn (λ), Fn) n>0 является неотрицательным супермартингалом. Доказательство. Для |x| 6 c X (λx) m−2 X (λc) m−2 e λx − 1 − λx = (λx) 2 6 (λx) 2 6 x 2 ψc (λ). m>2 m! m>2 m! § 3. ОСНОВНЫЕ НЕРАВЕНСТВА 721 Учитывая это неравенство и представление (Zn = Zn (λ)) ∆Zn = Zn−1 [(e λ∆Mn − 1) e −∆hMin ψc (λ) + (e −∆hMin ψc (λ) − 1)] , находим, что (∆Zn | Fn−1) = = Zn−1 [ (e λ∆Mn − 1 | Fn−1) e −∆hMin ψc (λ) + (e −∆hMinψc (λ) − 1)] = = Zn−1 [ (e λ∆Mn − 1 − λ∆Mn | Fn−1) e −∆hMin ψc (λ) + (e −∆hMin ψc (λ) − 1)] 6 6 Zn−1 [ψc (λ) ((∆Mn) 2 | Fn−1) e −∆hMin ψc (λ) + (e −∆hMinψc (λ) − 1)] = = Zn−1 [ψc (λ)∆hMin e −∆hMinψc (λ) + (e −∆hMinψc (λ) − 1)] 6 0, (44) где использовано также то обстоятельство, что для x > 0 Из (44) видим, что xe −x + (e −x − 1) 6 0. (Zn | Fn−1) 6 Zn−1 , т. е. Z(λ) = (Zn (λ), Fn) – – супермартингал. Пусть выполнены условия леммы. Тогда всегда найдется λ > 0 такое, что (для заданных a > 0, b > 0) aλ − bψc (λ) > 0. Учитывая это, находим n o n o max Mk > an = max e λMk > e λan 6 k6n k6n o n λMk −ψc (λ)hMik 6 max e > e λan−ψc (λ)hMin = k6n o n = max e λMk −ψv (λ)hMik > e λan−ψc (λ)hMin , hMin 6 bn + k6n n o + max e λMk −ψc (λ)hMik > e λan−ψc (λ)hMin , hMin > bn 6 k6n o n 6 max e λMk −ψc (λ)hMik > e λan−ψc (λ)bn + {hMin > bn} 6 k6n 6 e −n(λa−bψc (λ)) + {hMin > bn}, (45) где последнее неравенство вытекает из (7). Обозначим (ср. с функцией H(a) в § 5 гл. IV) Hc (a, b) = sup [aλ − bψc (λ)] . λ>0 Тогда из (45) следует, что n o max Mk > an 6 {hMin > bn} + e −nHc (a,b) . k6n (46) 722 ГЛ. VII. МАРТИНГАЛЫ Переходя от мартингала M к −M, получаем, что правая n o часть в (46) оценивает сверху также и вероятность min Mk 6 −an . Тем самым k6n n o max |Mk | > an 6 2 {hMin > bn} + 2e −nHc (a,b) . k6n (47) Итак, доказана следующая Теорема 6. Пусть M = (Mn , Fn) – – мартингал с равномерно ограниченными скачками, т. е. |∆Mn | 6 c для некоторой константы c > 0 и всех n и ω. Тогда для любых a > 0, b > 0 имеют место неравенства (46) и (47). Замечание. Функция 1 b ac a Hc (a, b) = a+ ln 1 + − . (48) c c b c 6. В предположенияхn теоремы 6 рассмотрим теперь вопрос об оценo Mk ках вероятностей типа sup > a , характеризующих, в частности, k>n hMik скорость сходимости в усиленном законе больших чисел для мартингалов (см. далее теорему 4 в § 5). Поступая так же, как и в § 5 гл. IV, находим, что для любого a > 0 найдется такое λ > 0, что aλ − ψc (λ) > 0. Тогда для всякого b > 0 n o Mk >a 6 sup e λMk −ψc (λ)hMik > e [aλ−ψc (λ)]hMin 6 sup k>n hMik k>n n o 6 sup e λMk −ψc (λ)hMik > e [aλ−ψc (λ)]bn + {hMin < bn} 6 k>n 6 e −bn [aλ−ψc (λ)] + {hMin < bn}, (49) откуда sup k>n Mk sup k>n Mk >a hMik hMik 6 {hMin < bn} + e −nHc (ab,b) , > a 6 2 {hMin < bn} + 2e −nHc (ab,b) . (50) (51) Тем самым доказана Теорема 7. Пусть выполнены предположения предыдущей теоремы. Тогда для любых a > 0, b > 0 выполнены неравенства (50), (51). Замечание. Сравнение оценки (51) с оценкой (21) из § 5 гл. IV для 1 2 n 2 1 4 1 2 случая схемы Бернулли, p = , Mn = Sn − , b = , c = , показывает, что § 3. ОСНОВНЫЕ НЕРАВЕНСТВА 723 при малом ε > 0 они приводят к одному и тому же результату: k Sk − 2 Mk ε 2 sup > 6 2e −4ε n . > ε = sup hMi k 4 k k>n k>n 7. Задачи. 1. Пусть X = (Xn , Fn) – – неотрицательный субмартингал и V = = (Vn , Fn−1) – предсказуемая последовательность c 0 6 Vn+1 6 Vn 6 C – ( -п. н.), где C – некоторая константа. Показать, что имеет место – следующее обобщение неравенства (1): n n o X ] ε max V j X j > ε + Vn Xn d 6 V j ∆X j . (52) 16 j6n max V j X j <ε j=1 16j6n 2. Доказать справедливость разложения Крикеберга: всякий мартингал X = (Xn , Fn) с sup |Xn | < ∞ может быть представлен как разность двух неотрицательных мартингалов. 3. Пусть ξ1 , ξ2 , . . . – – последовательность независимых случайных веn P личин, Sn = ξ1 + . . . + ξn и Sm,n = ξ j . Доказать справедливость следуj=m+1 ющего неравенства Оттавиани: n o max |S j | > 2ε 6 16 j6n min {|Sn | > ε} {|S j,n | 6 ε} 16 j6n и вывести из него, что (в предположении ξi = 0, i > 1) ∞ ∞ o ] ] n max |S j | > 2t dt 6 2 |Sn | + 2 {|Sn | > t} dt. 0 16 j6n (53) 2 |Sn | 4. Пусть ξ1 , ξ2 , . . . – – последовательность независимых случайных величин с ξi = 0. Используя неравенство (53), установить, что для рассматриваемого случая имеет место следующее усиление неравенства (10): Sn∗ 6 8 |Sn |. 5. Доказать справедливость формулы (16). 6. Доказать неравенство (19). 7. Пусть σ-алгебры F0 , . . . , Fn таковы, что F0 ⊆ F1 ⊆ . . . ⊆ Fn и события Ak ∈ Fk , k = 1, . . . , n. Используя (22), доказать справедливость следующего неравенства Дворецкого: для всякого ε > 0 ( n ) ( n ) [ X Ak 6 ε + (Ak | Fk−1) > ε . k=1 k=1 724 ГЛ. VII. МАРТИНГАЛЫ 8. Пусть X = (Xn) n>1 – – квадратично интегрируемый мартингал и (bn) n>1 – – положительная неубывающая последовательность действительных чисел. Доказать следующее неравенство Гаека– –Реньи: n o n 1 X (∆Xk) 2 X max k > λ 6 2 , ∆Xk = Xk − Xk−1 , X0 = 0. 2 16k6n bk λ bn k=1 9. Пусть X = (Xn) n>1 – – субмартингал и g(x) – – неотрицательная возрастающая выпуклая книзу функция. Тогда для всякого положительного t и действительного x n o g(tXn) . max Xk > x 6 g(tx) 16k6n В частности, n o max Xk > x 6 e −tx e tXn . 16k6n 10. Пусть ξ1 , ξ2 , . . . – – независимые случайные величины с ξn2 = 1, n > 1. Пусть ξn = 0, n n o X τ = inf n > 1 : ξi > 0 . i=1 τ 1/2 Доказать, что < ∞. 11. Пусть ξ = (ξn) n>1 – – мартингал-разность и 1 < p 6 2. Показать, что sup n X n>1 j=1 p ξj 6 Cp ∞ X j=1 |ξ j | p , где C p – – некоторая константа. 12. Пусть X = (Xn) n>1 – – мартингал с Xn = 0 и Xn2 < ∞ = 1. Показать (в обобщение задачи 5 к § 2 гл. IV), что для всякого n > 1 и ε > 0 n o X2 max Xk > ε 6 2 n 2 . 16k6n ε + Xn § 4. Основные теоремы о сходимости субмартингалов и мартингалов 1. Следующий результат, являющийся основным во всей проблематике сходимости субмартингалов, можно рассматривать как вероятностный аналог того известного факта из анализа, что ограниченная монотонная числовая последовательность имеет (конечный) предел. § 4. ОСНОВНЫЕ ТЕОРЕМЫ О СХОДИМОСТИ 725 Теорема 1 (Дуб). Пусть X = (Xn , Fn) n>1 – – субмартингал с sup (1) |Xn | < ∞. n Тогда с вероятностью единица существует предел lim Xn = X∞ и |X∞ | < ∞. Доказательство. Предположим, что {lim Xn > lim Xn } > 0. (2) Тогда поскольку {lim Xn > lim Xn } = [ {lim Xn > b > a > lim Xn } a<b (a, b – – рациональные числа), то найдутся такие a и b, что {lim Xn > b > a > lim Xn } > 0. (3) Пусть βn (a, b) – – число пересечений снизу вверх последовательностью X1 , . . . , Xn интервала (a, b) и β∞ (a, b) = lim βn (a, b). Согласно (37) § 3, n βn (a, b) 6 и, значит, [Xn − a] + 6 b −a sup β∞ (a, b) = lim n βn (a, b) 6 n Xn+ + |a| , b−a Xn+ + |a| b −a < ∞, что следует из (1) и того замечания, что для субмартингалов sup n |Xn | < ∞ ⇔ sup n Xn+ < ∞ (поскольку Xn+ 6 |Xn | = 2 Xn+ − Xn 6 2 Xn+ − X1). Но условие β∞ (a, b) < ∞ противоречит допущению (3). Следовательно, с вероятностью единица существует lim Xn = X∞ , для которого в силу леммы Фату |X∞ | 6 sup n |Xn | < ∞. Следствие 1. Если X – – неположительный субмартингал, то с вероятностью единица существует конечный предел lim Xn . Следствие 2. Если X = (Xn , Fn) n>1 – – неположительный субмартингал, то последовательность X = (X n , Fn) с 1 6 n 6 ∞, X∞ = lim Xn S и F∞ = σ Fn образует (неположительный) субмартингал. n Действительно, по лемме Фату X∞ = lim Xn > lim Xn > X1 > −∞ 726 ГЛ. VII. МАРТИНГАЛЫ и ( -п. н.) (X∞ | Fm) = (lim Xn | Fm) > lim (Xn | Fm) > Xm . Следствие 3. Если X = (Xn , Fn) n>1 – – неотрицательный супермартингал (и в частности, неотрицательный мартингал), то с вероятностью единица существует lim Xn . В самом деле, тогда sup n |Xn | = sup n Xn 6 X1 < ∞ и применима теорема 1. 2. Пусть ξ1 , ξ2 , . . . – – последовательность независимых случайных веn Q личин с {ξi = 0} = {ξi = 2} = 1/2. Тогда X = (Xn , Fnξ) с Xn = ξi и Fnξ = i=1 = σ{ξ1 , . . . , ξn } есть мартингал с Xn = 1 и Xn → X∞ ≡ 0 ( -п. н.). В то же время ясно, что |Xn − X∞ | = 1 и, значит, Xn 6→ X∞ . Таким образом, условие (1) не обеспечивает, вообще говоря, сходимость Xn к X∞ в смысле L1 . Приводимая далее теорема 2 показывает, что если предположение (1) усилить до предположения равномерной интегрируемости семейства {Xn } (тогда условие (1) выполнено согласно свойству (16) в п. 5 § 6 гл. II), то наряду со сходимостью почти наверное будет иметь место и сходимость в смысле L1 . Теорема 2. Пусть X = (Xn , Fn) – – субмартингал, для которого семейство случайных величин {Xn } равномерно интегрируемо. Тогда существует такая случайная величина X∞ с |X∞ | < ∞, что при n→∞ Xn → X∞ ( -п. н.), (4) L1 Xn −→ X∞ . (5) При этом последовательность X = (Xn , Fn), 1 6 n 6 ∞, с F∞ = S =σ Fn также образует субмартингал. n Доказательство. Утверждение (4) следует из теоремы 1, а утверждение (5) – – из (4) и теоремы 4 § 6 гл. II. Далее, если A ∈ Fn и m > n, то и поэтому IA |Xm − X∞ | → 0, lim m→∞ ] A m → ∞, ] Xm d = X∞ d . A § 4. ОСНОВНЫЕ ТЕОРЕМЫ О СХОДИМОСТИ Последовательность ] Xm d A ] A 727 является неубывающей, и, значит, m>n ] ] Xn d 6 Xm d 6 X∞ d , A A откуда Xn 6 (X∞ | Fn) ( -п. н.) для всех n > 1. Следствие. Если X = (Xn , Fn) – – субмартингал и для некоторого p>1 sup n |Xn | p < ∞, (6) то существует интегрируемая случайная величина X∞ , для которой выполнены (4) и (5). Для доказательства достаточно заметить, что, согласно лемме 3 § 6 гл. II, условие (6) обеспечивает равномерную интегрируемость семейства {Xn }. 3. Приведем теперь теорему о свойствах непрерывности условных математических ожиданий, которая была одним из самых первых результатов относительно сходимости мартингалов. Теорема 3 (П. Леви). Пусть (Ω, F , ) – – вероятностное пространство, (Fn) n>1 – – неубывающее семейство σ-алгебр, F1 ⊆ F2 ⊆. . . ⊆ F. S Пусть ξ – Fn . – некоторая случайная величина с |ξ| < ∞ и F∞ = σ Тогда n -п. н. и в смысле L1 (ξ | Fn) → (ξ | F∞), (7) n → ∞. Доказательство. Пусть Xn = (ξ | Fn), n > 1. Тогда для a > 0, b > 0 ] ] ] |ξ| d = (|ξ| | Fn) d = |Xn | d 6 {|Xn |>a} {|Xn |>a} {|Xn |>a} = ] {|Xn |>a, |ξ|6b} |ξ| d + ] {|Xn |>a, |ξ|>b} 6 b {|Xn | > a} + ] {|ξ|>b} |ξ| d 6 |ξ| d 6 b |ξ| + a ] {|ξ|>b} |ξ| d . Полагая a → ∞, затем b → ∞, получаем ] lim sup |Xn | d = 0, a→∞ n {|Xn |>a} что означает равномерную интегрируемость семейства {Xn }. Тогда, согласно теореме 2, существует случайная величина X∞ такая, что Xn = = (ξ | Fn) → X∞ ( -п. н. и в смысле L1). Поэтому надо лишь показать, 728 ГЛ. VII. МАРТИНГАЛЫ что X∞ = (ξ | F∞) Пусть m > n и A ∈ Fn . Тогда ] ] ] Xm d = Xn d = A A A ( -п. н.). ] (ξ | Fn) d = ξ d . A В силу равномерной интегрируемости семейства {Xn } и теоремы 5 § 6 гл. II IA |Xm − X∞ | → 0, m → ∞, и, следовательно, ] ] (8) X∞ d = ξ d . A A Это равенство выполнено для любого A ∈ Fn и, значит, для любо∞ S го A ∈ Fn . Поскольку |X∞ | < ∞, |ξ| < ∞, то левая и правая части n=1 в (8) представляют σ-аддитивные меры, возможно, принимающие и от∞ S рицательные значения, но конечные и совпадающие на алгебре Fn . n=1 В силу единственности продолжения σ-аддитивной меры с алгебры на наименьшую σ-алгебру, ее содержащую (теорема Каратеодори, § 3Sгл. II) равенство (9) остается справедливым и для множеств A ∈ F∞ = σ ( Fn). Итак, ] ] ] (ξ | F∞) d , A ∈ F∞ . (9) X∞ d = ξ d = A A A Величины X∞ и (ξ | F∞) являются F∞ -измеримыми, поэтому в силу свойства I п. 3 § 6 гл. II из (9) следует, что X∞ = (ξ | F∞) ( -п. н.). Следствие. Стохастическая последовательность X = (Xn , Fn) является равномерно интегрируемым мартингалом тогда и только тогда, когда существует случайная величина ξ с |ξ| < ∞ такая, что Xn = (ξ | Fn) для всех n > 1 (т. е. X есть мартингал Леви). При этом Xn → (ξ | F∞) ( -п. н. и в смысле L1) при n → ∞. Действительно, если X = (Xn , Fn) – – равномерно интегрируемый мартингал, то по теореме 2 найдется такая интегрируемая случайная величина X∞ , что Xn → X∞ ( -п. н. и в смысле L1) и к тому же Xn = (X∞ | Fn). Так что в качестве случайной величины ξ можно взять (F∞ -измеримую) величину X∞ . Обратное утверждение следует из теоремы 3. 4. Остановимся на некоторых применениях доказанных теорем. Пример 1. Закон «нуля или единицы». Пусть ξ1 , ξ2 , . . . – – послеξ довательность независимых случайных величин, Fn = σ{ξ1 , . . . , ξn }, X – – § 4. ОСНОВНЫЕ ТЕОРЕМЫ О СХОДИМОСТИ 729 σ-алгебра «хвостовых» событий и A ∈ X . Из теоремы 3 ξ (IA | Fnξ) → (IA | F∞ ) = IA ( -п. н.). Но IA и (ξ1 , . . . , ξn) независимы. Поэтому (IA | Fnξ) = IA и, значит, ( -п. н.) IA = IA , откуда (A) = 0 или (A) = 1. Следующие два примера иллюстрируют возможности применения приведенных выше теорем о сходимости в математическом анализе. Пример 2. Если f = f(x) – – функция на [0, 1), удовлетворяющая условию Липшица, то она абсолютно непрерывна и, как известно из анализа, найдется такая интегрируемая (по Лебегу) функция g = g(x), что f(x) − f(0) = ]x (10) g(y) dy. 0 (В этом смысле g(x) есть «производная» f(x).) Покажем, как этот результат может быть получен из теоремы 1. Пусть Ω = [0, 1), F = B ([0, 1)) и – – мера Лебега. Положим 2n o n X k k−1 k−1 I 6 x < ξn (x) = n n n , 2 k=1 2 2 Fn = σ{ξ1 , . . . , ξn } = σ{ξn }, и пусть Xn = f(ξn + 2−n) − f(ξn) . 2−n Поскольку при заданном значении ξn случайная величина ξn+1 принимает лишь два значения ξn и ξn + 2−(n+1) с условными вероятностями, равными 1/2, то [Xn+1 | Fn ] = [Xn+1 | ξn ] = 2n+1 [f(ξn+1 + 2−(n+1) ) − f(ξn+1) | ξn ] = n o 1 1 = 2n+1 [f(ξn + 2−(n+1) ) − f(ξn)] + [f(ξn + 2−n) − f(ξn + 2−(n+1) )] = 2 2 = 2n {f(ξn + 2−n) − f(ξn)} = Xn . Отсюда следует, что X = (Xn , Fn) есть мартингал, причем равномерно интегрируемый в силу того, что |Xn | 6 L, где L – Липшица: – константа в условии S |f(x) − f(y)| 6 L|x − y|. Заметим, что F = B ([0, 1)) = σ ( Fn). Поэтому, согласно следствию к теореме 3, найдется такая F -измеримая функция g = g(x), что Xn → g ( -п. н.) и Xn = [g | Fn ] . (11) 730 ГЛ. VII. МАРТИНГАЛЫ Возьмем множество B = [0, k/2n ] . Тогда из (11) f k 2n − f(0) = k/]2n Xn dx = 0 k/]2n g(x) dx, 0 и в силу произвольности n и k отсюда получаем требуемое равенство (10). Пример 3. Пусть Ω = [0, 1), F = B ([0, 1)) и – – мера Лебега. Рассмотрим систему функций Хаара {Hn (x)}n>1 , определенных S в примере 3 § 11 гл. II. Положим Fn = σ{H1 , . . . , Hn } и заметим, что σ ( Fn) = F . Из свойств условных математических ожиданий и структуры функций Хаара нетрудно вывести, что для любой борелевской функции f ∈ L [f(x) | Fn ] = где n X ak Hk (x) ( -п. н.), (12) k=1 ]1 ak = (f, Hk) = f(x)Hk (x) dx. 0 Иначе говоря, условное математическое ожидание [f(x) | Fn ] есть частичная сумма Фурье при разложении функции f(x) по системе Хаара. Тогда, применяя теорему 3 к мартингалу ( (f | Fn), Fn), находим, что при n → ∞ n X k=1 и (f, Hk)Hk (x) → f(x) n ]1 X 0 k=1 ( -п. н.) (f, Hk)Hk (x) − f(x) dx → 0. Пример 4. Пусть (ξn) n>1 – величин. – последовательность случайных P Согласно теореме 2 из § 10 гл. II, сходимость -п. н. ряда ξn влечет за собой его сходимость по вероятности и по распределению. Оказывается, что если случайные P величины ξ1 , ξ2 , . . . независимы, то верно и обратное: сходимость ряда ξn из независимых случайных величин по распределению влечет его сходимость по вероятности и с вероятностью единица. Доказательство этого свойства может быть получено следующим обd → S. Тогда e itSn → e itS для разом. Пусть Sn = ξ1 + . . . + ξn , n > 1, и Sn − каждого действительного t. Ясно, что существует такое δ > 0, что | e itS | > 0 для всех |t| < δ. Возьмем некоторое t0 такое, что |t0 | < δ. Тогда существует также такое n0 = n0 (t0), что | e it0 Sn | > c > 0 для всех n > n0 , где c – – некоторая константа. § 4. ОСНОВНЫЕ ТЕОРЕМЫ О СХОДИМОСТИ 731 Образуем для n > n0 последовательность X = (Xn , Fn) с Xn = e it0 Sn , e it0 Sn Fn = σ{ξ1 , . . . , ξn }. Поскольку величины ξ1 , ξ2 , . . . предполагаются независимыми, то последовательность X = (Xn , Fn) – – мартингал с sup n>n0 |Xn | 6 c −1 < ∞. Тогда из теоремы 1 следует, что с вероятностью единица предел lim Xn n существует и конечен. Поэтому предел lim e it0 Sn также существует с вероn ятностью единица. Тем самым можно утверждать, что найдется такое δ > 0, что для каждого t из множества T = {t : |t| < δ} предел lim e itSn существует n с вероятностью единица. Пусть T × Ω = {(t, ω) : t ∈ T, ω ∈ Ω}, B (T) – – σ-алгебра лебеговских множеств на T и λ – – мера Лебега на (T, B (T)). Пусть также n o C = (t, ω) ∈ T × Ω : lim e itSn (ω) существует . n Ясно, что C ∈ B (T) ⊗ F . Выше было показано, что (Ct ) = 1 для каждого t ∈ T , где Ct = = {ω ∈ Ω : (t, ω) ∈ C} – – сечение множества C в точке t. По теореме Фубини (теорема 8 § 6 гл. II) ] ] ] ] IC (t, ω) d(λ × ) = IC (t, ω) d dλ = (Ct ) dλ = λ(T) = 2δ > 0. T ×Ω T T Ω С другой стороны, снова по теореме Фубини ] ] ] ] λ(T) = IC (t, ω) d(λ × ) = d IC (t, ω) dλ = λ(Cω) d , T ×Ω Ω T Ω где Cω = {t : (t, ω) ∈ C}. h с (Ω) h = 1 такое, что Отсюда вытекает, что существует множество Ω h λ(Cω) = λ(T) = 2δ > 0 для всех ω ∈ Ω. h предел Следовательно, можно утверждать, что для каждого ω ∈ Ω itSn (ω) lim e существует для всех t ∈ Cω ; причем мера Лебега множества Cω n положительна. Отсюда и из задачи 8 следует, что предел lim Sn (ω) сущеn h Поскольку (Ω) h = 1, то lim Sn (ω) существует ствует и конечен для ω ∈ Ω. n и конечен с вероятностью единица. 5. Задачи. 1. T Пусть {Gn } – – невозрастающее семейство σ-алгебр, G1 ⊇ G2 ⊇ . . . , G∞ = Gn и η – – некоторая интегрируемая случайная величина. Доказать 732 ГЛ. VII. МАРТИНГАЛЫ справедливость следующего аналога теоремы 3: при n → ∞ (η | Gn) → (η | G∞) ( -п. н. и в смысле L1). 2. Пусть ξ1 , ξ2 , . . . – – последовательность независимых одинаково распределенных случайных величин с |ξ1 | < ∞ и ξ1 = m, Sn = ξ1 + . . . + ξn . Показав (см. задачу 2 § 7 гл. II), что (ξ1 | Sn , Sn+1 , . . .) = (ξ1 | Sn) = Sn n ( -п. н.), вывести из результата задачи 1 усиленный закон больших чисел: при n → ∞ Sn →m n ( -п. н. и в смысле L1). 3. Доказать справедливость следующего результата, соединяющего в себе теорему Лебега о мажорируемой сходимости и теорему П. Леви. Пусть (ξn) n>1 – – последовательность случайных величин таких, что ξn → ξ ( -п. н.),S|ξn | 6 η, η < ∞ и (Fm) m>1 – – неубывающее семейство σ-алгебр, F∞ = σ ( Fm). Тогда ( -п. н.) lim m→∞ n→∞ (ξn | Fm) = (ξ | F∞). 4. Доказать справедливость формулы (12). 5. Пусть Ω = [0, 1), F = B ([0, 1)), – – мера Лебега и f = f(x) ∈ L1 . Положим fn (x) = 2n −n (k+1)2 ] f(y) dy, k2−n 6 x < (k + 1)2−n . k2−n Показать, что fn (x) → f(x) ( -п. н.). 6. Пусть Ω = [0, 1), F = B ([0, 1)), – – мера Лебега и f = f(x) ∈ L1 . Продолжим эту функцию периодически на [0, 2) и положим n fn (x) = 2 X 2−n f(x + i2−n). i=1 Показать, что fn (x) → f(x) ( -п. н.). 7. Доказать, что теорема 1 сохраняет свою силу для обобщенных субмартингалов X = (Xn , Fn), для которых inf sup m n>m (Xn+ | Fm) < ∞ ( -п. н.). § 5. О МНОЖЕСТВАХ СХОДИМОСТИ 733 8. Пусть (an) n>1 – – некоторая последовательность чисел такая, что для всех действительных t с |t| < δ, δ > 0, предел lim e itan существует. Доказать, что тогда существует и конечен lim an . n n 9. Пусть F = F(x), x ∈ R, есть функция распределения, α ∈ (0, 1). Предположим, что существует θ ∈ R такое, что F(θ) = α. Образуем («процедура Робинса– –Монро») последовательность X1 , X2 , . . . так, что Xn+1 = Xn − n−1 (Yn − α), где Y1 , Y2 , . . . – – случайные величины такие, что ( F(Xn), (Yn = y | X1 , . . . , Xn ; Y1 , . . . , Yn−1) = 1 − F(Xn), если y = 1, если y = 0. Доказать следующий результат теории «стохастической аппроксимации»: |Xn − θ|2 → 0, n → ∞. 10. Пусть X = (Xn , Fn) n>1 – – субмартингал такой, что (Xτ I(τ < ∞)) 6= ∞ для каждого момента остановки τ . Показать, что с вероятностью единица существует предел lim Xn . n ∞ S 11. Пусть X = (Xn , Fn) n>1 есть мартингал, F∞ = σ Fn . Доказать, n=1 что если последовательность (Xn) n>1 равномерно интегрируема, то предел X∞ = lim Xn существует ( -п. н.) и «замкнутая» последовательность n X = (Xn , Fn) 16n6∞ является мартингалом. 12. Будем что X = (Xn , Fn) n>1 есть субмартингал, и пусть ∞ предполагать, S F∞ = σ Fn . Доказать, что если последовательность (Xn+) n>1 равноn=1 мерно интегрируема, то предел X∞ = lim Xn существует ( -п. н.) и «замкнуn тая» последовательность X = (Xn , Fn) 16n6∞ является субмартингалом. § 5. О множествах сходимости субмартингалов и мартингалов 1. Пусть X = (Xn , Fn) – – стохастическая последовательность. Будем обозначать через {Xn →} или {−∞ < lim Xn < ∞} множество тех элементарных исходов, для которых lim Xn существует и конечен. Будем говорить также, что A ⊆ B ( -п. н.), если (IA 6 IB) = 1. Если X – – субмартингал и sup |Xn | < ∞ (или, что эквивалентно, sup Xn+ < ∞), то в соответствии с теоремой 1 § 4 {Xn → } = Ω ( -п. н.) т. е. {Xn 6→ } = 0. 734 ГЛ. VII. МАРТИНГАЛЫ Рассмотрим вопрос о структуре множеств сходимости {Xn → } для субмартингалов в случае нарушения условия sup |Xn | < ∞. Пусть a > 0 и τa = inf{n > 1 : Xn > a} с τa = ∞, если { · } = ∅. Определение. Стохастическая последовательность X = (Xn , Fn) принадлежит классу C+ (X ∈ C+), если для любого a > 0 (∆Xτa) + I{τa < ∞} < ∞, (1) где ∆Xn = Xn − Xn−1 , X0 = 0. Очевидно, что X ∈ C+ , если sup |∆Xn | < ∞ (2) n или, тем более, если ( -п. н.) для всех n > 1 (3) |∆Xn | 6 C < ∞. Теорема 1. Если субмартингал X ∈ C , то ( -п. н.) + {sup Xn < ∞} = {Xn → }. (4) Доказательство. Включение {Xn → } ⊆ {sup Xn < ∞} очевидно. Для доказательства обратного включения рассмотрим «остановленный» субмартингал X τa = (Xτa ∧n , Fn). Тогда в силу (1) Xτ+a ∧n 6 a + [Xτ+a I{τa < ∞}] 6 2a + [(∆Xτa) + I{τa < ∞}] < ∞, sup n (5) и, значит, по теореме 1 из § 4 ( -п. н.) {τa = ∞} ⊆ {Xn → }. Но S {τa = ∞} = {sup Xn < ∞}, поэтому {sup Xn < ∞} ⊆ {Xn → } ( -п. н.). a>0 Следствие. Пусть X – – мартингал с sup |∆Xn | < ∞. Тогда {Xn → } ∪ {lim Xn = −∞, lim Xn = +∞} = Ω ( -п. н.). В самом деле, применяя теорему 1 к X и −X, находим, что ( -п. н.) {lim Xn < ∞} = {sup Xn < ∞} = {Xn → }, {lim Xn > −∞} = {inf Xn > −∞} = {Xn → }. Поэтому ( -п. н.) {lim Xn < ∞} ∪ {lim Xn > −∞} = {Xn → }, что и доказывает (6). (6) § 5. О МНОЖЕСТВАХ СХОДИМОСТИ 735 Утверждение (6) означает, что почти все траектории мартингала X, удовлетворяющего условию sup |∆Xn | < ∞, таковы, что или для них существует конечный предел, или же они устроены «плохо» в том смысле, что для них lim Xn = +∞, lim Xn = −∞. 2. Если ξ1 , ξ2 , . . . – – последовательность независимых случайныхPвеличин с ξi = 0 и |ξi | 6 c < ∞, то, согласно теореме ξi P 12 § 2 гл. IV, ряд сходится ( -п. н.) тогда и только тогда, когда ξi < ∞. Последовательность X = (Xn , Fn) с Xn = ξ1 + . . . + ξn , Fn = σ{ξ1 , . . . , ξn } есть квадратично интегрируемый мартингал с hXin = n P i=1 ξi2 , и сформули- рованному утверждению можно придать такую форму: {hXi∞ < ∞} = {Xn → } = Ω ( -п. н.), где hXi∞ = limhXin . n Приводимые далее утверждения обобщают этот результат на случай более общих мартингалов и субмартингалов. Теорема 2. Пусть X = (Xn , Fn) – – субмартингал и Xn = mn + An – – его разложение Дуба. a) Если X – – неотрицательный субмартингал, то {A∞ < ∞} ⊆ {Xn → } ⊆ {sup Xn < ∞} ( -п. н.). (7) ( -п. н.). (8) b) Если X ∈ C+ , то {Xn → } = {sup Xn < ∞} ⊆ {A∞ < ∞} c) Если X – – неотрицательный субмартингал и X ∈ C+ , то {Xn → } = {sup Xn < ∞} = {A∞ < ∞} ( -п. н.). (9) Доказательство. a) Второе включение в (7) очевидно. Для доказательства первого включения введем моменты σa = inf{n > 1 : An+1 > a}, a > 0, полагая σa = +∞, если { · } = ∅. Тогда Aσa 6 a и в силу следствия 1 к теореме 1 § 2 Xn∧σa = An∧σa 6 a. 736 ГЛ. VII. МАРТИНГАЛЫ Пусть Yna = Xn∧σa , тогда Y a = (Yna , Fn) – – субмартингал с sup Yna 6 a < ∞ и в силу его неотрицательности из теоремы 1 § 4 следует, что ( -п. н.) {A∞ 6 a} = {σa = ∞} ⊆ {Xn → }. Поэтому ( -п. н.) {A∞ < ∞} = [ a>0 {A∞ 6 a} ⊆ {Xn → }. b) Первое равенство следует из теоремы 1. Чтобы доказать второе, заметим, что, согласно (5), и, значит, Aτa ∧n = Xτa ∧n 6 Xτ+a ∧n 6 2a + [(∆Xτa) + I{τa < ∞}] Aτa = lim Aτa ∧n < ∞. n Поэтому S {τa = ∞} ⊆ {A∞ < ∞} и требуемое утверждение следует из того, что {τa = ∞} = {sup Xn < ∞}. a>0 c) Это утверждение есть непосредственное следствие утверждений a) и b). Замечание. Условие неотрицательности X можно заменить условием sup Xn− < ∞. n Следствие 1. Пусть Xn = ξ1 + . . . + ξn , где ξi > 0, ξi < ∞, ξi – – Fi -измеримы и F0 = {∅, Ω}. Тогда ( -п. н.) (∞ ) X (ξn | Fn−1) < ∞ ⊆ {Xn → }, (10) n=1 sup ξn < ∞, то ( -п. н.) и если к тому же n ( ∞ X n=1 ) (ξn | Fn−1) < ∞ = {Xn → }. (11) Следствие 2 (лемма Бореля– –Кантелли– –Леви). Если события Bn ∈ Fn , то, полагая в (11) ξn = IBn , получаем, что ( -п. н.) (∞ ) (∞ ) X X (Bn | Fn−1) < ∞ = IBn < ∞ . (12) n=1 n=1 3. Теорема 3. Пусть M = (Mn, Fn) n>1 – – квадратично интегрируемый мартингал. Тогда ( -п. н.) {hMi∞ < ∞} ⊆ {Mn → }. (13) § 5. О МНОЖЕСТВАХ СХОДИМОСТИ Если к тому же 737 sup |∆Mn |2 < ∞, то ( -п. н.) {hMi∞ < ∞} = {Mn → }, где hMi∞ = ∞ X n=1 (14) ((∆Mn) 2 | Fn−1) (15) с M0 = 0, F0 = {∅, Ω}. Доказательство. Рассмотрим два субмартингала M2 = (M2n , Fn) и (M + 1) 2 = ((Mn + 1) 2 , Fn). Тогда в их разложениях Дуба M2n = m′n + A′n , (Mn + 1) 2 = m′′n + A′′n величины A′n и A′′n совпадают, поскольку A′n = n X k=1 и A′′n = n X k=1 (∆M2k | Fk−1) (∆(Mk + 1) 2 | Fk−1) = Поэтому из (7) ( -п. н.) n X (∆M2k | Fk−1). k=1 {hMi∞ < ∞} = {A′∞ < ∞} ⊆ {M2n →} ∩ {(Mn + 1) 2 → } = {Mn → }. В силу (9) для доказательства (14) достаточно проверить, что условие sup |∆Mn |2 < ∞ обеспечивает принадлежность субмартингала M2 классу C+ . Пусть τa = inf{n > 1 : M2n > a}, a > 0. Тогда на множестве {τa < ∞} |∆M2τa | = |M2τa − M2τa −1 | 6 |Mτa − Mτa−1 |2 + 2|Mτa−1 | · |Mτa − Mτa −1 | 6 6 (∆Mτa) 2 + 2a1/2 |∆Mτa |, откуда |∆M2τa | I{τa < ∞} 6 (∆Mτa) 2 I{τa < ∞} + 2a1/2 6 p sup |∆Mn |2 + 2a1/2 p (∆Mτa) 2 I{τa < ∞} 6 sup |∆Mn |2 < ∞. В качестве иллюстрации этой теоремы приведем следующий результат, который можно рассматривать как своеобразную форму усиленного закона больших чисел для квадратично интегрируемых мартингалов (ср. с теоремой 2 в § 3 гл. IV и со следствием 2 в п. 3 § 3). 738 ГЛ. VII. МАРТИНГАЛЫ Теорема 4. Пусть M = (Mn , Fn) – – квадратично интегрируемый мартингал и A = (An , Fn−1) – – предсказуемая возрастающая последовательность с A1 > 1, A∞ = ∞ ( -п. н.). Если ( -п. н.) ∞ X [(∆Mi) 2 | Fi−1 ] < ∞, (16) 2 Ai i=1 то с вероятностью единица Mn → 0, An n → ∞. (17) В частности, если hMi = (hMin , Fn−1) есть квадратическая характеристика квадратично интегрируемого мартингала M = (Mn , Fn) и hMi∞ = ∞ ( -п. н.), то с вероятностью единица Mn → 0, hMin n → ∞. (18) Доказательство. Рассмотрим квадратично интегрируемый мартингал m = (mn , Fn) с n X ∆Mi . mn = i=1 Тогда hmin = Поскольку n X i=1 [(∆Mi) 2 | Fi−1 ] . A2i n P Mn = An Ai (19) Ak ∆mk k=1 An то, согласно лемме Кронекера (§ 3 гл. IV), , Mn → 0 ( -п. н.), если с вероAn ятностью единица существует конечный предел lim mn . В силу (13) {hmi∞ < ∞} ⊆ {mn → }, (20) Xn+1 = θXn + ξn+1 , (21) поэтому из (19) следует, что условие (16) достаточно для выполнения (17). Наконец, если An = hMin , то условие (16) выполняется автоматически (задача 6). Пример. Рассмотрим последовательность независимых случайных величин ξ1 , ξ2 , . . . с ξi = 0, ξi = Di > 0, и пусть последовательность X = = (Xn) n>0 определяется из рекуррентных уравнений § 5. О МНОЖЕСТВАХ СХОДИМОСТИ 739 где X0 не зависит от ξ1 , ξ2 , . . . , а θ – – неизвестный параметр, −∞ < θ < ∞. Будем интерпретировать Xn как результат наблюдения в момент времени n и поставим задачу оценки неизвестного параметра θ. Возьмем в качестве оценки θ по результатам X0 , X1 , . . . , Xn величину n−1 P θ̂n = Xk Xk+1 Dk+1 k=0 n−1 P k=0 Xk2 Dk+1 , (22) полагая ее равной нулю, если знаменатель обращается в нуль. (Величина θ̂n есть оценка, полученная по методу наименьших квадратов.) Из (21) и (22) ясно, что Mn , An θ̂n = θ + где Mn = n−1 X Xk ξk+1 k=0 Dk+1 , An = hMin = n−1 X k=0 Xk2 . Dk+1 Поэтому, если истинное значение неизвестного параметра есть θ, то {θ̂n → θ} = 1 (23) тогда и только тогда, когда ( -п. н.) Mn → 0, An (24) n → ∞. Покажем, что условия sup n Dn+1 < ∞, Dn ∞ X n=1 ξn2 ∧1 =∞ Dn (25) достаточны для (24) и, следовательно, достаточны для (23). Имеем ∞ 2 X ξn n=1 Dn ∞ ∞ X X (Xn − θXn−1) 2 ξn2 ∧1 6 = 6 n=1 Dn n=1 n=1 Тем самым Dn "∞ # ∞ 2 h i X Xn2 X Xn−1 D 2 62 6 2 sup n+1 + θ2 hMi∞ . +θ ( ∞ 2 X ξn n=1 Dn Dn n=1 Dn ) ∧ 1 = ∞ ⊆ {hMi∞ = ∞}. Dn 740 ГЛ. VII. МАРТИНГАЛЫ По теореме о «трех рядах» (теорема 3 в § 2 гл. IV) расходимость ря ξ2 ∞ ξ2 ∞ P P n n ∧ 1 обеспечивает расходимость ( -п. н.) ряда ∧1 . да n=1 Dn n=1 Dn Поэтому {hMi∞ = ∞} = 1 и требуемое соотношение (24) следует непосредственно из последнего утверждения теоремы 4. Оценки θ̂n , n > 1, обладающие свойством (23), называют сильно состоятельными (ср. с понятием состоятельности в § 7 гл. I). В п. 5 следующего параграфа будет продолжено рассмотрение этого примера для случая гауссовской последовательности ξ1 , ξ2 , . . . Теорема 5. Пусть X = (Xn , Fn) – – субмартингал, Xn = mn + An – – его разложение Дуба. Если |∆Xn | 6 C, то ( -п. н.) {hmi∞ + A∞ < ∞} = {Xn → }, или, что то же, (∞ X n=1 2 ) [∆Xn + (∆Xn) | Fn−1 ] < ∞ = {Xn → }. (26) (27) Доказательство. Поскольку An = mn = n X k=1 n X k=1 (∆Xk) | Fk−1), [∆Xk − (∆Xk | Fk−1)] , (28) (29) то в силу предположения |∆Xk | < C мартингал m = (mn , Fn) является квадратично интегрируемым с |∆mn | 6 2C. Тогда из (13) {hmi∞ + A∞ < ∞} ⊆ {Xn → } и, согласно (8), (30) {Xn → } ⊆ {A∞ < ∞}. Поэтому из (14) и (30) {Xn → } = {Xn → } ∩ {A∞ < ∞} = {Xn → } ∩ {A∞ < ∞} ∩ {mn → } = = {Xn → } ∩ {A∞ < ∞} ∩ {hmi∞ < ∞} = = {Xn → } ∩ {A∞ + hmi∞ < ∞} = {A∞ + hmi∞ < ∞}. § 5. О МНОЖЕСТВАХ СХОДИМОСТИ 741 Наконец, эквивалентность утверждений (26) и (27) следует из того, что в силу (29) X hmin = { [(∆Xk) 2 | Fk−1 ] − [ (∆Xk |Fk−1)] 2 } и из сходимости ряда ∞ P k=1 (∆Xk | Fk−1), состоящего из неотрицательных членов, следует сходимость ряда ∞ P k=1 [ (∆Xk | Fk−1)] 2 . 4. Теорема Колмогорова о «трех рядах» (теорема 3 § 2 гл. IV) дает необходимое и достаточное условие сходимости с вероятностью единица P ряда ξn , состоящего из независимых случайных величин. В нижеследующей теореме 6, доказательство которой основано на теоремах 2 и 3, P дается описание множества сходимости ряда ξn без предположения о независимости случайных величин ξ1 , ξ2 , . . . Теорема 6. Пусть ξ = (ξn , Fn) n>1 – – стохастическая последоваP тельность, F0 = {∅, Ω} и c – положительная константа. Ряд ξn – сходится на множестве A, на котором одновременно сходятся три ряда X X X (|ξn | > c | Fn−1), (ξnc | Fn−1), (ξnc | Fn−1), где ξnc = ξn I(|ξn | 6 c). n P Доказательство. Пусть Xn = ξk . Поскольку (на множестве A) k=1 P сходится ряд (|ξn | > c | Fn−1), то по следствию 2 к теореме 2 и в силу P сходимости ряда (ξnc | Fn−1) имеем ( n ) X A ∩ {Xn → } = A ∩ ξk I(|ξk | 6 c) → = k=1 =A∩ ( n X k=1 ) [ξk I(|ξk | 6 c) − (ξk I(|ξk | 6 c) | Fk−1)] → . Пусть ηk = ξkc − (ξkc | Fk−1) и Yn = n P (31) ηk . Тогда Y = (Yn , Fn) – – квадратично k=1 интегрируемый мартингал с |ηk | 6 2c. По теореме 3 nX o A⊆ (ξnc | Fn−1) < ∞ = {hY i∞ < ∞} = {Yn → }. Поэтому из (31) следует, что A ∩ {Xn → } = A 742 ГЛ. VII. МАРТИНГАЛЫ и, значит, A ⊆ {Xn → }. 5. Задачи. 1. Показать, что если субмартингал X = (Xn , Fn) удовлетворяет условию sup |Xn | < ∞, то он принадлежит классу C+ . n 2. Доказать, что теоремы 1 и 2 остаются справедливыми для обобщенных субмартингалов. 3. Показать, что для обобщенных субмартингалов ( -п. н.) имеет место включение n o inf sup (Xn+ | Fm) < ∞ ⊆ {Xn → }. m n>m 4. Показать, что следствие к теореме 1 остается верным и для обобщенных мартингалов. 5. Показать, что всякий обобщенный субмартингал класса C+ является локальным субмартингалом. n ∞ a P P n < ∞. 6. Пусть an > 0, n > 1, и bn = ak . Показать, что 2 k=1 n=1 bn 7. Пусть ξ0 , ξ1 , ξ2 , . . . – – последовательность равномерно ограниченP ных случайных величин: |ξn | 6 c, n 6 1. Показать, что ряды ξn и n>0 P (ξn | ξ1 , . . . , ξn−1) сходятся или расходятся ( -п. н.) одновременно. n>1 § 6. Абсолютная непрерывность и сингулярность вероятностных распределений на измеримом пространстве с фильтрацией 1. Пусть (Ω, F) – – некоторое измеримое пространство с выделенным на нем семейством таких σ-алгебр (Fn) n>1 , что F1 ⊆ F2 ⊆ . . . ⊆ F и ! ∞ [ F =σ (1) Fn . n=1 Будем предполагать, что на (Ω, F) заданы две вероятностные меры Обозначим h n = h | Fn n = | Fn , – – сужения этих мер на Fn , т. е. пусть для B ∈ Fn n (B) = (B), n и h. и hn – – меры на (Ω, Fn), причем h n (B) = h (B). § 6. АБСОЛЮТНАЯ НЕПРЕРЫВНОСТЬ И СИНГУЛЯРНОСТЬ 743 Напомним, что вероятностная мера h называется абсолютно непрерывной относительно (обозначение: h ≪ ), если h (A) = 0 всякий раз, когда (A) = 0, A ∈ F . В случае h ≪ и ≪ h меры h и называются эквивалентными (обозначение: h ∼ ). Меры h и называются сингулярными или ортогональными, если существует такое множество A ∈ F , что h (A) = 1 и (A) = 1 (обозначение: h ⊥ ). Определение 1. Будем говорить, что мера h локально абсолютно loc непрерывна относительно меры (обозначение: h ≪ ), если для любого n>1 h n ≪ n. (2) Основные вопросы, рассматриваемые в настоящем параграфе, состоят в выяснении условий, при которых из локальной абсолютной непрерывноloc сти h ≪ следует выполнение свойств h ≪ , h ∼ , h ⊥ . Как станет ясно из дальнейшего, теория мартингалов является тем математическим аппаратом, который позволяет исчерпывающим образом ответить на эти вопросы. Напомним, что в § 9 гл. III вопрос об абсолютной непрерывности и сингулярности вероятностных мер рассматривался для произвольных вероятностных мер. Было показано, что обращение к интегралам Хеллингера позволяет сформулировать соответствующие критерии (теоремы 2 и 3). Приводимые ниже результаты об абсолютной непрерывности и сингулярности для локально абсолютно непрерывных мер можно было бы получать, отправляясь от этих критериев. (Такой подход изложен в монографиях [84] , [87] .) Здесь же мы предпочитаем несколько иной путь изложения, желая более полно проиллюстрировать возможности применения результатов § 5 о множествах сходимости субмартингалов. (Отметим, что все изложение в этом параграфе предполагает выполненным свойство локальной абсолютной непрерывности. Сделано это лишь для простоты изложения. Для общего случая мы отсылаем читателя к [84] , [87] .) loc Итак, будем предполагать, что h ≪ . Обозначим zn = d hn d n производную Радона– –Никодима меры h n относительно n . Ясно, что zn являются Fn -измеримыми, и если A ∈ Fn , то ] d h n+1 ] ] d hn ] zn+1 d = d = h n+1 (A) = h n (A) = d = zn d . A A d n+1 A d n A 744 ГЛ. VII. МАРТИНГАЛЫ Отсюда следует, что относительно меры стохастическая последовательность z = (zn , Fn) n>1 является мартингалом. Ключевым моментом во всей проблематике «абсолютная непрерывность и сингулярность» является следующая loc Теорема 1. Пусть h ≪ . a) С ( + h ) /2-вероятностью единица существует предел lim zn , n обозначаемый z∞ , такой, что {z∞ = ∞} = 0. b) Имеет место разложение Лебега ] h (A) = z∞ d + h (A ∩ {z∞ = ∞}), A A∈F, (3) причем меры h (A ∩ {z∞ = ∞}) и (A), A ∈ F , являются сингулярными. Доказательство. Прежде всего напомним, что, согласно классическому разложению Лебега (формула (29) § 9 гл. III) произвольной вероятностной меры h относительно вероятностной меры , имеет место представление ] h (A) = z̃ d + h (A ∩ {z = 0}), A ∈ F , (4) A где z z= d d , z̃ = dh d 1 и в качестве меры можно взять, например, меру = ( + h ). Таким 2 образом, формулу (3) можно рассматривать как конкретизацию общего разложения (4), связанную с той спецификой рассматриваемого случая, loc что h ≪ , т. е. h n ≪ n , n > 1. Пусть zn = d d n n , z̃n = d hn , d n n= 1 ( 2 n + h n). Последовательности (zn , Fn) и ( z̃n , Fn) относительно меры являются мартингалами, причем такими, что 0 6 zn 6 2, 0 6 z̃n 6 2. Поэтому (теорема 2 § 4) существуют пределы z∞ ≡ lim zn , z̃∞ ≡ lim z̃n n n (5) -п. н., так и в смысле сходимости в L1 (Ω, F , ). Из сходимости в смысле L1 (Ω, F , ), в частности, следует, что для любого A ∈ Fm ] ] ] z̃∞ d = lim z̃n d = z̃m d = h m (A) = h (A). как A n↑∞ A A § 6. АБСОЛЮТНАЯ НЕПРЕРЫВНОСТЬ И СИНГУЛЯРНОСТЬ 745 Тогда Каратеодори (§ 3 гл. II) вытекает, что для любого A ∈ F = Sиз теоремы =σ Fn n ] z̃∞ d = h (A), A т. е. dh d = z̃∞ , и аналогично ] = (A), z∞ d A d = z∞ . т. e. d Таким образом, этим установлен естественно ожидаемый результат: S если меры и заданы на F = σ ( Fn) и n , n – – сужения этих мер на Fn , то -п. н. и в смысле сходимости в L1 (Ω, F , ) lim d d lim dh d hn . = d n d n n = n d d . Аналогично, n В рассматриваемом нами специальном случае, когда h n ≪ нетрудно показать, что ( -п. н.) zn = z̃n , zn n, n > 1, (6) 1 [ {zn = 0} + h {z̃n = 0}] = 0, так что в (6) не 2 0 возникает ( -п. н.) неопределенности вида . 0 2 полагается, как обычно, равным +∞. Полезно Выражение вида 0 при этом {zn = 0, z̃n = 0} 6 отметить, что поскольку (zn , Fn) – – неотрицательный мартингал, то из соотношения (5) § 2 следует, что если zτ = 0, то zn = 0 для вcex n > τ ( -п. н.). То же, конечно, верно и для (z̃n , Fn). Отсюда вытекает, что для последовательности (zn) n>1 точки 0 и +∞ являются «поглощающими состояниями». Из (5) и (6) вытекает, что -п. н. существует предел z∞ ≡ lim zn = n Поскольку {z∞ = 0} = ] {z∞ =0} казывает утвержение а) теоремы. lim z̃n n lim zn n z∞ d = z̃∞ . z∞ = 0, то (7) {z∞ = ∞} = 0, что и до- 746 ГЛ. VII. МАРТИНГАЛЫ Для доказательства (3) воспользуемся общим разложением (4). В рассматриваемой нами ситуации и в силу уже доказанного z = z̃ = dh d d d = z∞ , = z̃∞ ( -п. н.), и, значит, из (4) имеем ] h (A) = z̃∞ d + h (A ∩ {z∞ = 0}), A z∞ откуда в силу (7) и того, что h {z̃∞ = 0} = 0, получаем требуемое разложение (3). Отметим, что поскольку {z∞ < ∞} = 1, то меры (A) ≡ (A ∩ {z∞ < ∞}) и h (A ∩ {z∞ = ∞}), A ∈ F , являются сингулярными. Из разложения Лебега (3) вытекают следующие полезные критерии абсолютной непрерывности и сингулярности для локально абсолютно непрерывных вероятностных мер. loc Теорема 2. Пусть h ≪ , т. е. h n ≪ n , n > 1. Тогда h≪ h⊥ z∞ = 1 ⇔ h {z∞ < ∞} = 1, z∞ = 0 ⇔ h {z∞ = ∞} = 1, ⇔ ⇔ где – – усреднение по мере . Доказательство. Полагая в (3) A = Ω, находим, что z∞ = 1 ⇔ h {z∞ = ∞} = 0, z∞ = 0 ⇔ h {z∞ = ∞} = 1. (8) (9) (10) (11) Если h {z∞ = ∞} = 0, то снова из (3) следует, что h ≪ . Обратно, пусть h ≪ . Тогда поскольку {z∞ = ∞} = 0, то h {z∞ = ∞} = = 0. Далее, если h ⊥ , то существует множество B ∈ F с h (B) = 1 и (B) = = 0. Тогда из (3) h (B ∩ {z∞ = ∞}) = 1 и, значит, h {z∞ = ∞} = 1. Если же h {z∞ = ∞} = 1, то свойство h ⊥ очевидно, поскольку {z∞ = ∞} = 0. 2. Из теоремы 2 ясно, что критерии абсолютной непрерывности и сингулярности можно выражать или в терминах меры (и проверять равенства z∞ = 1 или z∞ = 0) или же в терминах меры h (и тогда проверять, что h {z∞ < ∞} = 1 или h {z∞ = ∞} = 1). В силу теоремы 5 § 6 гл. II условие z∞ = 1 равносильно условию равномерной интегрируемости (по мере ) семейства {zn }n>1 . Это обстоятельство позволяет давать простые достаточные условия для абсолютной непрерывности h ≪ . Например, если sup n [zn ln+ zn ] < ∞ (12) § 6. АБСОЛЮТНАЯ НЕПРЕРЫВНОСТЬ И СИНГУЛЯРНОСТЬ 747 или если sup n zn1+ε < ∞, ε > 0, (13) то, согласно лемме 3 § 6 гл. II, семейство случайных величин {zn }n>1 будет равномерно интегрируемым и, значит, h ≪ . Во многих же случаях при проверке свойств абсолютной непрерывности или сингулярности предпочтительнее использовать критерии, выраженные в терминах меры h , поскольку тогда дело сводится к исследованию h -вероятности «хвостового» события {z∞ < ∞}, а для этого можно использовать утверждения типа закона «нуля или единицы». В качестве иллюстрации покажем, как из теоремы 2 выводится альтернатива Какутани. Пусть (Ω, F , ) – – некоторое вероятностное пространство, (R ∞ , B∞) – – измеримое пространство числовых последовательностей x = (x1 , x2 , . . .) с B∞ = B (R ∞), и пусть Bn = σ{x1 , . . . , xn }. Предположим, что ξ = (ξ1 , ξ2 , . . .) и ξ˜ = (ξ̃1 , ξ̃2 , . . .) – – две последовательности, состоящие из независимых случайных величин. h распределения вероятностей на (R ∞ , B∞) для Обозначим через P и P ξ и ξ̃ соответственно, т. е. h (B) = {ξ̃ ∈ B}, B ∈ B∞ . P(B) = {ξ ∈ B}, P Пусть также Pn = P | Bn , hn = P h | Bn P h на Bn и для A ∈ B (R 1) – – сужения мер P и P Pξn (A) = {ξn ∈ A}, Pξ̃n (A) = {ξ̃n ∈ A}. Теорема 3 (альтернатива Какутани). Пусть ξ = (ξ1 , ξ2 , . . .) и ξ̃ = = (ξ˜ 1 , ξ̃2 , . . .) – – последовательности независимых случайных величин, для которых Pξ̃n ≪ Pξn , n > 1. (14) h ≪ P, или P h ⊥ P. Тогда или P Доказательство. Условие (14), очевидно, равносильно условию, что loc h h≪ Pn ≪ Pn , n > 1, т. е. P P. Ясно, что zn = где hn dP = q1 (x1) . . . qn (xn), dPn qi (xi) = dPξ̃i dPξi (xi). (15) 748 ГЛ. VII. МАРТИНГАЛЫ Следовательно, ( {x : z∞ < ∞} = {x : ln z∞ < ∞} = x : ∞ X i=1 ) ln qi (xi) < ∞ . ∞ P Событие x : ln qi (xi) < ∞ является «хвостовым». Поэтому в силу i=1 закона «нуля или единицы» Колмогорова (теорема 1 § 1 гл. IV) вероятh : z∞ < ∞} принимает только два значения (0 или 1) и, значит, по ность P{x h ≪ P. теореме 2 или Ph ⊥ P, или P 3. Следующая теорема дает критерий абсолютной непрерывности и сингулярности, выраженный в «предсказуемых» терминах. loc Теорема 4. Пусть h ≪ , ⊕ αn = zn zn−1 , n > 1, с z0 = 1. Тогда (F0 = {∅, Ω}) (∞ ) X √ h≪ h ⇔ [1 − ( αn | Fn−1)] < ∞ = 1, h⊥ ⇔ h n=1 (∞ X n=1 ) √ [1 − ( αn | Fn−1)] = ∞ = 1. Доказательство. Поскольку h n {zn = 0} = то ( h -п. н.) zn = n Y (16) ] zn d = 0, {zn =0} ( αk = exp k=1 (17) n X ) ln αk . k=1 (18) Полагая в (3) A = {z∞ = 0}, находим, что h {z∞ = 0} = 0. Поэтому из (18) ( -п. н.) {z∞ < ∞} = {0 < z∞ < ∞} = {0 < lim zn < ∞} = ( = −∞ < lim Введем функцию u(x) = ( x, |x| 6 1, sign x, |x| > 1. n X k=1 ) ln αk < ∞ . (19) § 6. АБСОЛЮТНАЯ НЕПРЕРЫВНОСТЬ И СИНГУЛЯРНОСТЬ Тогда ( −∞ < lim n X k=1 ) ( ln αk < ∞ = −∞ < lim n X k=1 749 ) u(ln αk) < ∞ . (20) Пусть h означает усреднение по мере h и η – – Fn -измеримая интегрируемая случайная величина. Из свойств условных математических ожиданий следует (задача 4), что zn−1 h (η | Fn−1) = (ηzn | Fn−1) ( - и h -п. н.), h (η | Fn−1) = z ⊕ ( h -п. н.). n−1 (ηzn | Fn−1) (21) (22) ⊕ Вспоминая, что αn = zn−1 zn , из (22) получаем следующую полезную версию «формулы пересчета условных математических ожиданий» ((44) § 7 гл. II): ( h -п. н.), h (η | Fn−1) = (αn η | Fn−1) (23) из которой, в частности, вытекает, что (αn | Fn−1) = 1 ( h -п. н.). (24) Из (23) h [u(ln αn) | Fn−1 ] = [αn u(ln αn) | Fn−1 ] ( h -п. н.). Поскольку xu(ln x) > x − 1 для всех x > 0, то в силу (24) h [u(ln αn) | Fn−1 ] > 0 ( h -п. н.). Отсюда следует, что стохастическая последовательность X = (Xn , Fn) с Xn = n X u(ln αk) k=1 относительно меры h является субмартингалом c |∆Xn | = |u(ln αn)| 6 1. Тогда по теореме 5 из § 5 ( h -п. н.) ( −∞ < lim n X k=1 ) u(ln αk) < ∞ = = ( ∞ X k=1 2 ) h [u(ln αk) + u (ln αk) | Fk−1 ] < ∞ . (25) 750 ГЛ. VII. МАРТИНГАЛЫ Тем самым из (19), (20), (22) и (25) находим, что ( h -п. н.) {z∞ < ∞} = (∞ X k=1 ) h [u(ln αk) + u2 (ln αk) | Fk−1 ] < ∞ = = (∞ X ) [αk u(ln αk) + αk u2 (ln αk) | Fk−1 ] < ∞ k=1 и, следовательно, в силу теоремы 2 (∞ ) X h≪ ⇔ h [αk u(ln αk) + αk u2 (ln αk) | Fk−1 ] < ∞ = 1, h⊥ ⇔ h k=1 (∞ X ) 2 [αk u(ln αk) + αk u (ln αk) | Fk−1 ] = ∞ = 1. k=1 Заметим теперь, что в силу (24) √ √ [(1 − αn) 2 | Fn−1 ] = 2 [1 − αn | Fn−1 ] (26) (27) ( h -п. н.) и для всех x > 0 найдутся такие константы A и B (0 < A < B < ∞), что √ √ A(1 − x) 2 6 xu(ln x) + xu2 (ln x) + 1 − x 6 B(1 − x) 2 . (28) Поэтому утверждения (16) и (17) следуют из (26), (27) и (24), (28). Следствие 1. Если для любого n > 1 σ-алгебры σ (αn) и Fn−1 незаloc висимы по мере (или h ) и h ≪ , то имеет место альтернатива: либо h ≪ , либо h ⊥ . При этом h≪ h⊥ ⇔ ⇔ ∞ X n=1 ∞ X n=1 [1 − √ αn ] < ∞, [1 − √ αn ] = ∞. В частности, в ситуации Какутани (см. теорему 3) αn = qn и h≪ h⊥ ⇔ ⇔ ∞ X n=1 ∞ X n=1 [1 − p qn (xn)] < ∞, [1 − p qn (xn)] = ∞. § 6. АБСОЛЮТНАЯ НЕПРЕРЫВНОСТЬ И СИНГУЛЯРНОСТЬ 751 loc Следствие 2. Пусть h ≪ . Тогда (∞ ) X h (αn ln αn | Fn−1) < ∞ = 1 ⇒ h ≪ . n=1 Для доказательства достаточно заметить, что для любого x > 0 x ln x + 3 (1 − x) > 1 − x 1/2 , 2 и воспользоваться (16) и (24). ∞ P Следствие 3. Поскольку ряд n=1 (29) √ [1 − ( αn | Fn−1)] , состоящий из неотрицательныхP ( h -п. н.) членов, сходится или расходится одно√ временно с рядом |ln ( αn | Fn−1)|, то утверждениям (16) и (17) теоремы 4 можно придать следующую форму: ) (∞ X √ h≪ ⇔ h (30) |ln ( αn | Fn−1)| < ∞ = 1, h⊥ ⇔ h ( n=1 ∞ X n=1 |ln ) √ ( αn | Fn−1)| = ∞ = 1. (31) Следствие 4. Пусть существуют константы A и B такие, что 0 6 A < 1, B > 0 и {1 − A 6 αn 6 1 + B} = 1, loc Тогда если h ≪ , то h≪ ⇔ h h⊥ ⇔ h ( ∞ X n=1 (∞ X n=1 2 n > 1. ) [(1 − αn) | Fn−1 ] < ∞ = 1, 2 ) [(1 − αn) | Fn−1 ] = ∞ = 1. Для доказательства достаточно заметить, что для x ∈ [1 − A, 1 + B] , 0 6 A < 1, B > 0, найдутся такие константы c и C (0 < c < C < ∞), что √ (32) c(1 − x) 2 6 (1 − x) 2 6 C(1 − x) 2 . 4. Предположим, что ξ = (ξ1 , ξ2 , . . .), ξ˜ = (ξ̃1 , ξ̃2 , . . .) – – две гауссовhn ∼ Pn , n > 1. Покажем, ские последовательности и (в обозначениях п. 2) P как для таких последовательностей из полученных выше «предсказуемых» h ∼ P, либо критериев следует «альтернатива Гаека– –Фельдмана»: либо P h P ⊥ P. 752 ГЛ. VII. МАРТИНГАЛЫ По теореме о нормальной корреляции (теорема 2 § 13 гл. II) условные математические ожидания E(xn | Bn−1) и Eh (xn | Bn−1), где E и Eh – – усредh соответственно, являются линейными функциями от нения по мерам P и P x1 , . . . , xn−1 . Обозначим эти (линейные) функции через an−1 (x) и ãn−1 (x) соответственно (a0 (x) = a0 , ã0 (x) = ã0 – – константы) и положим bn−1 = (E[xn − an−1 (x)] 2) 1/2 , b̃n−1 = (Eh [xn − ãn−1 (x)] 2) 1/2 . По той же самой теореме о нормальной корреляции найдутся последовательности ε = (ε1 , ε2 , . . .) и ε̃ = (ε̃1 , ε̃2 , . . .), состоящие из независимых гауссовских случайных величин с нулевым средним и единичной дисперсией, такие, что ( -п. н.) ξn = an−1 (ξ) + bn−1 εn , ξ˜ n = ãn−1 (ξ̃) + b̃n−1 ε̃n . (33) Заметим, что в случае bn−1 = 0 (b̃n−1 = 0) для построения величин εn (ε̃n) приходится, вообще говоря, расширять вероятностное пространство. Однако если bn−1 = 0, то распределение вектора (x1 , . . . , xn) сосредоточено (P-п. н.) на линейном многообразии xn = an−1 (x), и поскольку по предпоhn ∼ Pn , то b̃n−1 = 0, an−1 (x) = ãn−1 (x) и αn (x) = 1 (P- и P-п. h ложению P н.). Поэтому без ограничения общности можно считать, что bn2 > 0, b̃n2 > 0 при всех n > 1, поскольку в противном случае вклад соответствующих членов ∞ P √ в сумму [1 − E( αn | Bn−1)] (см. (16) и (17)) равен нулю. n=1 Используя предположения о гауссовости, из (33) находим, что для n > 1 (xn − ãn−1 (x)) 2 (xn − an−1 (x)) 2 −1 + , (34) αn = dn−1 exp − 2 2 2bn−1 где dn = |bn /b̃n | и a0 = Eξ1 , ã0 = E ξ̃1 , b02 b̃02 = D ξ̃1 . = Dξ1 , 2b̃n−1 Из (34) ln E(α1n/2 | Bn−1) = Поскольку ln 2 a 2 dn−1 2dn−1 1 n−1 (x) − ãn−1 (x) − ln . 2 2 2 bn−1 1 + dn−1 1 + dn−1 2dn−1 6 0, то утверждение (30) принимает следующую 2 1 + dn−1 § 6. АБСОЛЮТНАЯ НЕПРЕРЫВНОСТЬ И СИНГУЛЯРНОСТЬ 753 форму: h ≪P ⇔ P h P ( ∞ X 1 n=1 2 ln 2 1 + dn−1 + 2dn−1 + Ряды ∞ P n=1 ln 2 dn−1 n−1 (x) a 2 1 + dn−1 − ãn−1 (x) bn−1 2 ) < ∞ = 1. (35) 2 ∞ P 1 + dn−1 2 и (dn−1 − 1) 2 сходятся или расходятся одно2dn−1 n=1 временно, поэтому из (35) следует, что (∞ ) 2 X ∆n (x) 2 b̃n2 h ≪ P ⇔ Ph P < ∞ = 1, + 2 −1 n=0 bn bn (36) где ∆n (x) = an (x) − ãn (x). Вnсилу линейности an (x) и ãn (x) последовательность случайных велиo ∆n (x) h так и по образует гауссовскую систему (как по мере P, чин bn n>0 мере P). Как следует из приводимой далее леммы, o nX ∆ (x) 2 X ∆n (x) 2 n h <∞ =1 ⇔ Eh < ∞. P bn bn (37) Поэтому из (36) находим, что ∞ 2 2 X ∆n (x) 2 b̃n h h E P ≪P ⇔ < ∞. + 2 −1 n=0 bn bn Аналогичным образом (∞ ) 2 X ∆n (x) 2 b̃ 2 n h ⊥P ⇔ P h P <∞ =0 ⇔ + 2 −1 n=0 bn bn ∞ 2 2 X ∆n (x) 2 b̃n h E ⇔ = ∞. + 2 −1 n=0 bn bn h и P не сингулярны, то P h ≪ P. Но Отсюда ясно, что если меры P h h Тем по предположению Pn ∼ Pn , n > 1; поэтому в силу симметрии P ≪ P. самым имеет место следующая Теорема 5 (альтернатива Гаека– –Фельдмана). Пусть ξ = (ξ1 , ξ2 , . . .) и ξ̃ = (ξ̃1 , ξ˜ 2 , . . .) – – две гауссовские последовательности, конечномерhn ∼ Pn , n > 1. Тогда либо ные распределения которых эквивалентны: P 754 ГЛ. VII. МАРТИНГАЛЫ h ∼ P, либо P h ⊥ P. При этом P ∞ 2 b̃ 2 X ∆n (x) 2 h ∼P ⇔ Eh P < ∞, + n2 − 1 h ⊥P ⇔ P n=0 ∞ X n=0 bn bn 2 2 b̃ ∆n (x) 2 + n2 − 1 Eh = ∞. bn (38) bn Лемма. Пусть β = (βn) n>1 – – гауссовская последовательность, заданная на (Ω, F , ). Тогда (∞ ) (∞ ) ∞ X X X 2 2 βn < ∞ > 0 ⇔ βn2 < ∞. (39) βn < ∞ = 1 ⇔ n=1 n=1 n=1 Доказательство. Импликации (⇐) очевидны. Установим импликации (⇒), предположив сначала, что βn = 0, n > 1. С этой целью достаточно показать, что !#−2 " ∞ ∞ X X , (40) βn2 6 exp − βn2 n=1 n=1 P поскольку тогда из условия { βn2 < ∞} > 0 будет следовать, что правая ∞ P часть в (40) меньше бесконечности. Значит, βn2 < ∞ и в силу уже n=1 ∞ P 2 установленных импликаций βn < ∞ = 1. n=1 Зафиксируем некоторое n > 1. Тогда из §§ 11 и 13 гл. II следует, что можно найти такие независимые гауссовские случайные величины βk,n , k = 1, . . . , r 6 n, с βk,n = 0, что n X βk2 = k=1 Если обозначить r X 2 βk,n . k=1 2 βk,n = λk,n , то легко найдем, что r X 2 βk,n = exp − r X k=1 2 βk,n λk,n (41) k=1 k=1 и r X ! = r Y k=1 (1 + 2λk,n) −1/2 . (42) § 6. АБСОЛЮТНАЯ НЕПРЕРЫВНОСТЬ И СИНГУЛЯРНОСТЬ 755 Сравнивая правые части в (41) и (42), получаем Pr β 2 −2 Pn β 2 −2 n r X X − − k,n k 2 βk2 = βk,n 6 e k=1 = e k=1 , k=1 k=1 откуда предельным переходом (при n → ∞) получаем требуемое неравенство (40). Предположим теперь, что βn 6≡ 0. Рассмотрим новую последовательность β̃ = (β̃n) n>1 с тем же распределением, что и у последовательности β = (βn) n>1 , и не зависящую от нее (в случае необходимости исходное ∞вероятностное пространст ∞ расширяя P P (βn − β̃n) 2 < ∞ > 0, и по βn < ∞ > 0, то во). Тогда, если 2 ∞ X n=1 Так как то ∞ P n=1 n=1 n=1 доказанному (βn − βn) 2 = ∞ X n=1 (βn − β̃n) 2 < ∞. ( βn) 2 6 2βn2 + 2(βn − βn) 2 , ( βn) 2 < ∞ и, значит, ∞ X n=1 βn2 = ∞ X ( βn) 2 + n=1 ∞ X n=1 (βn − βn) 2 < ∞. 5. Продолжим рассмотрение примера из п. 3 предыдущего параграфа, предполагая, что ξ0 , ξ1 , . . . есть последовательность независимых гауссовских случайных величин с ξi = 0, ξi = Vi > 0. Пусть снова Xn+1 = θXn + ξn+1 , n > 0, где X0 = ξ0 и θ – – неизвестный параметр, подлежащий оцениванию, −∞ < < θ < ∞. Пусть θ̂n – – оценка, полученная по методу наименьших квадратов. Теорема 6. Для того чтобы последовательность оценок θ̂n , n > 1, была сильно состоятельной, необходимо и достаточно, чтобы ∞ X Vn n=0 Vn+1 = ∞. (43) Доказательство. Достаточность. Пусть Pθ обозначает распределение вероятностей на (R ∞ , B∞), отвечающее последовательности 756 ГЛ. VII. МАРТИНГАЛЫ (X0 , X1 , . . .), когда значение неизвестного параметра есть θ. Пусть Eθ – – усреднение по мере Pθ . Мы уже видели, что θ̂n = θ + где n−1 X Xk ξk+1 Mn = k=0 Vk+1 , Mn , hMin hMin = n−1 X Xk2 k=0 Vk+1 . Согласно лемме из предыдущего пункта, Pθ {hMi∞ = ∞} = 1 ⇔ Eθ hMi∞ = ∞. Тем самым hMi∞ = ∞ (Pθ -п. н.) тогда и только тогда, когда ∞ X Eθ Xk2 k=0 Но Eθ Xk2 = ∞ X Eθ Xk2 k=0 Vk+1 k P (44) = ∞. Vk+1 θ2i Vk−i и i=0 = ∞ X k=0 1 Vk+1 k X i=0 2i θ Vk−i ! = = ∞ X θ2k k=0 ∞ X Vi i=0 Vi+1 ∞ X Vi−k i=k ∞ X + Vi+1 θ 2k k=1 = ∞ X Vi−k i=k Vi+1 ! . (45) Поэтому (44) следует из (43) и, согласно теореме 4, последовательность оценок θ̂n , n > 1, сильно состоятельна при каждом θ. Необходимость. Пусть для всех θ Pθ (θ̂n → θ) = 1. Покажем, что если θ1 6= θ2 , то меры Pθ1 и Pθ2 сингулярны (Pθ1 ⊥ Pθ2). Действительно, поскольку последовательность (X0 , X1 , . . .) является гауссовской, то по теореме 5 меры Pθ1 и Pθ2 или сингулярны, или эквивалентны. Но они не могут быть эквивалентными, поскольку если Pθ1 ∼ Pθ2 , но Pθ1 (θ̂n → θ1) = 1, то Pθ2 (θ̂n → θ1) = 1. Однако же Pθ2 (θ̂n → θ2) = 1 и θ1 6= θ2 . Тем самым Pθ1 ⊥ Pθ2 для θ1 6= θ2 . Согласно (38), Pθ1 ⊥ Pθ2 ⇔ (θ1 − θ2) 2 ∞ X k=0 Eθ 1 h X2 i k Vk+1 =∞ § 7. ОБ АСИМПТОТИКЕ ВЕРОЯТНОСТИ ВЫХОДА 757 для θ1 6= θ2 . Беря θ1 = 0 и θ2 6= 0, из (45) находим P0 ⊥ Pθ 2 ⇔ ∞ X Vi i=0 Vi+1 = ∞, что и доказывает необходимость. 6. Задачи. 1. Доказать справедливость равенства (6). 2. Пусть h n ∼ n , n > 1. Показать, что h ∼ ⇔ h {z∞ < ∞} = {z∞ > 0} = 1, h⊥ ⇔ h {z∞ = ∞} = 1 или {z∞ = 0} = 1. 3. Пусть h n ≪ n , n > 1, τ – – момент остановки (относительно (Fn)), h τ = h | Fτ и τ = | Fτ – – сужения мер h и на σ-алгебру Fτ . Показать, что h τ ≪ τ , если и только если {τ = ∞} = {z∞ < ∞} ( h -п. н.). (В частности, если {τ < ∞} = 1, то h τ ≪ τ .) 4. Доказать «формулы пересчета» (21) и (22). 5. Проверить справедливость неравенств (28), (29), (32). 6. Доказать формулу (34). 7. Пусть в п. 2 последовательности ξ = (ξ1 , ξ2 , . . .) и ξ̃ = (ξ̃1 , ξ˜ 2 , . . .) состоят из независимых одинаково распределенных случайных величин. h ≪ P в том и только том случае, когда Показать, что если Pξ̃1 ≪ Pξ1 , то P h ⊥ P. меры Pξ̃1 и Pξ1 совпадают. Если же Pξ̃1 ≪ Pξ1 и Pξ̃1 6= Pξ1 , то P § 7. Об асимптотике вероятности выхода случайного блуждания за криволинейную границу 1. Пусть ξ1 , ξ2 , . . . – – последовательность независимых одинаково распределенных случайных величин, Sn = ξ1 + . . . + ξn , g = g(n) – – некоторая «граница», n > 1, g(1) < 0 и τ = inf{n > 1 : Sn < g(n)} – – тот первый момент, когда случайное блуждание (Sn) n>1 окажется ниже границы g = g(n). (Как обычно, τ = ∞, если { · } = ∅.) Отыскание точного вида распределения для момента τ является весьма трудной задачей. В настоящем параграфе находится асимптотика вероятности {τ > n} при n → ∞ для широкого класса границ g = g(n) и в предположении, что величины ξi нормально распределены. Применяемый метод доказательства основан на идее «абсолютно непрерывной замены меры» и использует ряд изложенных выше свойств мартингалов и марковских моментов. 758 ГЛ. VII. МАРТИНГАЛЫ Теорема 1. Пусть ξ1 , ξ2 , . . . – – независимые одинаково распределенные, ξi ∼ N (0, 1), случайные величины. Предположим, что граница g = g(n) такова, что g(1) < 0 и для n > 2 0 6 ∆g(n + 1) 6 ∆g(n), где ∆g(n) = g(n) − g(n − 1) и ln n = o n X [∆g(k)] k=2 Тогда 2 ! , (1) n 1 X {τ > n} = exp − [∆g(k)] 2 (1 + o(1)) , 2 ( (2) n → ∞. ) k=2 n → ∞. (3) Прежде чем переходить к доказательству, отметим, что условия (1) и (2) выполнены, если, скажем, g(n) = anν + b, 1/2 < ν 6 1, a + b < 0, a > 0, или (при больших n) g(n) = nν L(n), 1/2 6 ν 6 1, где L(n) – – некоторая медленно меняющаяся функция (например, L(n) = = C(ln n) β с любым β при 1/2 < ν < 1 и с β > 0 при ν = 1/2, C > 0). 2. Следующие два вспомогательных предложения будут использоваться при доказательстве теоремы 1. Будем предполагать, что ξ1 , ξ2 , . . . – – последовательность независимых одинаково распределенных случайных величин, ξi ∼ N (0, 1). Обозначим F0 = {∅, Ω}, Fn = σ{ξ1 , . . . , ξn }, и пусть α = (αn , Fn−1) – – предсказуемая последовательность с {|αn | 6 C} = 1, n > 1, где C – – некоторая константа. Образуем последовательность z = (zn , Fn) с ( n ) n X 1 X 2 zn = exp αk ξk − αk , n > 1. (4) k=1 2 k=1 Нетрудно проверить, что (относительно меры ) последовательность z = = (zn , Fn) образует мартингал с zn = 1, n > 1. Зафиксируем некоторое n > 1 и введем на измеримом пространстве (Ω, (Fn) n>1) вероятностную меру h n , полагая h n (A) = I(A)zn , A ∈ Fn . (5) Лемма 1 (дискретная версия «теоремы Гирсанова»). Относительно меры h n случайные величины ξ̃k = ξk − αk , 1 6 k 6 n, являются независимыми и нормально распределенными, ξ˜ k ∼ N (0, 1). § 7. ОБ АСИМПТОТИКЕ ВЕРОЯТНОСТИ ВЫХОДА 759 Доказательство. Пусть символ h n означает усреднение по мере h n . Тогда для λk ∈ R, 1 6 k 6 n, ) ) ( n ( n X X h n exp i λk ξ̃k zn = λk ξ̃k = exp i k=1 k=1 = " ( exp i = n−1 X ) λk ξ˜ k zn−1 k=1 " ( exp i n−1 X k=1 # n o α2n exp iλn (ξn − αn) + αn ξn − | Fn−1 = 2 ) λk ξ̃k zn−1 # ( ) n n 2o −λn 1 X 2 exp = . . . = exp − λk . 2 2 k=1 Теперь требуемое утверждение вытекает из теоремы 4 § 12 гл. II. Лемма 2. Пусть X = (Xn , Fn) n>1 – – квадратично интегрируемый мартингал с нулевым средним и σ = inf{n > 1 : Xn 6 −b}, где константа b > 0. Предположим, что {X1 < −b} > 0. Тогда существует константа C > 0 такая, что для всех n > 1 {σ > n} > C . Xn2 (6) Доказательство. По следствию 1 к теореме 1 § 2 Xσ∧n = 0, откуда − I(σ 6 n)Xσ = I(σ > n)Xn . На множестве {σ 6 n} (7) −Xσ > b > 0. Поэтому при n > 1 − I(σ 6 n)Xσ > b {σ 6 n} > b {σ = 1} = b {X1 < −b} > 0. (8) С другой стороны, в силу неравенства Коши– –Буняковского I(σ > n)Xn 6 [ {σ > n} · Xn2 ] 1/2 , (9) что вместе с (7) и (8) приводит нас к требуемому неравенству с C = = [b {X1 < −b}] 2. Доказательство теоремы 1. Достаточно показать, что X n 1 lim ln {τ > n} (10) [∆g(k)] 2 > − n→∞ k=2 2 760 ГЛ. VII. МАРТИНГАЛЫ и lim ln n→∞ {τ > n} X n k=2 1 2 [∆g(k)] 2 6 − . (11) С этой целью рассмотрим (неслучайную) последовательность (αn) n>1 с α1 = 0, αn = ∆g(n), n > 2, и вероятностные меры ( h n) n>1 , определенные формулой (5). Тогда в силу неравенства Гёльдера h n {τ > n} = I(τ > n)zn 6 ( {τ > n}) 1/q ( z p) 1/ p , n где p > 1 и q = (12) p . p−1 Последний сомножитель легко вычисляется в явном виде: ) ( n X p − 1 [∆g(k)] 2 . ( znp) 1/ p = exp 2 (13) k=2 Оценим теперь вероятность h n {τ > n}, входящую в левую часть (12). Имеем h n {τ > n} = h n {Sk > g(k), 1 6 k 6 n} = h n {S hk > g(1), 1 6 k 6 n}, k hk = P ξ̃i , ξ̃i = ξi − αi . Согласно лемме 1 величины ξ̃1 , . . . , ξ̃n по мере где S i=1 h n являются независимыми и нормально распределенными, ξ̃i ∼ N (0, 1). hn) находим, что Тогда по лемме 2 (примененной к b = − g(1), = h n , Xn = S h {τ > n} > C , (14) n где C – – некоторая константа. Тогда из (12) – – (14) следует, что для любого p > 1 ( n p X p {τ > n} > C p exp − [∆g(k)] 2 − 2 k=2 p −1 ) ln n , (15) где C p – – некоторая константа. Из условий теоремы и в силу произвольности p > 1 из (15) получаем оценку снизу (10). Для получения оценки сверху (11) прежде всего заметим, что поскольку zn > 0 ( - и h n -п. н.), то в силу (5) {τ > n} = h n I(τ > n)zn−1 , где h n – – усреднение по мере h n . (16) § 7. ОБ АСИМПТОТИКЕ ВЕРОЯТНОСТИ ВЫХОДА 761 В рассматриваемом нами случае α1 = 0, αn = ∆g(n), n > 2, поэтому для n > 2 ( ) n n X 1 X −1 2 zn = exp − ∆g(k) · ξk + [∆g(k)] . 2 k=2 k=2 По формуле суммирования по частям (см. доказательство леммы 2 в § 3 гл. IV) n X k=2 ∆g(k) · ξk = ∆g(n) · Sn − n X Sk−1 ∆(∆g(k)), k=2 откуда с учетом того, что по условиям теоремы ∆g(k) > 0, ∆(∆g(k)) 6 0, находим, что на множестве {τ > n} = {Sk > g(k), 1 6 k 6 n} n X k=2 ∆g(k) · ξk > ∆g(n) · g(n) − n X g(k − 1)∆(∆g(k)) − ξ1 ∆g(2) = k=3 = n X k=2 Итак, из (16) ( [∆g(k)] 2 + g(1)∆g(2) − ξ1 ∆g(2). n 1 X {τ > n} 6 exp − [∆g(k)] 2 − g(1)∆g(2) 2 k=2 Поэтому h n I(τ > n)e −ξ1 ∆ g(2) = n 1 X [∆g(k)] 2 = exp{− g(1)∆g(2)} exp − 2 ( где ) k=2 ) h n I(τ > n)e −ξ1 ∆ g(2) , h n I(τ > n)e −ξ1 ∆ g(2) 6 zn e −ξ1 ∆ g(2) = e −ξ1 ∆ g(2) < ∞. n 1 X {τ > n} 6 C exp − [∆g(k)] 2 , 2 ( k=2 ) где C – – некоторая положительная константа, что и доказывает оценку сверху (11). 3. Идеи абсолютно непрерывной замены меры позволяют исследовать аналогичную задачу и для случая двусторонних границ. Приведем (без доказательства) один из результатов в этом направлении. 762 ГЛ. VII. МАРТИНГАЛЫ Теорема 2. Пусть ξ1 , ξ2 , . . . – – независимые одинаково распределенные, ξi ∼ N (0, 1), случайные величины. Предположим, что f = f(n) – – положительная функция такая, что f(n) → ∞, и n X n → ∞, n X 2 [∆f(k)] = o k=2 k=1 f −2 ! (k) , n → ∞. Тогда, если то σ = inf{n > 1 : |Sn | > f(n)}, n π 2 X −2 {σ > n} = exp − f (k) (1 + o(1)) , 8 ( ) k=1 n → ∞. (17) 4. Задачи. 1. Показать, что последовательность, определенная в (4), является мартингалом. Верно ли это без условия |αn | 6 c ( -п. н.), n > 1? 2. Установить справедливость формулы (13). 3. Доказать формулу (17). § 8. Центральная предельная теорема для сумм зависимых случайных величин 1. В § 4 гл. III центральная предельная теорема для сумм Sn = ξn1 + . . . . . . + ξnn , n > 1, случайных величин ξn1 , . . . , ξnn доказывалась в предположении их независимости, конечности вторых моментов и предельной пренебрегаемости слагаемых. В настоящем параграфе мы отказываемся как от предположения независимости, так и от предположения конечности даже абсолютных моментов первого порядка. Однако предельная пренебрегаемость слагаемых будет предполагаться. Итак, будем считать, что на вероятностном пространстве (Ω, F , ) заданы стохастические последовательности ξ n = (ξnk , Fkn), 0 6 k 6 n, n > 1, n с ξn0 = 0, F0n = {∅, Ω}, Fkn ⊆ Fk+1 ⊆ F (k + 1 6 n). Положим Xtn = [nt] X k=0 ξnk , 0 6 t 6 1. § 8. ЦЕНТРАЛЬНАЯ ПРЕДЕЛЬНАЯ ТЕОРЕМА 763 Теорема 1. Пусть для фиксированного 0 < t 6 1 выполнены следующие условия: для всякого ε ∈ (0, 1] при n → ∞ [nt] X (A) n (|ξnk | > ε | Fk−1 )− → 0, k=1 [nt] (B) X k=1 [nt] (C) X k=1 n [ξnk I(|ξnk | 6 ε) | Fk−1 ] → 0, n [ξnk I(|ξnk | 6 ε)|Fk−1 ]− → σt2 , где σt2 > 0. Тогда d Xtn → N (0, σt2). Замечание 1. Условия (A) и (B) обеспечивают возможность пред[nt] P ставления величин Xtn в виде Xtn = Ytn + Ztn с Ztn − → 0 и Ytn = ηnk , k=0 гдe последовательности η n = (ηnk , Fkn) являются мартингал-разностями, n (ηnk | Fk−1 ) = 0, с |ηnk | 6 c равномерно по 1 6 k 6 n и n > 1. Тем самым (в рассматриваемых условиях) доказательство теоремы сводится, по существу, к доказательству центральной предельной теоремы для последовательностей, образующих мартингал-разность. В том случае, когда величины ξn1 , . . . , ξnn являются независимыми, условия (A), (В), (С) при t = 1 превращаются в условия (σ 2 = σ12): n X (a) k=1 (b) (c) n X k=1 n X k=1 {|ξnk | > ε} → 0, [ξnk I(|ξnk | 6 ε)] → 0, [ξnk I(|ξnk | 6 ε)] → σ 2 , хорошо известные по книге Б. В. Гнеденко и А. Н. Колмогорова [16] . Тем самым из теоремы 1 получаем такое Следствие. Если ξn1 , . . . , ξnn – – независимые случайные величины, n > 1, то n X d (a), (b), (c) ⇒ X1n = ξnk → N (0, σ 2). k=1 764 ГЛ. VII. МАРТИНГАЛЫ Замечание 2. В условии (C) не исключается случай σt2 = 0. Тем самым, в частности, теорема 1 дает условия сходимости к вырожденному d распределению (Xtn → 0). Замечание 3. Метод доказательства теоремы 1 позволяет сформулировать и доказать следующее более общее утверждение. Пусть 0 < t1 < t2 < . . . < t j 6 1, σt21 6 σt22 6 . . . 6 σt2j и ε1 , . . . , ε j – – независимые гауссовские случайные величины с нулевыми средними и ε2k = = σt2k − σt2k−1 . Образуем гауссовский вектор (Wt1 , . . . , Wt j ) с Wtk = ε1 + . . . . . . + εk . Пусть условия (A), (В), (С) выполнены для t = t1 , . . . , t j . Тогда совместное распределение Ptn1 ,...,t j случайных величин Xtn1 , . . . , Xtnj слабо сходится к гауссовскому распределению Pt1 ,...,t j величин (Wt1 , . . . , Wt j ): w Ptn1 ,...,t j → Pt1 ,...,t j . Замечание 4. Пусть (σt2) 06t61 – – непрерывная неубывающая функция, 2 σ0 = 0. Обозначим через W = (Wt) 06t61 процесс броуновского движения (винеровский процесс) с Wt = 0 и Wt2 = σt2 . В § 13 гл. II такой процесс определяется для σt2 = t. Без этого предположения такой процесс определялся аналогичным образом как гауссовский процесс W = (Wt) 06t61 с независимыми приращениями, W0 = 0 и ковариационной функцией r(s, t) = = min(σs2 , σt2). В общей теории случайных процессов показывается, что всегда существует такой процесс с непрерывными траекториями. (В случае σt2 = t такой процесс называют стандартным броуновским движением.) Если обозначать через P n и P распределения вероятностей процессов n X и W в функциональном пространстве (D, B (D)) (см. п. 7 § 2 гл. II), то можно утверждать, что условия (A), (B) и (C), выполненные при всех 0 < t 6 1, будут обеспечивать не только отмеченную слабую сходиw мость конечномерных распределений (Ptn1 ,...,t j − → Pt1 ,...,t j , t1 < t2 < . . . < t j 6 t, j = 1, 2, . . .), но и функциональную сходимость, т. е. слабую сходимость распределений P n процессов X n к распределению процесса W . (Подробности см. в [5] , [91] , [87]). Этот результат обычно называют функциональной центральной предельной теоремой или принципом инвариантности (Донскера– –Прохорова, когда величины ξn1 , . . . , ξnn независимы, n > 1). 2. Теорема 2. 1. Условие (A) эквивалентно условию равномерной предельной пренебрегаемости (равномерной асимптотической малости) (A*) max 16k6 [nt] |ξnk | − → 0. 2. В предположении (A), или (A*), условие (C) эквивалентно усло- § 8. ЦЕНТРАЛЬНАЯ ПРЕДЕЛЬНАЯ ТЕОРЕМА 765 вию (C*) [nt] X k=0 n [ξnk − (ξnk I(|ξnk | 6 1) | Fk−1 )] 2 − → σt2 . (В (A*) и (C*) значение t то же, что в (A) и (C).) Теорема 3. Пусть при каждом n > 1 последовательность ξ n = (ξnk , Fkn), 1 6 k 6 n, является квадратично интегрируемой мартингал-разностью, т. е. 2 n ξnk < ∞ и (ξnk | Fk−1 ) = 0. Пусть выполнено условие Линдеберга: для ε > 0 [nt] X (L) k=1 2 n [ξnk I(|ξnk | > ε) | Fk−1 ] → 0. Тогда условие (C) эквивалентно условию hX n it − → σt2 , (1) где (квадратическая характеристика) hX n it = [nt] X k=1 2 n (ξnk | Fk−1 ), (2) а условие (C*) эквивалентно условию [X n ] t − → σt2 , (3) где (квадратическая вариация) [X n ] t = [nt] X 2 ξnk . (4) k=1 Из теорем 1– –3 вытекает Теорема 4. Пусть для квадратично интегрируемых мартингалразностей ξ n = (ξnk , Fkn), n > 1, выполнено (для данного 0 < t 6 1) условие Линдеберга (L). Тогда [nt] X k=1 d 2 n (ξnk | Fk−1 )− → σt2 ⇒ Xtn → N (0, σt2), [nt] X k=1 d 2 ξnk − → σt2 ⇒ Xtn → N (0, σt2). (5) (6) 766 ГЛ. VII. МАРТИНГАЛЫ 3. Доказательство теоремы 1. Представим Xtn в следующем виде: Xtn = [nt] X k=1 ξnk I(|ξnk | 6 1) + = [nt] X k=1 [nt] X ξnk I(|ξnk | > 1) = k=1 n [ξnk I(|ξnk | 6 1) | Fk−1 ] + [nt] X k=1 + [nt] X k=1 ξnk I(|ξnk | > 1) + n {ξnk I(|ξnk | 6 1) − [ξnk I(|ξnk | 6 1) | Fk−1 ] }. (7) Обозначим Btn = [nt] X k=1 n [ξnk I(|ξnk | 6 1) | Fk−1 ], µnk (Г) = I(ξnk ∈ Г), (8) n νkn (Г) = (ξnk ∈ Г | Fk−1 ), где Г – – множество из наименьшей σ-алгебры B0 = σ (A0), порожденной системой множеств A0 в R0 = R \ {0}, состоящей из конечных сумм непересекающихся интервалов вида (a, b] , не содержащих точку {0}, а n (ξnk ∈ Г | Fk−1 )– – регулярное условное распределение ξnk относительно n σ-алгебры Fk−1 . Тогда представление (7) можно переписать в следующем виде: Xtn = Btn + [nt] X ] x dµnk + k=1 {|x|>1} [nt] X ] k=1 {|x|61} x d(µnk − νkn). (9) Представление (9) называют каноническим разложением последоваn тельности (Xtn , F [nt] ). (Все интегралы понимаются как интегралы Лебега– – Стилтьеса, определенные для каждого элементарного исхода.) Согласно условию (B), Btn − → 0. Покажем, что в силу условия (A) [nt] X ] k=1 {|x|>1} |x| dµnk − → 0. (10) Имеем [nt] X ] k=1 {|x|>1} |x| dµnk = [nt] X k=1 |ξnk | I(|ξnk | > 1). (11) § 8. ЦЕНТРАЛЬНАЯ ПРЕДЕЛЬНАЯ ТЕОРЕМА 767 Для всякого δ ∈ (0, 1) ( [nt] ) ( [nt] ) X X |ξnk | I(|ξnk | > 1) > δ ⊆ I(|ξnk | > 1) > δ . k=1 (12) k=1 Ясно, что [nt] X k=1 По условию (A) I(|ξnk | > 1) = n V [nt] ≡ [nt] X ] dµnk n (≡ U [nt] ). k=1 {|x|>1} [nt] X ] k=1 {|x|>1} dνkn − → 0, (13) n причем Vkn являются Fk−1 -измеримыми. Тогда в силу следствия к теореме 4 § 3 n n V [nt] − → 0 ⇒ U [nt] − → 0. Заметим, что в силу того же следствия и неравенства место и обратная импликация n n U [nt] → 0 ⇒ V [nt] − → 0, (14) n ∆U [nt] 6 1 имеет которая будет использована при доказательстве теоремы 2. Из формул (11) – – (14) получаем требуемое утверждение (10). Итак, Xtn = Ytn + Ztn , где [nt] X ] n Yt = x d(µnk − νkn), (15) (16) (17) k=1 {|x|61} а Ztn = Btn + [nt] X ] k=1 {|x|>1} x dµnk − → 0. (18) В силу задачи 1 отсюда следует, что для доказательства сходимости (0, σt2) надо лишь доказать, что d Xtn → N d Представим Ytn Ytn → N (0, σt2). в виде (ε ∈ (0, 1]) Ytn = γ n[nt] (ε) + ∆n[nt] (ε), (19) 768 ГЛ. VII. МАРТИНГАЛЫ где γ n[nt] (ε) = [nt] X ] k=1 {ε<|x|61} ∆n[nt] (ε) = [nt] X ] k=1 {|x|6ε} x d(µnk − νkn), x d(µnk − νkn). (20) (21) Как и при доказательстве (10), легко устанавливается, что в силу условия (A) γ n[nt] (ε) − → 0, n → ∞. Последовательность ∆n (ε) = (∆nk (ε), Fkn), 1 6 k 6 n, является квадратично интегрируемым мартингалом с квадратической характеристикой h∆n (ε)ik = k X i=1 ] {|x|6ε} x 2 dνin − ] x dνin {|x|6ε} 2 = = k X i=1 В силу условия (C) n [ξni I(|ξni | 6 ε) | Fi−1 ]. h∆n (ε)i [nt] − → σt2 . Тем самым для любого ε ∈ (0, 1] max{γ n[nt] (ε), |h∆n (ε)i [nt] − σt2 |} − → 0. Согласно задаче 2, тогда найдется последовательность чисел εn ↓ 0 таких, что h∆n (εn)i [nt] − → σt2 . γ n[nt] (εn) − → 0, Поэтому опять-таки в силу утверждения задачи 1 достаточно лишь доказать, что d Mn[nt] → N (0, σt2), где Mnk = ∆nk (εn) = k X ] i=1 {|x|6εn } x d(µni − νin). Пусть для Г ∈ B0 µ̃nk (Г) = I(∆Mnk ∈ Г), n ν̃kn (Г) = (∆Mnk ∈ Г | Fk−1 ) (22) (23) § 8. ЦЕНТРАЛЬНАЯ ПРЕДЕЛЬНАЯ ТЕОРЕМА 769 – – регулярная условная вероятность, ∆Mnk = Mnk − Mnk−1 , k > 1, Mn0 = 0. Тогда квадратично интегрируемый мартингал Mn = (Mnk , Fkn), 1 6 k 6 n, может быть, очевидно, записан в виде Mnk = k X ∆Mni = k X ] x d µ̃ni . i=1 {|x|62εm } i=1 |∆Mni | 6 2εn .) (Заметим, что в силу (23) Для доказательства (22) надо, согласно теореме 1 из § 3 гл. III, показать, что для всякого действительного λ n e iλM [nt] → e − Обозначим Gkn = k X ] j=1 {|x|62εn } и Ekn (G n) = k Y λ2 σt2 2 . (24) (e iλx − 1) d ν̃ nj (1 + ∆G nj). j=1 Заметим, что ] 1 + ∆Gkn = 1 + n {|x|62εn } n (e iλx − 1) d ν̃kn = (e iλ∆Mk | Fk−1 ) и, следовательно, Ekn (G n) = k Y j=1 n n (e iλ∆M j | F j−1 ). В соответствии с доказываемой в п. 4 леммой для проверки (24) достаточно показать, что для любого действительного λ n | E [nt] (G n)| = и [nt] Y n n (e iλ∆M j | F j−1 ) > c(λ) > 0 j=1 n E [nt] (G n) − → e− λ2 σt2 2 . (26) С этой целью представим Ekn (G n) в следующем виде: n Ekn (G n) = e Gk k Y j=1 (25) n (1 + ∆G nj)e −∆G j . 770 ГЛ. VII. МАРТИНГАЛЫ (Ср. с функцией Et (A), определенной формулой (76) в § 6 гл. II.) Поскольку ] n x d ν̃ nj = (∆Mnj | F j−1 ) = 0, {|x|62εn } то Gkn = k X ] j=1 {|x|62εn } Значит, |∆Gkn | 6 ] {|x|62εn } (e iλx − 1 − iλx) d ν̃ nj . |e iλx − 1 − iλx| d ν̃kn 6 λ2 2 ] (27) x 2 d ν̃kn 6 {|x|62εn } λ2 (2εn) 2 → 0 2 (28) и k X j=1 |∆G nj | 6 Согласно условию (C), k λ2 X 2 ] x 2 d ν̃ nj = j=1 {|x|62εn } λ2 hMn ik . 2 (29) hMn i [nt] − → σt2 . (30) Предположим сначала, что hM i [nt] 6 a ( -п. н.). Тогда в силу (28), (29) и задачи 3 заведомо n [nt] Y k=1 n → 1, (1 + ∆Gkn)e −∆Gk − n → ∞, и, значит, для доказательства (26) достаточно лишь установить, что G n[nt] − →− λ2 σt2 2 (31) или (ввиду (27), (29) и (30)) что [nt] X ] k=1 {|x|62εn } Но e iλx − 1 − iλx + [nt] X ] k=1 {|x|62εn } e iλx − 1 − iλx + λ2 x 2 2 λ2 x 2 |λx|3 6 , и поэтому 2 6 d ν̃kn → 0. [nt] e iλx − 1 − iλx + X |λ|3 λ2 x 2 d ν̃kn 6 · 2εn · 2 6 ] (32) x 2 d ν̃kn = k=1 {|x|62εn } 3 = |λ| εn |λ|3 εn hMn i [nt] 6 a → 0, 3 3 n → ∞. § 8. ЦЕНТРАЛЬНАЯ ПРЕДЕЛЬНАЯ ТЕОРЕМА 771 Тем самым, если hMn i [nt] 6 a ( -п. н.), то (31), а значит, и (26), доказано. Проверим теперь свойство (25). Поскольку |e iλx − 1 − iλx| 6 в силу (28) находим, что для достаточно больших n | Ekn (G n)| = k Y (1 + ∆G nj) > j=1 k Y j=1 1− 2 Pk ln1− λ2 ∆hMni λ ∆hMn i j = e j=1 2 (λx) 2 , то 2 j 2 . Но (для достаточно больших n) λ2 ln 1 − ∆hMn i j > − 2 λ2 ∆hMn i j 2 λ2 ∆hMn i j 1− 2 с ∆hMn i j 6 (2εn) 2 ↓ 0, n → ∞. Поэтому найдется такое n0 = n0 (λ), что для всех n > n0 (λ) 2 | Ekn (G n)| > e −λ и, значит, 2 n | E [nt] (G n)| > e −λ hMn ik hMn i [nt] 2 > e −λ a . Тем самым в предположении hMn i [nt] 6 a ( -п. н.) теорема доказана. Чтобы снять это предположение, поступим следующим образом. Положим τ n = inf{k 6 [nt] : hMn ik > σt2 + 1}, считая τ n = ∞, если hMn i [nt] < σt2 + 1. Тогда для Mn = Mnk∧τ n имеем hMn i [nt] = hMn i [nt]∧τ n 6 1 + σt2 + 2ε2n 6 1 + σt2 + 2ε21 (= a) и по доказанному n e iλM [nt] → e − λ2 σt2 2 . Но n n lim | (e iλM [nt] − e iλM [nt] )| 6 2 lim n n {τ n < ∞} = 0. Поэтому lim n n e iλM [nt] = lim n n n (e iλM [nt] − e iλM [nt] ) + lim n n e iλM [nt] = e − λ2 σt2 2 . 772 ГЛ. VII. МАРТИНГАЛЫ Замечание. Чтобы доказать утверждение, сформулированное в замечании 2 к теореме 1, надо (в соответствии с приемом Крамера– –Уолда [5]) доказать, что для любых действительных λ1 , . . . , λ j (" exp i λ1 Mn[nt1] + j X λk (Mn[ntk ] k=2 − Mn[ntk−1] ) #) → X λ2k (σt2k − σt2k−1) λ2 σ 2 → exp − 1 t1 − 2 2 ( j k=2 ) . Доказательство этого соотношения проводится тем же самым образом, что и доказательство соотношения (24), но вместо (Mnk , Fkn) следует A n , F n) с рассматривать квадратично интегрируемые мартингалы (M k k An= M k k X νi ∆Mni , i=1 где νi = λ1 для i 6 [nt1 ] и νi = λk для [ntk−1 ] < i 6 [ntk ] , 2 6 k 6 j. 4. В этом пункте будет доказана одна простая лемма, позволившая свести проверку (24) к проверке (25) и (26). Пусть η n = (ηnk , Fkn), 1 6 k 6 n, n > 1, – – стохастические последовательn P n ности, Y = ηnk , k=1 E n (λ) = n Y k=1 Y– – случайная величина с n (e iληnk | Fk−1 ), E (λ) = e iλY , λ ∈ R, λ ∈ R. Лемма. Если (для данного λ) |E n (λ)| > c(λ) > 0, n > 1, тo для сходимости n e iλY → e iλY (33) E n (λ) − → E (λ). (34) достаточна сходимость Доказательство. Пусть mn (λ) = e iλ Y n . E n (λ) § 8. ЦЕНТРАЛЬНАЯ ПРЕДЕЛЬНАЯ ТЕОРЕМА 773 Тогда |mn (λ)| 6 c −1 (λ) < ∞ и легко проверяется, что mn (λ) = 1. Поэтому в силу (34) и теоремы Лебега о мажорируемой сходимости n n | e iλY − e iλY | = | (e iλY − E (λ))| 6 | (mn (λ) [E n (λ) − E (λ)])| 6 6 c −1 (λ) | E n (λ) − E (λ)| → 0, n → ∞. Замечание. Из (33) и предположения |E n (λ)| > c(λ) > 0 вытекает, что E (λ) 6= 0. Утверждение леммы на самом деле сохраняет свою силу и без предположения |E n (λ)| > c(λ) > 0 в следующей формулировке: если E n (λ) − → E (λ) и E (λ) 6= 0, то имеет место сходимость (33) (задача 5). 5. Доказательство теоремы 2. 1. Пусть ε > 0, δ ∈ (0, ε), и для простоты пусть t = 1. Поскольку max |ξnk | 6 ε + 16k6n и ( то n n X k=1 |ξnk | I(|ξnk | > ε) > δ o max |ξnk | > ε + δ 6 16k6n ( n X k=1 n X k=1 ) ⊆ |ξnk | I(|ξnk | > ε) ( n X ) I(|ξnk | > ε) > δ , k=1 I(|ξnk | > ε) > δ = Если выполнено условие (A), т. е. n P ] k=1 {|x|>ε} и n P ] k=1 {|x|>ε} ( n X ) ] dµnk k=1 {|x|>ε} Обратно, пусть выполнено условие (A*). Положим o n ε , σn = min k 6 n : |ξnk | > 2 ε 2 считая σn = ∞, если max |ξnk | < . В силу (A*) lim n {σn < ∞} = 0. Заметим теперь, что для любого δ ∈ (0, 1) множества (n∧σ ) n o Xn ε ε >δ и max |ξnk | > I |ξnk | > k=1 2 >δ . dνkn > δ → 0, то (ср. с (10)) dµnk > δ → 0. Тем самым (A) ⇒ (A*). 16k6n ) 16k6n∧σn 2 774 ГЛ. VII. МАРТИНГАЛЫ совпадают и по условию (A*) n∧σ Xn k=1 n∧σ Xn ε = I |ξnk | > 2 k=1 ] n |x|> o ε dµnk − → 0. 2 Поэтому в силу (15) n∧σ Xn ] dνkn k=1 {|x|>ε} 6 n∧σ Xn k=1 что вместе со свойством lim n ] n |x|> ε 2 o dνkn − → 0, {σn < ∞} = 0 доказывает импликацию (A*) ⇒ (A). 2. Снова будем считать t = 1. Зафиксируем некоторое ε ∈ (0, 1] и рассмотрим квадратично интегрируемые мартингалы (см. (21)) ∆n (δ) = (∆nk (δ), Fkn), 1 6 k 6 n, с δ ∈ (0, ε] . В соответствии с условием (C) для данного ε ∈ (0, 1] h∆n (ε)in − → σ12 . Отсюда в силу условия (A) легко выводится, что тогда и для всякого δ ∈ (0, ε] h∆n (δ)in − → σ12 . (35) Покажем, что из условий (C*) и (A), или, равносильно, из условий (C*) и (A*), вытекает, что для всякого δ ∈ (0, ε] [∆n (δ)] n − → σ12 , (36) где [∆n (δ)] n = n X k=1 ξnk I(|ξnk | 6 δ) − ] {|x|6δ} 2 x dνkn . Действительно, легко проверить, что в силу (A) [∆n (δ)] n − [∆n (1)] n − → 0. (37) § 8. ЦЕНТРАЛЬНАЯ ПРЕДЕЛЬНАЯ ТЕОРЕМА 775 Но n X k=1 ξnk − ] x dνkn {|x|61} 6 n X k=1 65 2 − n X k=1 ξnk I(|ξnk | 6 1) − 2 I(|ξnk | > 1) ξnk + 2|ξnk | · n X k=1 ] {|x|61} x dνkn {|x|61} x d(µnk − νkn) 2 2 I(|ξnk | > 1)ξnk 6 5 max ξnk · 16k6n ] n X ] k=1 {|x|>1} 2 6 6 dµnk → 0. (38) Поэтому (36) следует из (37) и (38). Таким образом, чтобы доказать эквивалентность условий (C) и (C*), достаточно установить, что как при выполнении условия (C) (для данного ε ∈ (0, 1]), так и при выполнении условия (C*) для всякого a > 0 {|[∆n (δ)] n − h∆n (δ)in | > a} = 0. lim lim δ→0 n (39) Пусть mnk (δ) = [∆n (δ)] k − h∆n (δ)ik , 1 6 k 6 n. Последовательность m (δ) = (mnk (δ), Fkn) является квадратично интегрируемым мартингалом, при этом (mn (δ)) 2 доминируется (в смысле определения из § 3) последовательностями [mn (δ)] и hmn (δ)i. Ясно, что n [mn (δ)] n = n X k=1 (∆mnk (δ)) 2 6 max |∆mnk (δ)| · {[∆n (δ)] n + h∆n (δ)in } 6 16k6n 6 3δ 2 {[∆n (δ)] n + h∆n (δ)in }. (40) Поскольку [∆n (δ)] и h∆n (δ)i доминируют друг друга, то из (40) вытекает, что (mn (δ)) 2 доминируются последовательностями 6δ 2 [∆n (δ)] и 6δ 2 h∆n (δ)i. Поэтому если выполнено условие (C), то при достаточно малом δ (например, при δ 2 < min ε, lim n b 2 (σ + 1) ) 6 1 {6δ 2 h∆n (δ)in > b} = 0 и, значит, в силу следствия к теореме 4 из § 3 имеет место (39). Если же выполнено условие (C*), то при том же δ lim n {6δ 2 [∆n (δ)] n > b} = 0. (41) Поскольку |∆[∆n (δ)] k | 6 (2δ) 2 , то (39) следует из (41) и опять-таки из следствия к теореме 4 § 3. 776 ГЛ. VII. МАРТИНГАЛЫ 6. Доказательство теоремы 3. С учетом условия Линдеберга (L) эквивалентность условий (C) и (1), а также (C*) и (3) проверяется прямым подсчетом (задача 6). 7. Доказательство теоремы 4. Условие (A) следует из условия Линдеберга (L). Что же касается выполнения условия (B), то достаточно заметить, что в случае, когда ξ n образуют мартингал-разность, величины Btn , входящие в каноническое разложение (9), могут быть представлены в виде [nt] X ] n Bt = − x dνkn . k=1 {|x|>1} Поэтому Btn − → 0 в силу условия Линдеберга (L). 8. Основная теорема настоящего параграфа – – теорема 1 – – доказывалась в предположении равномерной асимптотической малости суммируемых слагаемых. Естественен вопрос об условиях справедливости центральной предельной теоремы без этого предположения. Для случая независимых случайных величин примером такой теоремы является теорема 1 § 5 гл. III (в предположении конечности вторых моментов). Приведем (без доказательства) аналог этой теоремы, ограничиваясь случаем последовательностей ξ n = (ξnk , Fkn), 1 6 k 6 n, образующих квад2 n ратично интегрируемую мартингал-разность ( ξnk < ∞, (ξnk | Fk−1 ) = 0). n Обозначим Fnk (x) = (ξnk 6 x | Fk−1) регулярную функцию распределеn 2 n ния ξnk относительно Fk−1 , и пусть ∆nk = (ξnk | Fk−1 ). Теорема 5. Если для квадратично интегрируемых мартингалразностей ξ n = (ξnk , Fkn), 0 6 k 6 n, n > 1, выполнены следующие условия: [nt] X ∆nk − → σt2 , 0 6 σt2 < ∞, 0 6 t 6 1, k=1 и для всякого ε > 0 [nt] X ] k=1 {|x|>ε} то x |x| Fnk (x) − Φ √ ∆nk dx − → 0, d Xtn → N (0, σt2). 9. Задачи. d d d 1. Пусть ξn = ηn + ζn , n > 1, где ηn → η, a ζn → 0. Доказать, что ξn → η. 2. Пусть (ξn (ε)), n > 1, ε > 0, – – семейство случайных величин таких, что для каждого ε > 0 ξn (ε) − → 0 при n → ∞. Используя, например, утверждение § 9. ДИСКРЕТНАЯ ВЕРСИЯ ФОРМУЛЫ ИТО 777 задачи 11 в § 10 гл. II, доказать, что найдется такая последовательность εn ↓ 0, что ξn (εn) − → 0. 3. Пусть (αnk), 1 6 k 6 n, n > 1, – – такие комплекснозначные случайные величины, что ( -п. н.) n X k=1 |αnk | 6 C, |αnk | 6 an ↓ 0. Показать, что тогда ( -п. н.) lim n n Y n (1 + αnk)e −αk = 1. k=1 4. Провести доказательство утверждения, сформулированного в замечании 2 к теореме 1. 5. Доказать утверждение, сформулированное в замечании к лемме. 6. Дать доказательство теоремы 3. 7. Доказать теорему 5. § 9. Дискретная версия формулы Ито 1. В стохастическом анализе броуновского движения и родственных ему процессов (мартингалы, локальные мартингалы, семимартингалы, . . .) исключительная роль принадлежит формуле замены переменных К. Ито. В настоящем параграфе рассматривается дискретная версия этой формулы и показывается, как из нее предельным переходом можно было бы получить и формулу К. Ито для броуновского движения. 2. Пусть X = (Xn) 06n6N и Y = (Yn) 06n6N – – две последовательности случайных величин, заданных на вероятностном пространстве (Ω, F , ), X0 = Y0 = 0 и [X, Y] = ([X, Y] n) 06n6N , где [X, Y] n = n X ∆Xk ∆Yk , (1) k=1 есть квадратическая ковариация последовательностей X и Y (см. § 1). Будем предполагать, что задана функция F = F(x), являющаяся абсолютно непрерывной: ]x F(x) = F(0) + f(y) dy, (2) 0 778 ГЛ. VII. МАРТИНГАЛЫ где f = f(y) – – борелевская функция на R такая, что ] |f(y)| dy < ∞ |y|6c для всякого c > 0. Формула замены переменных, о которой будет идти речь, дает представление для последовательности F(X) = (F(Xn)) 06n6N (3) в терминах «естественных» функционалов от последовательности X = = (Xn) 06n6N . Рассмотрим квадратическую ковариацию [X, f(X)] последовательностей X и f(X) = (f(Xn)) 06n6N , где f = f(x), x ∈ R, есть функция из представления (2). Согласно (1), [X, f(X)] n = n X ∆f(Xk)∆Xk = k=1 n X k=1 (f(Xk) − f(Xk−1)) (Xk − Xk−1). (4) Если ввести два «дискретных интеграла» (ср. с определением 5 в § 1) In (X, f(X)) = n X f(Xk−1)∆Xk , 1 6 n 6 N, (5) k=1 и Ĩn (X, f(X)) = n X f(Xk)∆Xk , 1 6 n 6 N, (6) k=1 то квадратическую ковариацию можно представить в следующем виде: [X, f(X)] n = Ĩn (X, f(X)) − In (X, f(X)). (7) Xhn = XN −n . (8) (В случае n = 0 полагаем I0 = Ĩ0 = 0.) Для фиксированного в наших рассмотрениях числа N введем новую («обращенную») последовательность Xh = (Xhn) 06n6N , полагая Ясно, что и, аналогично, h f(X)) h ĨN (X, f(X)) = −IN (X, h − IN −n (Xh , f(X))}. h Ĩn (X, f(X)) = −{IN (Xh , f(X)) Отсюда и из (7) заключаем, что h + IN (X, f(X))} [X, f(X)] N = −{IN (Xh , f(X)) § 9. ДИСКРЕТНАЯ ВЕРСИЯ ФОРМУЛЫ ИТО 779 и для 0 < n < N h − IN −n (X, h f(X))} h − In (X, f(X)) = [X, f(X)] n = −{IN (Xh , f(X)) ( N ) n X X =− f(Xhk−1)∆Xhk + f(Xk−1)∆Xk . k=N −n+1 (9) k=1 Замечание. Полезно отметить разную структуру представлений квадратической ковариации [X, f(X)]) n , задаваемых формулами (7) и (9). В (7) n P f(Xk−1)∆Xk образуется так, что на интервале «интеграл» In (X, f(X)) = k=1 [k − 1, k] значение f(Xk−1) (в «левом» конце) умножается на приращение ∆Xk = Xk − Xk−1 на всем этом интервале. «Интеграл» же Ĩn (X, f(X)) образуется по-другому – – на приращение ∆Xk = Xk − Xk−1 умножается значение в «правом» конце интервала [k − 1, k] , т. е. значение Xk . Таким образом, можно сказать, что формула (7) содержит как «прямой интеграл In (X, f(X))», так и «обратный интеграл Ĩn (X, f(X))». В формуле же (9) все «интегралы» являются «прямыми» (для последовательностей X h и X). 3. Поскольку для каждой функции g = g(x) g(Xk−1) + 1 1 [g(Xk) − g(Xk−1)] − [g(Xk) + g(Xk−1)] = 0, 2 2 то ясно, что F(Xn) = F(X0) + n X g(Xk−1)∆Xk + k=1 + 1 [X, g(X)] n + 2 n n g(X ) + g(X ) o X k−1 k F(Xk) − F(Xk−1) − ∆Xk . 2 k=1 (10) В частности, если g(x) = f(x), где f = f(x) – – функция из представления (2), то F(Xn) = F(X0) + In (X, f(X)) + 1 [X, f(X)] n + Rn (X, f(X)), 2 (11) f(Xk−1) + f(Xk) dx. 2 (12) где Rn (X, f(X)) = n X]k h X k=1 Xk−1 f(x) − i Из математического анализа хорошо известно, что если функция f ′′ (x) 780 ГЛ. VII. МАРТИНГАЛЫ непрерывна, то справедлива «формула трапеции»: ]b h a f(x) − b ] f(a) + f(b) f ′′ (ξ (x)) dx = (x − a) (x − b) dx = 2 2! i a (b − a) 2 = 3 ]1 0 x(x − 1) f ′′ (ξ (a + x(b − a))) dx = ]1 (b − a) 3 ′′ (b − a) ′′ f (ξ (a + x (b − a))) x(x − 1) dx = − f (η), 2 12 3 = 0 где ξ (x), x и η есть некоторые «промежуточные» точки из интервала [a, b] . Поэтому в (12) Rn (X, f(X)) = − n 1 X ′′ f (ηk) (∆Xk) 3 , 12 k=1 где Xk−1 6 ηk 6 Xk . Из этого представления ясно, что n X 1 |Rn (X, f(X))| 6 sup f ′′ (η) · |∆Xk |3 , 12 (13) k=1 где sup берется по всем значениям η таким, что min(X0 , X1 , . . . , Xn) 6 η 6 6 max(X0 , X1 , . . . , Xn). Мы называем формулу (11) дискретной версией формулы К. Ито. Подчеркнем, что правая часть этой формулы состоит из трех слагаемых: «дискретного интеграла» In (X, f(X)), квадратической ковариации [X, f(X)] n и «остаточного» члена Rn (X, f(X)), название которого объясняется тем, что при соответствующем предельном переходе к случаю непрерывного времени он стремится к нулю (см. более подробно п. 5). 4. Пример 1. Если f(x) = a + bx, то Rn (X, f(X)) = 0 и формула (11) принимает следующий вид: F(Xn) = F(X0) + In (X, f(X)) + 1 [X, f(X)] n . 2 (Ср. с формулой (19), приводимой ниже.) Пример 2. Пусть x > 0, 1, f(x) = sign x = 0, x = 0, −1, x < 0, и пусть F(x) = |x|. (14) § 9. ДИСКРЕТНАЯ ВЕРСИЯ ФОРМУЛЫ ИТО 781 Пусть Xk = Sk , где Sk = ξ1 + . . . + ξk , k > 1, а ξ1 , ξ2 , . . . – – последовательность независимых бернуллиевских случайных величин, принимающих значения ±1 с вероятностью 1/2. Если положить S0 = 0, то непосредственно из (11) можно найти, что |Sn | = n X (sign Sk−1)∆Sk + Nn , (15) k=1 где Nn = #{0 6 k < n, Sk = 0} – – число S0 , S1 , . . . , Sn−1 . Входящий в (14) «дискретный интеграл» нулей n P последовательности (sign Sk−1)∆Sk k=1 ляется мартингалом. Поэтому из (15) находим, что Поскольку (задача 2) явn>1 |Sn | = Nn . (16) r |Sn | ∼ 2 n, π n → ∞, (17) 2 n, π n → ∞. (18) то из (16) следует, что Nn ∼ r Иначе говоря, среднее число √ «ничьих» в случайном блуждании S0 , S1 , . . . , Sn по порядку растет как n, а не как n, что могло бы с первого взгляда показаться более естественным. Отметим, что свойство (18) самым непосредственным образом связано с законом арксинуса (см. § 10 гл. I) и фактически следует из него. 5. Пусть B = (Bt) 06t61 – – стандартное (B0 = 0, Bt = 0, Bt2 = t) броуновское движение (см. § 13 гл. II) и Xk = Bk/n , k = 0, 1, . . . , n. Применение формулы (11) приводит к следующему результату: F(B1) = F(B0) + n X f(B (k−1) /n)∆Bk/n + k=1 1 [f(B·/n), B·/n ] n + 2 + Rn (B·/n , f(B·/n)). (19) Из теории броуновского движения (см., например, [11] , [17] , [77]) известно, что n X |Bk/n − B (k−1) /n |3 − → 0, n → ∞. (20) k=1 782 ГЛ. VII. МАРТИНГАЛЫ Поэтому, если функция f = f(x) имеет вторую производную и |f ′′ (x)| 6 C, x ∈ R, для некоторой константы C > 0, то из оценки (13) находим, что Rn (B·/n , f(B·/n)) − → 0. Опять же из теории броуновского движения известно,] что для всякой (борелевской) функции f = f(x) ∈ L2loc (т. е. такой, что f 2 (x) dx < ∞ |x|6C для всякого C > 0) существует предел (заведомо в смысле сходимости по n P вероятности) «дискретных интегралов» f(B (k−1) /n)∆Bk/n , обозначаеk=1 ]1 мый f(Bs) dBs и называемый стохастическим интегралом Ито по 0 броуновскому движению. Тем самым, обращаясь к формуле (19), видим, что в ней «остаточный» n P член Rn (B·/n , f(B·/n)) − → 0, «дискретные интегралы» f(B (k−1) /n)∆Bk/n k=1 ]1 сходятся (по вероятности) к «стохастическому интегралу» f(Bs) dBs , 0 а следовательно, существует и предел по вероятности квадратических ковариаций [B·/n , f(B·/n)] (= [f(B·/n), B·/n ]), который естественно обозначить как [B, f(B)] 1 . Итак, если функция f = f(x) имеет вторую производную, |f ′′ (x)| 6 C, x ∈ R, и f ∈ L2loc , то имеет место следующая формула: ]1 1 F(B1) = F(0) + f(Bs) dBs + [B, f(B)] 1 . 2 0 (21) При этом ]1 [B, f(B)] 1 = f ′ (Bs) ds (22) 0 и, следовательно, 1 ]1 1 ] ′ f (Bs) ds, F(B1) = F(0) + f(Bs) dBs + 0 2 (23) 0 или, в более стандартной записи, 1 ]1 1 ] ′′ F(B1) = F(0) + F ′ (Bs) dBs + F (Bs) ds. 0 2 0 (24) § 10. ВЕРОЯТНОСТИ РАЗОРЕНИЯ В СТРАХОВАНИИ 783 Именно эта формула (для F ∈ C 2) носит название формулы замены переменных К. Ито для броуновского движения. 6. Задачи. 1. Доказать формулу (15). 2. Доказать справедливость асимптотики (17). 3. Доказать формулу (22). 4. Формула (24) справедлива для всякой функции F ∈ C 2 . Попытайтесь это доказать. § 10. Вычисление вероятности разорения в страховании. Мартингальный метод 1. Материал, излагаемый в этом параграфе, является хорошей иллюстрацией того, как мартингальный подход дает простой метод оценивания вероятности разорения, скажем, страховой компании. Будем предполагать, что X = (Xt ) t>0 есть случайных процесс, описывающий эволюцию капитала рассматриваемой страховой компании. Значение X0 = u > 0 интерпретируется как начальный капитал компании. Страховые поступления предполагаются накапливающимися на счету компании непрерывным образом с постоянной скоростью c > 0 (т. е. за время ∆t поступление равно c∆t). Требования на выплату страховки считаются поступающими в случайные моменты времени T1 , T2 , . . . (0 < T1 < T2 < . . .) с соответствующими выплатами, определяемыми неотрицательными случайными величинами ξ1 , ξ2 , . . . Из изложенного вытекает, что капитал компании в момент времени t > 0 определяется формулой Xt = u + ct − St , (1) где X St = ξi I(Ti 6 t). (2) i>1 Пусть T = inf{t > 0 : Xt 6 0} есть тот первый момент, когда капитал компании становится нулевым или отрицательным. Если Xt > 0 для всех t > 0, то T полагается равным +∞. По вполне понятным причинам момент T естественно называть «моментом разорения» компании. В дальнейшем наш основной интерес будет состоять в нахождении (или оценивании) вероятности разорения {T < ∞} или вероятностей разорения {T 6 t} до момента времени t для любого t > 0. 784 ГЛ. VII. МАРТИНГАЛЫ 2. Отыскание этих вероятностей является довольно-таки непростой задачей. Однако эта задача допускает (частичное) решение для так называемой модели Крамера– –Лундберга, характеризуемой тем, что для нее выполнены следующие условия. A. Моменты σi = Ti − Ti−1 , i > 1 (T0 = 0), предполагаются независимыми случайными величинами, распределенными экспоненциальным образом, {σi > t} = λe −λt , t > 0, i > 1. (См. табл. 3 в § 3 гл. II.) B. Случайные величины ξ1 , ξ2 , . . . являются независимыми и одинаково распределенными с функцией распределения F(x) = {ξ1 6 x} такой, что ∞ ] F(0) = 0 и µ = x dF(x) < ∞. 0 C. Последовательности (T1 , T2 , . . .) и (ξ1 , ξ2 , . . .) являются независимыми последовательностями (в смысле определения 6 § 5 гл. II). Пусть X Nt = I(Ti 6 t), t > 0, (3) i>1 – – процесс, описывающий число требований на выплату «страховки», поступивших до момента времени t (включительно), N0 = 0. Поскольку для k > 1 {Tk > t} = {σ1 + . . . + σk > t} = {Nt < k}, то с учетом предположения A и в соответствии с задачей 6 из § 8 гл. II {Nt < k} = {σ1 + . . . + σk > t} = k−1 X e −λt i=0 Следовательно, {Nt = k} = e −λt (λt) k , k! k = 0, 1, . . . (λt) i . i! (4) Таким образом, случайная величина Nt имеет пуассоновское распределение (см. табл. 2 в § 3 гл. II) с параметром λt, совпадающим здесь с математическим ожиданием Nt . Сконструированный по формуле (3) процесс N = (Nt ) t>0 , будучи частным случаем процессов восстановления (п. 4 § 9 гл. II), носит название процесса Пуассона. У этого процесса траектории (реализации) являются разрывными (точнее, кусочно-постоянными, непрерывными справа и со скачками, равными единице). Наряду с броуновским движением (§ 13 гл. II), траектории которого являются непрерывными функциями, этот процесс играет фундаментальную роль в теории случайных процессов. Именно с помощью этих двух процессов можно построить случайные процессы с § 10. ВЕРОЯТНОСТИ РАЗОРЕНИЯ В СТРАХОВАНИИ 785 довольно сложной вероятностной структурой. (Типичными в этом отношении являются процессы с независимыми приращениями; см., например, [13] , [11] , [76] .) 3. Из предположения C находим, что X (Xt − X0) = ct − St = ct − = ct − X i ξi I(Ti 6 t) = ct − i ξi I(Ti 6 t) = ct − µ X X ξi I(Ti 6 t) = i {Ti 6 t} = i X {Nt > i} = ct − µ Nt = t(c − λµ). c > λµ. (5) = ct − µ i Отсюда ясно, что условие, состоящее в том, что компания работает с положительной прибылью (т. е. с (Xt − X0) > 0), формулируется следующим образом: В последующем анализе важную роль будет играть функция h(z) = ∞ ] 0 (e zx − 1) dF(x), равная FA (−z) − 1, где FA (s) = ∞ ] z > 0, (6) e −sx dF(x) 0 есть преобразование Лапласа– –Стилтьеса (s – – комплексное число). Полагая g(z) = λh(z) − cz, ξ0 = 0, находим, что для всякого r > 0 такого, что h(r) < ∞, e −r(Xt −X0) = e −r(Xt −u) =e −rct e r Nt P ξ i i=0 =e −rct ∞ X e r Nt P ξ i i=0 {Nt = n} = n=0 = e −rct ∞ X n=0 (1 + h(r)) n e −λt (λt) n = e −rct e λth(r) = e t [λh(r)−cr] = e t g(r) . n! Аналогичным образом показывается, что для s < t e −r(Xt −Xs ) = e (t−s) g(r) . (7) 786 ГЛ. VII. МАРТИНГАЛЫ Пусть FtX = σ (Xs , s 6 t). Поскольку процесс X = (Xt ) t>0 является процессом с независимыми приращениями (задача 2), то ( -п. н.) и, значит, Положим (e −r(Xt −Xs) | FsX ) = e −r(Xt −Xs) = e (t−s) g(r) , (e −rXt −t g(r) | FsX ) = e −rXs −sg(r) . Zt = e −rXt −t g(r) , (8) t > 0. (9) s 6 t. (10) Из (8) очевидно следует, что (Zt | FsX ) = Zs , По аналогии с определением 1 из § 1 естественно говорить, что процесс Z = (Zt) t>0 является мартингалом (относительно «потока» σ-алгебр (FtX ) t>0). Отметим, что в рассматриваемом случае |Zt | < ∞, t > 0 (ср. со свойством (1) в § 1). Будем также говорить, по аналогии с определением 3 в § 1, что случайная величина τ = τ (ω) со значениями в [0, +∞] является марковским моментом, или случайной величиной, не зависящей от будущего (относительно «потока» (FtX ) t>0), если для каждого t > 0 {τ (ω) 6 t} ∈ FtX . Для рассматриваемого сейчас случая непрерывного времени теорема 1 из § 2 (с очевидными изменениями в обозначениях) также сохраняет свою силу. В частности, Zt∧τ = Z0 (11) для всякого марковского момента τ . Положим τ = T . Тогда из (9) и (11) найдем, что для всякого t > 0 e −ru = e −rXt∧T −(t∧T) g(r) > [e −rXt∧T −(t∧T) g(r) | T 6 t] {T 6 t} = = [e −rXT −T g(r) | T 6 t] {T 6 t} > > [e −T g(r) | T 6 t] {T 6 t} > min e −sg(r) · {T 6 t}. 06s6t Следовательно, {T 6 t} 6 e −ru = e −ru max e sg(r) . min e −sg(r) 06s6t 06s6t Рассмотрим более подробно функцию g(r) = λh(r) − cr. (12) § 10. ВЕРОЯТНОСТИ РАЗОРЕНИЯ В СТРАХОВАНИИ 787 Ясно, что g(0) = 0, g ′ (0) = λµ − c < 0 (в силу (5)) и g ′′ (r) = λh′′ (r) > 0. Поэтому существует единственное положительное значение r = R такое, что g(R) = 0. Заметим, что для r > 0 ∞ ] 0 e rx (1 − F(x)) dx = ∞ ] ∞ ] 0 e rx dF(y) dx = x = ∞ ] ]y 0 0 rx e dx ! dF(y) = ∞ 1 ] ry 1 (e − 1) dF(y) = h(r). r r 0 Отсюда и из равенства λh(R) − cR = 0 заключаем, что значение R является корнем (и при этом единственным) уравнения ∞ λ ] rx e (1 − F(x)) dx = 1. c (13) 0 Если теперь в (12) положить r = R, то получим, что для каждого t > 0 {T 6 t} 6 e −Ru , (14) {T < ∞} 6 e −Ru . (15) откуда Итак, доказана следующая Теорема. Пусть для модели Крамера– –Лундберга выполнены предположения A, B, C и λµ < c. Тогда вероятности разорения {T 6 t} и {T < ∞} удовлетворяют неравенствам (14) и (15), где R – – положительный (и притом единственный) корень уравнения (13). 4. В приведенном доказательстве использовалось соотношение (11), справедливость которого, как было отмечено, вытекает из соответствующего аналога теоремы 1 § 2 (о сохранении свойства мартингальности при замене времени на случайный марковский момент) для случая непрерывного времени. (Доказательство этого результата см., например, в § 3.2 монографии [41] .) Если, однако, вместо экспоненциальности распределения величин σi , i = 1, 2, . . . , предположить, что они имеют (дискретное) геометрическое распределение ( {σi = k} = q k−1 p, k > 1), то тогда достаточно было бы лишь ссылки на доказанную в § 2 теорему 1. Приведенные рассмотрения, требующие обращения к результатам теории случайных процессов с непрерывным временем, представляются полезными по крайней мере в том отношении, что они показывают, как в приложениях возникают модели, функционирующие не в дискретном, а в непрерывном времени. 788 ГЛ. VII. МАРТИНГАЛЫ 5. Задачи. 1. Доказать, что процесс N = (Nt) t>0 является (в предположении A) процессом с независимыми приращениями. 2. Доказать, что процесс X = (Xt ) t>0 также является процессом с независимыми приращениями. 3. Рассмотреть модель Крамера– –Лундберга и сформулировать соответствующий аналог приведенной теоремы для того случая, когда величины σi , i = 1, 2, . . . , являются независимыми и распределенными по геометрическому закону, т. e. {σi = k} = q k−1 p, k > 1. § 11. О фундаментальных теоремах стохастической финансовой математики. Мартингальная характеризация отсутствия арбитража 1. В предшествующем параграфе было рассмотрено применение теории мартингалов к доказательству одной из основных теорем математической теории страхования – – теоремы Лундберга– –Крамера. В настоящем параграфе будет рассмотрено еще одно применение теории мартингалов – – к вопросам безарбитражности финансовых рынков, функционирующих в условиях стохастической неопределенности. Приводимые ниже теоремы 1 и 2, которые принято называть «фундаментальными теоремами» теории арбитража в стохастической финансовой математике, интересны тем, что они дают в мартингальных терминах условия, обеспечивающие безарбитражность (в объясняемом далее смысле) рассматриваемых финансовых рынков, и также условия, гарантирующие достижение поставленной финансовой цели. (Подробнее о финансовой математике см. [100] .) 2. Дадим некоторые необходимые определения. Все рассмотрения предполагают заданным некоторое фильтрованное вероятностное пространство (Ω, F , (Fn) n>0 , ), служащее базой для описания стохастической неопределенности в эволюции цен, финансовых индексов и других показателей финансовых рынков. При этом будем интерпретировать совокупность событий из Fn как «информацию», получаемую к моменту времени n (включительно). Например, Fn может содержать «информацию» о значениях цен определенных финансовых бумаг, финансовых индексов и т. п. Основным объектом, с которым будут связаны «фундаментальные теоремы», является понятие (B, S)-рынка, определяемого следующим образом. Пусть B = (Bn) n>0 и S = (Sn) n>0 есть положительные случайные последовательности. При этом считается, что при каждом n > 0 величины Bn яв- § 11. ФУНДАМЕНТАЛЬНЫЕ ТЕОРЕМЫ 789 ляются Fn−1 -измеримыми (F−1 = F0), а величины Sn – – Fn -измеримыми. Для простоты дальнейших рассмотрений предполагается, что начальная σ-алгебра F0 тривиальна, т. е. F0 = {∅, Ω} (см. § 2 гл. II). Тем самым B0 и S0 суть константы. В соответствии с терминологией § 1 обе последовательности B = (Bn) n>0 и S = (Sn) n>0 являются стохастическими последовательностями, причем последовательность B = (Bn) n>0 является к тому же предсказуемой (поскольку Bn – – Fn−1 -измеримы). По своему финансовому смыслу последовательность B = (Bn) n>0 будет интерпретироваться как последовательность, описывающая эволюцию «единицы» банковского счета («bank account», «money account»). При этом Fn−1 -измеримость величин Bn означает, что величина банковского счета в момент n (скажем, «сегодня») становится полностью известной уже в момент времени n − 1 (т. е. «вчера»). Если обозначить для n > 1 rn = ∆Bn Bn−1 (1) с ∆Bn = Bn − Bn−1 , то, очевидно, для Bn получаем следующее представление: Bn = (1 + rn)Bn−1 , n > 1, (2) где величины rn являются Fn−1 -измеримыми и такими, что rn > −1 (поскольку Bn > 0 по предположению). В финансовой литературе величины rn носят название (банковской) процентной ставки. Последовательность S = (Sn) n>0 отличается от B = (Bn) n>0 тем, что величины Sn являются Fn -измеримыми, а не Fn−1 -измеримыми, как Bn . Именно так обстоит дело, например, с ценами акций («stock», «stocks»), для которых истинная цена в момент времени n становится известной только в момент ее объявления (т. е. «сегодня», а не «вчера», как для банковского счета). По аналогии с «банковской» можно ввести так называемую «рыночную» процентную ставку ρn = ∆Sn , Sn−1 n > 1, (3) для акции S = (Sn) n>0 . Ясно, что тогда Sn = (1 + ρn)Sn−1 , при этом все ρn > −1, поскольку все Sn > 0 (по предположению). (4) 790 ГЛ. VII. МАРТИНГАЛЫ Из (2) и (4) следует, что Bn = B0 Sn = S0 n Y k=1 n Y (1 + rk), (5) (1 + ρk). (6) k=1 В финансовой литературе принято говорить, что эти формулы образованы по типу «простых» процентов. Во многих вопросах полезны также представления, образованные по типу «сложных» процентов: Pn r̂k Bn = B0 e k=1 , Pn ρ̂k , (7) ∆Bk , r̂k = ln(1 + rk) = ln 1 + Bk−1 ∆Sk . ρ̂k = ln(1 + ρk) = ln 1 + (8) Sn = S0 e k=1 где в соответствии с (5) и (6) Sk−1 (9) Эти величины принято называть «логарифмической прибылью», «возвратом», «отдачей». Введенная описанным выше способом пара процессов B = (Bn) n>0 и S = (Sn) n>0 будет образовывать, по определению, финансовый (B, S)-рынок, состоящий из двух активов – – банковского счета B и акции S. Замечание. Понятно, что такой (B, S)-рынок является всего лишь простейшей моделью реальных финансовых рынков, состоящих, обычно, из большого числа активов разнообразной природы (см., например, [100]). Тем не менее, уже и на этом простом случае можно проследить и проиллюстрировать эффективность методов теории мартингалов при рассмотрении многих вопросов чисто финансово-экономической природы. (К их числу относится, например, вопрос об отсутствии на (B, S)-рынке арбитражных возможностей, ответ на который дается в приводимой далее «первой фундаментальной теореме».) 3. Дадим теперь определение портфеля ценных бумаг, его капитала и введем также важное понятие самофинансируемого портфеля. Пусть (Ω, F , (Fn) n>0 , ) – – рассматриваемое фильтрованное вероятностное пространство с F0 = {∅, Ω} и пусть π = (β, γ) – – пара предсказуемых последовательностей β = (βn) n>0 , γ = (γn) n>0 . Кроме требования «предсказуемости», т. е. Fn−1 -измеримости (F−1 = = F0) величин βn и γn , n > 0, на их возможные значения не налагаются § 11. ФУНДАМЕНТАЛЬНЫЕ ТЕОРЕМЫ 791 какие-либо другие ограничения. В частности, эти величины могут принимать дробные и отрицательные значения. По своему смыслу величина βn есть «число единиц» банковского счета, а γn – – «число акций» в момент времени n. Будем говорить, что π = (β, γ) образует портфель ценных бумаг на рассматриваемом (B, S)-рынке. С каждым портфелем π = (β, γ) свяжем соответствующий ему капитал X π = (Xnπ) n>0 , полагая Xnπ = βn Bn + γn Sn (10) и интерпретируя βn Bn как денежные средства на банковском счете, а γn Sn – – как стоимость акций в момент времени n. Смысл «предсказуемости» последовательностей β и γ также ясен – – портфель ценных бумаг «на завтра» должен составляться «сегодня». Следующее важное понятие «самофинансируемого» портфеля отражает, в частности, идею рассмотрения таких (B, S)-рынков, на которых нет «ни оттока, ни притока капитала извне». С формальной точки зрения соответствующее определение дается следующим образом. Пользуясь формулой «дискретного дифференцирования» (∆(an bn) = π = an ∆bn + bn−1 ∆an), находим, что приращение ∆Xnπ (= Xnπ − Xn−1 ) капитала представляется в виде ∆Xnπ = [βn ∆Bn + γn ∆Sn ] + [Bn−1 ∆βn + Sn−1 ∆γn ] . (11) Реальное изменение капитала связано лишь с «рыночными» изменениями значений банковского счета и цены акции, т. е. с величиной βn ∆Bn + + γn ∆Sn . Второе выражение в правой части (11), т. е. Bn−1 ∆βn + Sn−1 ∆γn , является Fn−1 -измеримой величиной и в момент времени n никакого реπ ального увеличения или уменьшения величины Xn−1 дать не может. Тем самым оно должно равняться нулю. В принципе, изменение капитала могло произойти не только за счет «рыночных» изменений процентных ставок (rn и ρn , n > 1), но также и за счет, скажем, притока капитала извне, оттока капитала за операционные издержки и т. п. Такие возможности далее не принимаются во внимание, и все рассматриваемые портфели π = (β, γ) будут предполагаться (в соответствии с изложенным) такими, что для них при всех n > 1 ∆Xnπ = βn ∆Bn + γn ∆Sn . (12) В стохастической финансовой математике такие портфели принято называть самофинансируемыми (self-financing). 792 ГЛ. VII. МАРТИНГАЛЫ 4. Из (12) следует, что для самофинансируемого портфеля π = (β, γ) Xnπ = X0π + n X (βk ∆Bk + γk ∆Sk) (13) k=1 и поскольку то Xπ S n ∆ n = γn ∆ , Bn Bn (14) n Xπ X Xnπ S γk ∆ k . = 0 + Bn B0 Bk (15) k=1 Зафиксируем некоторое N > 1 и рассмотрим эволюцию (B, S)-рынка в моменты n = 0, 1, . . . , N. Определение 1. Самофинансируемый портфель (или самофинансируемая стратегия) π = (β, γ) в момент N реализует арбитраж, или арбитражную возможность, если X0π = 0, XNπ > 0 ( -п. н.) и с положительной -вероятностью XNπ > 0, т. е. {XNπ > 0} > 0. Определение 2. Говорят, что на (B, S)-рынке отсутствует (в момент N) арбитраж, или арбитражная возможность, если для всякого портфеля π = (β, γ) с X0π = 0 и {XNπ > 0} = 1 на самом деле {XNπ = 0} = 1, т. е. лишь с нулевой -вероятностью возможно то, что XNπ > 0. С наглядной точки зрения на безарбитражном рынке не может быть так, чтобы для некоторого портфеля существовала возможность получения безрискового дохода. Понятно, что решение вопроса о том, является ли тот или иной (B, S)-рынок безарбитражным и, следовательно, в определенном смысле, «справедливым», «рациональным», зависит от вероятностно-статистических свойств последовательностей B = (Bn) n6N и S = (Sn) n6N и, разумеется, от предположений, заложенных в структуру фильтрованного вероятностного пространства (Ω, F , (Fn) n6N , ). Примечательно, что теория мартингалов позволяет весьма эффективно описать условия, гарантирующие отсутствие арбитражных возможностей. Можно утверждать даже больше. Именно, имеет место следующая Теорема 1 («первая фундаментальная теорема»). Будем предполагать, что стохастическая неопределенность описывается фильтрованным вероятностным пространством (Ω, F , (Fn) n6N , ) с F0 = {∅, Ω}, FN = F . Для того чтобы (B, S)-рынок, определенный на (Ω, F , (Fn) n6N , ), был безарбитражным, необходимо и достаточно, чтобы нашлась мера h на (Ω, F), эквивалентная мере ( h ∼ ) и такая, что § 11. ФУНДАМЕНТАЛЬНЫЕ ТЕОРЕМЫ 793 относительно этой меры дисконтированная последовательность Sn S образовывала бы мартингал: = B Bn n6N h Sn < ∞, n 6 N, Bn и h Sn | Fn−1 = Sn−1 , Bn Bn−1 n 6 N, где h – – усреднение по мере h . Замечание 1. Утверждение теоремы сохраняет свою силу и для векторных процессов S = (S 1 , . . . , S d ) с d < ∞. (См. § 2b гл. V в [100] .) Замечание 2. Меру h , фигурирующую в формулировке теоремы, принято называть, по вполне понятным причинам, мартингальнойoмерой. n S h Будем обозначать ( ) = ∼ : является h -мартингалом класс B тех мер h , эквивалентных мере , относительно которых последователь Sn S является мартингалом. ность = B Bn n6N Пусть запись означает отсутствие арбитража (No Arbitrage). Тогда утверждение теоремы 1 может быть записано в следующем виде: ⇔ ( ) 6= ∅ (16) Доказательство. Достаточность. Пусть h – – мартингальная мера из ( ) и π = (β, γ) – – портфель с X0π = β0 B0 + γ0 S0 = 0. Из (15) для 16n6N n S Xnπ X (17) = γk ∆ k . Bn Bk k=1 S Sk Относительно меры h последовательность = B Bk k6N (Gnπ) 06n6N с является мартингалом и, значит, последовательность G = G0π = 0 и n P S Gnπ = γk ∆ k , 1 6 n 6 N, является мартингальным преобразоваB k k=1 Xπ n также есть мартингальное нием. Поэтому последовательность Bn 06n6N преобразование. При тестировании на арбитраж или отсутствие арбитража надо рассматривать те портфели π, для которых не только X0π = 0, но и XNπ > 0 ( -п. н.). В силу того, что h ∼ и BN > 0 ( - и h -п. н.), находим, что n π o h XN > 0 = 1. BN 794 ГЛ. VII. МАРТИНГАЛЫ Тогда, применяя теорему 3 из § 1 к мартингальному преобразованию , находим, что на самом деле эта последовательность является Xnπ Bn 06n6N π π X X по мере h мартингалом. Следовательно, h N = h 0 = 0 и поскольку BN B0 n Xπ n Xπ o o N N h > 0 = 1, то h = 0 = 1. BN BN Отсюда видим, что XNπ = 0 ( h - и -п. н.) и тем самым для всякого самофинансируемого портфеля π с X0π = 0 и XNπ > 0 ( -п. н.) на самом деле XNπ = 0 ( -п. н.), что и означает, согласно определению 2, отсутствие арбитражных возможностей. Необходимость. Доказательство будет приведено лишь для одноэтапной модели (B, S)-рынка, т. е. в случае N = 1. Уже на этом простом примере будет хорошо видна идея доказательства, заключающаяся в том, чтобы, воспользовавшись отсутствием арбитража, явно построить хоть какую-нибудь мартингальную меру. Такую меру мы будем строить, основываясь на преобразовании Эшера (см. ниже). (По поводу доказательства в общем случае N > 1 см. § 2d гл. V в [100] .) Без ограничения общности можно считать, что B0 = B1 = 1. Предположение отсутствия арбитражных возможностей сводится здесь к тому (задача 1), что {∆S1 > 0} > 0 и {∆S1 < 0} > 0. (18) (Мы исключаем тривиальный для рассмотрения случай {∆S1 = 0} = 1.) Отсюда надо вывести, что существует эквивалентная мартингальная мера h , т. е. такая, что h ∼ и h |∆S1 | < ∞, h ∆S1 = 0. Вытекает это непосредственно из следующей леммы, представляющей и общевероятностный интерес. Лемма 1. Пусть (Ω, F) = (R, B (R)) и X = X(ω) – – координатно заданная случайная величина (X(ω) = ω). Пусть – – вероятностная мера на (Ω, F), {X > 0} > 0 и {X < 0} > 0. (19) Тогда на (Ω, F) существует вероятностная мера h ∼ такая, что для любого действительного a h e aX < ∞. (20) В частности, h |X| < ∞ и имеет место следующее свойство: h X = 0. (21) Доказательство. Введем меру = 2 нормирующая константа c = ( e −X ) −1 . (dx) с (dx) = ce −x 2 (dx), где § 11. ФУНДАМЕНТАЛЬНЫЕ ТЕОРЕМЫ 795 Для всякого действительного a положим ϕ(a) = где – – усреднение по мере Пусть (22) e ax . ϕ(a) (23) . Za (x) = Поскольку Za (x) > 0 и мера h a с e aX , Za (X) = 1, то для всякого действительного a h a (dx) = Za (x) (dx) является вероятностной. Понятно, что h a ∼ Замечание 3. Преобразование x (24) ∼ . e ax часто называют преобразоϕ(a) ванием Эшера. Как будет следовать из дальнейшего, при некотором специальном значении a∗ мера h = h a∗ обладает (мартингальным) свойством (21). Именно эту меру принято называть мерой Эшера (или мартингальной мерой Эшера). Функция ϕ = ϕ(a), определенная для всех действительных a, является строго выпуклой вниз, поскольку ϕ′′ (a) > 0. Пусть ϕ∗ = inf{ϕ(a) : a ∈ R}. Возможны два случая: 1) когда существует такое a∗ , что ϕ(a∗) = ϕ∗ , и 2) когда такого (конечного) a∗ не существует. В первом случае ϕ′ (a∗) = 0. Значит, ha X= ∗ ϕ′ (a∗) Xe a∗ X = = 0, ϕ(a∗) ϕ(a∗) и в качестве требуемой меры h можно взять меру h a∗ . До сих пор мы еще не использовали предположение «безарбитражности» (19). Как нетрудно показать (задача 2), это предположение исключает возможность 2). Тем самым остается лишь первая возможность, которая уже была рассмотрена. Итак, в случае N = 1 «необходимость» (заключающаяся в существовании мартингальной меры) установлена. По поводу общего случая N > 1 мы отсылаем читателя, как уже было отмечено, к изложению в § 2d гл. V в [100] . 5. Приведем некоторые примеры безарбитражных (B, S)-рынков. Пример 1. Предположим, что (B, S)-рынок описывается соотношениями (5) и (6) с 1 6 k 6 N, в которых rk = r (константа) для всех 1 6 6 k 6 N и ρ = (ρ1 , ρ2 , . . . , ρN ) – – последовательность независимых одинаково распределенных (бернуллиевских) случайных величин, принимающих 796 ГЛ. VII. МАРТИНГАЛЫ два значения a и b (a < b) с вероятностями p + q = 1, 0 < p < 1. Пусть при этом {ρ1 = a} = q, {ρ1 = b} = p, −1 < a < r < b. (25) Так описанная модель (B, S)-рынка носит название CRR-модели по именам ее авторов Кокса, Росса и Рубинштейна (J. C. Cox, R. A. Ross, M. Rubinstein; подробнее см. в [100]). Поскольку в этой модели 1+ρ S Sn n n−1 , = 1+r Bn Bn−1 то понятно, что мартингальная мера h должна быть такой, чтобы h 1 + ρn = 1, 1+r т. е. чтобы h ρn = r. Если обозначить p = h {ρn = b}, q̃ = h {ρn = a}, то находим, что при любом n > 1 p̃ + q̃ = 1, b p̃ + aq̃ = r. Отсюда p̃ = r−a , b−a q̃ = b −r . b −a (26) В рассматриваемом случае вся «случайность» определяется бернуллиевской последовательностью ρ = (ρ1 , ρ2 , . . . , ρN ). Будем считать, что Ω = {a, b}N , т. е. пусть пространство элементарных исходов состоит из последовательностей (x1 , . . . , xN ) с xi = a или b. (Это предположение о специальной, точнее, «координатной», структуре пространства Ω не ограничивает общности рассмотрений; см. в связи с этим также конец доказательства достаточности в теореме 2 п. 6.) В качестве упражнения (задача 3) предлагается показать, что мера h = h (x1 , x2 , . . . , xN ), определенная так, что h (x1 , . . . , xN ) = p̃ νb (x1 ,...,xN ) q̃ N −νb (x1 ,...,xN ) , где νb (x1 , . . . , xN ) = N P i=1 (27) Ib (xi) – – число тех xi , которые равны b, является мартингальной мерой, к тому же единственной. Из (27) ясно, что h {ρn = b} = p̃ и h {ρn = a} = q̃. Таким образом, из теоремы 1 выводим, что CRR-модель дает пример безарбитражного (B, S)-рынка. § 11. ФУНДАМЕНТАЛЬНЫЕ ТЕОРЕМЫ 797 Пример 2. Будем предполагать, что (B, S)-рынок имеет следующую структуру: Bn = 1 для всех n = 0, 1, . . . , N и Pn Sn = S0 e ρ̂k k=1 , 1 6 n 6 N. (28) Пусть ρ̂k = µk + σk εk , где µk и σk > 0 являются Fk−1 -измеримыми, а (ε1 , . . . , εN ) образуют последовательность независимых стандартных гауссовских случайных величин, εk ∼ N (0, 1). Будем строить требуемую мартингальную меру h (на (Ω, FN )) с помощью условного преобразования Эшера, а именно, пусть h (dω) = Q = ZN (ω) (dω) с ZN (ω) = zk (ω) и (с F0 = {∅, Ω}) 16k6N e ak ρ̂k zk (ω) = (e ak ρ̂k | F k−1) , (29) где Fk−1 -измеримые величины ak = ak (ω) надо сейчас выбрать так, чтобы последовательность (Sn) 06n6N была относительно меры h мартингалом. В силу представления (28) мартингальность по мере h равносильна тому, что (относительно исходной меры ) при всех 1 6 n 6 N [e (an +1) ρ̂n | Fn−1 ] = [e an ρ̂n | Fn−1 ] . (30) Поскольку ρ̂n = µn + σn εn , то из (30) находим, что величины an должны быть выбраны так, чтобы µn + т. е. σn2 = −an σn2 , 2 an = − 1 µn − . 2 σn2 При таком выборе величин an , 1 6 n 6 N, находим, что плотность ZN (ω) задается формулой ) ( N h i X 1 µn σn σn 2 µn εn + . (31) + + ZN (ω) = exp − n=1 2 σn 2 2 σn 2 σ Если изначально µn = − n при всех 1 6 n 6 N, то h = . Иначе говоря, в 2 этом случае сама исходная мера будет мартингальной. Итак, рассматриваемый (B, S)-рынок с B = (Bn) 06n6N такими, что Bn ≡ 1, и S = (Sn) 06n6N , где Sn описываются представлением (28), является, как и в примере 1, безарбитражным. В качестве упражнения (задача 4) предлагается исследовать вопрос о том, является ли построенная выше мартингальная мера h единственной. 798 ГЛ. VII. МАРТИНГАЛЫ 6. Вводимое ниже понятие полноты (B, S)-рынка представляет для стохастической финансовой математики значительный интерес, поскольку (вне зависимости от того, является рассматриваемый рынок безарбитражным или арбитражным) оно связано с естественным вопросом о том, когда для заданного FN -измеримого «платежного поручения» fN можно найти самофинансируемый портфель π, капитал XNπ которого в точности воспроизводит (или по крайней мере не меньше) fN . Определение 3. (B, S)-рынок называется полным (по отношению к моменту времени N) или N-полным, если всякое ограниченное FN -измеримое «платежное поручение» fN является воспроизводимым, т. е. существует такой самофинансируемый портфель π, что XNπ = fN ( -п. н.). Теорема 2 («вторая фундаментальная теорема»). Как и в теореме 1, пусть (Ω, F , (Fn) 06n6N , ) – – фильтрованное вероятностное пространство, F0 = {∅, Ω}, FN = F , и заданный на нем (B, S)-рынок является безарбитражным ( ( ) 6= ∅). Для того чтобы этот рынок был полным, необходимо и достаточно, чтобы существовала лишь единственная мартингальная мера (| ( )| = 1). Доказательство. Необходимость. Пусть рассматриваемый рынок является полным. Это означает, что для всякого FN -измеримого ограниченного «платежного поручения» fN найдется самофинансируемый портфель π = (β, γ) такой, что XNπ = fN ( -п. н.). Без ограничения общности можно считать, что Bn = 1, 0 6 n 6 N. Тем самым из (13) находим, что fN = XNπ = X0π + N X γk ∆Sk . (32) k=1 В силу сделанного предположения безарбитражности множество мартингальных мер ( ) 6= ∅. Покажем, что предположение полноты влечет за собой единственность мартингальной меры (| ( )| = 1). Пусть 1 и 2 – меры. – две мартингальные n Тогда относительно каждой P из этих мер последовательность γk ∆Sk является мартингаль16n6N k=1 ным преобразованием. Возьмем некоторое множество A ∈ FN и положим fN (ω) = IA (ω). Поскольку ( -п. н.) для некоторого π IA (ω) = XNπ = X0π + N X γk ∆Sk , k=1 то из теоремы 3 § 1 вытекает, что последовательность n P k=1 γk ∆Sk 16n6N § 11. ФУНДАМЕНТАЛЬНЫЕ ТЕОРЕМЫ является мартингалом по каждой из мер i IA (ω) = x, 1 и 2 799 . Следовательно, i = 1, 2, (33) где i – – усреднение по мере i , а x = X0π , что есть константа, поскольку F0 = {∅, Ω}. Из (33) вытекает, что 1 (A) = 2 (A) для любого множества A ∈ FN . Тем самым единственность мартингальной меры установлена. Доказательство достаточности несколько более сложно и будет проведено в несколько этапов. Пусть рассматривается безарбитражный (B, S)-рынок ( ( ) 6= ∅), к тому же такой, что мартингальная мера является единственной (| ( )| = 1). Полезно отметить, что и предположение о единственности мартингальной меры, и предположение о полноте являются сильными ограничениями. Более того, оказывается, что эти предположения автоматически влекут за собой то, что траектории S = (Sn) 06n6N имеют структуру «условного двуточия», что будет объяснено ниже. (Примером может служить CRR-модель ∆Sn = ρn Sn−1 , где ρn принимают лишь два значения и, значит, условные вероятности (∆Sn ∈ · | Fn−1) сосредоточены всего лишь в двух точках, aSn−1 и bSn−1 .) Единственность мартингальной меры (| ( )| = 1) накладывает также и ограничения на структуру фильтрации (Fn) n6N . Оказывается, что автоматически σ-алгебры Fn должны быть σ-алгебрами, порожденными ценами S0 , S1 , . . . , Sn (предполагается сейчас, что Bk ≡ 1, k 6 n). См. по этому поводу диаграмму на с. 610 в [100] и § 4e в гл. V там же. В качестве одного из промежуточных результатов на пути установления импликации «| ( )| = 1 ⇒ полнота» докажем следующее полезное утверждение, дающее эквивалентную характеризацию полноты на безарбитражном рынке. Лемма 2. Для того чтобы безарбитражный (B, S)-рынок был полным, необходимо и достаточно, чтобы в множестве ( ) всех мартингальных мер нашлась мера h , обладающая тем свойством, что всякий ограниченный мартингал m = (mn , Fn , h ) 06n6N допускал S B бы « -представление»: mn = m0 + n X k=1 S γk∗ ∆ k Bk (34) с некоторыми предсказуемыми величинами γk∗ , 1 6 k 6 n. Доказательство. Пусть рассматриваемый (B, S)-рынок является безарбитражным и полным. (Без ограничения общности можно полагать Bn = 1, 0 6 n 6 N.) 800 ГЛ. VII. МАРТИНГАЛЫ Возьмем произвольную меру h из ( ), и пусть m = (mn , Fn , h ) 06n6N – – некоторый ограниченный (|mn | 6 c, 0 6 n 6 N) мартингал. Положим fN = mN . Тогда в соответствии с определением полноты (см. определение 3) найдется ∗ портфель π ∗ = (β ∗ , γ ∗) такой, что XNπ = fN , при этом для всех 0 6 n 6 N ∗ Xnπ = x + n X γk∗ ∆Sk (35) k=1 ∗ с x = X0π . ∗ ∗ ∗ Поскольку XNπ = fN 6 c, то последовательность X π = (Xnπ , Fn , h ) 06n6N будет мартингалом (см. теорему 3 в § 1). Тем самым у нас имеется ∗ два мартингала m и X π с одним и тем же терминальным значени∗ ем fN (XNπ = mN = fN ). Но по определению мартингального свойства ∗ ∗ mn = (mN | Fn) и Xnπ = (XNπ | Fn), 0 6 n 6 N. Значит, мартингалы ∗ Леви m и X π совпадают и, следовательно, в силу (35) для мартингала m = (mn , Fn , h ) 06n6N справедливо «S-представление»: mn = x + n X γk∗ ∆Sk , 1 6 n 6 N, (36) k=1 с x = m0 . Докажем обратное утверждение («S-представление» ⇒ полнота). По предположению существует мера h ∈ ( ) такая, что всякий ограниченный h -мартингал допускает «S-представление». Возьмем в качестве такого мартингала X = (Xn , Fn , h ) 06n6N мартингал с Xn = h (fN | Fn), где h – – усреднение по мере h и fN есть то «платежное поручение», о котором идет речь в определении 3 и для которого нужно найти самофинансируемый портфель π такой, что XNπ = fN ( h - и -п. н.). Рассмотрим для (ограниченного) мартингала X = (Xn , Fn , ) 06n6N его «S-представление» n X Xn = X0 + γk ∆Sk (37) k=1 с некоторыми Fk−1 -измеримыми величинами γk . Покажем, что отсюда можно вывести, что существует самофинансируемый портфель π̃ = (β̃, γ̃) такой, что Xnπ̃ = Xn для всех 0 6 n 6 N и, в частности, fN = XN = XNπ̃ допускает представление fN = X0π̃ + N X k=1 требуемое в определении 3. γ̃k ∆Sk , (38) § 11. ФУНДАМЕНТАЛЬНЫЕ ТЕОРЕМЫ 801 Имея представление (37), положим γ̃n = γn и определим β̃n = Xn − γn Sn . (39) Из (37) следует, что величины β̃n являются Fn−1 -измеримыми. При этом Sn−1 ∆γ̃n + ∆β̃n = Sn−1 ∆γn + ∆Xn − ∆(γn Sn) = = Sn−1 ∆γn + γn ∆Sn − ∆(γn Sn) = 0. Тем самым в соответствии с п. 3 построенный портфель π̃ = (β̃, γ̃) является самофинансируемым и XNπ̃ = fN , т. е. выполнено свойство полноты. С учетом этом леммы мы видим, что для полного доказательства теоремы надо проверить справедливость импликации {3} в следующей цепочке импликаций {3} {2} {1} | ( )| = 1 =⇒ S-представление ⇐⇒ полнота =⇒ | ( )| = 1 . (Импликация {1} была установлена в доказательстве «необходимости», импликация {2} – – в предыдущей лемме.) Чтобы сделать более прозрачным доказательство импликации {3}, рассмотрим частный случай (B, S)-рынка, описываемого CRR-моделью. Выше было отмечено (пример 1), что для этой модели мартингальная мера h является единственной (| ( )| = 1). Так что надо понять, почему здесь имеет место «S-представление» (относительно мартингальной меры h ). Оказывается, и это уже отмечалось выше, ключевым обстоятельством является то, что величины ρn в (4) принимают только два значения a и b и, как следствие этого, условные распределения (∆Sn ∈ · | Fn−1) сосредоточены всего лишь в двух точках («условное двуточие»). Итак, будем рассматривать CRR-модель, изложенную в примере 1, и дополнительно предположим, что Fn = σ (ρ1 , . . . , ρn) для 1 6 n 6 N и F0 = {∅, Ω}. Через h обозначим мартингальную меру на (Ω, FN ), определяемую формулой (27). Пусть X = (Xn , Fn , h ) 06n6N – – ограниченный мартингал. Тогда найдутся функции gn = gn (x1 , . . . , xn) такие, что Xn (ω) = gn (ρ1 (ω), . . . , ρn (ω)) и, значит, ∆Xn = gn (ρ1 , . . . , ρn) − gn−1 (ρ1 , . . . , ρn−1). Так как h (∆Xn | Fn−1) = 0, то p̃ gn (ρ1 , . . . , ρn−1 , b) + q̃ gn (ρ1 , . . . , ρn−1 , a) = gn−1 (ρ1 , . . . , ρn−1), 802 ГЛ. VII. МАРТИНГАЛЫ т. е. gn (ρ1 , . . . , ρn−1 , b) − gn−1 (ρ1 , . . . , ρn−1) = q̃ g (ρ , . . . , ρn−1) − gn (ρ1 , . . . , ρn−1 , a) = n−1 1 . p̃ Поскольку p̃ = (40) b−r r−a , q̃ = , то из (40) находим, что b−a b −a gn (ρ1 , . . . , ρn−1 , b) − gn−1 (ρ1 , . . . , ρn−1) = b −r gn (ρ1 , . . . , ρn−1 , a) − gn−1 (ρ1 , . . . , ρn−1) = . a−r (41) Положим µn ({a}; ω) = I(ρn (ω) = a), µn ({b}; ω) = I(ρn (ω) = b), и пусть Wn (ω, x) = gn (ρ1 (ω), . . . , ρn−1 (ω), x) − gn−1 (ρ1 (ω), . . . , ρn−1 (ω), x), Wn (ω, x) . x−r Wn∗ (ω, x) = С учетом этих обозначений видим, что ] ] ∆Xn (ω) = Wn (ω, ρn (ω)) = Wn (ω, x) µn (dx; ω) = (x − r)Wn∗ (ω, x) µn (dx; ω). В силу (41) функции Wn∗ (ω, x) не зависят от x. Поэтому, обозначая выражения в левой (равносильно, в правой) части (41) через γn∗ (ω), находим, что Таким образом, ∆Xn (ω) = γn∗ (ω) (ρn (ω) − r). Xn (ω) = X0 (ω) + n X γk∗ (ω) (ρk (ω) − r). k=1 Легко видеть, что (43) S ρn − r Sn = n−1 · . ∆ Bn Поэтому (42) Bn−1 ρn − r = (1 + r) Bn−1 Sn ∆ Sn−1 Bn и, следовательно, из (43) видим, что Xn (ω) = X0 (ω) + 1+r n X k=1 S (ω) , γk (ω)∆ k Bk (44) § 11. ФУНДАМЕНТАЛЬНЫЕ ТЕОРЕМЫ 803 где γk (ω) = γk∗ (ω) (1 + r) Bk−1 . Sk−1 S Sn Относительно меры h последовательность = B Bn 06n6N является мартингалом. Тем самым вышеприведенное соотношение (44) есть не что S иное, как « -представление» для X относительно (базисного) h -мартинS B гала . B В проведенном доказательстве импликации {3} для CRR-модели (в которой | ( )| = 1) ключевым моментом было то, что величины ρn принимают лишь два значения. Оказывается, однако, что предположение единственности мартингальной меры h является столь сильным, что и в общем случае из него следует «двуточечная» структура величин ρn = ществуют такие предсказуемые an = an (ω) и bn = bn (ω), что h (ρn = an | Fn−1) + h (ρn = bn | Fn−1) = 1. ∆Sn : суSn−1 (45) Если это свойство принять на веру, то тогда данное выше доказаS тельство « -представления» в CRR-модели будет «работать» и в общем B случае. Таким образом, все, что остается, – – это установить свойство (45). Предлагая самостоятельно убедиться в справедливости этого результата (задача 5), приведем тем не менее некоторые наводящие соображения, показывающие, как наличие единственной мартингальной меры приводит к «условному двуточию». Пусть = (dx) – – некоторое распределение вероятностей на (R, B (R)) и ξ = ξ (x) – – координатно заданная случайная величина (ξ (x) = x). Пусть |ξ| < ∞, ξ = 0 («мартингальное свойство») и мера обладает тем свойством, что если другая мера h такова, что h |ξ| < ∞ и h ξ = 0, то непременно h = («единственность мартингальной меры»). Утверждается, что тогда носитель меры сосредоточен не более чем в двух точках (a 6 0 и b > 0) с возможным их «слипанием» в «нулевую» точку (a = b = 0). Те наводящие соображения, о которых было упомянуто выше и которые делают последнее сформулированное утверждение весьма правдоподобным, состоят в следующем. Предположим, что мера сосредоточена в трех точках x− , x0 , x+ , упорядоченных так, что x− 6 x0 6 x+ , с массами q− , q0 , q+ соответственно. Условие ξ = 0 означает, что q− x− + q0 x0 + q+ x+ = 0. 804 ГЛ. VII. МАРТИНГАЛЫ Если x0 = 0, то тогда q− x− + q+ x+ = 0. Положим q̃− = q− , 2 q̃0 = 1 q + 0, 2 2 q̃+ = q+ , 2 (46) т. е. «перекачаем» части масс q− и q+ в точках x− и x+ в точку x0 . Из (46) видно, что соответствующая мера h ∼ и h ξ = 0, причем h 6= . Но это противоречит предположению единственности меры со свойством ξ = 0. Следовательно, мера не может быть сосредоточена в трех точках (x− , x0 , x+) с x0 = 0. Подобным же образом, основываясь на идее «перекачивания масс», рассматривается и случай x0 6= 0. (Подробнее см. § 4e гл. V в [100] .) 7. Задачи. 1. Показать, что в случае N = 1 условие отсутствия арбитража равносильно выполнению неравенств (18). (Предполагается, что {∆S1 = 0} < 1.) 2. Показать, что в доказательстве леммы 1 (п. 4) возможность 2) исключается условиями (19). 3. Доказать, что мера h в примере 1 (п. 5) является мартингальной мерой и при этом единственной в классе ( ). 4. Исследовать вопрос о единственности мартингальной меры, построенной в примере 2 (п. 5). 5. Докажите, что в (B, S)-модели предположение | ( )| = 1 влечет «условное двуточие» для распределения величин Sn , 1 6 n 6 N. Bn § 12. О расчетах, связанных с хеджированием в безарбитражных моделях 1. Хеджирование (hedge – – забор) является одним из основных методов динамического управления портфелем ценных бумаг. Ниже излагаются некоторые основные положения и результаты этого метода на примере расчетов так называемых опционных контрактов (попросту – – опционов). Будучи производными ценными бумагами, опционы (как инструменты финансовой инженерии) имеют достаточно высокий риск. Но в то же самое время они (в комбинации с другими ценными бумагами, например, с фьючерсами) с успехом используются не только с целью получения дохода за счет «рыночного» изменения цен, но и как средство защиты (хеджирования) при драматическом их изменении. Опцион (option – – выбор) – – это ценная бумага (контракт), выпускаемая финансовыми институтами и дающая ее покупателю право купить или § 12. О РАСЧЕТАХ, СВЯЗАННЫХ С ХЕДЖИРОВАНИЕМ 805 продать определенную ценность (скажем, акцию, облигацию, валюту) в оговоренный период времени или момент времени на заранее оговариваемых условиях. Отметим, что если опцион дает право на покупку или продажу, то такой, например, финансовый инструмент, как фьючерс (или фьючерсный контракт) – – это соглашение, в соответствии с которым покупатель обязан купить или продать определенную ценность в определенный момент времени в будущем по (фьючерсной) цене, фиксируемой в момент заключения соглашения. Один из основных вопросов, относящихся к расчетам опционов, заключается в следующем: по какой цене опционы должны продаваться? Понятно, что их продавец желает получить «побольше», покупатель же хочет заплатить «поменьше». Что есть «справедливая», «рациональная» цена, на которую должны соглашаться обе стороны – – и продавец, и покупатель? Естественно, что эта «справедливая» цена должна быть «разумной». А именно, покупатели должны понимать, что покупка опциона по более низкой цене может не дать гарантии того, что продавец выполнит свои обязательства, оговоренные в соглашении, поскольку полученных им «премиальных» может просто оказаться недостаточно для составления портфеля, гарантирующего выполнение «платежного поручения». В то же самое время величина этих «премиальных» не должна давать продавцу арбитражных возможностей типа «free lunch», т. е. возможностей получения безрискового дохода. Прежде чем дать определение того, что же следует понимать под «справедливой» ценой опционов, остановимся на некоторой общепринятой их классификации. 2. Будем рассматривать (B, S)-рынок, B = (Bn) 06n6N , S = (Sn) 06n6N , функционирующий в моменты времени n = 0, 1, . . . , N и определенный на фильтрованном вероятностном пространстве (Ω, F , (Fn) 06n6N , ) с F0 = {∅, Ω} и FN = F . Рассматриваемые далее опционы будут строиться на акциях, стоимость которых описывается последовательностью S = (Sn) 06n6N . По времени исполнения опционы делятся на два типа: Европейские и Американские. Если опцион может быть предъявлен к исполнению только в фиксированный в контракте момент времени N, то говорят, что N – – момент исполнения, и такой опцион называется опционом Европейского типа. Если же опцион может быть предъявлен к исполнению в любой марковский момент (или момент остановки; см. определение 3 в § 1) τ = τ (ω), принимающий значения в оговоренном условиями контракта множестве 806 ГЛ. VII. МАРТИНГАЛЫ {0, 1, . . . , N}, то говорят, что рассматриваемый опцион является опционом Американского типа. Согласно общепринятой терминологии, различают следующие два класса опционов: (1) опционы покупателя (call option, отсюда происходит название опцион-колл); и (2) опционы продавца (put option, опцион-пут). Отличаются эти два класса тем, что опционы-колл дают право покупки, а опционы-пут – – право продажи. Для определенности остановимся на примерах стандартных опционов Европейского типа. Такие опционы характеризуются двумя константами: N – – время исполнения и K – – цена покупки (для опциона покупателя) или цена продажи (для опциона продавца). Если вдруг окажется, что в момент времени N «рыночная» цена SN > K , то по условиям контракта опциона-колл покупатель опциона будет иметь право купить акцию по цене K . Тут же ее продавая по «рыночной» цене SN , он получит таким образом доход SN − K . Если же окажется, что SN < K , то оговоренным контрактом правом покупки по цене K бессмысленно пользоваться, поскольку покупатель может купить акцию и по более низкой «рыночной» цене SN . Таким образом, объединяя оба эти случая, находим, что доход покупателя в момент времени N будет определяться величиной fN = (SN − K) + , (1) fN = (K − SN ) + . (2) C(fN ; ) = inf{x : ∃π с X0π = x и XNπ = fN ( -п. н.)}. (3) где a+ = max(a, 0). «Чистый» же его доход будет равен этой величине за вычетом тех «премиальных», которые он выплатил продавцу опциона. Аналогичным образом, доход покупателя опциона-пут будет определяться формулой 3. При определении «справедливой» стоимости на безарбитражном (B, S)-рынке следует различать два случая – – полного и неполного рынка. Определение 1. Пусть (B, S)-рынок является безарбитражным и полным. «Справедливой» ценой опциона Европейского типа с платежной FN -измеримой ограниченной (неотрицательной) функцией fN называется цена совершенного хеджирования, т. е. величина В связи с этим определением отметим, что портфель π называется хеджем платежного поручения fN , если с -вероятностью единица XNπ > fN . § 12. О РАСЧЕТАХ, СВЯЗАННЫХ С ХЕДЖИРОВАНИЕМ 807 Из § 11 следует, что в случае полных безарбитражных рынков существует совершенное хеджирование π ограниченных «платежных обязательств», т. е. такое, что XNπ = fN ( -п. н.). Именно этим и объясняется, почему в определении (3) рассматривается (непустой) класс портфелей со свойством XNπ = fN ( -п. н.). В случае же неполных безарбитражных рынков естественно следующее Определение 2. Пусть (B, S)-рынок является безарбитражным. «Справедливой» ценой опциона Европейского типа с платежной FN -измеримой ограниченной (неотрицательной) функцией fN называется цена суперхеджирования, т. е. цена C(fN ; ) = inf{x : ∃π с X0π = x и XNπ > fN ( -п. н.)}. (4) Заметим, что данное определение корректно – – для всякой ограниченной функции fN заведомо найдется портфель π с некоторым начальным капиталом x такой, что XNπ > fN ( -п. н.). 4. Приведем теперь формулу для цены C(fN ; ), дав ее доказательство в случае полных рынков и отсылая к специальной литературе (см., например, § 1c гл. VI в [100]) в случае неполных рынков. Теорема 1. 1) В случае полных безарбитражных (B, S)-рынков «справедливая» цена опциона Европейского типа с платежной функцией fN определяется формулой C(fN ; ) = B0 h fN , BN (5) где h – – математическое ожидание по (единственной) мартингальной мере h . 2) В случае общих неполных безарбитражных (B, S)-рынков «справедливая» цена опциона Европейского типа с платежной функцией fN определяется формулой C(fN ; ) = sup B0 h∈ ( ) h fN , BN (6) где sup берется по множеству всех мартингальных мер ( ). Доказательство. 1) Пусть π – – некоторый совершенный хедж с X0π = x и XNπ = fN ( -п. н.). Тогда (см. (15) в § 11) N X Xπ fN x S = N = + γk ∆ k BN BN B0 Bk k=1 (7) 808 ГЛ. VII. МАРТИНГАЛЫ и, значит, в силу теоремы 3 из § 1 h fN x = , BN B0 поскольку мартингальное преобразование ково, что в «терминальный» момент N N X S x + γk ∆ k B0 Bk k=1 (8) n P x S + γ ∆ k B0 k=1 k Bk = fN > 0. BN та- 16n6N (9) Заметим, что левая часть в (8) не зависит от структуры рассматриваемого хеджа π с начальным значением X0π = x. Если же теперь π ′ – – ′ другой хедж с начальным значением X0π , то, согласно (8), это значение снова равно B0 h fN . Отсюда ясно, что начальное значение x для всех BN совершенных хеджей одно и то же, что и доказывает формулу (5). 2) Здесь мы докажем лишь неравенство sup B0 h∈ ( ) h fN 6 C(fN ; BN ). (10) (Доказательство обратного неравенства требует так называемого «опционального» разложения, выходящего за рамки настоящей книги; см. §§ 1c и 2d гл. VI в [100] .) Предположим, что хедж π таков, что X0π = x и XNπ > fN ( -п. н.). Тогда из (7) находим, что N X x S γk ∆ k + B0 Bk k=1 и, значит, для любой меры h ∈ B0 > fN >0 BN ( ) h fN 6x BN (ср. с (8) и (9)). Отсюда, беря супремум в левой части по всем мерам h ∈ ( ), приходим к требуемому неравенству (10). 5. Остановимся на некоторых определениях и результатах, относящихся к опционам Американского типа. Для таких опционов приходится предполагать, что задана не одна платежная функция fN , относящаяся к моменту времени N, а целый набор функций f0 , f1 , . . . , fN , смысл которых состоит в том, что если опцион предъявляется покупателем в момент § 12. О РАСЧЕТАХ, СВЯЗАННЫХ С ХЕДЖИРОВАНИЕМ 809 времени n, то соответствующая выплата (продавцом опциона покупателю) определяется (Fn -измеримой) функцией fn = fn (ω). Если покупатель опциона решил предъявить опцион к исполнению в момент времени τ = τ (ω), являющийся марковским моментом со значениями из множества {0, 1, . . . , N}, то тогда значение платежной функции будет равно fτ (ω) (ω), и, следовательно, продавец опциона при составлении своего портфеля ценных бумаг π должен всегда предусматривать, чтобы для всякого τ было выполнено условие хеджирования в следующем виде: Xτπ > fτ ( -п. н.). Это поясняет целесообразность следующего определения. Определение 3. Пусть (B, S)-рынок является безарбитражным. «Справедливой» ценой опциона Американского типа с системой f = = (fn) 06n6N Fn -измеримых неотрицательных платежных функций fn называется верхняя цена суперхеджирования, т. е. цена C(f ; ) = inf{x : ∃π с X0π = x и Xnπ > fn ( -п. н.), 0 6 n 6 N}. (11) Приведем (без доказательства) аналог теоремы 1 для случая опционов Американского типа. Теорема 2. 1) В случае полных безарбитражных (B, S)-рынков «справедливая» цена опциона Американского типа с системой платежных функций f = (fn) 06n6N определяется формулой C(f ; ) = sup B0 τ ∈MN 0 h fτ , Bτ (12) где MN – класс моментов остановки (относительно 0 = {τ : τ 6 N} – единственная мартингальная мера. (Fn) 06n6N ) и h – – 2) В случае общих (неполных) безарбитражных (B, S)-рынков «справедливая» цена опциона Американского типа с системой платежных функций f = (fn) 06n6N определяется формулой C(f ; ) = sup τ ∈MN , h∈ ( ) 0 B0 h fτ , Bτ (13) где ( ) – – совокупность всех мартингальных мер h . Доказательство см. в § 2c гл. VI в [100] . 6. Приведенные выше теоремы отвечают на вопрос о том, как для опционов определяется их «справедливая» цена. Не менее важен и вопрос о том, а как продавцу опциона строить хеджирующий портфель π ∗ , получив «премию» C(fN ; ) или C(f ; ). Ограничимся для простоты изложения рассмотрением лишь случая полного (B, S)-рынка опционов Европейского типа. 810 ГЛ. VII. МАРТИНГАЛЫ Теорема 3. Пусть (B, S)-рынок является безарбитражным и полным. Существует самофинансируемый портфель π ∗ = (β ∗ , γ ∗) с на∗ чальным капиталом X0π = C(fN ; ), осуществляющий совершенное хеджирование платежного обязательства fN : ∗ XNπ = fN ( -п. н.). ∗ Динамика капитала Xnπ = βn∗ Bn + γn∗ Sn , 0 6 n 6 N, определяется формулами ∗ f (14) Xnπ = Bn h N | Fn . BN Компонента γ ∗ = (γn∗) 06n6N хеджа π ∗ = (β ∗ , γ ∗) находится по значе∗ ∗ ниям X π = (Xnπ ) 06n6N из формулы π∗ X Sn ∆ n = γn∗ ∆ , (15) Bn ∗ а компонента β = (βn∗) 06n6N Bn – – из формулы ∗ Xnπ = βn∗ Bn + γn∗ Sn . (16) Доказательство теоремы непосредственно следует из доказательства S импликации «полнота» ⇒ « -представление» в лемме 2 из § 11, примеB f ненной к мартингалу m = (mn) 06n6N с mn = h N | Fn . BN 7. В качестве примера реальных расчетов опционов рассмотрим (B, S)-рынок, описываемый CRR-моделью: Bn = Bn−1 (1 + r), Sn = Sn−1 (1 + ρn), (17) где ρ1 , . . . , ρN – – независимые одинаково распределенные случайные величины, принимающие два значения a и b, −1 < a < r < b. Этот рынок является безарбитражным и полным (см. задачу 3 в § 11) с мартингальной мерой h такой, что h {ρn = b} = p̃, h {ρn = a} = q̃, где p̃ = r−a , b−a b −r . b −a (18) fN . (1 + r) N (19) q̃ = (См. пример 1 в п. 5 § 11.) Согласно формуле (5) из теоремы 1, для рассматриваемого (B, S)-рынка «справедливая» цена C(fN ; ) = h § 12. О РАСЧЕТАХ, СВЯЗАННЫХ С ХЕДЖИРОВАНИЕМ 811 И, согласно теореме 3, для отыскания совершенного хеджирующего портфеля π ∗ = (β ∗ , γ ∗) надо прежде всего вычислить f ∗ N (20) | F Xnπ = h n N (1 + r) (с Fn = σ (ρ1 , . . . , ρn), 1 6 n 6 N, и F0 = {∅, Ω}) и затем найти γn∗ и βn∗ из формул (15) и (16). ∗ Поскольку X0π = C(fN ; ), то все сводится к отысканию условных математических ожиданий, стоящих в правой части (20), для n = 0, 1, . . . , N. Будем предполагать, что FN -измеримая функция fN имеет «марковскую» структуру, т. е. fN = f(SN ), где f = f(x) – – некоторая неотрицательная функция от x > 0. Обозначим Fn (x; p) = n X k=0 f x(1 + b) k (1 + a) n−k Cnk p k (1 − p) n−k . (21) С учетом того, что Y (1 + ρk) = (1 + b) ∆N −∆n (1 + a) (N −n)−(∆N −∆n) , n<k6N где ∆n = δ1 + . . . + δn , δk = h с p̃ = f x ρk − a , находим: b−a Y (1 + ρk) n<k6N r−a . b −a Учитывая также, что SN = Sn Q ! = FN −n (x; p̃) (22) (1 + ρk), из (21) и (20) получаем, n<k6N что ∗ Xnπ = В частности, h fN | Fn = (1 + r) −N FN −n (Sn ; p̃). (1 + r) N ∗ C(fN ; ) = X0π = (1 + r) −N FN (S0 ; p̃). (23) (24) π∗ X Sn Наконец, из (15), учитывая (23), находим, что γn∗ = ∆ n /∆ определяется следующей формулой: γn∗ = (1 + r) −(N −n) Bn FN −n (Sn−1 (1 + b); p̃) − FN −n (Sn−1 (1 + a); p̃) . Sn−1 (b − a) Bn (25) 812 ГЛ. VII. МАРТИНГАЛЫ Для отыскания βn∗ заметим, что в силу условия самофинансируемости Bn−1 ∆βn∗ + Sn−1 ∆γn∗ = 0. Поэтому ∗ π Xn−1 = βn∗ Bn−1 + γn∗ Sn−1 (26) и, значит, ∗ βn∗ = π Xn−1 − γn∗ Sn−1 . Bn−1 (27) Отсюда и из представлений (23) и (25) видим, что n 1 1+r βn∗ = FN −n+1 (Sn−1 ; p̃) − [FN −n (Sn−1 (1 + b); p̃)− 1+b BN o − FN −n (Sn−1 (1 + a); p̃)] . (28) Наконец, посмотрим, какой вид принимает, например, формула для «справедливой» цены C(fN ; ) в случае стандартного опциона покупателя (опциона-колл), т. е. когда функция fN = (SN − K) + . s0 есть то наименьшее целое, для которого Пусть K0 = K0 a, b, N; K S0 (1 + a) N т. е. пусть h K0 = 1 + ln K0 (29) > K, 1+b K / ln 1 + a , S0 (1 + a) N i где [x] – – целая часть числа x. Если положить p∗ = где p̃ = 1+b 1+a r −a ,и b−a B(K0 , N; p) = (30) 1+b p̃, 1+r N X k=K0 CNk p k (1 − p) N −k , (31) то из (24) нетрудно вывести следующую формулу (Кокса– –Росса– –Рубинштейна) «справедливой» цены (обозначаемой сейчас CN ) для стандартного опциона-колл: CN = S0 B(K0 , N; p ∗) − K(1 + r) −N B(K0 , N; p̃). Если K0 > N, то CN = 0. Замечание. Поскольку (K − SN ) + = (SN − K) + − SN + K, (32) § 13. ЗАДАЧИ ОБ ОПТИМАЛЬНОЙ ОСТАНОВКЕ 813 то «справедливая» цена стандартного опциона продавца (опционапут), обозначаемая PN (= C(fN ; ) с fN = (K − SN ) +), определяется формулой PN = h (1 + r) −N (K − SN ) + = CN − h (1 + r) −N SN + K(1 + r) −N . Поскольку h (1 + r) −N SN = S0 , то, очевидно, имеет место тождество «паритета колл-пут»: PN = CN − S0 + K(1 + r) −N . (33) 8. Задачи. 1. Найти цену C(fN ; ) для стандартного опциона-колл с fN = (SN − K) + для модели (B, S)-рынка, рассмотренного в примере 2 п. 5 § 11. 2. Попытайтесь доказать справедливость обратного неравенства в формуле (10). 3. Докажите формулу (12) и попытайтесь доказать формулу (13). 4. Дать подробный вывод формулы (23). 5. Доказать формулы (25) и (28). 6. Привести подробный вывод формулы (32). § 13. Задачи об оптимальной остановке. Мартингальный подход 1. С примером задачи, относящейся к теории «оптимальных правил остановки», мы уже сталкивались при описании «справедливой» цены опционов Американского типа. Именно, формула (12) в § 12 показывает, что для отыскания этой цены требуется (в упрощающих предположениях Bn = 1, 0 6 n 6 N, и h = ) найти величину (также называемую «ценой») V0N = sup fτ , (1) τ ∈MN 0 где f = (f0 , f1 , . . . , fN ) есть последовательность Fn -измеримых неотрицательных функций fn и τ = τ (ω) – – марковские моменты (или моменты остановки) из класса MN , состоящего из случайных величин τ = τ (ω), при0 нимающих значения в множестве {0, 1, . . . , N} и таких, что для каждого n из этого множества {ω : τ (ω) = n} ∈ Fn . (2) (В этом параграфе мы предполагаем заданным некоторое фильтрованное вероятностное пространство (Ω, F , (Fn) n>0 , ) с F0 = {∅, Ω}.) 814 ГЛ. VII. МАРТИНГАЛЫ Наряду с задачей (1), где τ = τ (ω) берутся из множества MN 0 , интерес представляет и задача отыскания величины («цены») V0∞ = sup fτ , (3) τ ∈M∞ 0 где M∞ – стохастическая последователь0 = {τ : τ < ∞} и f = (f0 , f1 , . . .) – ность Fn -измеримых случайных величин fn , n > 0, с |fτ | < ∞. Как в случае (1), так и в случае (3) требуется, помимо отыскания «цен» V0N и V0∞ , найти также оптимальные моменты (если они существуют), на которых достигается супремум. Во многих задачах целесообразно допускать к рассмотрению также марковские моменты, принимающие значение +∞. В этом случае при рассмотрении fτ следует условиться о том, что понимается под f∞ . Один из естественных способов состоит в том, чтобы под f∞ понимать значение lim fn . Иной способ состоит в том, чтобы, допуская для τ и бесконечные n значения, определять «цену» в виде V0∞ = sup τ ∈M∞ 0 fτ I(τ < ∞), (4) где M∞ – класс всех марковских моментов, M∞ 0 – 0 = {τ : τ 6 ∞}. Очевидно, ∞ что V0 = sup fτ , если считать f∞ = 0 (ср. с п. 3 в § 1). τ ∈M∞ 0 В дальнейшем будем рассматривать лишь задачу (1). (По поводу случая N = ∞ см. § 9 в гл. VIII.) Если не конкретизировать вероятностную структуру последовательности f = (f0 , f1 , . . . , fN ), то наиболее эффективным методом решения задач (1) и (3) является описываемый ниже «мартингальный» метод. (Не оговаривая этого каждый раз специально, будем всегда предполагать, что |fn | < ∞ при всех n 6 N.) 2. Итак, пусть N < ∞. Этот случай может быть рассмотрен методом «индукции назад», реализуемым здесь следующим образом. Наряду с V0N введем «цены» VnN = sup fτ , (5) τ ∈MN n где MN – класс моментов остановки таких, что n 6 τ (ω) 6 N n = {τ : n 6 τ 6 N} – для всех ω ∈ Ω. Введем также индуктивно стохастическую последовательность v N = = (vnN ) 06n6N по следующему правилу: vNN = fN , для n = N − 1, . . . , 0. vnN = max(fn , N (vn+1 | Fn)) (6) § 13. ЗАДАЧИ ОБ ОПТИМАЛЬНОЙ ОСТАНОВКЕ 815 Положим для 0 6 n 6 N τnN = min{n 6 k 6 N : fk = vkN }. (7) С помощью введенных объектов решение задач об оптимальной остановке (1) и (5) полностью описывается в следующем предложении. Теорема 1. Пусть последовательность f = (f0 , f1 , . . . , fN ) такова, что fn – – Fn -измеримы. 1) Для каждого n такого, что 0 6 n 6 N, момент τnN = min{n 6 k 6 N : vkN = fk } является оптимальным в классе MN n: fτnN = sup fτ τ ∈MN n (= VnN ). (8) (9) 2) Моменты τnN , 0 6 n 6 N, являются оптимальными также в следующем «условном» смысле: ( -п. н.) (fτnN | Fn) = ess sup τ ∈MN n «Стохастические цены» ess sup τ ∈MN n ess sup τ ∈MN n и (fτ | Fn). (10) (fτ | Fn) совпадают с vnN : (fτ | Fn) = vnN ( -п. н.) (11) VnN = vnN . (12) V0N = v0N . (13) VNN = fN . (14) Если n = 0, то Если же n = N, то 3. Прежде чем переходить к доказательству, напомним определение понятия существенного супремума ess sup ξα (ω) семейства F -измериα∈A мых случайных величин {ξα (ω), α ∈ A}, использованного в формуле (10). Необходимость введения этого понятия вызвана тем обстоятельством, что рассмотрение просто sup ξα (ω) в случае несчетного множества A α∈A приводит к функциям (от ω ∈ Ω), которые, вообще говоря, могут оказаться не F -измеримыми. Действительно, для всякого c ∈ R n o \ ω : sup ξα (ω) 6 c = {ω : ξα (ω) 6 c}. α∈A α∈A 816 ГЛ. VII. МАРТИНГАЛЫ Здесь множества Aα = {ω : ξα (ω) 6 c} принадлежат F (т. е. являются событиями). Однако в силу несчетности множества A нет гарантии, T Aα ∈ F . что α∈A Определение. Пусть {ξα (ω), α ∈ A} – – семейство случайных величин (т. е. F -измеримых функций, принимающих значения в (−∞, +∞)). Говорят, что расширенная случайная величина ξ (ω) (F -измеримая функция со значениями в (−∞, +∞]) есть существенный супремум семейства случайных величин {ξα (ω), α ∈ A} (обозначение: ξ (ω) = ess sup ξα (ω)), если α∈A a) ξ (ω) > ξα (ω) ( -п. н.) для всех α ∈ A, b) из того, что (расширенная) случайная величина η (ω) такова, что η (ω) > ξα (ω) ( -п. н.) для всех α ∈ A, следует, что ξ (ω) 6 η (ω) ( -п. н.). Иначе говоря, ξ (ω) есть наименьшая (расширенная) случайная величина среди всех (расширенных) случайных величин, мажорирующих величины ξα (ω) при всех α ∈ A. Конечно, надо прежде всего доказать содержательность данного определения. Вытекает это из следующего предложения. Лемма. Для всякого семейства {ξα (ω), α ∈ A} случайных величин существует (вообще говоря, расширенная) случайная величина ξ (ω) (обозначаемая ess sup ξα (ω)) со свойствами a) и b) из определения. α∈A Найдется счетное подмножество A0 ⊆ A с тем свойством, что в качестве такой величины может быть взята величина ξ (ω) = sup ξα (ω). α∈A0 Доказательство. Предположим сначала, что все величины ξα (ω), α ∈ A, равномерно ограничены (|ξα (ω)| 6 c, ω ∈ Ω, α ∈ A). Пусть A– – конечное множество индексов α ∈ A. Положим S(A) = = max ξα (ω) . Пусть, далее, S = sup S(A), где супремум берется по α∈A всем конечным подмножествам A ⊆ A. Обозначим для n > 1 через An конечное множество такое, что 1 max ξα (ω) > S − . n α∈An T Пусть A0 = An . В силу счетности этого множества функция n>1 ξ (ω) = sup ξα (ω) α∈A0 является F -измеримой, т. е. является случайной величиной. (Заметим, что |ξ (ω)| 6 c, так что ξ (ω) есть обычная, а не расширенная случайная величина.) § 13. ЗАДАЧИ ОБ ОПТИМАЛЬНОЙ ОСТАНОВКЕ 817 Из приведенной конструкции случайной величины ξ (ω) следует (задача 1), что эта величина удовлетворяет требованиям a) и b) из данного выше определения. Тем самым, в случае равномерно ограниченного семейства {ξα (ω), α ∈ A} существование существенного супремума установлено. В общем же случае надо от величин ξα (ω) сначала перейти к ограниченным величинам ξ̃α (ω) = arctg ξα (ω), для которых |ξ̃α (ω)| 6 π /2, α ∈ A, ω ∈ Ω, затем построить ξ˜ (ω) = ess sup ξ̃α (ω). α∈A Величина ξ (ω) = tg ξ̃ (ω) будет удовлетворять требованиям a) и b) определения существенного супремума (задача 2). 4. Доказательство теоремы 1. Зафиксируем индекс N и для простоты записи будем его сейчас опускать. Если n = N, то vN = fN и τN = N, и свойства (9) – – (12), (14) очевидны. Теперь будем рассуждать по индукции. Пусть утверждения теоремы установлены для n = N, N − 1, . . . , k. Покажем, что они тогда верны и для n = k − 1. Пусть τ ∈ Mk−1 (= MN k−1) и A ∈ Fk−1 . Определим момент τ ∈ Mk , полагая τ = max(τ , k). Поскольку τ ∈ Mk и событие {τ > k} ∈ Fk−1 , находим, что [IA fτ ] = [IA∩{τ =k−1} fτ ] + [IA∩{τ >k} fτ ] = = [IA∩{τ =k−1} fτ ] + [IA∩{τ >k} (fτ | Fk−1)] = = [IA∩{τ =k−1} fτ ] + [IA∩{τ >k} ( (fτ | Fk) | Fk−1)] 6 6 [IA∩{τ =k−1} fk−1 ] + [IA∩{τ >k} (vk | Fk−1)] 6 [IA vk−1 ] . (15) В силу Fk−1 -измеримости множества A отсюда вытекает, что для любого τ ∈ Mk−1 ( -п. н.) (fτ | Fk−1) 6 vk−1 . Покажем теперь, что для момента τk−1 с (16) -вероятностью единица (fτk−1 | Fk−1) = vk−1 . (17) (Если это равенство будет установлено, то в силу (16) получим, что соотношения (10) и (11) справедливы и для n = k − 1.) С этой целью достаточно показать, что в (15) для момента τ = τk−1 на самом деле всюду имеют место равенства. Начиная так же, как в (15), и учитывая затем, что на множестве {τk−1 > k} по определению (5) имеем τ = τk и что (по предположению 818 индукции) ГЛ. VII. МАРТИНГАЛЫ (fτk | Fk) = vk ( -п. н.), находим: [IA fτk−1 ] = [IA∩{τk−1 =k−1} fk−1 ] + [IA∩{τk−1 >k} (fτk−1 | Fk−1)] = = [IA∩{τk−1 =k−1} fk−1 ] + [IA∩{τk−1 >k} (fτk | Fk−1)] = = [IA∩{τk−1 =k−1} fk−1 ] + [IA∩{τk−1 >k} (vk | Fk−1)] = [IA vk−1 ] , где при написании последнего равенства было учтено, что по определению vk−1 = max(fk−1 , (vk | Fk−1)) и отсюда vk−1 = fk−1 на множестве {τk−1 = = k − 1} и vk−1 > fk−1 на множестве {τk−1 > k − 1} = {τk−1 > k} (значит, на этом множестве vk−1 = (vk | Fk−1)). Итак, свойство (17) установлено. Как уже было отмечено выше, вместе с (16) это свойство приводит к справедливости требуемых соотношений (10) и (11). Из этих соотношений следует, что ( -п. н.) для всякого τ находим, что vn = (fτn | Fn) > (fτ | Fn) ∈ Mn (= MN n ). Следовательно, с учетом соглашения vnN = fτn > sup τ ∈MN n fτ = VnN , (18) vnN = vn (19) что доказывает (9) и (12). Свойство (13) есть частный случай (12) (при n = 0) и того свойства, что v0N является константой в силу (11) и тривиальности σ-алгебры F0 (= {∅, Ω}). Наконец, равенство (14) есть следствие определения (5) (при n = N). 5. С тем чтобы прояснить «мартингальный» аспект рассматриваемой задачи об оптимальной остановке, обратимся к рекуррентным соотношениям (6) для последовательности v N = (v0N , v1N , . . . , vNN ) с «краевым» условием vNN = fN . Из (6) видим, что ( -п. н.) при каждом n = 0, 1, . . . , N − 1 vnN > fn , (20) N vnN > (vn+1 | Fn). (21) Первое неравенство здесь говорит о том, что последовательность v N мажорирует последовательность f = (f0 , f1 , . . . , fN ). Второе неравенство означает, что последовательность v N является супермартингалом с «терминальным» значением vNN = fN . Тем самым можно сказать, что последовательность v N = (v0N , v1N , . . . , vNN ) с величинами vnN , определенными из (6) или по формуле (11), является супермартингальной мажорантой последовательности f = (f0 , f1 , . . . , fN ). § 13. ЗАДАЧИ ОБ ОПТИМАЛЬНОЙ ОСТАНОВКЕ 819 По-другому, это означает, что последовательность v N принадлежит классу последовательностей γ N = (γ0N , γ1N , . . . , γNN ) с γNN > fN , удовлетворяющих ( -п. н.) «вариационным неравенствам» γnN > max(fn , N (γn+1 | Fn)) (22) при всех n = 0, 1, . . . , N − 1. Но последовательность v N обладает тем дополнительным свойством, что для нее в (22) имеет место не только нестрогое неравенство «>», но и просто равенство «=» (см. (6)). Это свойство позволяет следующим образом выделить последовательность v N в классе последовательностей γ N (с γNN > fN ). Теорема 2. Последовательность v N является наименьшей супермартингальной мажорантой последовательности f = (f0 , f1 , . . . , fN ). Доказательство. Действительно, поскольку vNN = fN , а γNN > fN , то N γN > vNN . Отсюда и из (22) и (6) видим, что ( -п. н.) γNN−1 > max(fN −1 , (γNN | FN −1)) > max(fN −1 , (vNN | FN −1)) = vNN−1 . Аналогичным образом находим, что γnN > vnN ( -п. н.) для всех остальных n < N − 1. Замечание. Результат доказанной теоремы может быть переформулирован также в следующем виде: решение v N = (v0N , v1N , . . . , vNN ) рекуррентной системы vnN = max(fn , N (vn+1 | Fn)), n < N, с vNN = fN является наименьшим из всевозможных решений γ N = = (γ0N , γ1N , . . . , γNN ) рекуррентных систем неравенств γnN > max(fn , с N (γn+1 | Fn)), n < N, (23) > fN . 6. Теоремы 1 и 2 не только описывают метод отыскания цены V0N = = sup fτ , где sup берется по классу марковских моментов MN 0 , но также и показывают, как найти оптимальный момент τ0N , т. е. момент, для которого fτ N = V0N . 0 Согласно (8), γNN τ0N = min{0 6 k 6 N : vkN = fk }. (24) При решении конкретных задач об оптимальной остановке полезно следующее равносильное описание этого момента остановки τ0N . Пусть DnN = {ω : vnN (ω) = fn (ω)} (25) 820 ГЛ. VII. МАРТИНГАЛЫ и N CnN = Ω \ DnN = {ω : vnN (ω) = (vn+1 |Fn) (ω)}. Ясно, что DNN = Ω, CNN = ∅ и D0N ⊆ D1N ⊆ . . . ⊆ DNN = Ω, C0N ⊇ C1N ⊇ . . . ⊇ CNN = ∅. Из (24) и (25) следует, что момент τ0N может быть определен также в следующем виде: τ0N = min{0 6 k 6 N : ω ∈ DkN }. (26) Области естественно называть «множествами остановки», а области CkN – – «множествами продолжения наблюдений». Оправдывается эта терминология следующей аргументацией. Рассмотрим момент n = 0 и разобьем множество Ω на два множества D0N и C0N (Ω = D0N ∪ C0N , D0N ∩ C0N = ∅). Если оказывается, что ω ∈ D0N , то τ0N (ω) = 0. Иначе говоря, «остановка» происходит в момент n = 0. Если же ω ∈ C0N , то это означает, что для такого ω момент τ0N (ω) > 1. В том случае, когда оказывается, что рассматриваемое ω ∈ D1N ∩ C0N , момент τ0N (ω) = 1. Аналогичным образом рассматриваются и последующие этапы. В момент времени N наблюдения заведомо завершаются. 7. Рассмотрим некоторые примеры. Пример 1. Пусть последовательность f = (f0 , f1 , . . . , fN ) является мартингалом c f0 = 1. Тогда, согласно следствию 1 к теореме 1 § 2, fτ = 1 для всякого марковского момента τ ∈ MN 0 . Тем самым в рассматfτ = 1. риваемом случае V0N = sup DkN τ ∈MN 0 При всех 1 6 n 6 N функции vnN = fn и v0N = 1. Понятно, что тогда τ0N = = min{0 6 k 6 N : fk = vkN } = 0 и τnN = n для всякого 1 6 n 6 N. Таким образом, задача об оптимальной остановке для мартингальных последовательностей решается, в сущности, тривиальным образом: оптимальным моментом остановки является момент τ0N (ω) = 0, ω ∈ Ω (так же как, впрочем, и любой другой момент τnN (ω) = n, ω ∈ Ω, 1 6 n 6 N). Пример 2. Если последовательность f = (f0 , f1 , . . . , fN ) – – субмартингал, то fτ 6 fN для любого τ ∈ MN 0 (теорема 1 в § 2). Тем самым оптимальным моментом здесь является момент τ ∗ ≡ N. Поскольку vkN = (fN | Fk) > fk ( -п. н.), то вполне возможно, что момент τ0N (ω) для некоторых ω может быть и меньше N. Но в любом случае и момент τ0N , и момент τ ∗ ≡ N являются оба оптимальными. Хотя момент τ ∗ ≡ N имеет простую структуру, тем не менее момент τ0N обладает определенными преимуществами – – он является наименьшим из всех возможных опти- § 13. ЗАДАЧИ ОБ ОПТИМАЛЬНОЙ ОСТАНОВКЕ 821 мальных моментов, т. е. если τ̃ есть также оптимальный момент в классе MN {τ0N 6 τ̃ } = 1. 0 , то Пример 3. Пусть последовательность f = (f0 , f1 , . . . , fN ) является супермартингалом. Тогда vnN = fn для всех 0 6 n 6 N. Следовательно, оптимальным является (как и в мартингальном случае) момент τ0N = 0. Приведенные примеры достаточно просты, и вопрос об оптимальности рассмотренных моментов остановки решается, в сущности, без обращения к теории, изложенной в теоремах 1 и 2. Достаточно опираться лишь на известные результаты о сохранении свойств мартингальности, субмартингальности и супермартингальности при замене времени на марковский момент (§ 2). Но в общих случаях отыскание цены V0N и оптимального момента остановки τ0N может быть весьма трудной задачей. Значительный интерес представляют те случаи, в которых функции fn имеют следующий вид: fn (ω) = f(Xn (ω)), где X = (Xn) n>0 – – некоторая марковская цепь. Как будет показано в § 9 гл. VIII, в этом случае решение задач об оптимальной остановке сводится, в сущности, к решению вариационных неравенств, уравнений динамического программирования Вальда– –Беллмана. Там же будут даны и (нетривиальные) примеры, в которых приводятся полные решения ряда задач об оптимальной остановке для марковских последовательностей. 8. Задачи. 1. Показать, что построенная в доказательстве леммы (п. 3) случайная величина ξ (ω) = sup ξα (ω) удовлетворяет требованиям a) и b) в опредеα∈A0 лении существенного супремума. (Указание: в случае α ∈ / A0 рассмотрите max(ξ (ω), ξα (ω)).) 2. Показать, что величина ξ (ω) = tg ξ˜ (ω), (см. конец доказательства леммы п. 3) также удовлетворяет требованиям a) и b). 3. Пусть ξ1 , ξ2 , . . . – – последовательность независимых одинаково распределенных случайных величин с |ξ1 | < ∞. Рассматривается задача об оптимальной остановке (в классе M∞ < ∞}): 1 = {τ : 1 6 τ max ξi − cτ . V ∗ = sup τ ∈M∞ 1 i6τ Пусть τ ∗ = inf{n > 1 : ξn > A∗ }, где A∗ – – единственный корень уравнения (ξ1 − A∗) = c. Показать, что если {τ ∗ < ∞} = 1, то момент τ ∗ является оптимальным в классе всех конечных моментов остановки τ , для которых max ξi − cτ существует. i6τ Показать также, что V ∗ = A∗ . 822 ГЛ. VII. МАРТИНГАЛЫ 4. Пусть в этой и следующей задаче M∞ n = {τ : n 6 τ < ∞}, Vn∞ = sup fτ , vn∞ τ ∈M∞ n = ess sup τ ∈M∞ n (fτ | Fn), τn∞ = inf{k > n : vn∞ = fn }. Предполагая, что sup fn− < ∞, показать, что для предельных случайных величин ṽn = lim vnN N →∞ справедливы следующие утверждения: (a) для всякого τ ∈ M∞ n (b) если момент τn∞ ṽn > (fτ | Fn); ∈ M∞ n , то ṽn = (fτn∞ | Fn), ṽn = vn∞ (= ess sup τ ∈M∞ n (fτ | Fn)). 5. Пусть τn∞ ∈ M∞ n . Вывести из утверждений (a) и (b) предыдущей задачи, что этот момент τn∞ является оптимальным в том смысле, что ess sup и τ ∈M∞ n (fτ | Fn) = (fτn∞ | Fn) sup τ ∈M∞ n т. е. Vn∞ = fτn∞ . fτ = fτn∞ , ( -п. н.) Глава VIII ПОСЛЕДОВАТЕЛЬНОСТИ СЛУЧАЙНЫХ ВЕЛИЧИН, ОБРАЗУЮЩИЕ МАРКОВСКУЮ ЦЕПЬ § 1. Определения и основные свойства . . . . . . . . . . . . . . . . . . . . . . . . . . 825 § 2. Обобщенное марковское и строго марковское свойства . . . . . . . 838 § 3. О проблематике предельных, эргодических и стационарных распределений вероятностей для марковских цепей . . . . . . . . . . . 847 § 4. Классификация состояний марковских цепей по алгебраическим свойствам матриц переходных вероятностей . . . . . . . . . . . . 850 § 5. Классификация состояний марковских цепей по асимптотическим свойствам переходных вероятностей . . . . . . . . . . . . . . . . . . . 857 § 6. О предельных, стационарных и эргодических распределениях для счетных марковских цепей . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 871 § 7. О предельных, стационарных и эргодических распределениях для конечных марковских цепей . . . . . . . . . . . . . . . . . . . . . . . . . . . . 879 § 8. Простое случайное блуждание как марковская цепь . . . . . . . . . . 880 § 9. Задачи об оптимальной остановке для марковских цепей . . . . . . 894 Истоками современной теории марковских процессов являются, с одной стороны, работы А. А. Маркова (1906– –1917 гг.) о последовательностях испытаний, «связанных в цепь», с другой стороны, попытки математического описания физического явления, известного под названием броуновского движения (Л. Башелье, 1900 г.; А. Эйнштейн, 1905 г.). Е. Б. Дынкин. «Марковские процессы» [21] § 1. Определения и основные свойства 1. В § 12 гл. I для случая конечных вероятностных пространств были изложены соображения и принципы, лежащие в основе понятия марковской зависимости (см. свойство (7) в § 12 гл. I) случайных величин, призванной описывать эволюцию систем, обладающих свойством отсутствия последействия. В настоящем параграфе соответствующие рассмотрения проводятся для случая более общих вероятностных пространств. Один из основных вопросов «марковской теории» состоит в исследовании асимптотического поведения (с ростом времени) систем с отсутствием последействия. Весьма примечательно, что их эволюция оказывается, в очень широких предположениях, такой, что система как бы «забывает» свое начальное состояние, поведение этих систем «стабилизируется», система входит в «стационарный режим». Детальное рассмотрение вопросов асимптотического поведения будет далее проведено для систем, эволюция которых описывается «марковскими цепями со счетным множеством состояний». С этой целью нам придется дать классификацию состояний «марковских цепей» по алгебраическим и асимптотическим свойствам их переходных вероятностей. 2. Пусть (Ω, F , (Fn) n>0 , ) – – фильтрованное вероятностное пространство, т. е. вероятностное пространство (Ω, F , ) с дополнительно выделенной на нем структурой – – фильтрацией (потоком) (Fn) n>0 σ-алгебр Fn , n > 0, таких, что F0 ⊆ F1 ⊆ . . . ⊆ F . С наглядной точки зрения Fn – – это «информация», доступная к моменту времени n (включительно). Пусть также (E, E ) – – некоторое измеримое пространство, играющее в дальнейшем роль пространства состояний, в котором рассматриваемые системы принимают свои значения. По «техническим» причинам (например, для того, чтобы для случайного элемента X0 (ω) и x ∈ E множество {ω : X0 (ω) = x} принадлежало F) будет предполагаться, что σ-алгебра E содержит все подмножества из E, состоящие из одной точки. (По поводу этого предположения см. также далее п. 6.) 826 ГЛ. VIII. МАРКОВСКИЕ ЦЕПИ При этом предположении измеримые пространства (E, E ) принято называть фазовыми пространствами, или пространствами состояний (рассматриваемых систем). Определение 1 (марковская цепь в широком смысле). Пусть (Ω, F , (Fn) n>0 , ) – – фильтрованное вероятностное пространство и (E, E ) – – фазовое пространство. Последовательность X = (Xn) n>0 случайных элементов Xn = Xn (ω), заданных на (Ω, F , (Fn) n>0 , ), принимающих значения в E и являющихся Fn /E -измеримыми, n > 0, называется последовательностью величин, связанных марковской зависимостью (марковской цепью, цепью Маркова) в широком смысле, если для любых n > 0 и B ∈ E выполнено марковское свойство в широком смысле: (Xn+1 ∈ B | Fn) (ω) = (Xn+1 ∈ B | Xn (ω)) ( -п. н.). (1) Если FnX = σ (X0 , X1 , . . . , Xn) есть σ-алгебра, порожденная величинами X0 , X1 , . . . , Xn , то, поскольку FnX ⊆ Fn , а Xn – – FnX -измеримы, из (1) получаем марковское свойство в узком смысле (или просто марковское свойство): (Xn+1 ∈ B | FnX ) (ω) = (Xn+1 ∈ B | Xn (ω)) ( -п. н.). (2) Для наглядности (ср. с § 12 гл. I) это свойство записывают часто в таком виде: (Xn+1 ∈ B | X0 (ω), . . . , Xn (ω)) = (Xn+1 ∈ B | Xn (ω)) ( -п. н.). (3) Выведенное из (1) марковское свойство в узком смысле (2) подсказывает целесообразность введения понятия марковской зависимости и в том случае, когда a priori не выделяется поток (Fn) n>0 . Определение 2 (марковская цепь). Пусть (Ω, F , ) – – вероятностное пространство, (E, E ) – – фазовое пространство. Последовательность X = (Xn) n>0 случайных элементов Xn = Xn (ω), принимающих значения в E и являющихся F /E -измеримыми, называется последовательностью величин, связанных марковской зависимостью (марковской цепью, цепью Маркова), если для любых n > 0 и B ∈ E выполнено марковское свойство в узком смысле (2). Замечание. Введение с самого начала фильтрованного вероятностного пространства, на котором определялась марковская цепь в широком смысле, оказывается полезным во многих вопросах, где поведение систем рассматривается в зависимости от того или иного «потока информации» (Fn) n>0 . Например, может случиться, что у «двумерного» процесса (X, Y) = (Xn , Yn) n>0 первая компонента X = (Xn) n>0 , не будучи марковской § 1. ОПРЕДЕЛЕНИЯ И ОСНОВНЫЕ СВОЙСТВА 827 в смысле определения (2), тем не менее является марковской в смысле определения (1) с Fn = FnX,Y , n > 0. В элементарном же изложении теории марковских цепей, которому и будет посвящена настоящая глава, поток (Fn) n>0 обычно не вводится и за основу принимается определение 2. 3. Свойство марковости характеризует «отсутствие последействия» в эволюции системы, состояния которой описываются последовательностью X = (Xn) n>0 . В случае конечного пространства Ω это отмечалось в § 12 гл. I в виде свойства (Б | ПН) = (Б | Н), (4) где Б – – «будущее», П – – «прошлое» и Н – – «настоящее». Там же отмечалось, что для марковских систем выполнено также и свойство (ПБ | Н) = (П | Н) (Б | Н), (5) интерпретируемое как независимость «прошлого» и «будущего» при фиксированном «настоящем». В общем случае аналогами (4) и (5) являются свойства (6) и (7) из следующей теоремы, дающей разные эквивалентные формулировки марковости (в смысле определения 2) и в которой используются такие обозначения: X F [0,n] = σ (X0 , X1 , . . . , Xn), X F [n,∞) = σ (Xn , Xn+1 , . . .), X F (n,∞) = σ (Xn+1 , Xn+2 , . . .). Теорема 1. Марковское свойство (2) равносильно выполнению любого из следующих двух свойств: при n > 0 X (Б | F [0,n] ) (ω) = (Б | Xn (ω)) ( -п. н.) (6) X для всякого «будущего» события Б ∈ F (n,∞) или при n > 1 (ПБ | Xn (ω)) = (П | Xn (ω)) (Б | Xn (ω)) ( -п. н.) (7) X для всякого «будущего» события Б ∈ F (n,∞) и «прошлого» события X П ∈ F [0,n−1] . Доказательство. Докажем прежде всего равносильность свойств (6) и (7). 828 ГЛ. VIII. МАРКОВСКИЕ ЦЕПИ (6) ⇒ (7). Имеем ( -п. н.) (П | Xn (ω)) (Б | Xn (ω)) = (IП | Xn (ω)) (IБ | Xn (ω)) = X = {IП (IБ | Xn (ω)) | Xn (ω)} = {IП (IБ | F [0,n] ) (ω) | Xn (ω)} = X = { (IП IБ | F [0,n] ) (ω) | Xn (ω)} = {IП IБ | Xn (ω)} = (ПБ | Xn (ω)). X (7) ⇒ (6). Надо показать, что для всякого множества C из F [0,n] X (IC (Б | Xn)) = (IC (Б | F [0,n] )). (6′) С этой целью сначала рассмотрим частный случай такого множества, а X именно множество ПН, где П ∈ F [0,n−1] и Н ∈ σ (Xn), и покажем, что в этом ′ случае (6 ) следует из (7). Действительно, (IПН (Б | Xn)) = (IП IН (Б | Xn)) = (IН (IП (IБ | Xn) | Xn)) = = (IН (IП | Xn) (IБ | Xn)) = (IН (П | Xn) (7) (Б | Xn)) = (IН (ПБ | Xn)) = X = (ПНБ) = (IПН (Б | F [0,n] )), (8) X т. е. свойство (6′) выполнено для множеств C вида ПН, где П ∈ F [0,n−1] и Н ∈ σ (Xn). Отсюда с помощью аргументов о «монотонных классах» (см. § 2 гл. II) выводится справедливость этого свойства (6′) и для любых множеств X X C из F [0,n] . Поскольку функция (Б | Xn) является F [0,n] -измеримой, то ′ из (6 ) вытекает, что (Б | Xn) является вариантом условной вероятности X (Б | F [0,n] ), т. е. выполнено свойство (6). Перейдем к доказательству равносильности свойств (2) и (6), а значит, в силу доказанного, и свойств (2) и (7). Импликация (6) ⇒ (2) очевидна. Покажем справедливость импликации (2) ⇒ (6), опять же привлекая аргументы о «монотонных классах». X Множества Б в (6) являются множествами из σ-алгебры F (n,∞) = X = F [n+1,∞) , являющейся наименьшей σ-алгеброй, порожденной алгеброй ∞ S X X F [n+1,n+k] , где F [n+1,n+k] = σ (Xn+1 , . . . , Xn+k). Поэтому естественно k=1 начать с доказательства свойства (6) прежде всего для множеств Б из X σ-алгебр F [n+1,n+k] . X Доказывать это будем по индукции. Если k = 1, то F [n+1,n+1] = σ (Xn+1) и (6) есть в точности (2), что предположено выполненным. Пусть теперь (6) выполнено для некоторого k > 1. Покажем его справедливость для k + 1. X С этой целью возьмем множество Б ∈ F [n+1,n+k+1] вида Б = Б1 ∩ Б2 , где 1 2 X Б ∈ F [n+1,n+k] и Б ∈ σ (Xn+k+1). Тогда, используя предположение индук- § 1. ОПРЕДЕЛЕНИЯ И ОСНОВНЫЕ СВОЙСТВА 829 ции, находим, что ( -п. н.) X X X X X (Б | F [0,n] ) = (IБ | F [0,n] ) = [IБ1 ∩Б2 | F [0,n] ] = [IБ1 (IБ2 | F [0,n+k] ) | F [0,n] ]= X = [IБ1 (IБ2 | Xn+k) | F [0,n] ] = [IБ1 (IБ2 | Xn+k) | Xn ] = = [IБ1 (IБ2 | F [n,n+k] ) | Xn ] = [ (IБ1 IБ2 | F [n,n+k] ) | Xn ] = = [IБ1 IБ2 | Xn ] = (Б1 ∩ Б2 | Xn) = (Б | Xn). (9) X Из свойства (9), доказанного для множеств Б из F [n+1,n+k+1] вида X Б = Б1 ∩ Б2 с Б1 ∈ F [n+1,n+k] и Б2 ∈ σ (Xn+k+1), вытекает (задача 1a), что X это свойство выполнено и для любых множеств Б ∈ F [n+1,n+k+1] . Отсюда заключаем (задача 1b), что свойство (9) выполнено и для множеств Б из ∞ S X алгебры F [n+1,n+k] , откуда в свою очередь следует (задача 1c), что оно k=1 ∞ S X X выполнено и для σ-алгебры σ . F [n+1,n+k] = F (n,∞) k=1 Замечание. Аргументы, приведенные в данном доказательстве, основаны на использовании принципа подходящих множеств (сначала проводить доказательство для «просто» устроенных множеств) с последующим применением результатов о монотонных классах (§ 2 гл. II). В дальнейшем этот метод доказательства будет также еще не раз применяться (см., например, доказательства теорем 2 и 3, из которых, в частности, можно восстановить и те места в доказательстве вышеприведенной теоремы 1, которые были отнесены в задачи 1a, 1b и 1c). 4. Классическим примером марковской цепи является случайное блуждание X = (Xn) n>0 с Xn = X0 + Sn , n > 1, (10) где Sn = ξ1 + . . . + ξn , а случайные величины X0 , ξ1 , ξ2 , . . . , заданные на вероятностном пространстве (Ω, F , ), являются независимыми. Теорема 2. Пусть F0 = σ (X0), Fn = σ (X0 , ξ1 , . . . , ξn), n > 1. Последовательность X = (Xn) n>0 , рассматриваемая на фильтрованном вероятностном пространстве (Ω, F , (Fn) n>0 , ), является марковской цепью (как в широком, так и в узком смысле): для n > 0 и B ∈ B (R) причем где (Xn+1 ∈ B | Fn) (ω) = (Xn+1 ∈ B | Xn (ω)) (Xn+1 ∈ B | Xn (ω)) = Pn+1 (B − Xn (ω)) Pn+1 (A) = {ξn+1 ∈ A} ( -п. н.), ( -п. н.), (11) (12) (13) 830 ГЛ. VIII. МАРКОВСКИЕ ЦЕПИ и B − Xn (ω) = {y : y + Xn (ω) ∈ B}, B ∈ B (R). Доказательство. Будем одновременно убеждаться в справедливости (11) и (12). В случае дискретных вероятностных пространств подобные доказательства проводились в § 12 гл. I, и на первый взгляд может показаться, что и здесь также все просто. На самом же деле, как будет видно из приводимого доказательства, здесь все же «есть что доказывать». Пусть множество A ∈ {X0 ∈ B0 , ξ1 ∈ B1 , . . . , ξn ∈ Bn }, где Bi ∈ B (R), i = = 0, 1, . . . , n. По определению условной вероятности (Xn+1 ∈ B | Fn) (ω) (см. § 7 гл. II) ] ] (Xn+1 ∈ B | Fn) (ω) (dω) = I{Xn+1 ∈B} (ω) (dω) = A A ] = = {X0 ∈ B0 , ξ1 ∈ B1 , . . . , ξn ∈ Bn , Xn+1 ∈ B} = B0 ×...×Bn Pn+1 (B − (x0 + x1 + . . . + xn)) P0 (dx0) . . . Pn (dxn) = ] = Pn+1 (B − Xn (ω)) (dω). (14) A Итак, для множеств из Fn вида A = {X0 ∈ B0 , ξ1 ∈ B1 , . . . , ξn ∈ Bn } справедливо равенство ] ] (15) (Xn+1 ∈ B | Fn) (ω) (dω) = Pn+1 (B − Xn (ω)) (dω). A A Очевидно, что система An указанных множеств A является π-системой (Ω ∈ An и если A1 ∈ An и A2 ∈ An , то и A1 ∩ A2 ∈ An ; см. определение 2 в § 2 гл. II). Далее, пусть L обозначает совокупность всех тех множеств A ∈ Fn , для которых формула (15) верна. Покажем, что L есть λ-система; см. определение 2 в § 2 гл. II. Ясно, что Ω ∈ L , т. е. выполнено свойство (λa) из этого определения. Из свойства аддитивности интеграла Лебега следует и свойство (λb) из этого же определения. Наконец, третье свойство (λc) из определения λ-систем вытекает из теоремы о монотонной сходимости в интегралах Лебега (см. § 6 гл. II). Итак, L есть λ-система. Применяя утверждение c) теоремы 2 из § 2 гл. II, находим, что σ (An) ⊆ L . Но σ (An) = Fn , и, следовательно, свойство (15) выполнено и для множеств A из Fn . Поэтому, учитывая, что Pn+1 (B − Xn (ω)) является (как функция от ω) Fn -измеримой (задача 2), из (15) (по определению условных вероятностей) § 1. ОПРЕДЕЛЕНИЯ И ОСНОВНЫЕ СВОЙСТВА 831 получаем, что Pn+1 (B − Xn (ω)) есть версия условной вероятности (Xn+1 ∈ ∈ B | Fn) (ω). Наконец, по «телескопическому» свойству условных математических ожиданий (см. свойство H* в § 7 гл. II) находим, что ( -п. н.) (Xn+1 ∈ B | Xn) (ω) = [I{Xn+1 ∈B} | Xn ] (ω) = [ (I{Xn+1 ∈B} | Fn) | Xn ] (ω) = = [Pn+1 (B − Xn) | Xn (ω)] = Pn+1 (B − Xn (ω)). (16) Тем самым, оба свойства (11) и (12) доказаны. Замечание. Справедливость свойств (11) и (12) можно было бы также непосредственно вывести (задача 3) из утверждения леммы 3 в § 2 гл. II. Мы провели подробное доказательство этих «почти очевидных» свойств с тем, чтобы лишний раз продемонстрировать технику доказательства подобных утверждений, основанную на принципе подходящих множеств и результатах о монотонных классах. 5. Обратимся к марковскому свойству (1). Если пространство (E, E ) является борелевским, то по теореме 5 из § 7 гл. II для каждого n > 0 существует регулярное условное распределение Pn+1 (x; B) такое, что ( -п. н.) (Xn+1 ∈ B | Xn (ω)) = Pn+1 (Xn (ω); B), (17) где функция Pn+1 (x; B), B ∈ E , x ∈ E, обладает следующими свойствами (см. определение 7 в § 7 гл. II): (a) для каждого x функция множеств Pn+1 (x, ·) является мерой на (E, E ); (b) для каждого B ∈ E функция Pn+1 (· ; B) является E -измеримой. Функции Pn = Pn (x; B), n > 1, называют переходными функциями (также – – марковскими ядрами). Особо для нас будет важен тот случай, когда все эти переходные функции совпадают, P1 = P2 = . . . , точнее говоря, когда у условных вероятностей (Xn+1 ∈ B | Xn (ω)), n > 0, существует один и тот же вариант регулярного условного распределения P(x; B) такой, что ( -п. н.) (Xn+1 ∈ B | Xn (ω)) = P(Xn (ω); B) (18) для всех n > 0 и B ∈ E . Если такой вариант P = P(x; B) существует (и тогда можно считать, что все Pn = P, n > 0), то марковскую цепь называют однородной (по времени) с переходной функцией P = P(x; B), x ∈ E, B ∈ E . Наглядный смысл свойства однородности марковских цепей ясен: движение соответствующей системы происходит однородно в том смысле, что вероятностные механизмы, управляющие переходом системы, остаются одними и теми же для всех моментов времени n > 0. (В теории динамических систем это свойство отождествляют со свойством консервативности.) 832 ГЛ. VIII. МАРКОВСКИЕ ЦЕПИ Помимо переходных вероятностей P1 , P2 , . . . , а в случае однородных цепей – – переходной вероятности P, важной характеристикой марковских цепей является начальное распределение π = π (B), B ∈ E , т. е. распределение вероятностей, определяемое равенством π (B) = {X0 ∈ B}, B ∈ E . Набор объектов (π, P1 , P2 , . . .) полностью определяет вероятностные свойства последовательности X = (Xn) n>0 , поскольку все конечномерные распределения этой последовательности определяются формулами: {X0 ∈ B} = π (B), B ∈E, и для всякого n > 1 и B ∈ B (E n+1) (= E n+1 = E ⊗ . . . ⊗ E (n + 1) раз) {(X0 , X1 , . . . , Xn) ∈ B} = ] = IB (x0 , x1 , . . . , xn) π (dx0)P1 (x0 ; dx1) . . . Pn (xn−1 ; dxn). (19) E×...×E Действительно, рассмотрим сначала множество B вида B = B0 × . . . . . . × Bn . Тогда при n = 1 по формуле полной вероятности (см. (5) в § 7 гл. II) ] {X0 ∈ B0 , X1 ∈ B1 } = I{X0 ∈B0 } (ω) (X1 ∈ B1 | X0 (ω)) (dω) = Ω = = ] ] Ω I{X0 ∈B0 } (ω) P1 (B1 ; X0 (ω)) IB0 (x0) P1 (B1 ; x0) π (dx0) = E ] E×E (dω) = IB0 ×B1 (x0 , x1) P1 (dx1 ; x0) π (dx0). Дальше доказательство ведется по индукции: {X0 ∈ B0 , X1 ∈ B1 , . . . , Xn ∈ Bn } = ] = I{X0 ∈B0 ,...,Xn−1 ∈Bn−1 } (ω) (Xn ∈ Bn | X0 (ω), . . . , Xn−1 (ω)) (dω) = Ω = = = ] Ω I{X0 ∈B0 ,...,Xn−1 ∈Bn−1 } (ω) Ω I{X0 ∈B0 ,...,Xn−1 ∈Bn−1 } (ω) Pn (Bn ; Xn−1 (ω)) ] ] E×...×E = ] E×...×E (Xn ∈ Bn | Xn−1 (ω)) (dω) = (dω) = IB0 ×B1 ×...×Bn−1 (x0 , x1 , . . . , xn−1) × × Pn (Bn ; xn−1) {X0 ∈ dx1 , . . . , Xn−1 ∈ dxn } = IB0 ×B1 ×...×Bn−1 ×Bn (x0 , x1 , . . . , xn−1 , xn) × × Pn (dxn ; xn−1) Pn−1 (dxn−1 ; xn−2) . . . P1 (dx1 ; x0) π (dx0), § 1. ОПРЕДЕЛЕНИЯ И ОСНОВНЫЕ СВОЙСТВА 833 что совпадает с требуемой формулой (19) в случае множеств B вида B = = B0 × B1 × . . . × Bn . Переход к общему случаю множеств B ∈ B (E n+1) осуществляется так же, как и в доказательстве аналогичного места в теореме 2. Из свойства (19), основываясь на результатах о монотонных классах (см. § 2 гл. II) выводится (задача 4), что для всякой ограниченной B (E n+1)-измеримой функции h = h(x0 , x1 , . . . , xn) h(X0 , X1 , . . . , Xn) = ] = h(x0 , x1 , . . . , xn) π (dx0) P1 (dx1 ; x0) . . . Pn (dxn ; xn−1). (20) E n+1 6. Итак, если у нас имеется марковская цепь (в широком или узком смысле), то по ее начальному распределению π = π (B), где π (B) = {X0 ∈ B}, B ∈ E , и переходным вероятностям Pn (x; B), n > 1, x ∈ E, B ∈ E , можно полностью восстановить закон распределения Law(X0 , X1 , . . . , Xn) любой совокупности случайных величин X0 , X1 , . . . , Xn , n > 1, пользуясь формулой (19). Сейчас мы поменяем весь наш взгляд на способы определения марковских цепей, приняв за основу то, что они должны полностью быть заданными, исходя из набора (π, P1 , P2 , . . .), где по своему смыслу вероятностное распределение π должно играть роль распределения вероятностей начального состояния системы, а функции Pn+1 = Pn+1 (x; B), n > 0, удовлетворяющие свойствам (a) и (b) из п. 5, играют роль переходных вероятностей, т. е. вероятностей того, что система, находящаяся в момент времени n в состоянии x, в момент n + 1 окажется в множестве B ∈ E . Естественно, что если за исходный объект берется набор (π, P1 , P2 , . . .), то возникает вопрос: а отвечает ли он вообще какой-либо марковской цепи, имеющей своим начальным распределением заданное π, а своими переходными вероятностями заданные функции P1 , P2 , . . . ? Ответ (и положительный) на этот вопрос, в сущности, содержится в теореме Колмогорова (теорема 1 и следствие 3 в § 9 гл. II), по крайней мере для случая E = R d , и в теореме Ионеску Тулчи (теорема 2 в § 9 гл. II) для случая произвольных измеримых пространств (E, E ). Следуя доказательству этих теорем, прежде всего определим измеримое пространство (Ω, F), полагая (Ω, F) = (E ∞ , B (E ∞)), где E ∞ = = E × E × . . . , B (E ∞) = E ⊗ E ⊗ . . . ; иначе говоря, в качестве элементарных исходов будем рассматривать «точки» ω = (x0 , x1 , . . .), где xi ∈ E. Поток (Fn) n>0 определим, полагая Fn = σ (x0 , x1 , . . . , xn). Сами значения Xn = Xn (ω) определим «каноническим» образом, полагая Xn (ω) = xn , если ω = (x0 , x1 , . . .). 834 ГЛ. VIII. МАРКОВСКИЕ ЦЕПИ Теорема Ионеску Тулчи утверждает, что для произвольных измеримых пространств (E, E ) (и, в частности, для рассматриваемых нами фазовых пространств) на (Ω, F) существует вероятностная мера π такая, что π {X0 ∈ B} = π (B), B ∈E, (21) и для всех n > 1 конечномерные распределения π {(X0 , X1 , . . . , Xn) ∈ B} = ] ] ] = π (dx0) P1 (x0 ; dx1) . . . IB (x0 , . . . , xn) Pn (xn−1 ; dxn). E E (22) E Теорема 3. По отношению к введенной (в теореме Ионеску Тулчи) мере π канонически заданная последовательность X = (Xn) n>0 является марковской (в смысле определения 2). Доказательство. Надо показать, что для n > 0 и B ∈ E ( π -п. н.) π (Xn+1 и при этом ( π -п. н.) ∈ B | Fn) (ω) = π (Xn+1 ∈ B | Xn (ω)) (23) для n > 0 π (Xn+1 ∈ B | Xn (ω)) = Pn (Xn (ω); B). (24) Будем опять же вести доказательство, основываясь на принципе подходящих множеств и результатах о монотонных классах (§ 2 гл. II). В качестве подходящих множеств рассмотрим, как это уже делалось, «просто» устроенные множества A из Fn вида A = {ω : X0 (ω) ∈ B0 , . . . , Xn (ω) ∈ Bn }, где Bi ∈ E , i = 0, 1, . . . , n, и пусть B ∈ E . Тогда в силу конструкции меры π (см. (22)) ] I{Xn+1 ∈B} (ω) π (dω) = π {X0 ∈ B0 , . . . , Xn ∈ Bn , Xn+1 ∈ B} = A = ] B0 π (dx0) ] B1 P1 (x0 ; dx1) . . . ] Bn Pn (xn−1 ; dxn) ] Pn+1 (xn ; dxn+1) = B ] = Pn+1 (Xn (ω); B) π (dω). (25) A Рассуждая теперь так же, как и при доказательстве теоремы 2 (см. доказательство выполнимости свойства (15) для множеств A из Fn), находим, что и здесь свойство (25) будет выполнено для множеств A из Fn , т. е. множеств вида A = {ω : (X0 (ω), . . . , Xn (ω)) ∈ C}, где C ∈ B (E n+1). § 1. ОПРЕДЕЛЕНИЯ И ОСНОВНЫЕ СВОЙСТВА 835 Поскольку по определению условных вероятностей (см. § 7 гл. II) ] ] (26) I{Xn+1 ∈B} (ω) π (dω) = π (Xn+1 ∈ B | Fn) (ω) π (dω), A A а функции Pn+1 (Xn (ω); B) являются Fn -измеримыми, то из (25) и «телескопического» свойства условных математических ожиданий (см. свойство H* в п. 4 § 7 гл. II) получаем требуемые соотношения (23) и (24). 7. Итак, с каждой рассматриваемой системой (π, P1 , P2 , . . .) можно связать марковскую цепь (для наглядности обозначаемую X π = (Xn , π) n>0), имеющую своим начальным распределением π и переходными вероятностями P1 , P2 , . . . (т. е. цепь, для которой выполнены свойства (21) и (23) – – (24)). Такая цепь функционирует следующим образом. В начальный момент n = 0 случайным образом «разыгрывается» значение начального состояния в соответствии с распределением π. Если, скажем, значение X0 оказалось равным x, то из этого состояния система переходит в следующий момент в некоторое состояние x1 в соответствии с распределением P1 (· ; x) и т. д. Таким образом, роль начального распределения π сказывается лишь только в момент n = 0, а последующее развитие системы определяется переходными вероятностями P1 , P2 , . . . Так что, если для двух начальных распределений π1 и π2 в результате соответствующего «розыгрыша» выпало одно и то же состояние x, то развитие системы будет (в вероятностном смысле) одним и тем же, определяясь лишь переходными вероятностями P1 , P2 , . . . Можно это выразить также и следующим образом. Пусть x обозначает распределение π , соответствующее тому случаю, когда распределение π сосредоточено в точке x: π (dy) = δx (dy), т. е. π ({x}) = 1, где {x} – – одноточечное множество, принадлежащее σ-алгебре E в силу сделанного предположения, что (E, E ) – – фазовое пространство. Тогда из свойства (22) выводится (задача 4), что для каждого A ∈ ∈ B (E ∞) и x ∈ E вероятность x (A) есть (для каждого π) вариант условной вероятности π (A | X0 = x), т. е. π -п. н. π (A | X0 = x) = Px (A). (27) При каждом x ∈ E вероятности x (·) полностью определяются набором переходных вероятностей (P1 , P2 , . . .). Тем самым, если основной акцент делается на то, как поведение системы зависит от переходных вероятностей (P1 , P2 , . . .), то достаточно оперировать лишь с вероятностями x (·), x ∈ E, получая, если надо, вероятности π (·) простым интегрированием: ] A ∈ B (E ∞). (28) x (A) π (dx), π (A) = E 836 ГЛ. VIII. МАРКОВСКИЕ ЦЕПИ Эти соображения привели к тому, что в «общей теории марковских процессов» (см. [21]) основным объектом считается (в рассматриваемом здесь случае дискретного времени) не та или иная марковская цепь X π = (Xn , π) n>0 , а семейство марковских цепей X x = (Xn , x) n>0 с x ∈ E. (Тем не менее, вместо слов «семейство марковских цепей» часто говорят просто о «марковских цепях» и вместо обозначения «X x = (Xn , x) n>0 с x ∈ E» пишут «X = (Xn , Fn , x)».) Подчеркнем, что все эти рассмотрения предполагают «канонический» способ задания цепей: в качестве (Ω, F) берется пространство (E ∞ , E ∞), E ∞ = E ⊗ E ⊗ . . . , все величины Xn (ω) задаются так, что Xn (ω) = xn , если ω = (x0 , x1 , . . .). Таким образом, в X x = (Xn , x) от x зависит лишь вероятность x , на сами же значения Xn какие-либо специальные условия зависимости от x не налагаются. При этом автоматически оказывается, что по мере x траектории (Xn) n>0 «начинаются» в точке x, т. е. x {X0 = x} = 1. 8. В случае конечных марковских цепей (§ 12 гл. I) большое внимание было уделено анализу поведения таких цепей с помощью рассмотрения переходных вероятностей pi(n) j = (Xn = j | X0 = i), которые, как было показано, удовлетворяют уравнению Колмогорова– –Чепмена (см. (13) в § 12 гл. I), из которого, в свою очередь, выводились прямые и обратные уравнения Колмогорова ((16) и (15) в § 12 гл. I). Обратимся сейчас к вопросу о справедливости уравнения Колмогорова– –Чепмена и в случае марковских цепей с произвольным фазовым пространством (E, E ), ограничившись рассмотрением однородных цепей, для которых P1 = P2 = . . . = P. В этом случае, в силу (22) π {(X0 , X1 , . . . , Xn) ∈ B} = ] ] ] = π (dx0) P(x0 ; dx1) . . . IB (x0 , x1 , . . . , xn)P(xn−1 ; dxn). E E (29) E В частности, если n = 2, то π {X0 ∈ B0 , X2 ∈ B2 } = ] ] P(x1 ; B2)P(x0 ; dx1)π (dx0). (30) B0 E Отсюда, по теореме Радона– –Никодима (§ 6 гл. II) и в силу определения условных вероятностей находим, что (π-п. н.) ] (31) π (X2 ∈ B2 | X0 = x) = P(x; dx1)P(x1 ; B2). E Заметим теперь, что в силу (27) π (X2 ∈ B2 | X0 = x) = x {X2 ∈ B2 } (π-п. н.), где вероятность x {X2 ∈ B2 } имеет простую интерпретацию – – это есть ве- § 1. ОПРЕДЕЛЕНИЯ И ОСНОВНЫЕ СВОЙСТВА 837 роятность перехода системы из состояния x в момент n = 0 в множество B2 в момент n = 2, т. е. это есть вероятность перехода за два шага. Обозначим P (n) (x; Bn) = x {Xn ∈ Bn } вероятность перехода за n шагов. Тогда, в силу однородности рассматриваемых цепей, P (1) (x; B1) = P(x; B1) и, следовательно, из (31) находим, что (π-п. н.) ] P (2) (x; B) = P (1) (x; dx1)P (1) (x1 ; B), (32) E где B ∈ E . Аналогичным же образом устанавливается (задача 5), что при любых n > 0, m > 0 (π-п. н.) ] P (n+m) (x; B) = P (n) (x; dy)P (m) (y; B). (33) E Это соотношение и есть знаменитое уравнение Колмогорова– –Чепмена, наглядный смысл которого вполне ясен: для подсчета вероятности P (m+n) (x; B) перехода за m + n шагов из точки x ∈ E в множество B ∈ E надо перемножить вероятность P (n) (x; dy) перехода за n шагов из точки x в «инфинитезимальную» окрестность dy точек y ∈ E и вероятность перехода за m шагов из точки y в множество B (с последующим интегрированием по всевозможным «промежуточным» точкам y). Обращаясь к уравнению Колмогорова– –Чепмена (33), связывающему вероятности переходов за разное число шагов, нужно отметить, что оно установлено лишь с точностью до «π-почти наверное». В частности, отсюда следует, что (33) не есть соотношение, выполняемое для всех x ∈ E. Это не должно показаться странным, поскольку выше нам не раз приходилось обращаться к выбору тех или иных вариантов (версий) условных вероятностей и, вообще говоря, нет гарантии, что эти варианты оказываются такими, что рассматриваемые свойства выполнены тождественно (по x), а не лишь π-почти наверное. Тем не менее, можно явно указать такие версии, для которых уравнение Колмогорова– –Чепмена (33) будет уже выполненным для всех x ∈ E. Вытекает это из следующих утверждений (задача 6). Пусть «переходные вероятности» P (n) (x; B) определены следующим образом: P (1) (x; B) = P(x; B) и для n > 1 ] P (n) (x; B) = P(x; dy)P (n−1) (y; B). E 838 ГЛ. VIII. МАРКОВСКИЕ ЦЕПИ Тогда (i) P (n) (x; B), n > 1, являются регулярными условными вероятностями на E при заданном x; (ii) P (n) (x; B) совпадает с x {Xn ∈ B} и, следовательно, является вариантом (π-п. н.) условных вероятностей π (Xn ∈ B | X0 = x); (iii) для так определенных функций P (n) (x; B), n > 1, уравнения Колмогорова– –Чепмена (33) выполнены тождественно по x ∈ E. 9. Задачи. 1. Доказать утверждения, сформулированные при доказательстве теоремы 1 в виде задач 1a, 1b и 1c. 2. Показать, что в теореме 2 функция Pn+1 (B − Xn (ω)) является Fn -измеримой по ω. 3. Вывести свойства (11) и (12) из утверждения леммы 3 в § 2 гл. II. 4. Доказать свойства (20), (27). 5. Установить справедливость соотношения (33). 6. Доказать утверждения (i), (ii) и (iii), сформулированные в конце п. 8. 7. Вытекает ли из марковского свойства (3) следующее свойство: (Xn+1 ∈ B | X0 ∈ B0 , X1 ∈ B1 , . . . , Xn ∈ Bn) = (Xn+1 ∈ B | Xn ∈ Bn), где B0 , B1 , . . . , Bn и B – – множества из E и {X0 ∈ B0 , X1 ∈ B1 , . . . , Xn ∈ Bn } > > 0? § 2. Обобщенное марковское и строго марковское свойства 1. В этом параграфе будут рассматриваться, главным образом, семейства X x = (Xn , Px) n>0 , x ∈ E, однородных марковских цепей, «канонически» заданных на координатном пространстве (Ω, F) = (E ∞ , E ∞) и определяемых переходной функцией P = P(x; B), x ∈ E, B ∈ E . Определим на (Ω, F) операторы сдвига θn : Ω → Ω (ср. с § 1 в гл. V), полагая для состояния ω = (x0 , x1 , . . .) θn (ω) = (xn , xn+1 , . . .). Если H = H(ω) является F -измеримой функцией, то H ◦ θn будет обозначать функцию (H ◦ θn) (ω), определенную равенством (H ◦ θn) (ω) = H(θn (ω)). (1) Так что, если ω = (x0 , x1 , . . .) и H = H(x0 , x1 , . . .), то (H ◦ θn) (x0 , x1 , . . .) = = H(xn , xn+1 , . . .). § 2. ОБОБЩЕННОЕ МАРКОВСКОЕ И СТРОГО МАРКОВСКОЕ СВОЙСТВА 839 Следующая теорема, в сущности, есть переформулировка утверждения (6) из § 1 применительно к рассматриваемому сейчас случаю семейства однородных марковских цепей. Теорема 1. Пусть X x = (Xn , x) n>0 , x ∈ E, есть семейство однородных марковских цепей, порождаемых переходной функцией P = P(x; B), x ∈ E, B ∈ E . Предполагается, что меры Px таковы, что значения x {(X0 , X1 , . . . , Xn) ∈ B} для B ∈ B (E n+1) и n > 0 определяются по P формулами (22) из § 1 с π (dy) = δ{x} (dy) и P1 = P2 = . . . = P. Тогда для всякого начального распределения π, любого n > 0 и всякой ограниченной (или неотрицательной) F -измеримой функции H = H(ω) имеет место следующее обобщенное марковское свойство: π (H ◦ θn | FnX ) (ω) = Xn (ω) H ( (2) π -п. н.). Замечание. Хотя использованные обозначения и «говорят] сами за себя», все же отметим, что π – – это усреднение по мере π) (·) = x (·) π (dx), E а Xn (ω) H надо понимать следующим образом: берется математическое ожидание x H (т. е. усреднение H по мере x) и затем в это выражение (обозначим его ψ (x)) надо «вставить» вместо x величину Xn (ω), т. е. x H является E -измеримой функXn (ω) H = ψ (Xn (ω)). (Отметим, что цией от x (задача 1) и, значит, Xn (ω) H является случайной величиной, т. е. F /E -измеримой функцией.) Доказательство теоремы опять-таки использует принцип подходящих множеств и функций с последующим применением результатов о монотонных классах. Чтобы установить свойство (2), нам надо показать, что для всякого множества A из FnX = σ (x0 , x1 , . . . , xn) ] ] (3) (H ◦ θn) (ω) π (dω) = ( Xn (ω) H) π (dω), A A или, в более компактной форме, π (H ◦ θn ; A) = π ( Xn H; (4) A), где π (ξ; A) означает π (ξIA) (см. п. 2 § 6 гл. II). В соответствии с принципом подходящих множеств рассмотрим «просто» устроенные множества A вида A = {ω : x0 ∈ B0 , . . . , xn ∈ Bn }, Bi ∈ Ei , и пусть функция H = H(x0 , x1 , . . . , xm) с m > 0 (более точно, пусть H – – FmX -измеримая функция). Тогда свойство (4) примет следующий вид: π (H(Xn , Xn+1 , . . . , Xn+m); A) = π ( Xn H(X0 , X1 , . . . , Xm); A). (5) 840 ГЛ. VIII. МАРКОВСКИЕ ЦЕПИ Используя представление (22), из § 1, находим, что π (H(Xn , Xn+1 , . . . , Xn+m); A) = ] = E n+m+1 = ] π (IA (X0 , . . . , Xn)H(Xn , . . . , Xn+m)) = IA (x0 , . . . , xn)H(xn , . . . , xn+m) × × π (dx0)P(x0 ; dx1) . . . P(xn+m−1 ; dxn+m) = IA (x0 , . . . , xn) π (dx0)P(x0 ; dx1) . . . P(xn−1 ; dxn) × ] H(xn , . . . , xn+m)P(xn ; dxn+1) . . . P(xn+m−1 ; dxn+m) = × E n+1 Em = ] IA (x0 , . . . , xn)π (dx0)P(x0 ; dx1) . . . P(xn−1 ; dxn) × ] H(x0 , . . . , xm) x (dx1 , . . . , dxm) = π ( Xn H(X0 , . . . , Xm); A), × E n+1 Em где x (dx1 , . . . , dxm) = P(x; dx1)P(x1 ; dx2) . . . P(xm−1 ; dxm). Таким образом, свойство (5) для множеств A вида A = {ω : x0 ∈ B0 , x1 ∈ B1 , . . . , xn ∈ Bn } и функций H вида H = H(x0 , x1 , . . . , xm) установлено. Общий случай множеств A из FnX рассматривается (для фиксированного m) так же, как и в доказательстве теоремы 2 в § 1. Осталось лишь показать, что доказанные свойства остаются верными и для всех F (= E ∞)-измеримых ограниченных (или неотрицательных) функций H = H(x0 , x1 , . . .). Достаточно доказать, что если A ∈ FnX , то свойство (5) сохранится для таких функций, т. е. что π (H(Xn , Xn+1 , . . .); A) = π ( Xn H(X0 , X1 , . . .); A). (6) Имея в виду применение принципа подходящих функций (см. § 2 гл. II), обозначим через H совокупность всех тех ограниченных (или неотрицательных) F -измеримых функций H = H(x0 , x1 , . . .), для которых свойство (5) имеет место. Пусть также J есть совокупность (цилиндрических) множеств вида Im = = {ω : x0 ∈ B0 , . . . , xm ∈ Bm } с некоторыми Bi ∈ E , i = 0, 1, . . . , m, m > 0. Ясно, что эта система J является π-системой множеств из F (= E ∞). Обратимся теперь к условиям теоремы 3 в § 2 гл. II. Условие (h1) выполнено, поскольку если A ∈ J, то IA ∈ H по доказанному выше (надо взять в (5) H(x0 , . . . , xm) = IA (x0 , . . . , xm)). Условие (h2) следует из свойства аддитивности интеграла Лебега, а свойство (h3) вытекает из теоремы о монотонной сходимости в интегралах Лебега. § 2. ОБОБЩЕННОЕ МАРКОВСКОЕ И СТРОГО МАРКОВСКОЕ СВОЙСТВА 841 Согласно указанной теореме 3 (§ 2 гл. II), H тогда содержит все функции, являющиеся измеримыми относительно σ-алгебры σ (J), которая по определению и есть σ-алгебра E ∞ = B (E ∞). (См. пп. 4 и 8 в § 2 гл. II.) 2. Обратимся ко второму обобщению марковского свойства – – так называемому строго марковскому свойству, связанному с заменой «времени n» на «случайное время τ ». (Все исходные предпосылки будут те же, что и в начале этого параграфа: (Ω, F) = (E ∞ , E ∞), . . .) Будем обозначать через τ = τ (ω) конечные случайные величины τ (ω) такие, что для каждого n > 0 {ω : τ (ω) = n} ∈ FnX . В соответствии с терминологией § 1 гл. VII (см. определение 3) такие величины называют (конечными) марковскими моментами или моментами остановки. С потоком (FnX ) n>0 и моментом остановки τ свяжем σ-алгебру FτX = {A ∈ F X : A ∩ {τ = n} ∈ FnX для всех n > 0}, S где F X = σ ( FnX ), интерпретируемую как σ-алгебру событий, наблюдаемых на «случайном интервале» [0, τ ] . Теорема 2. Пусть выполнены все условия, сформулированные в теореме 1, и τ = τ (ω) – – конечный марковский момент. Тогда имеет место следующее строго марковское свойство: π (H ◦ θτ | FτX ) = Xτ H ( π -п. н.). (7) Прежде чем переходить к доказательству, дадим некоторые пояснения по поводу того, как надо понимать Xτ H и H ◦ θτ . Обозначим ψ (x) = x H. (В п. 1 уже отмечалось, что ψ (x) является E -измеримой функцией.) Под Xτ H понимается значение ψ (Xτ ) = = ψ (Xτ (ω) (ω)). Что же касается (H ◦ θτ ) (ω), то под этим понимается случайная величина (H ◦ θτ (ω)) (ω) = H(θτ (ω) (ω)). Доказательство. Возьмем множество A из Fτ . Как и в случае теоремы 1, для доказательства (7) надо показать, что π (H ◦ θτ ; A) = π ( Xτ H; (8) A). Рассмотрим левую часть. Имеем π (H ◦ θτ ; A) = ∞ X n=0 π (H ◦ θτ ; A ∩ {τ = n}) = = ∞ X n=0 π (H ◦ θn ; A ∩ {τ = n}). (9) 842 ГЛ. VIII. МАРКОВСКИЕ ЦЕПИ Правая же часть в (8) π ( Xτ H; A) = ∞ X π ( Xπ H; n=0 A ∩ {τ = n}). (10) События A ∩ {τ = n} ∈ FnX . Поэтому в силу (4) правые части в (9) и (10) совпадают, что и доказывает строго марковское свойство (7). Следствие. Беря функцию H(x0 , x1 , . . .) = IA (x0 , x1 , . . .), где A = = {ω : (x0 , x1 , . . .) ∈ B}, B ∈ E ∞ = B (E ∞), из (7) получаем следующую часто используемую форму строго марковского свойства: π ((Xτ , Xτ +1 , . . .) ∈ B | X0 , X1 , . . . , Xτ ) = = Xτ {(X0 , X1 , . . .) ∈ B} ( π -п. н.). (11) Замечание 1. Если проанализировать доказательство строго марковского свойства (7), то можно заметить, что на самом деле верно и следующее свойство. Пусть для каждого n > 0 действительные функции Hn = Hn (ω), заданные на Ω = E ∞ , являются F -измеримыми (F = E ∞) и равномерно ограниченными (т. е. |Hn (ω)| 6 c, n > 0, ω ∈ Ω). Тогда для каждого конечного марковского момента τ = τ (ω) (τ (ω) < ∞, ω ∈ Ω) имеет место (задача 2) следующая форма строго марковского свойства ([21, с. 145–146]): X π [Ψτ |Fτ ] = ψ (τ , Xτ ) ( π -п. н.), (12) где Ψ(ω) = Hn (θn (ω)), ψ (n, x) = x Hn . Замечание 2. Выше предполагалось, что τ = τ (ω) является конечным марковским моментом. Если это не так, т. е. τ (ω) 6 ∞, ω ∈ Ω, то тогда соотношение (12) надо заменить (задача 3) на следующее: X π [Ψτ |Fτ ] = ψ (τ , Xτ ) ({τ < ∞}; π -п. н.). (13) Иначе говоря, в этом случае соотношение (12) выполнено π -п. н. на множестве {τ < ∞}. 3. Пример (на «строго марковское свойство»). При рассмотрении закона повторного логарифма нам понадобилось одно неравенство (лемма 1 из § 4 гл. IV; см. также (14) ниже), аналогом которого для броn o уновского движения B = (Bt) t6T является равенство max Bt > a = 06t6T = 2 {|BT | > a}; [131, гл. III] . Пусть ξ1 , ξ2 , . . . – – последовательность независимых одинаково распределенных случайных величин с симметричным (относительно нуля) распределением. Положим X0 = x ∈ R, Xm = X0 + (ξ1 + . . . + ξm), 1 6 m. Как это § 2. ОБОБЩЕННОЕ МАРКОВСКОЕ И СТРОГО МАРКОВСКОЕ СВОЙСТВА 843 было принято выше, через x обозначаем распределение вероятностей последовательности X = (Xm) m>0 с X0 = x. (Пространство Ω предполагается координатно заданным с ω = (x0 , x1 , . . .) и Xm (ω) = xm .) Согласно (слегка измененному) утверждению (9) из § 4 гл. IV, n o max Xm > a 6 2 0 {Xn > a} (14) 0 06m6n для всякого a > 0. Введем марковский момент τ = τ (ω), полагая τ (ω) = inf{0 6 m 6 n : Xm (ω) > a}. (15) (Как обычно, полагаем inf ∅ = ∞.) Покажем, как, используя введенный марковский момент, можно было бы дать «легкое доказательство» неравенства (14), если допускать, что с такими (случайными) моментами можно действовать так же, как с детерминированными. Имеем (ср. с доказательством леммы 1 в § 4 гл. IV) 0 {Xn > a} = > 0 {Xn 0 {(Xn − Xτ ∧n) + Xτ ∧n > a} > − Xτ ∧n > 0, Xτ ∧n > a} = − Xτ ∧n > 0} 0 {Xτ ∧n > a} > n o 1 1 1 > 0 {Xτ ∧n > a} = 0 {τ 6 n} = 0 max Xm > a , (16) 2 0 {Xn 2 2 06m6n где мы воспользовались казалось бы «почти очевидным» свойством независимости величин Xn − Xτ ∧n и Xτ ∧n , верным, конечно, для детерминированных моментов τ , но не верным, вообще говоря, для случайных моментов τ (задача 4). (Так что это «легкое доказательство» нельзя признать корректным.) Приведем теперь действительно «правильное доказательство» неравенства (14), основанное на применении строго марковского свойства (13). Поскольку {Xn > a} ⊆ {τ 6 n}, то 0 {Xn > a} = 0 (I{Xn >a} ; τ 6 n). (17) Введем функции Hm = Hm (x0 , x1 , . . .), полагая ( 1, если m 6 n и xn−m > a, Hm (x0 , x1 , . . .) = 0 в остальных случаях. Из их определения следует, что на множестве {τ 6 n} ( 1, если xn > a, (Hτ ◦ θτ ) (x0 , x1 , . . .) = 0 в остальных случаях, (18) 844 ГЛ. VIII. МАРКОВСКИЕ ЦЕПИ и поэтому, с учетом (17) и того, что {Xn > a} ⊆ {τ 6 n} и {τ 6 n} ∈ Fτ , находим 0 {Xn > a} = 0 (Hτ ◦ θτ ; τ 6 n) = 0 ( 0 (Hτ ◦ θτ | Fτ ); τ 6 n). (19) По строго марковскому свойству (13) на множестве {τ 6 n} 0 (Hτ ◦ θτ | Fτ ) = ψ (τ , Xτ ) Согласно определению ψ (m, x) = x Hm , x {Xn−m > a} > x Hm = ( 0 -п. н.). (20) и для x > a x {Xn−m > x} > 1 2 (последнее неравенство следует из симметричности распределений величин ξ1 , ξ2 , . . .). Тем самым на множестве {τ 6 n} 0 (Hτ ◦ θτ | Fτ ) > 1 2 ( -п. н.). (21) Отсюда и из (19), (20) получаем требуемое неравенство (14). 4. Если обратиться к уравнению Колмогорова– –Чепмена (13) и уравнению (38) в § 12 гл. I, то можно отметить их большое сходство. Естественно поэтому проанализировать те общие моменты и те отличия, которые содержатся в их формулировках и их выводах. (Мы ограничиваемся рассмотрением лишь однородных марковских цепей с дискретным множеством состояний E.) Имеем для n > 1, 1 6 k 6 n, i и j из E, что (с учетом формул (1) и (2)) X X i I(Xn = j)I(Xk = α) = i {Xn = j, Xk = α} = i {Xn = j} = α∈E α∈E = X i[ i (I(Xn α∈E = = j)I(Xk = α) | Fk)] = i [I(Xk = α) i (I(Xn X i [I(Xk = α) i (I(Xn−k = j) ◦ θk | Fk)] = i [I(Xk = α) Xk I(Xn−k = j)] = i [I(Xk = α) α I(Xn−k α∈E (1) = (1) X = j) | Fk)] = (2) α∈E (2) = X α∈E = X = j)] = α∈E = X α∈E i I(Xk = α) α I(Xn−k = j) = X α∈E i {Xk = α} α {Xn−k = j}, (22) § 2. ОБОБЩЕННОЕ МАРКОВСКОЕ И СТРОГО МАРКОВСКОЕ СВОЙСТВА 845 что и есть уравнение Колмогорова– –Чепмена (13) из § 12 гл. I, записанное там в виде X (k) (n−k) (n) pi j = piα pα j . α∈E Если в (22) заменить время k на марковский момент τ (со значениями 1, 2, . . . , n) и воспользоваться вместо марковского свойства (2) строго марковским свойством (7), то получим (задача 5) следующую естественную (обобщенную) форму уравнения Колмогорова– –Чепмена: X (23) i {Xτ = α} α {Xn−τ = j}. i {Xn = j} = α∈E И в формуле (22), и в формуле (23) суммирование ведется по фазовой переменной α ∈ E. В формуле же (38) из § 12 гл. I суммирование ведется по временно́й переменной. Заметив это, предположим сейчас, что τ – – марковский момент со значениями в {1, 2, . . . }. Начиная так же, как и при выводе указанной формулы (38), находим, что i {Xn = j} = = = = = n X k=1 n X k=1 n X k=1 n X k=1 n X i {Xn i I(Xn i[ = j, τ = k} + i {Xn = j, τ > n + 1} = = j)I(τ = k) + i {Xn = j, τ > n + 1} = i (I(Xn = j)I(τ = k) | Fk)] + = j) | Fk)] + = = j, τ > n + 1} = i {Xn = j, τ > n + 1} = i [I(τ = k) i (I(Xn i [I(τ = k) i (I(Xn−k = j) ◦ θk | Fk)] + i [I(τ = k) Xk I(Xn−k = j)] + k=1 n X i {Xn i {Xn i {Xn = j, τ > n + 1} = = j, τ > n + 1}. (24) k=1 В п. 7 § 12 гл. I момент τ = τ j , где τ j = min{1 6 k 6 n : Xk = j} с условием, что τ j = n + 1, если множество { · } = ∅. Тем самым в этом 846 ГЛ. VIII. МАРКОВСКИЕ ЦЕПИ случае (24) естественно упрощается: i {Xn = j} = n X i (I(τ j = k) Xτ j I(Xn−k = j)) = k=1 = n X i (I(τ j = k) j I(Xn−k = j)) = n X i I(τ j = k) j I(Xn−k = j) = k=1 k=1 = n X i {τ j = k} j {Xn−k = j}, k=1 превращаясь в уравнение (38) из § 12 гл. I: pi(n) j = n X (n−k) fi(k) . j p jj (25) k=1 Из (24) можно получить и другие полезные формулы, в которых (в отличие от уравнения Колмогорова– –Чепмена) суммирование ведется по временно́й переменной. Так, например, пусть марковский момент τ (α) = min{1 6 k 6 n : Xk = α(k)}, а (детерминированная) функция α = α(k), 1 6 k 6 n, и марковская цепь таковы, что i {τ (α) 6 n} = 1 (для данных i и n). Тогда из (24) находим, что n X i [I(τ (α) = k) Xτ (α) I(Xn−k = j)] = i {Xn = j} = k=1 = n X i I(τ (α) = k) α(k) I(Xn−k = j), k=1 т. е. i {Xn = j} = n X i {τ (α) = k} α(k) {Xn−k = j}. k=1 (Ср. с (23).) 5. Задачи. 1. Доказать, что функция ψ (x) = x H из замечания в п. 1 является E -измеримой. 2. Доказать свойство (12). 3. Доказать свойство (13). 4. Верно ли свойство независимости величин Xn − Xτ ∧n и Xτ ∧n в примере из п. 3? 5. Доказать формулу (23). § 3. ПРЕДЕЛЬНЫЕ РАСПРЕДЕЛЕНИЯ 847 § 3. О проблематике предельных, эргодических и стационарных распределений вероятностей для марковских цепей 1. В § 1 уже было отмечено, что вопрос асимптотического поведения стохастических систем с отсутствием последействия, описываемых марковскими цепями, является одним из центральных вопросов теории марковских случайных процессов. Связано это в известной степени с тем, что при весьма широких условиях марковский характер таких систем приводит к тому, что они как бы «стабилизируются», входят в «стационарный режим». Предельное поведение однородных марковских цепей X = (Xn) n>0 можно изучать с разных точек зрения. Например, можно исследовать вопрос о P 1 n−1 сходимости π -почти наверное функционалов типа f(Xm) при n → ∞ n m=0 для различных функций f = f(x), как это было в эргодической теореме для стационарных в узком смысле случайных последовательностей (теорема 3 в § 3 гл. V). Представляет интерес изучение условий справедливости закона больших чисел, как в § 12 гл. I. В дальнейшем изложении основной акцент будет сделан не на подобные вопросы сходимости типа почти наверное или по вероятности, а на вопросы асимптотического поведения вероятностей перехода P (n) (x; A) за n шагов (см. (10) в § 1) при n → ∞ и на вопросы существования нетривиальных стационарных (инвариантных) мер q = q(A), т. е. таких, что q(E) > 0 и ] q(A) = P(x; A) q(dx), (1) где P(x; A) – – переходная функция (за один шаг). Подчеркнем, что в определении (1) вовсе не предполагается, вообще говоря, что мера q = q(A) является вероятностной (q(E) = 1). Если эта мера вероятностная, то ее принято называть стационарным, или инвариантным, распределением. Смысл этой терминологии вполне понятен: если взять в качестве начального распределения π распределение q, т. е. считать, что q {X0 ∈ A} = q(A), то в силу (1) окажется, что и для любого n > 1 q {Xn ∈ A} = q(A), т. е. это распределение остается инвариантным по времени. Нетрудно привести пример, когда нет стационарных распределений q = q(A), но есть стационарные меры. Пример. Пусть X = (Xn) n>0 – – марковская цепь, порожденная схемой Бернулли, т. е. пусть Xn+1 = Xn + ξn+1 , где ξ1 , ξ2 , . . . – – последовательность независимых одинаково распределенных случайных величин с {ξn = +1} = 848 ГЛ. VIII. МАРКОВСКИЕ ЦЕПИ = p, {ξn = −1} = q. Пусть X0 = x, где x ∈ {0, ±1, . . . }. Ясно, что здесь переходная функция P(x; {x + 1}) = p, P(x; {x − 1}) = q. Нетрудно проверить, что одно из решений (1) есть мера q(A) такая, что q({x}) = 1 для всякого x ∈ {0, ±1, . . . }. Если p 6= q > 0, то мера q(A) с q({x}) = (p/q) x есть вторая инвариантная мера. Очевидно, что каждая из этих мер является невероятностной и вероятностных инвариантных мер здесь нет. Этот простой пример показывает, что для существования стационарного (инвариантного) распределения требуются определенные предположения о рассматриваемых марковских цепях. Вопрос о предельных значениях переходных вероятностей P (n) (x; A) при n → ∞ интересен прежде всего с точки зрения существования предела, не зависящего от начального состояния x. При этом надо иметь в виду, что вполне может случиться, что никакого предельного распределения просто не существует, скажем, может быть, что lim P (n) (x; A) = 0 для любого A ∈ E и всякого начального состояния x ∈ E. Достаточно, например, взять в предшествующем примере p = 1, т. е. рассматривать детерминированное движение вправо. (См. также примеры 4 и 5 в § 8; ср. с задачей 6 в § 5.) В случае произвольного фазового пространства (E, E ) отыскание условий существования стационарных (инвариантных) распределений, существования предельных значений переходных вероятностей (с теми или иными их свойствами) представляет собой весьма трудную задачу (см., например, [104]). Однако, в случае счетного пространства состояний («счетных цепей Маркова») здесь получены интересные и довольно-таки прозрачно формулируемые результаты. Они будут изложены в §§ 6 и 7. Но предварительно придется провести детальную классификацию состояний счетных марковских цепей по алгебраическим и асимптотическим свойствам переходных вероятностей. Отметим, что рассматриваемые вопросы о стационарных распределениях и существовании пределов lim P (n) (x; A) тесно связаны между собой. n В самом деле, если lim P (n) (x; A) (= ν (A)) существует, не зависит от x n и является мерой (по A ∈ E ), то из уравнения Колмогорова– –Чепмена ] P (n+1) (x; A) = P (n) (x; dy) P(y; A) (формальным) предельным переходом по n → ∞ найдем, что ] ν (A) = P(y; A) ν (dy). Таким образом, ν = ν (A) будет стационарной (инвариантной) мерой. § 3. ПРЕДЕЛЬНЫЕ РАСПРЕДЕЛЕНИЯ 849 2. Везде в дальнейшем предполагается, что рассматриваемые марковские цепи X = (Xn) n>0 принимают значения в счетном фазовом пространстве E = {1, 2, . . . }. Для простоты записи переходные функции P(i, {j}) будем обозначать pi j (i, j ∈ E). Переходные вероятности (некой блуждающей «частицы» – – для наглядности) из состояния i в состояние j обозна(n) чаются pi j . Интересующие нас вопросы будут связаны с выяснением условий, при которых: A. Для всех j ∈ E существуют пределы π j = lim pi(n) j , n не зависящие от начальных состояний i ∈ E; B. Эти предельные значения P e = (π1 , π2 , . . .) образуют распределение вероятностей, т. е. π j > 0 и π j = 1; j∈E C. Цепь является эргодической, иначе говоря, предельные значения e = (π1 , π2 , . . .) таковы, что все π j > 0 и P π j = 1; j∈E D. Существует и притом единственное стационарное (инвариантное) P распределение вероятностей Q = (q1 , q2 , . . .), т. е. такое, что q j > 0, qi = 1 и i∈E qj = X q i pi j i∈E для всех j ∈ E. Замечание. Использованный здесь термин «эргодичность» встречался нам в гл. V (эргодичность как свойство метрической транзитивности, эргодическая теорема Биркгофа и Хинчина). В буквальном смысле эти термины относятся к разным объектам, но у них есть и общее – – они отражают то, что речь идет об асимптотическом поведении тех или иных вероятностных характеристик при стремлении временного параметра к бесконечности. 3. Задачи. 1. Приведите примеры марковских цепей, у которых существуют преде(n) лы π j = lim pi j : (a) не зависящие от начальных состояний j; (b) зависящие n от начальных состояний j. 2. Приведите примеры эргодических и неэргодических цепей. 3. Приведите примеры, когда стационарное распределение не является эргодическим. 850 ГЛ. VIII. МАРКОВСКИЕ ЦЕПИ § 4. Классификация состояний марковских цепей по алгебраическим свойствам матриц переходных вероятностей 1. Будем предполагать, что рассматриваемая марковская цепь имеет счетное множество состояний E = {1, 2, . . . } и переходные вероятности pi j , i, j ∈ E. Матрицу (таблицу), образованную этими переходными вероятностями, будем обозначать P = k pi j k или, в более развернутой форме, p11 p12 p13 . . . p21 p22 p23 . . . P= ................. . pi1 pi2 pi3 . . . ................. (Вместо k · k для матриц часто бывает удобнее писать (·).) Приводимая далее классификация состояний марковских цепей полностью определяется алгебраическими свойствами матриц переходных вероятностей P и их степеней P (n) , n > 1. Матрица переходных вероятностей P полностью определяет одноша(n) говые переходы из состояния в состояние. Матрицы же P (n) = k pi j k определяют (в силу марковского свойства) переходы за n шагов. Скажем, матрица 1/2 1/2 P= 0 1 и соответствующий ей граф (см. § 12 гл. I) показывают, что определяемое ими движение «частицы», блуждающей по состояниям 0 и 1, таково, что за один шаг возможен переход 0 → 1 (с вероятностью 1/2), но переход 1 → 0 невозможен. Ясно, что переход 1 → 0 невозможен и за любое число шагов, что видно, конечно, и из структуры матриц P (n) = 2−n 1 − 2−n , 0 1 (n) показывающей, что p10 = 0 при любом n > 1. В этом примере состояние 1 является таким, что в него можно войти (из состояния 0), но нельзя из него выйти. Рассмотрим граф на рис. 36, по которому легко восстановить и соответствующую матрицу переходов P. Из вида этого графа ясно, что здесь имеется три состояния (левая часть рисунка), выйдя из которых, обратно вернуться невозможно. § 4. КЛАССИФИКАЦИЯ СОСТОЯНИЙ МАРКОВСКИХ ЦЕПЕЙ 851 С точки зрения «будущего» поведения «частицы», блуждающей в соответствии с данным графом, эти три состояния несущественны (и называются несущественными) по той указанной причине, что из них возможен выход, но в них невозможно возвращение. 1 Несущественные состояния 1/2 1/2 1 1/2 1 1/2 1/2 Существенные состояния 1/2 Рис. 36. Такие «несущественные» состояния, не представляющие интереса, можно сразу отбросить, сосредоточив все внимание на классификации лишь оставшихся «существенных» состояний. (Данному описательному определению «несущественных» и «существенных» состояний можно придать и точную формулировку в терминах свойств переходных вероятностей (n) pi j , i, j ∈ E, n > 1; задача 1.) 2. Чтобы расклассифицировать существенные состояния или группы таких состояний, нам понадобится ряд определений. Определение 1. Говорят, что состояние j достижимо из состояния i (n) (0) (обозначение: i → j), если найдется такое n > 0, что pi j > 0 (pi j = 1, если i = j, и 0, если i 6= j). Состояния i и j называются сообщающимися (обозначение: i ↔ j), если i → j и j → i, т. е. они являются взаимно достижимыми. Лемма 1. Свойство сообщаемости «↔» (взаимной достижимости) есть отношение эквивалентности состояний (марковской цепи с матрицей переходных вероятностей P). Доказательство. По определению отношения эквивалентности (в данном случае отношения «↔») надо проверить его рефлексивность (i ↔ i), симметричность (если i ↔ j, то j ↔ i) и транзитивность (если i ↔ j, j ↔ k, то i ↔ k). Первые два свойства следуют непосредственно из определения сообщаемости состояний. Транзитивность вытекает из уравнения Колмогоро(n) (m) ва– –Чепмена: если pi j > 0, p jk > 0, то X (n) (m) (n+m) (m) pik = pil plk > pi(n) j p jk > 0, l∈E т. е. i → k. Аналогично, k → i. Тем самым, i ↔ k. 852 ГЛ. VIII. МАРКОВСКИЕ ЦЕПИ Будем относить все сообщающиеся между собой состояния i, j, k, . . . (i ↔ j, j ↔ k, k ↔ i, . . .) к одному классу. Тогда любые такие классы состояний или совпадают, или же не пересекаются. Следовательно, отношение сообщаемости разбивает все множество (существенных) состояний E на конечное или счетное число непересекающихся множеств E1 , E2 , . . . (E = E1 + E2 + . . .). Эти множества будем называть неразложимыми классами (существенных сообщающихся) состояний. Марковскую цепь, все состояния которой образуют один неразложимый класс, будем называть неразложимой. Для иллюстрации введенных понятий рассмотрим цепь с пространством состояний E = {1, 2, 3, 4, 5} и матрицей переходных вероятностей 1/3 2/3 0 0 0 1/4 3/4 0 0 0 P1 0 . = P= 0 0 1 0 0 0 P2 0 0 1/2 0 1/2 0 1 0 0 0 Граф этой цепи с пятью состояниями имеет следующий вид: 2/3 1/3 3/4 1 1/4 1/2 1 2 3 5 4 1/2 1 Ясно, что у рассматриваемой цепи есть два неразложимых класса E1 = = {1, 2}, E2 = {3, 4, 5}, и исследование ее свойств сводится к исследованию свойств каждой из двух цепей, множествами состояний которых являются множества E1 и E2 , а матрицы переходных вероятностей равны соответственно P1 и P2 . Рассмотрим теперь какой-нибудь нераз1 ложимый класс E. Для примера пусть им бу1/2 1/2 дет класс, изображенный на рис. 37. 1/2 1/2 Заметим, что здесь возвращение в каждое состояние возможно лишь за четное чис3 4 ло шагов, переход в соседнее состояние – – за нечетное число шагов, а матрица переход1/2 1/2 ных вероятностей имеет блочную структуру: 1/2 1/2 0 0 1/2 1/2 2 0 0 1/2 1/2 . P= Рис. 37. Пример марков1/2 1/2 0 0 ской цепи с периодом d = 2 1/2 1/2 0 0 § 4. КЛАССИФИКАЦИЯ СОСТОЯНИЙ МАРКОВСКИХ ЦЕПЕЙ 853 Отсюда видно, что класс E = {1, 2, 3, 4} разбивается на два подкласса C0 = {1, 2} и C1 = {3, 4}, обладающих следующим свойством цикличности: за один шаг из C0 «частица» непременно переходит в C1 , а из C1 – – в C0 . 3. Приведенный пример показывает, что, по-видимому, и в общем случае можно дать соответствующую классификацию неразложимых классов состояний на циклические подклассы. С этой целью нам понадобятся некоторые определения и один факт из теории чисел. Определение 2. Пусть ϕ = (ϕ1 , ϕ2 , . . .) – – некоторая последовательность неотрицательных чисел ϕn > 0, n > 1. Периодом последовательности ϕ (обозначение: d(ϕ)) называется число d(ϕ) = НОД{ n > 1 : ϕn > 0 }, где НОД(Mϕ) есть Наибольший Общий Делитель множества Mϕ тех индексов n > 1, для которых ϕn > 0; если ϕn = 0, n > 1, то Mϕ = ∅ и НОД(Mϕ) полагается равным нулю. По-другому можно сказать, что последовательность ϕ имеет период d(ϕ), если из того, что ϕn > 0, следует, что d(ϕ) делит n (т. е. n должно иметь вид d(ϕ)k с некоторым k > 1) и d(ϕ) является наибольшим среди всех тех чисел d, которые обладают таким свойством (т. е. таких, что n = dl с некоторым целым l > 1). Так, например, последовательность ϕ = (ϕ1 , ϕ2 , . . .) такая, что ϕ4k > 0 для k = 1, 2, . . . и ϕn = 0 для n 6= 4k, имеет период d(ϕ) = 4, а не 2, хотя ϕ2l > 0 для l = 2, 4, 8. Определение 3. Говорят, что последовательность ϕ = (ϕ1 , ϕ2 , . . .) апериодическая, если ее период d(ϕ) = 1. Следующий элементарный результат из теории чисел будет в дальнейшем полезен при классификации состояний по свойству цикличности. Лемма 2. Пусть M – – некоторое множество неотрицательных целых чисел (M ⊆ E), замкнутое относительно сложения и такое, что НОД(M) = 1. Тогда при некотором n0 все числа n > n0 будут принадлежать M. Применим эту лемму к множеству M = Mϕ, беря в качестве последова(1) (2) тельности ϕ = (ϕ1 , ϕ2 , . . .) последовательность (p jj , p jj , . . .) или после(d) (2d) довательность (p jj , p jj , . . .), d > 1, где j – – некоторое состояние марковской цепи, имеющей матрицу переходных вероятностей P = k pi j k, а (n) p jj – – элемент матрицы P (n) , n > 1, P (1) = P. (При этом будем говорить, что состояние j имеет период d(j), если d(j) есть период последовательности (1) (2) (p jj , p jj , . . .).) Тогда получим следующий результат. 854 ГЛ. VIII. МАРКОВСКИЕ ЦЕПИ Теорема 1. Пусть состояние j имеет период d = d(j). Если d = 1, то найдется такое n0 = n0 (j), что для всех n > n0 пе(n) реходные вероятности p jj > 0. Если d > 1, то найдется такое n0 = n0 (j, d), что для всех n > n0 (nd) переходные вероятности p jj > 0. Если d > 1 и pi(m) j > 0 для некоторых i ∈ E и m > 1, то найдется такое n0 = n0 (j, d, m), что pi(m+nd) > 0 для всех n > n0 . j Приведем теперь теорему, показывающую, что период состояний неразложимого класса обладает свойством «однотипности». Теорема 2. Пусть E∗ = {i, j, . . . } – – некоторый неразложимый класс (сообщающихся) состояний из множества E. Все состояния такого класса являются «однотипными» в том смысле, что они имеют один и тот же период (обозначаемый d(E∗) и называемый периодом класса E∗). Доказательство. Пусть i, j ∈ E∗ . Тогда найдутся такие k и l, что (k) (l) pi j > 0 и p ji > 0. Но тогда в силу уравнения Колмогорова– –Чепмена X (k) (l) (k+l) (k) (l) pii = pia pai > pi j p ji > 0, a∈E и, значит, k + l должно делиться на d(i) – – период состояния i ∈ E∗ . (n) Пусть d(j) – – период состояния j ∈ E∗ и n таково, что p jj > 0. Тогда n должно делиться на d(j) и так как (n+k+l) pii (k) (n) (l) > pi j p jj p ji > 0, то n + k + l делится на d(i). Но k + l делится на d(i), а значит, n делится (n) на d(i) и поскольку d(j) = НОД{ n : p jj > 0 }, то d(i) 6 d(j). По симметрии d(j) 6 d(i), и, следовательно, d(i) = d(j). 4. Если множество состояний E∗ ⊆ E образует неразложимый класс (сообщающихся состояний) и d(E∗) = 1, то о таком классе говорят как об апериодическом классе состояний. Рассмотрим теперь случай d(E∗) > 1. Переходы из состояния в состояние внутри такого класса могут осуществляться весьма причудливым образом (как в рассмотренном выше примере марковской цепи с периодом d(E∗) = 2; см. рис. 37). Оказывается, однако, что в этих переходах, из одной группы состояний в другую, имеет место вполне определенная «цикличность»: Теорема 3. Пусть E∗ – – неразложимый класс состояний, E∗ ⊆ E, с периодом d = d(E∗) > 1. Тогда найдутся d групп состояний C0 , C1 , . . . , Cd−1 , называемых циклическими подклассами (E∗ = C0 + C1 + . . . + Cd−1), характеризуе- § 4. КЛАССИФИКАЦИЯ СОСТОЯНИЙ МАРКОВСКИХ ЦЕПЕЙ 855 мые тем, что в моменты времени n = p + kd с p = 0, 1, . . . , d − 1 и k = 0, 1, . . . «частица» будет находиться в подклассе C p с переходом в следующий момент в C p+1 , затем в C p+2 , . . . , в Cd−1 , из Cd−1 в C0 и т. д. Доказательство. Зафиксируем некоторое состояние i0 ∈ E∗ и введем следующие подклассы: C0 = {j ∈ E∗ : если pi(n) > 0, то n = kd, k = 0, 1, . . . }, 0j C1 = {j ∈ E∗ : если pi(n) > 0, то n = kd + 1, k = 0, 1, . . . }, 0j ................................................................ Cd−1 = {j ∈ E∗ : если pi(n) > 0, то n = kd + (d − 1), k = 0, 1, . . . }. 0j Ясно, что E∗ = C0 + C1 + . . . + Cd−1 . Покажем, что движение «частицы» из подкласса в подкласс осуществляется описанным в теореме способом; см. рис. 38. C0 В самом деле, рассмотрим некоторое состояние i ∈ C p , и пусть состояние j ∈ E∗ таково, что pi j > 0. Покажем, что тогда непреCd −1 C1 менно j ∈ C (p+1) (mod d) . (n) Пусть n таково, что pi0 j > 0. Тогда n может быть представлено в виде n = p + kd с некоторыми p = 0, 1, . . . , d − 1 и k = = 0, 1, . . . Значит, n ≡ p (mod d), и поэтоC3 C2 му n + 1 ≡ (p + 1) (mod d). Отсюда следует, Рис. 38. Движение по цикли(n+1) что pi0 j > 0 (по определению периода d = ческим подклассам = d(E∗)), и, значит, j ∈ C (p+1) (mod d) , что и требовалось установить. Заметим, что из приведенных рассуждений следует, что матрица P переходных вероятностей имеет блочную структуру: C0 C0 C1 .. . Cd −1 C1 ... Cd −1 856 ГЛ. VIII. МАРКОВСКИЕ ЦЕПИ Предположим сейчас, что блуждающая «частица», эволюция которой управляется матрицей P, начинает свое движение из некоторого состояния в подклассе C0 . Тогда в каждый из моментов времени n = p + kd эта «частица» будет находиться (в силу определения подклассов C0 , C1 , . . . , Cd−1) в множестве C p . Следовательно, с каждым таким множеством состояний C p можно свя(d) зать новую марковскую цепь с матрицей переходов k pi j k, где i, j ∈ C p . Эта новая цепь будет неразложимой и апериодической. Множество всех состояний E Несущественные состояния Существенные состояния E1 E3 E2 Неразложимые классы C0 C1 Cd−1 Циклические подклассы Рис. 39. Классификация состояний марковской цепи по арифметическим свойствам вероятностей pi(n) j . Таким образом, принимая во внимание проведенную классификацию (на несущественные и существенные состояния, неразложимые классы и циклические подклассы; см. сводный рис. 39), можно сделать такой вывод: При исследовании вопросов предельного поведения переходных вероятностей pi(n) j , n > 1, i, j ∈ E, определяющих блуждание «марковской частицы», можно ограничиваться рассмотрением лишь того случая, когда фазовое пространство E само является единственным неразложимым апериодическим классом состояний. В этом предположении саму марковскую цепь X = (Xn) n>0 с таким фазовым пространством и матрицей переходных вероятностей P называют неразложимой и апериодической. § 5. КЛАССИФИКАЦИЯ СОСТОЯНИЙ МАРКОВСКИХ ЦЕПЕЙ 857 5. Задачи. 1. Придать рассмотренному в конце п. 1 описательному определению несущественных и существенных состояний точную формулировку в терминах свойств переходных вероятностей pi(n) j , i, j ∈ E, n > 1. 2. Пусть P – – матрица переходных вероятностей неразложимой марковской цепи с конечным числом состояний. Пусть P2 = P. Исследовать структуру этой матрицы P. 3. Пусть P – – матрица переходных вероятностей конечной марковской цепи X = (Xn) n>0 . Пусть σ1 , σ2 , . . . – – последовательность независимых, одинаково распределенных, неотрицательных, целочисленных случайных величин, независимых от X, и пусть τ0 = 0, τn = σ1 + . . . + σn , n > 1. Показать, что последовательность Xh = (Xhn) n>0 с Xhn = Xτn является цепью h переходных вероятностей этой цепи. Показать, Маркова. Найти матрицу P что если состояния i и j сообщающиеся для цепи X, то они будут таковыми и для цепи Xh . 4. Рассматривается марковская цепь с двумя состояниями, E = {0, 1}, и матрицей переходных вероятностей α 1−α P= , 0 < α < 1, 0 < β < 1. 1−β β Опишите структуру матриц P (n) , n > 2. § 5. Классификация состояний марковских цепей по асимптотическим свойствам переходных вероятностей 1. Пусть X = (Xn) n>0 – – однородная марковская цепь со счетным множеством состояний E = {1, 2, . . . } и переходными вероятностями pi j = = i {X1 = j}, i, j ∈ E. Положим fii(n) = i {Xn = i, Xk 6= i, 1 6 k 6 n − 1} (1) и (для i 6= j) fi(n) j = i {Xn = j, Xk 6= j, 1 6 k 6 n − 1}. (2) (n) Понятно, что fii есть вероятность первого возвращения в состояние (n) i в точности на n-м шаге, а fi j – – вероятность первого попадания в состояние j в точности на n-м шаге в предположении, что X0 = i. Если положить σi (ω) = inf{ n > 1 : Xn (ω) = i } (3) 858 ГЛ. VIII. МАРКОВСКИЕ ЦЕПИ (n) с σi (ω) = ∞, когда стоящее здесь множество { · } = ∅, то вероятности fii (n) и fi j можно будет представить также в следующем виде: fii(n) = i {σi = n}, Введем для i, j ∈ E величины fi j = fi(n) j = ∞ X i {σ j = n}. (4) fi(n) j . (5) < ∞}. (6) n=1 Из (4) ясно, что fi j = i {σ j Иначе говоря, fi j – – это есть вероятность того, что «частица», начинающая блуждать из состояния i, рано или поздно попадет в состояние j. Особо важна в дальнейшем вероятность fii – – вероятность того, что «частица», выходящая из состояния i, рано или поздно в него вернется. Именно эти вероятности используются в следующих определениях. Определение 1. Состояние i ∈ E называется возвратным (рекуррентным – – recurrent, persistent), если fii = 1. Определение 2. Состояние i ∈ E называется невозвратным (транзиентным – – transient), если fii < 1. Имеют место следующие критерии возвратности и невозвратности. Теорема 1. a) Возвратность состояния i ∈ E равносильна любому из следующих свойств: X (n) pii = ∞. i {Xn = i б. ч.} = 1 или n b) Невозвратность состояния i ∈ E равносильна любому из следующих свойств: X (n) pii < ∞. i {Xn = i б. ч.} = 0 или n Таким образом, согласно этой теореме: fii = 1 ⇔ i {Xn fii < 1 ⇔ i {Xn = i б. ч.} = 1 ⇔ = i б. ч.} = 0 ⇔ X n X n pii(n) = ∞, (7) pii(n) < ∞. (8) Замечание. Напомним, что, согласно таблице 1 в § 1 гл. II, событие {Xn = i б. ч.} – – это множество тех исходов ω, для которых Xn (ω) = i для § 5. КЛАССИФИКАЦИЯ СОСТОЯНИЙ МАРКОВСКИХ ЦЕПЕЙ 859 бесконечного числа (б. ч.) индексов n. Если при этом An = {ω : Xn (ω) = i}, ∞ S T то {Xn = i б. ч.} = Ak ; см. указанную таблицу. n=1 k=n Доказательство. Можно сразу отметить, что импликация X (n) pii < ∞ ⇒ i {Xn = i б. ч.} = 0 (9) n (n) является (в силу того, что pii = i {Xn = i}) следствием леммы Бореля– – Кантелли (см. утверждение a) в этой лемме, § 10 гл. II). Покажем, что X (n) fii = 1 ⇔ pii = ∞. (10) n Из однородности и марковского свойства следует, что для любых наборов (i1 , . . . , ik) и (j1 , . . . , jn) i (X1 , . . . , Xk) = (i1 , . . . , ik), (Xk+1 , . . . , Xk+n) = (j1 , . . . , jn) = = i (X1 , . . . , Xk) = (i1 , . . . , ik) ik (X1 , . . . , Xn) = (j1 , . . . , jn) . Отсюда непосредственно вытекает (ср. с выводом формулы (38) в § 12 гл. I и формулы (25) § 2 этой главы), что pi(n) j = i {Xn = j} = n−1 X i {X1 6= j, . . . , Xn−k−1 6= j, Xn−k = j, Xn = j} = i {X1 6= j, . . . , Xn−k−1 6= j, Xn−k = j} k=0 = n−1 X k=0 = n−1 X (n−k) fi j (k) p jj = k=0 Итак, n X (k) (n−k) fi j p jj j {Xk = j} = . k=1 (n) pi j = n X (k) (n−k) fi j p jj . (11) k=1 (0) Полагая j = i, находим (с pii = 1), что ∞ X n=1 pii(n) = ∞ X n X n=1 k=1 fii(k) pii(n−k) = ∞ X k=1 fii(k) ∞ X n=k pii(n−k) = fii ∞ X pii(n) = n=0 = fii 1 + ∞ X n=1 (n) pii ! . (12) 860 ГЛ. VIII. МАРКОВСКИЕ ЦЕПИ Отсюда ясно, что ∞ X ∞ P (n) pii < ∞ ⇒ fii = n=1 Пусть теперь ∞ P n=1 N X (n) pii = n=1 и, значит, N X n X k=1 (n) . (13) pii (n) pii = ∞. Тогда (k) (n−k) fii pii = N X (k) fii (k) fii > N X (k) fii k=1 > N X (n−k) pii n=k k=1 N P fii = 1+ n=1 n=1 k=1 ∞ X (n) pii n=1 ∞ P n=1 N P l=0 6 N X (k) fii k=1 N X (l) pii l=0 (n) pii (l) pii → 1, N → ∞. Итак, ∞ X n=1 (n) pii = ∞ ⇒ fii = 1. (14) Импликации (13) и (14) немедленно приводят к справедливости следующих взаимных импликаций: ∞ X pii(n) < ∞ ⇔ fii < 1, (15) n=1 ∞ X n=1 (n) pii = ∞ ⇔ fii = 1. (16) Для завершения доказательства теоремы осталось показать, что fii < 1 ⇔ fii = 1 ⇔ i {Xn = i б. ч.} = 0, i {Xn = i б. ч.} = 1. (17) (18) С интуитивной точки зрения эти свойства весьма понятны. Так, если fii = 1, то это означает, что i {σi < ∞} = 1, т. е. «частица» рано или поздно вернется в то же самое состояние i, откуда она начала свое движение. Но тогда, по строго марковскому свойству, с этого (случайного) момента «жизнь частицы» как бы начинается заново. Продолжая эти рассмотрения, приходим к тому, что события {Xn = i} будут осуществляться для бесконечного числа индексов n, т. е. i {Xn = i б. ч.} = 1. § 5. КЛАССИФИКАЦИЯ СОСТОЯНИЙ МАРКОВСКИХ ЦЕПЕЙ 861 Проведем формальное доказательство свойств (17) и (18). Рассмотрим для данного состояния i ∈ E вероятность того, что число возвращений в i больше или равно m. Мы утверждаем, что эта вероятность равна (fii) m . Действительно, если m = 1, то это следует из определения fii . Пусть требуемое утверждение доказано для m − 1. Покажем, что тогда интересующая нас вероятность равна (fii) m . По строго марковскому свойству (см. (8) в § 2) и с учетом того, что событие {σi = k} ∈ Fσi , находим: i {число ∞ X возвращений в i больше или равно m) = i (σi = = k и число возвращений в i после момента k больше или равно m − 1} = k=1 = ∞ X i {σi = k} i (по = ∞ X k=1 крайней мере m − 1 значение из Xσi +1 , Xσi +2 , . . . равно i | σi = k) = k=1 i {σi = k} i (по крайней мере m − 1 значение из X1 , X2 , . . . равно i) = = ∞ X (k) fii (fii) m−1 = fii (fii) m−1 = (fii) m . k=1 Отсюда вытекает, что ( 1, m i {Xn = i б. ч.} = lim (fii ) = m→∞ 0, если fii = 1, если fii = 0. (19) Эта формула показывает, что если A = {An б. ч.} (= lim An), где An = = {Xn = i}, то для вероятности i (A) справедлив «закон 0 или 1», т. е. i (A) принимает лишь два значения 0 или 1. (Отметим, что это свойство не вытекает непосредственно из утверждений a) и b) леммы Бореля– – Кантелли (§ 10 гл. II), поскольку события An , n > 1, являются, вообще говоря, зависимыми.) Из (19) и того свойства, что i (A) принимает лишь значения 0 и 1, получаем требуемые импликации в (17) и (18). 2. Из доказанной теоремы вытекает следующее простое, но важное свойство невозвратных состояний. 862 ГЛ. VIII. МАРКОВСКИЕ ЦЕПИ Теорема 2. Если состояние j невозвратно, то для любого i ∈ E ∞ X n=1 и, значит, для любого i ∈ E (n) (20) pi j < ∞ (n) pi j → 0, (21) n → ∞. (0) Доказательство. Из (11) (с p jj = 1) ∞ X n=1 (n) pi j = ∞ X n X (k) (n−k) fi j p jj = n=1 k=1 где мы учли, что fi j = ∞ X (k) fi j k=1 ∞ P ∞ X (n) p jj = fi j n=0 ∞ X (n) p jj 6 n=0 ∞ X n=0 (n) p jj < ∞, (k) k=1 fi j 6 1 (как вероятность того, что частица, вы- шедшая из состояния i, рано или поздно попадет в состояние j). Свойство (21) очевидным образом следует из (20). 3. Перейдем теперь к рассмотрению возвратных состояний. Каждое возвратное состояние i ∈ E можно отнести к одному из двух типов в зависимости от конечности или бесконечности среднего времени первого возвращения µi = ∞ X nfii(n) (= i σi ) (22) n=1 (n) в это же состояние. (Напомним, что, согласно (1), fii есть вероятность первого возвращения в точности через n шагов.) Определение 3. Возвратное состояние i ∈ E называется положительным, если !−1 ∞ X (n) −1 µi = nfii > 0, (23) n=1 и нулевым, если µ−1 i = ∞ X n=1 (n) nfii !−1 = 0. (24) Таким образом, согласно этому определению, первое возвращение в нулевое (возвратное) состояние происходит (в среднем) за бесконечное время. Среднее же время первого возвращения в положительное (возвратное) состояние является конечным. § 5. КЛАССИФИКАЦИЯ СОСТОЯНИЙ МАРКОВСКИХ ЦЕПЕЙ 863 4. Следующий рисунок наглядно иллюстрирует классификацию состояний марковской цепи, основанную на понятиях возвратности и невозвратности, положительной возвратности и нулевой возвратности. Множество всех состояний Возвратные состояния Положительные состояния Невозвратные состояния Нулевые состояния Рис. 40. Классификация состояний марковской цепи по асимптотическим свойствам вероятностей pii(n) . 5. Теорема 3. Пусть состояние j ∈ E марковской цепи является возвратным и апериодическим (d(j) = 1). Тогда для любого i ∈ E (n) pi j → fi j , µj n → ∞. (25) Если к тому же состояния i и j сообщающиеся (i ↔ j), т. е. принадлежат одному и тому же неразложимому классу, то (n) pi j → 1 , µj n → ∞. (26) Приводимое ниже доказательство будет существенно опираться на утверждение леммы 1, являющейся одним из ключевых результатов «дискретной теории восстановления». По поводу иного доказательства теоремы 3, основанного на идеях каплинга (coupling, § 8 гл. III), см., например, [104] , [105] . Лемма 1 (основная лемма «дискретной теории восстановления»). Пусть ϕ = (ϕ1 , ϕ2 , . . .) – – апериодическая (d(ϕ) = 1) последовательность неотрицательных чисел, по которой строится последовательность u = (u0 , u1 , . . .) в соответствии со следующим рекуррентным правилом: u0 = 1 и для любого n > 1 un = ϕ1 un−1 + ϕ2 un−2 + . . . + ϕn u0 . (27) 864 ГЛ. VIII. МАРКОВСКИЕ ЦЕПИ Тогда при n → ∞ где µ = ∞ P un → µ−1 , nϕn . n=1 По поводу доказательства этой леммы см., например, [69, т. 1, XIII.10] . Доказательство теоремы 3. Пусть сначала i = j. Покажем, что (n) p jj → 1 , µj (28) n → ∞. С этой целью перепишем формулу (11) (для i = j) в следующем виде: (n) (1) (n−1) p jj = f jj p jj (2) (n−2) + f jj p jj (0) (1) (n) (0) + . . . + f jj p jj , (29) (1) где полагается p jj = 1 и, очевидно, f jj = p jj . Если положить (k) uk = p jj , ϕk = f jj(k) , (30) то (29) переписывается в виде un = ϕ1 un−1 + ϕ2 un−2 + . . . + ϕn u0 , что в точности совпадает с рекуррентной формулой в лемме 1. Требуемый результат (28) будет непосредственно вытекать из утверждения этой леммы, как только убедимся в том, что период d f (j) после(1) (2) довательности (f jj , f jj , . . .) равен единице, если (как это предположено) (1) (2) период последовательности (p jj , p jj , . . .) равен единице. Это в свою очередь вытекает из следующего общего утверждения. Лемма 2. Для всякого j ∈ E (n) НОД(n > 1 : p jj > 0) = НОД(n > 1 : f jj(n) > 0), (31) т. е. периоды d f (j) и d(j) совпадают. Доказательство. Пусть (n) M = { n : p jj >0} и Поскольку M f ⊆ M, то M f = { n : f jj(n) > 0 }. НОД(M) 6 НОД(M f ), т. е. d(j) 6 d f (j). Обратное же неравенство вытекает из следующего смысла вероятно(n) (n) стей p jj и f jj , n > 1. Если «частица», вышедшая из состояния j, через n шагов оказывается (n) снова в этом состоянии (p jj > 0), то это означает, что ее движение было § 5. КЛАССИФИКАЦИЯ СОСТОЯНИЙ МАРКОВСКИХ ЦЕПЕЙ 865 (k ) таким, что она из j в j впервые вернулась через k1 шагов (f jj 1 > 0), (k ) (k ) затем – – через k2 шагов (f jj 2 > 0), . . . , через kl шагов (f jj l > 0). Значит, n = k1 + k2 + . . . + kl . Число d f (j) делит k1 , k2 , . . . , kl и поэтому делит n. Но d(j) – – наибольшее из тех чисел, которые делят те n, для (n) которых p jj > 0. Тем самым, d(j) > d f (j). Итак, d(j) = d f (j), что, между прочим, говорит о том, что при опре(n) делении периода d(j) состояния j формулой d(j) = НОД(n > 1 : p jj > 0) (n) можно было бы пользоваться также формулой d(j) = НОД(n > 1 : f jj > 0). Лемма 2 доказана. Перейдем теперь к доказательству свойства (25) в случае i 6= j. Запишем формулу (11) в следующем виде: (n) pi j = ∞ X (k) (n−k) fi j p jj , (32) k=1 (l) где положено p jj = 0, l < 0. (n) Поскольку здесь p jj → ∞ P 1 (k) и f 6 1, то по теореме о мажорируемой µ j k=1 i j сходимости (теорема 3 в § 6 гл. II) lim n ∞ X (k) (n−k) fi j p jj k=1 = ∞ X (k) (n−k) fi j lim p jj = n k=1 (33) k=1 Из (32) и (33) получаем, что (n) lim pi j = n ∞ 1 1 X (k) f . fi j = µj µj ij fi j , µj (34) т. е. справедливо утверждение (25). Наконец, если мы покажем, что при дополнительном предположении i ↔ j (т. е. i, j принадлежат одному и тому же неразложимому классу сообщающихся состояний) вероятность fi j = 1, то из (34) будет следовать и свойство (26). Состояние j предположено возвратным. Следовательно, по утверждению a) теоремы 1 j {Xn = j б. ч.} = 1. Поэтому для всякого m p ji(m) = j ({Xm = i} ∩ {Xn = j б. ч.}) 6 X 6 j {Xm = i, Xm+1 6= j, . . . , Xn−1 6= j, Xn = j} = n>m = X n>m (m) (n−m) p ji fi j (m) = p ji fi j , (35) 866 ГЛ. VIII. МАРКОВСКИЕ ЦЕПИ где предпоследнее равенство есть следствие обобщенного марковского свойства (см. (2) в § 2). В силу того, что E – – класс сообщающихся состояний, найдется m такое, что p ji(m) > 0. Поэтому из (35) заключаем, что fi j = 1. 6. Естественно сформулировать аналог приведенной теоремы 3 и в том случае, когда период d интересующего нас состояния j может быть произвольным (d = d(j) > 1). Справедлива следующая Теорема 4. Пусть состояние j ∈ E марковской цепи является возвратным с периодом d = d(j) > 1, и пусть i – – некоторое состояние из E (быть может, и совпадающее с j). a) Предположим, что i и j принадлежат одному и тому же неразложимому классу C ⊆ E с (циклическими) подклассами C0 , C1 , . . . , Cd−1 , занумерованными так, что j ∈ C0 , i ∈ Ca , где a ∈ {0, 1, . . . , d − 1}, и движение по ним осуществляется в циклическом порядке: C0 → C1 → → . . . → Ca → . . . → Cd−1 → C0 . Тогда при n → ∞ (nd+a) pi j → d . µj (36) b) В общем случае, когда i и j могут принадлежать разным неразложимым классам, при n → ∞ " n # d X (kd+a) (nd+a) pi j → (37) f jj µj k=0 для всякого a = 0, 1, . . . , d − 1. Доказательство. a) Пусть сначала a = 0, т. е. i и j принадлежат одному и тому же неразложимому классу C и, более того, принадлежат одному и тому же циклическому подклассу C0 . (d) Рассмотрим переходные вероятности pi j , i, j ∈ C, и по ним построим (в соответствии с конструкциями § 1) новую марковскую цепь. Для этой новой цепи состояние j будет возвратно и апериодично. Состояния i и j для этой новой цепи останутся сообщающимися (i ↔ j). Тем самым по свойству (26) из теоремы 3 (nd) pi j → 1 ∞ P k=1 (kd) kf jj = d ∞ P k=1 (kd) (kd) f jj = d , µj где последнее равенство следует из того, что f jj(l) = 0 для всех l, не деля∞ P щихся на d, и по определению µ j = lf jj(l) . l=1 § 5. КЛАССИФИКАЦИЯ СОСТОЯНИЙ МАРКОВСКИХ ЦЕПЕЙ 867 Предположим теперь, что формула (36) доказана для a = 0, 1, . . . , r (6 d − 2). По теореме о мажорируемой сходимости (теорема 3 § 6 гл. II) pi(nd+r+1) = j ∞ X k=1 pik pk(nd+r) → j ∞ X k=1 pik d d = . µj µj Тем самым требуемая формула (36) будет верна и для a = r + 1 (6 d − 1), т. е. по индукции установлена справедливость формулы (36) для всех a = 0, 1, . . . , d − 1. b) Для любых i и j из E справедлива следующая формула (см. (11)): pi(nd+a) j = nd+a X (nd+a−k) fi(k) , j p jj k=1 a = 0, 1, . . . , d − 1. (nd+a−k) По предположению период состояния j равен d. Поэтому p jj = 0, за исключением лишь случаев, когда k − a имеет вид rd. Значит, pi(nd+a) = j n X ((n−r)d) fi(rd+a) p jj . j r=0 Отсюда и из установленного свойства (36), применяя снова теорему о мажорируемой сходимости, приходим к требуемому утверждению (37). 7. Как было отмечено в конце § 4, при рассмотрении вопроса классификации марковских цепей по асимптотическим свойствам переходных вероятностей можно ограничиваться рассмотрением лишь апериодических неразложимых цепей. Результаты, изложенные в теоремах 1– –3, в сущности, содержат все необходимое для полной классификации таких цепей. Предварительно приведем одно вспомогательное утверждение из числа результатов о том, что для неразложимых цепей все состояния относятся к одному и тому же («возвратному» или «невозвратному») типу. (Ср. со свойством «однотипности» в теореме 2 § 4.) Лемма 3. Пусть E – – неразложимый класс (сообщающихся состояний). Тогда все его состояния или только возвратные, или только невозвратные. Доказательство. Пусть у цепи есть хотя бы одно невозвратное соP (n) стояние, скажем, состояние i. По теореме 1 pii < ∞. n Пусть теперь j – – какое-то другое состояние. В силу того, что E – – неразложимый класс сообщающихся состояний (i ↔ j), найдутся такие k 868 ГЛ. VIII. МАРКОВСКИЕ ЦЕПИ (k) (l) и l, что pi j > 0 и p ji > 0. Но тогда из очевидного неравенства (n+k+l) pii (k) (n) (l) > pi j p jj p ji следует, что X (l) pii(n+k+l) > pi(k) j p ji P n (n) p jj < ∞. P n (n) p jj . n n По предположению X (n) (k) (l) pii < ∞ и k, l таковы, что pi j p ji > 0. Значит, В силу утверждения b) теоремы 1 отсюда следует, что состояние j также невозвратно. Иначе говоря, если у неразложимой цепи хотя бы одно состояние является невозвратным, то таким же будет и любое другое состояние. Пусть теперь i – – возвратное состояние. Покажем, что тогда и все остальные состояния возвратны. Предположим, что (в дополнение к возвратному состоянию i) есть хотя бы одно невозвратное состояние. Тогда по уже доказанному все другие состояния также должны быть невозвратными, что противоречит предположению, что i – – возвратное состояние. Тем самым наличие хотя бы одного возвратного состояния автоматически влечет то, что все остальные состояния (у неразложимой цепи) тоже возвратны. Результат этой леммы полностью оправдывает ту (общепринятую) терминологию, когда о неразложимых цепях (а не только об отдельных состояниях) говорят, что они «возвратные», «невозвратные». Теорема 5. Пусть марковская цепь состоит из одного неразложимого класса E апериодических состояний. Для такой цепи реализуется лишь только одна из следующих трех возможностей. (i) Цепь невозвратна. В этом случае для всех i, j ∈ E (n) lim pi j = 0, n причем сходимость к нулю достаточно «быстрая» в том смысле, что X (n) pi j < ∞. n (ii) Цепь возвратная и нулевая. В этом случае также для всех i, j ∈ E (n) lim pi j = 0, n § 5. КЛАССИФИКАЦИЯ СОСТОЯНИЙ МАРКОВСКИХ ЦЕПЕЙ 869 но сходимость достаточно «медленная» в том смысле, что X (n) pi j = ∞ n и среднее время µ j первого возвращения из j в j равно бесконечности. (iii) Цепь возвратная и положительная. В этом случае для всех i, j ∈ E lim pi(n) j = n 1 > 0, µj где µ j – – среднее время возвращения из j в j, которое конечно. Доказательство. Утверждения в (i) доказаны в теореме 1 b) и теореме 2. Утверждения в (ii) и (iii) вытекают непосредственно из теоремы 1 а) и теоремы 3. 8. Обратимся к случаю конечных марковских цепей, т. е. случаю, когда множество состояний E состоит из конечного числа элементов. Оказывается, что в этом случае из трех возможностей (i), (ii), (iii) в теореме 5 имеет место только третья. Теорема 6. Пусть конечная марковская цепь является неразложимой и апериодической. Тогда такая цепь будет возвратной и (n) положительной. При этом lim pi j = n 1 > 0. µj Доказательство. Предположим, что цепь невозвратна. Тогда если число r состояний цепи конечно (E = {1, 2, . . . , r}), то lim n r X j=1 (n) pi j = r X (n) lim pi j . n (38) j=1 Левая часть, очевидно, равна единице. Но предположение невозвратности влечет за собой (согласно (i) теоремы 5) то, что правая часть равна нулю. Полученное противоречие исключает первую возможность в теореме 5. Пусть теперь состояния цепи возвратные. В силу того, что по утверждению теоремы 5 остались лишь две возможности ((i) и (iii)), надо убедиться в том, что возможность (ii) исключается. (n) Но поскольку в этом случае lim pi j = 0 для всех i, j ∈ E, то так же, как и в n случае невозвратных состояний, используя (38), приходим к противоречию. Тем самым остается лишь третья возможность (iii). 9. Задачи. 1. Рассмотрим неразложимую цепь с множеством состояний 0, 1, 2, . . . Для того чтобы она была невозвратной, необходимо и достаточно, чтобы 870 ГЛ. VIII. МАРКОВСКИЕ ЦЕПИ система уравнений u j = P ui pi j , j = 0, 1, . . . , имела ограниченное решение i такое, что ui 6≡ c, i = 0, 1, . . . 2. Для того чтобы неразложимая цепь с множеством состояний 0, 1, . . . была возвратной, достаточно существования такой P последовательности ui pi j . (u0 , u1 , . . .) с ui → ∞, i → ∞, что для всех j 6= 0 u j > i 3. Для того чтобы неразложимая цепь с состояниями 0, 1, . . . была возвратной и положительной, необходимо и достаточно, чтобы система P ui pi j , j = 0, 1, . . . , имела не тождественно равное нулю уравнений u j = i P |ui | < ∞. решение, для которого i 4. Рассматривается марковская цепь с состояниями 0, 1, . . . и переходными вероятностями p00 = r0 , p01 = p0 > 0, pi > 0, j = i + 1, r > 0, j = i, i pi j = q j = i − 1, i > 0, 0 в остальных случаях. Пусть ρ0 = 1, ρm = ждений: q1 . . . qm . Доказать справедливость следующих утверp1 . . . pm цепь возвратна ⇔ цепь невозвратна ⇔ цепь положительная ⇔ цепь нулевая ⇔ 5. Показать, что X ρm = ∞, X ρm < ∞, X ρm = ∞, X ρm = ∞, fik > fi j f jk , ∞ X (n) (n) sup pi j 6 fi j 6 pi j . n 1 < ∞, pm ρm X 1 = ∞. pm ρm X n=1 6. Показать, что для любой марковской цепи со счетным множеством (n) состояний всегда существуют пределы для pi j в смысле Чезаро: lim n n fi j 1 X (k) pi j = . n µj k=1 § 6. СТАЦИОНАРНЫЕ И ЭРГОДИЧЕСКИЕ РАСПРЕДЕЛЕНИЯ 871 7. Рассматривается марковская цепь ξ0 , ξ1 , . . . с ξk+1 = (ξk) + + ηk+1 , k > 0, где η1 , η2 , . . . – – последовательность независимых одинаково распределенных случайных величин с {ηk = j} = p j , j = 0, 1, . . . Выпишите матрицу переходных вероятностей и покажите, P что если p0 > 0, p0 + p1 < 1, то цепь возвратна тогда и только тогда, когда kpk 6 1. k § 6. О предельных, стационарных и эргодических распределениях для счетных марковских цепей 1. Начнем с одного общего результата, хорошо проясняющего прежде всего связь между предельными значениями e = (π1 , π2 , . . .), где π j = lim pi(n) j , j = 1, 2, . . . , и стационарными распределениями Q = n = (q1 , q2 , . . .). Теорема 1. Рассматривается марковская цепь со счетным множеством состояний E = {1, 2, . . . } такая, что ее переходные вероятности pi j , i, j ∈ E, таковы, что существуют пределы π j = lim pi(n) j , j ∈ E, n не зависящие от начальных состояний i ∈ E. Тогда ∞ ∞ P P (a) π j 6 1, πi pi j = π j , j ∈ E; j=1 i=1 (b) имеет место альтернатива: либо ∞ P π j = 0, j ∈ E), либо π j = 1; ∞ P π j = 0 (и, значит, все j=1 j=1 (c) если ∞ P π j = 0, то у марковской цепи отсутствуют стаци∞ P онарные распределения; если же π j = 1, то вектор предельных j=1 j=1 значений e = (π1 , π2 , . . .) образует для этой цепи стационарное распределение и других стационарных распределений у этой цепи уже не существует. Доказательство. Имеем ∞ ∞ ∞ X X X (n) (n) πj = lim pi j 6 lim pi j = 1 (1) j=1 j=1 n n и для любых j ∈ E, k ∈ E ∞ X i=1 πi pi j = ∞ X i=1 (n) lim pki pi j 6 lim n n ∞ X i=1 j=1 (n) = πj. pki pi j = lim pk(n+1) j n (2) 872 ГЛ. VIII. МАРКОВСКИЕ ЦЕПИ Замечание. Полезно отметить, что возникшие здесь неравенства и нижние пределы, конечно же, являются следствиями «леммы Фату», применяемой, правда, не к тому случаю, когда интеграл Лебега определяется по вероятностной мере, как в § 6 гл. II, а к тому случаю, когда интегрирование ведется по σ-конечной (неотрицательной) мере. Итак, вектор предельных вероятностей e = (π1 , π2 , . . .) обладает следующими свойствами: ∞ X ∞ X πj 6 1 и j=1 πi pi j 6 π j , (3) j ∈ E. i=1 Покажем, что в последнем неравенстве на самом деле имеет место равенство. Пусть для некоторого j0 ∈ E ∞ X πi pi j0 < π j0 . (4) i=1 Тогда ∞ X πj > j=1 ∞ ∞ X X j=1 πi pi j i=1 ! = ∞ X i=1 Полученное противоречие показывает, что венством ∞ P πi ∞ X pi j = j=1 ∞ P ∞ X πi . i=1 πi pi j = π j . Вместе с нера- i=1 π j 6 1 это доказывает свойство (a). j=1 Для доказательства (b) заметим, что из соотношения рациями получаем, что для любого n > 1 и любого j ∈ E ∞ X ∞ P πi pi j = π j ите- i=1 πi pi(n) j = πj. i=1 Отсюда по теореме Лебега о мажорируемой сходимости (теорема 3 § 6 гл. II) ! ∞ ∞ ∞ X X X (n) (n) π j = lim πi pi j = πi lim pi j = πi π j , n i=1 n i=1 i=1 т. е. πj 1 − ∞ X i=1 πi ! = 0, j ∈ E, § 6. СТАЦИОНАРНЫЕ И ЭРГОДИЧЕСКИЕ РАСПРЕДЕЛЕНИЯ и, значит, ∞ P j=1 873 ∞ ∞ P P 1− πi , и πi = 0. Так что a(1 − a) = 0 с a = πj i=1 i=1 поэтому или a = 1, или a = 0, что и доказывает утверждение (b). Для доказательства (c) предположим, что Q = (q1 , q2 , . . .) – – какое-то ∞ P (n) стационарное распределение. Тогда qi pi j = q j и по теореме о мажориi=1 ∞ P руемой сходимости qi π j = q j , j ∈ E. i=1 Поэтому, если Q – – стационарное распределение, то ∞ P qi = 1 и, следо- i=1 вательно, необходимым образом это стационарное распределение должно ∞ P быть таким, что q j = π j для всех j ∈ E. Так что если π j = 0, то не может j=1 ∞ P выполняться свойство qi = 1, и, значит, в этом случае стационарного распределения нет. i=1 Согласно (b), остается еще возможность ∞ P π j = 1. В этом случае, j=1 согласно (a), e = (π1 , π2 , . . .) само является стационарным распределением и из изложенного выше следует, что если Q – – какое-то другое стационарное распределение, то оно должно совпадать с e, что и доказывает ∞ P единственность стационарного распределения в случае π j = 1. j=1 2. Теорема 1 дает достаточное условие существования (к тому же единственного) стационарного распределения. Это условие заключается в требовании, чтобы для всех j ∈ E существовали предельные значения (n) π j = lim pi j , не зависящие от i ∈ E и притом такие, что π j > 0 хотя бы для n одного состояния j ∈ E. В то же самое время более общий вопрос существования преде(n) лов lim pi j довольно детально был изучен в § 5 с привлечением таких n «внутренних» свойств цепей, как неразложимость, периодичность, возвратность и невозвратность, положительная и нулевая возвратность. Поэтому естественно сформулировать условия существования стационарного распределения именно в терминах этих «внутренних» свойств, определяемых структурой матрицы переходных вероятностей pi j , i, j ∈ E. Понятно также, что если в этих терминах будут указаны условия, при которых все предельные значения π j > 0, j ∈ E, то в соответствии с определением (см. свойство C в § 3) вектор e = (π1 , π2 , . . .) будет образовывать эргодическое предельное распределение. Ответы на эти вопросы даются в следующих двух теоремах. 874 ГЛ. VIII. МАРКОВСКИЕ ЦЕПИ Теорема 2 («основная теорема о стационарных распределениях»). Рассматривается марковская цепь со счетным множеством состояний E. Для существования единственного стационарного распределения необходимо и достаточно, чтобы (a) существовал в точности один неразложимый подкласс и (b) все состояния были положительно возвратны. Теорема 3 («основная теорема об эргодических распределениях»). Рассматривается марковская цепь со счетным множеством состояний. Для существования эргодического распределения необходимо и достаточно, чтобы цепь являлась (a) неразложимой, (b) положительно возвратной и (c) апериодической. 3. Доказательство теоремы 2. Необходимость. Пусть рассматриваемая цепь имеет и притом единственное стационарное распределение, h Покажем, что тогда в множестве состояний E долкоторое обозначим Q. жен найтись и притом единственный положительно возвратный подкласс. Обозначим через N потенциально возможное число таких подклассов (0 6 N 6 ∞). Пусть N = 0 и j – – некоторое состояние из E. Поскольку положительно возвратных классов нет, то состояние j может быть или невозвратным, или же нулевым возвратным. В первом случае из теоремы 2 § 5 следует, что для всех i ∈ E пределы lim pi(n) j существуют и равны нулю. n Но и во втором случае эти пределы также существуют и равны нулю, что следует из свойства (37) в § 5 и того, что µ j = ∞, поскольку состояние j является нулевым возвратным. (n) Итак, в случае N = 0 пределы π j = lim pi j существуют для всех i, j ∈ E n и равны нулю. Поэтому по утверждению (c) теоремы 1 в этом случае нет стационарных распределений и, следовательно, этот случай N = 0 исключается предположением существования стационарного распределеh ния Q. Пусть теперь N = 1. Обозначим единственный положительно возвратный класс через C. Если период этого класса d(C) = 1, то, согласно свойству (26) в теореме 3 § 5, (n) pi j → µ−1 j , n → ∞, для всех i, j ∈ C. Если же j ∈ / C, то это состояние невозвратно и тогда по § 6. СТАЦИОНАРНЫЕ И ЭРГОДИЧЕСКИЕ РАСПРЕДЕЛЕНИЯ 875 свойству (21) в теореме 2 § 5 pi(n) j → 0, для всех i ∈ E. Положим n → ∞, ( µ−1 (> 0), j qj = 0, если j ∈ C, если j ∈ / C. (5) Тогда, поскольку множество C 6= ∅, то по теореме 1 набор Q = (q1 , q2 , . . .) образует единственное стационарное распределение, и, следовательh но, Q = Q. Предположим теперь, что период d(C) > 1. Пусть C0 , C1 , . . . , Cd−1 – – циклические подклассы (положительно возвратного) класса C. (d) Относительно матрицы переходных вероятностей pi j , i, j ∈ C, каждый из подклассов Ck , k = 0, 1, . . . , d − 1, является возвратным и апериодическим. Тогда, если i, j ∈ Ck , то, согласно формуле (36) из § 5, (nd) pi j → d > 0. µj Поэтому на каждом множестве Ck набор {d/µ j , j ∈ Ck } образует (относи(d) тельно матрицы pi j , i, j ∈ C) единственное стационарное распределение (в силу свойства (b) теоремы 1). P 1 P d 1 = 1, т. е. = . Отсюда, в частности, следует, что j∈Ck Положим ( µ−1 j , qj = 0, µj j∈Ck µj j ∈ C = C0 + . . . + Cd−1 , j∈ / C, d (6) и покажем, что для исходной цепи набор Q = (q1 , q2 , . . .) образует единственное стационарное распределение. В самом деле, если i ∈ C, то X (nd−1) (nd) pii = pi j p ji . j∈C Тогда, как и в (1), находим, что X X d d (nd) (nd−1) = lim pii > p ji , lim pi j p ji = µi и, значит, n j∈C n X 1 1 > p . µi µ j ji j∈C j∈C µj (7) 876 ГЛ. VIII. МАРКОВСКИЕ ЦЕПИ Но X 1 i∈C µi = d−1 X k=0 X 1 i∈Ck µi ! = d−1 X 1 k=0 d = 1. (8) Так же, как и в доказательстве теоремы 1 (см. (3) и (4)), из (7) и (8) выводится, что на самом деле в (7) имеет место знак равенства: X 1 1 = p . µi µ j ji (9) j∈C Поскольку qi = µ−1 i > 0, то (9) показывает, что набор Q = (q1 , q2 , . . .) образует стационарное распределение, в силу теоремы 1 единственное. h Следовательно, Q = Q. Пусть, наконец, 2 6 N < ∞ или N = ∞. Обозначим соответствующие положительно возвратные подклассы через C 1 , . . . , C N , если N < ∞, и C 1 , C 2 , . . . , если N = ∞. Пусть Qk = (q1k , q2k , . . .) – – стационарное распределение для класса C k , построенное по формуле (ср. с (5), (6)) ( µ−1 j ∈ Ck , j > 0, q kj = 0, j∈ / Ck . Тогда для любых неотрицательных чисел a1 , a2 , . . . таких, что ∞ P k=1 ak = 1 (aN +1 = . . . = 0, если N < ∞), набор a1 Q 1 + . . . + aN Q N + . . . будет, очевидно, образовывать стационарное распределение. Тем самым допущение 2 6 N 6 ∞ приводит к существованию континуума стационарных распределений, что противоречит сделанному предположению о единственности стационарного распределения. Итак, проведенное доказательство показывает, что возможен лишь случай N = 1. Иначе говоря, существование (единственного) стационарного распределения влечет наличие у цепи в точности одного неразложимого класса, состоящего из положительно возвратных состояний. Достаточность. Если у цепи существует неразложимый подкласс положительно возвратных состояний, т. е. имеет место случай N = 1, то тогда из предшествующих рассмотрений вытекают (в силу утверждения (с) теоремы 1) и существование, и единственность стационарного распределения. Тем самым теорема 2 полностью доказана. § 6. СТАЦИОНАРНЫЕ И ЭРГОДИЧЕСКИЕ РАСПРЕДЕЛЕНИЯ 877 4. Доказательство теоремы 3. По существу, все необходимое для этого доказательства содержится в теореме 2 и рассмотрениях при ее доказательстве. Достаточность. Если пользоваться обозначениями из доказательства теоремы 2, то по условиям теоремы мы имеем N = 1, C = E и d(E) = 1 (апериодичность). Тогда из рассмотрений «случая N = 1» в доказательстве теоремы 2 следует, что набор Q = (q1 , q2 , . . .) с q j = µ−1 j , j ∈ E, образует одновременно стационарное и эргодическое распределение, поскольку все µ−1 j < ∞, j ∈ E. Итак, существование эргодического распределения e = (π1 , π2 , . . .) установлено (e = Q). Необходимость. Если существует эргодическое распределение e = = (π1 , π2 , . . .), то, согласно теореме 1, существует и единственно стационарное распределение Q, совпадающее с e. Из утверждения теоремы 2 (и ее доказательства) следует, что случаи N = 0 и 2 6 N 6 ∞ не могут реализоваться, и, значит, N = 1 и существует лишь один неразложимый класс C, состоящий из положительно возвратных состояний. Все, что осталось сделать, так это показать, что C = E и d(E) = 1. Если предположить, что C 6= E и d(C) = 1, то опять же из рассмотрения «случая N = 1» в доказательстве теоремы 2 вытекало бы, что существует (n) состояние j ∈ / C такое, что pi j → 0 для всех i ∈ E. Это, однако, вступает в (n) противоречие с тем, что π j = lim pi j > 0 для всех i ∈ E. n Таким образом, в случае d(C) = 1 имеем C = E и d(E) = 1 (апериодичность). Наконец, если C 6= E и d(C) > 1, то опять же из рассмотрений «случая N = 1» в теореме 2 следует, что тогда имеется стационарное распределение Q = (q1 , q2 , . . .), у которого некоторые q j = 0, что противоречит тому, что Q = e, а e = (π1 , π2 , . . .) – – эргодическое распределение, у которого (по определению) все π j > 0, j ∈ E. 5. По самому определению стационарного (инвариантного) распределения Q = (q1 , q2 , . . .) этот набор подчиняется условиям q j > 0, j ∈ E = {1, 2, . . . }, ∞ X qj = 1 (10) j=1 и при этом должны быть выполнены уравнения qj = ∞ X i=1 q i pi j , j ∈ E. (11) 878 ГЛ. VIII. МАРКОВСКИЕ ЦЕПИ По-другому можно сказать, что стационарное распределение Q = = (q1 , q2 , . . .) есть одно из решений системы уравнений xj = ∞ X xi pi j , (12) j ∈ E, i=1 подчиняющихся условиям неотрицательности (x j > 0, j ∈ E) и норми∞ P рованности xj = 1 . j=1 Если выполнены условия теоремы 3, то стационарное решение существует и является в то же самое время эргодическим. Поэтому по свойству (с) теоремы 1 можно утверждать, что у системы (12) в классе последо∞ P вательностей x = (x1 , x2 , . . .) с x j > 0, j ∈ E, и x j = 1 решение существует j=1 и единственно. На самом деле можно утверждать несколько больше. А именно, здесь также выполнены условия теоремы 3 и, следовательно, существует эргодическое распределение e = (π1 , π2 , . . .). Рассмотрим в этом предположении вопрос о существовании решения у системы (12) в (более широком) классе последовательностей ∞ ∞ P P x = (x1 , x2 , . . .) таких, что x j ∈ R, j ∈ E, |x j | < ∞ и x j = 1. Покажем, j=1 j=1 что в этом классе решение единственное и им является эргодическое распределение e. Действительно, если x = (x1 , x2 , . . .) – – решение, то, пользуясь тем, что ∞ P |x j | < ∞, получаем следующую цепочку равенств: j=1 xj = ∞ X i=1 xi pi j = ∞ X i=1 ∞ X ! xk pki pi j = k=1 = ∞ X k=1 xk ∞ X pki pi j i=1 ! = ∞ X xk pk(2)j = . . . = k=1 ∞ X xk pk(n)j k=1 для любого n > 1. Переходя к пределу по n → ∞, отсюда находим (по ∞ P (n) теореме о мажорируемой сходимости), что x j = xk π j , где π j = lim pk j для любого k ∈ E. По предположению что и требовалось доказать. ∞ P k=1 k=1 n xk = 1. Поэтому x j = π j , j ∈ E, § 7. СТАЦИОНАРНЫЕ И ЭРГОДИЧЕСКИЕ РАСПРЕДЕЛЕНИЯ 879 6. Задачи. 1. Рассмотреть вопрос о стационарных, предельных, эргодических распределениях для марковской цепи с матрицей переходных вероятностей 1/2 0 1/2 0 0 0 0 1 P= 1/4 1/2 1/4 0 . 0 1/2 1/2 0 m P j=1 2. Пусть P = k pi j k – – конечная дважды стохастическая матрица (т. е. m P pi j = 1 для i = 1, . . . , m и pi j = 1 для j = 1, . . . , m). Показать, что i=1 для соответствующей марковской цепи стационарным распределением является вектор Q = (1/m, . . . , 1/m). 3. Пусть X – – марковская цепь с двумя состояниями, E = {0, 1}, и матрицей переходных вероятностей α 1−α P= , 0 < α < 1, 0 < β < 1. 1−β β Исследовать вопрос о предельных, эргодических и стационарных распределениях для этой цепи. § 7. О предельных, стационарных и эргодических распределениях для конечных марковских цепей 1. Согласно теореме 6 § 5, всякая неразложимая и апериодическая марковская цепь с конечным множеством состояний является положительно возвратной. Это обстоятельство дает возможность придать теореме 3 из § 6 следующую формулировку. (Ср. с вопросами A, B, C и D в § 3.) Теорема 1. Рассматривается марковская цепь X = (Xn) n>0 с конечным множеством состояний E = {1, 2, . . . , r}, которая является неразложимой и апериодической. Имеют место следующие утверждения. (n) (a) При всех j ∈ E существуют предельные значения π j = lim pi j , n не зависящие от начального состояния i ∈ E. (b) Предельные значения e = (π1 , π2 , . . . , πr) образуют распределеr P ние вероятностей, т. е. π j > 0 и πi = 1, j ∈ E. i=1 (c) Более того, предельные значения π j = µ−1 j > 0 при всех j ∈ E, где ∞ P µj = nf jj(n) – – среднее время до первого возвращения в состояние j n=1 880 ГЛ. VIII. МАРКОВСКИЕ ЦЕПИ (т. е. µ j = j τ (j) с τ (j) = inf{ n > 1 : Xn = j}), и, следовательно, набор e = (π1 , π2 , . . . , πr) образует эргодическое распределение. (d) Стационарное распределение Q = (q1 , q2 , . . . , qr) существует, является единственным и совпадает с e = (π1 , π2 , . . . , πr). 2. В дополнение к теореме 1 приведем также следующий результат, проясняющий роль «неразложимости» и «апериодичности». Теорема 2. Рассматривается марковская цепь с конечным множеством состояний E = {1, 2, . . . , r}. Следующие условия равносильны: (a) цепь является неразложимой и апериодической (d = 1); (b) цепь является неразложимой, апериодической (d = 1), положительно возвратной; (c) цепь является эргодической; (d) найдется такое n0 , что для всех n > n0 (n) min pi j > 0. i, j∈E Доказательство. Импликация (d) ⇒ (c) была доказана в теореме 1 § 12 гл. I. Обратная импликация (c) ⇒ (d) очевидна. Импликация (a) ⇒ (b) следует из теоремы 6 § 5, импликация (b) ⇒ (a) очевидна. Наконец, равносильность утверждений (b) и (c) содержится в теореме 3 § 6. § 8. Простое случайное блуждание как марковская цепь 1. Под простым d-мерным случайным блужданием понимают однородную марковскую цепь X = (Xn) n>0 , описывающую движение «частицы» по узлам решетки Zd = {0, ±1, ±2, . . . }d , при котором эта «частица» с некоторой вероятностью остается в каждом состоянии и с некоторой вероятностью может перейти в одно из соседних состояний. Пример 1. Пусть d = 1 и множество состояний цепи E = Z = {0, ±1, ±2, . . . }. Пусть матрица переходных вероятностей имеет следующий вид: причем p + q = 1. p, pi j = q, 0 j = i + 1, j = i − 1, в остальных случаях, § 8. ПРОСТОЕ СЛУЧАЙНОЕ БЛУЖДАНИЕ КАК МАРКОВСКАЯ ЦЕПЬ 881 Этой матрице соответствует граф p p p q q q наглядно иллюстрирующий возможные для этой цепи переходы. Если p = 0, то частица детерминированным образом движется влево, если же p = 1, то вправо. Эти «детерминированные» случаи мало интересны, и все состояния здесь являются несущественными. Поэтому будем предполагать, что 0 < < p < 1. В этом предположении состояния цепи образуют один класс существенных сообщающихся состояний. Иначе говоря, в предположении 0 < p < 1 цепь является неразложимой (см. § 4). Для любого j ∈ E в соответствии с формулами биномиального распределения (§ 2 гл. I) (2n) n p jj = C2n (pq) n = (2n)! (pq) n . (n!) 2 (1) Согласно формуле Стирлинга (формула (6) § 2 гл. I; см. также задачу 1) √ n! ∼ 2πn nn e −n . Поэтому из (1) находим, что (4pq) n , πn (2n) p jj ∼ √ и, значит, ∞ X n=1 ∞ X n=1 (2) (2n) (3) (2n) (4) p jj = ∞, если p = q, p jj < ∞, если p 6= q. Из этих формул и теоремы 1 из § 5 получаем следующий результат. Простое одномерное случайное блуждание по множеству E = Z = {0, ±1, ±2, . . . } является возвратным в симметричном случае, т. е. если p = q = 1/2, и невозвратным, если p 6= q. В § 10 гл. I было показано, что в случае p = q = 1/2 при больших n 1 . 2 π n3/2 f jj(2n) ∼ √ (5) 882 ГЛ. VIII. МАРКОВСКИЕ ЦЕПИ Значит, µj = ∞ X n=1 (2n) (2n) f jj = ∞, (6) j ∈ E. Следовательно, здесь все состояния возвратные и нулевые. Поэтому по теореме 5 из § 5 находим, что при всех 0 < p < 1 pi(n) j → 0, n → ∞, для любых i и j. Отсюда получаем (теорема 1 из § 6), что предельные распределения, а также стационарные и эргодические распределения отсутствуют. Пример 2. Пусть d = 2. Будем рассматривать симметричный случай (соответствующий в предыдущем примере случаю p = q = 1/2), когда частица может сдвигаться на единицу вправо, влево, вверх или вниз с вероятностью 1/4. 1/4 1/4 2 Для определенности зафиксируем нулевое состояние 0 = (0, 0) и исследуем вопрос о воз1/4 1/4 вращении или невозвращении «частицы» в это нулевое состояние, предполагая, что в нем 1 1/4 она находилась в начальный момент времени. 1/4 1/4 С этой целью рассмотрим те «траектории» блуждающей частицы, у которых сделано i шагов вправо и i шагов влево и j шагов 0 1/4 1 2 вверх и j шагов вниз. Если 2i + 2j = 2n, то это Рис. 41. Блуждание на означает, что «частица», вышедшая из нулеплоскости вого состояния, через 2n шагов непременно в это состояние вернется. Ясно также, что за нечетное число шагов «частица» в нулевое состояние вернуться не сможет. Отсюда следует, что для вероятностей перехода из состояния 0 в то же самое состояние 0 справедливы следующие формулы: (2n+1) p00 = 0, n = 0, 1, 2, . . . , и (по формуле полной вероятности) (2n) p00 = X (i, j) : i+ j=n (2n)! (i!) 2 (j!) 2 2n 1 4 , n = 1, 2, . . . (7) (см. также п. 2 «Мультиномиальное распределение» в § 2 гл. I). Умножая на (n!) 2 числитель и знаменатель в выражении под знаком суммы в (7), находим, что (2n) p00 = 2n 1 4 n C2n n X i=0 Cni Cnn−i = 2n 1 4 n 2 (C2n ) , (8) § 8. ПРОСТОЕ СЛУЧАЙНОЕ БЛУЖДАНИЕ КАК МАРКОВСКАЯ ЦЕПЬ 883 где мы воспользовались тем, что n X n Cni Cnn−i = C2n i=0 (задача 4 в § 2 гл. I). (2n) По формуле Стирлинга из (8) находим, что p00 ∼ ∞ X n=0 1 , и, значит, πn (2n) p00 = ∞. (9) По симметрии аналогичное утверждение верно, конечно, не только для нулевого состояния, но и для любого состояния (i, j). Как и в случае d = 1, из (9) и теоремы 1 из § 5 получаем следующее утверждение. Простое двумерное симметричное случайное блуждание по множеству E = Z2 = {0, ±1, ±2, . . . }2 является возвратным. Пример 3. Оказывается, что для симметричного случайного блуждания по состояниям E = Zd = {0, ±1, ±2, . . . }d ситуация в случае d > 3 резко отличается от рассмотренных случаев d = 1 и d = 2. Именно, простое d-мерное симметричное случайное блуждание по множеству E = Zd = {0, ±1, ±2, . . . }d для всякого d > 3 является невозвратным. (2n) Доказательство основано на том, что для d > 3 вероятности p jj имеют следующую асимптотику: при n → ∞ (2n) p jj ∼ c(d) , n d /2 (10) где c(d) – – некоторая положительная константа, зависящая от размерности d. Приведем доказательство для случая d = 3, оставляя в качестве задачи случай d > 3. В силу предположения симметричности случайного блуждания «частица» с вероятностью 1/6 сдвигается за один шаг на единицу вдоль одного 884 ГЛ. VIII. МАРКОВСКИЕ ЦЕПИ из шести направлений координатных осей: 1/6 1/6 1/6 1/6 1/6 1/6 Пусть «частица» выходит из состояния 0 = (0, 0, 0). Тогда, как и в случае d = 2, из формул для мультиномиального распределения (§ 2 гл. I) находим, что (2n) p00 = X (i, j) : 06i+ j6n (2n)! (i!) 2 (j!) 2 ((n − i − j)!) 2 X n = 2−2n C2n (i, j) : 06i+ j6n n −n 6 Cn 2−2n C2n 3 Cn = 1 6 = n! i! j! (n − i − j)! 2n n! 1 i! j! (n − i − j)! 3 X (i, j) : 06i+ j6n где h 2n max (i, j) : 06i+ j6n i2 2n 1 3 6 n −n = Cn 2−2n C2n 3 , n! i! j! (n − i − j)! (11) (12) и мы воспользовались тем, что очевидным образом 2n X 1 n! = 1. i! j! (n − i − j)! (i, j) : 06i+ j6n 3 Ниже будет установлено, что Cn ∼ n! . [(n/3)!] 3 (13) Применяя формулу Стирлинга, из (13) находим, что −2n Cn 2 n −n C2n 3 √ 3 3 ∼ 3/2 3/2 . 2π n (14) Тем самым, из (11) следует, что ∞ X n=1 (2n) p00 <∞ (15) § 8. ПРОСТОЕ СЛУЧАЙНОЕ БЛУЖДАНИЕ КАК МАРКОВСКАЯ ЦЕПЬ 885 и, следовательно, согласно теореме 1 из § 5, состояние 0 = (0, 0, 0) является невозвратным. Аналогичное, по симметрии, верно и для любого другого состояния из E = Z3 . Осталось лишь установить формулу (13). Пусть mn (i, j) = n! i! j! (n − i − j)! и i0 = i0 (n), j0 = j0 (n) – – те значения, где max (i, j) : 06i+ j6n mn (i, j) = mn (i0 , j0). Беря четыре точки (i0 − 1, j0), (i0 + 1, j0), (i0 , j0 − 1) и (i0 , j0 + 1) и пользуясь тем, что соответствующие значения mn (i0 − 1, j0), mn (i0 + 1, j0), mn (i0 , j0 − 1) и mn (i0 , j0 + 1) меньше или равны mn (i0 , j0), приходим к четырем неравенствам: n − i0 − 1 6 2j0 6 n − i0 + 1, n − j0 − 1 6 2i0 6 n − j0 + 1. Из этих неравенств можно заключить, что n 3 i0 (n) ∼ , n 3 j0 (n) ∼ , откуда и следует требуемая формула (13). Резюмируя разобранные случаи d = 1, 2, 3, сформулируем следующий результат Пойа (G. Pólya). Теорема. В случае d = 1 или d = 2 простое симметричное случайное блуждание по множеству состояний E = Zd = {0, ±1, ±2, . . . }d является возвратным, а в случае d = 3 (и d > 3) невозвратным. 2. Предшествующие примеры относились к простому случайному блужданию «во всем» пространстве Zd . В настоящем пункте будут рассматриваться примеры простых случайных блужданий, у которых фазовое пространство E строго меньше Zd . При этом мы ограничимся случаем d = 1. Пример 4. Рассматривается простое случайное блуждание с фазовым пространством E = {0, 1, 2, . . . }, где «нулевое» состояние 0 является поглощающим, и со следующим графом переходов: 1 1 0 q p q 2 p q 3 0< p <1 886 ГЛ. VIII. МАРКОВСКИЕ ЦЕПИ Состояние 0 является здесь единственным положительно возвратным состоянием, образующим единственный неразложимый подкласс. (Все остальные состояния невозвратны.) По теореме 2 из § 6 существует и притом единственное стационарное распределение Q = (q0 , q1 , . . .) с q0 = 1 и qi = 0, i = 1, 2, . . . Рассматриваемое блуждание интересно тем, что доставляет пример, когда (при некоторых i и j) пределы lim pi(n) j существуют, но зависят n от начального состояния, что, между прочим, говорит о том, что в этом примере случайного блуждания эргодическое распределение отсутствует. (n) (n) Ясно, что p00 = 1 и p0j = 0 для j = 1, 2, . . . , и простой подсчет пока(n) зывает, что pi j → 0 для всех i, j = 1, 2, . . . (n) Покажем теперь, что для всех i = 1, 2, . . . величины α(i) = lim pi0 су- ществуют и для них справедлива следующая формула: ( (q/ p) i , p > q, α(i) = 1, p 6 q. n (16) Из этой формулы видно, что в случае p > q («наличие тенденции дви(n) жения вправо») предельная вероятность lim pi0 перехода из состояния i n (i = 1, 2, . . .) в состояние 0 действительно зависит от i, убывая с ростом i геометрическим образом. Для доказательства формулы (16) прежде всего заметим, что поскольку P (k) состояние 0 является поглощающим, то pi0(n) = fi0 и, следовательно, k6n (n) предел lim pi0 (= α(i)) существует и равен fi0 , т. е. интересующая нас веn роятность есть вероятность того, что «частица», выходящая из состояния i, рано или поздно достигнет «нулевого» состояния. Для этих вероятностей тем же методом, что и в § 12 гл. I (см. также § 2 гл. VII), выводятся рекуррентные соотношения α(i) = pα(i + 1) + qα(i − 1), (17) при этом α(0) = 1. Общее решение этого уравнения имеет вид α(i) = a + b(q/ p) i , (18) и условие α(0) = 1 дает одно условие на константы a и b: a + b = 1. Если предположить, что q > p, то тогда в силу ограниченности α(i) сразу получаем, что b = 0, а значит, α(i) = 1. Этот результат вполне понятен, поскольку в случае q > p «частица» имеет тенденцию двигаться по направлению к нулевому состоянию. § 8. ПРОСТОЕ СЛУЧАЙНОЕ БЛУЖДАНИЕ КАК МАРКОВСКАЯ ЦЕПЬ 887 Если же p > q, то ситуация обратная – – имеется тенденция хода вправо, и естественно поэтому ожидать, что тогда α(i) → 0, а значит, a = 0 и (19) i → ∞, α(i) = (q/ p) i . (20) Чтобы доказать это равенство, мы не будем устанавливать (19), а поступим иначе. Наряду с поглощающим экраном в точке 0 введем в рассмотрение поглощающий экран в целочисленной точке N. Вероятность того, что выходящая из точки i «частица» достигнет нулевого состояния раньше, чем состояния N, обозначим αN (i). Для вероятностей αN (i) справедливы уравнения (17) с граничными условиями αN (0) = 1, αN (N) = 0, и, как это уже было показано в § 9 гл. I, αN (i) = (q/ p) i − (q/ p) N , 1 − (q/ p) N 0 6 i 6 N. (21) Отсюда lim αN (i) = (q/ p) i , и, следовательно, для доказательства требуеN мого результата (20) надо лишь показать, что α(i) = lim αN (i). (22) N Интуитивно это понятно. Строгое же доказательство можно получить на следующем пути. Будем предполагать, что «частица» выходит из фиксированного состояния i. Тогда α(i) = i (A), (23) где A – – событие, состоящее в том, что найдется такое N, что «частица», выходящая из точки i, достигнет нулевого состояния раньше, чем состояния N. Если AN = {«частица» достигнет 0 раньше, чем N}, то A = ∞ S N =i+1 AN . Ясно, что AN ⊆ AN +1 и i ∞ [ N =i+1 AN ! = lim N →∞ i (AN ). (24) 888 ГЛ. VIII. МАРКОВСКИЕ ЦЕПИ Но αN (i) = i (AN ), так что (22) сразу следует из (23) и (24). Итак, если p > q, то предельные значения lim pi0 зависят от i. Если (n) (n) n же p 6 q, то для любого i lim pi0 = 1 и lim pi j = 0, j > 1. Таким образом, n n в этом случае существует предельное распределение e = (π0 , π1 , . . .) с (n) π j = lim pi j , не зависящими от i. При этом e = (1, 0, 0, . . .). n Пример 5. Рассмотрим простое случайное блуждание с фазовым пространством E = {0, 1, . . . , N}, в котором «граничные» состояния 0 и N являются поглощающими: 1 p 1 0 q 2 q p p q q p N −1 N 1 0< p <1 Здесь существуют два неразложимых положительно возвратных класса {0} и {N}. Все остальные состояния 1, 2, . . . , N − 1 невозвратны. Из доказательства теоремы 2 § 6 следует, что существует континуум стационарных распределений Q = (q0 , q1 , . . . , qN ), которые все имеют следующий вид: q1 = . . . = qN −1 = 0 и q0 = a, qN = b с a > 0, b > 0 и a + b = 1. Согласно результатам п. 2 § 9 гл. I, i N q q − p p , p 6= q, N (n) q (25) lim pi0 = 1 − n p i p = q = 1/2, 1− , N lim n (n) piN = 1 − lim n pi0(n) и lim n pi(n) j = 0, 1 6 j 6 N − 1. Подчеркнем, что здесь, как и в предшествующем примере, предельные значения lim pi(n) j переходных вероятностей зависят от начального состоn яния. Пример 6. Рассмотрим простое случайное блуждание с фазовым пространством E = {0, 1, . . . } и отражающим экраном в «нулевом» состоянии: 1 0 q 1 p q 2 p 3 0< p <1 q Поведение рассматриваемой цепи существенно зависит от p и q. Если p > q, то блуждающая «частица» имеет тенденцию ухода вправо и наличие отражающего экрана в «нулевом» состоянии этому только способствует, в отличие от блуждания в примере 4, где в «нулевом» состоянии § 8. ПРОСТОЕ СЛУЧАЙНОЕ БЛУЖДАНИЕ КАК МАРКОВСКАЯ ЦЕПЬ 889 могло произойти «залипание». Все состояния в этом случае невозвратны; pi(n) j → 0, n → ∞, для всех i, j ∈ E; стационарного и эргодического распределений не существует. Если p < q, то имеется тенденция движения влево и в этом случае цепь возвратна. Таковой же цепь будет и при p = q. Напишем теперь систему уравнений (ср. с (12) в § 6), которой должно подчиняться стационарное распределение Q = (q0 , q1 , . . .): q0 = q1 q, q1 = q0 + q2 q, q2 = q1 p + q3 q, .............. Отсюда q1 = q(q1 + q2), q2 = q(q2 + q3), .............. и, значит, qj = p q j−1 , j = 2, 3, . . . q Если p = q, то тогда q1 = q2 = . . . и, следовательно, неотрицательного ∞ P решения приведенной системы, удовлетворяющего условиям qj = 1 и j=0 q0 = q1 q, не существует. Значит, в случае p = q = 1/2 стационарного распределения не существует. Все состояния цепи в этом случае возвратные. ∞ P Наконец, пусть p < q. Из условия q j = 1 находим, что j=0 h q1 q + 1 + Отсюда q1 = p + q q−p , 2q 2 p q i + . . . = 1. q0 = q1 q = q−p 2 и qj = q−p 2q p j−1 q , j > 2. Пример 7. У рассматриваемого в этом примере простого случайного блуждания фазовое пространство E = {0, 1, . . . , N} и состояния 0 и N 890 ГЛ. VIII. МАРКОВСКИЕ ЦЕПИ являются отражающими экранами: 1 p 1 0 2 p p q q p 0< p <1 N q q N −1 1 Состояния цепи образуют здесь один неразложимый класс. Они являются положительно возвратными с периодом d = 2. По теореме 2 из § 6, у рассматриваемой цепи существует и единственно стационарное N P распределение Q = (q0 , q1 , . . . , qN ). Решая систему уравнений q j = q i pi j i=0 с условием N P i=0 qi = 1, q j > 0, j ∈ E, находим, что p j−1 q , qj = NP −1 p i−1 1+ i=1 q 1 6 j 6 N − 1, (26) и q0 = q1 q, qN = qN −1 q. Эргодическое распределение отсутствует – – это следует из теоремы 3 § 6 и того факта, что у рассматриваемой цепи период d = 2. Можно и непосредственно убедиться в том, что здесь нет эргодического распределения. Пусть, например, N = 2: 1 1 0 q Тогда видно, что (2n) p11 p 0< p <1 2 1 = 1, но (2n+1) p11 (n) = 0. Так что lim p11 не существует. В то же самое время стационарное распределение n Q = (q0 , q1 , q2) есть, и, как следует из (26), оно имеет вид: q0 = 1 q, 2 1 2 q1 = , q2 = 1 p. 2 3. Из материала, изложенного в книге, видно, что простое случайное блуждание является классической моделью, на которой «отрабатывалась» вероятностная идеология, оттачивалась вероятностная техника и были открыты многие вероятностно-статистические закономерности. Так, для сумм Xn = ξ1 + . . . + ξn , n > 1, независимых бернуллиевских случайных величин ξ1 , ξ2 , . . . , принимающих всего лишь два значения и, следовательно, § 8. ПРОСТОЕ СЛУЧАЙНОЕ БЛУЖДАНИЕ КАК МАРКОВСКАЯ ЦЕПЬ 891 приводящих к тому, что X = (Xn) n>1 есть простое случайное блуждание (являющееся марковской цепью), были открыты такие закономерности, как закон больших чисел (гл. I, § 5), теорема Муавра– –Лапласа (гл. I, § 6), закон арксинуса (гл. I, § 10) и многое другое. В этом пункте мы рассмотрим две дискретные модели диффузии, являющиеся хорошей иллюстрацией того, как с помощью простого случайного блуждания можно описывать реальные физические процессы. A. Модель Эренфестов. Как и в примере 7, будем рассматривать простое случайное блуждание с фазовым пространством E = {0, 1, . . . N} и отражающими экранами в состояниях 0 и N. Переходные вероятности задаются в этих состояниях формулами p01 = = 1, pN,N −1 = 1. В других состояниях i = 1, . . . , N − 1 возможны лишь переходы на один шаг влево или вправо с вероятностями 1 − i , j = i + 1, (27) pi j = i N , j = i − 1. N В 1907 г. П. и Т. Эренфесты, [124] , пришли к марковской цепи с такими переходными вероятностями, рассматривая следующую модель статистической механики, описывающую перемещение молекул газа из одной камеры (A или B) в другую (B или A) через малое отверстие в мембране, соединяющей эти камеры. Предполагается, что общее число молекул в рассматриваемых двух камерах равно N и на каждом шаге их перемещение из одной камеры в другую осуществляется следующим образом: случайным образом (с вероятностью 1/N) выбирается одна из молекул и переводится в другую камеру. Причем на каждом шаге выбор молекулы для перемещения происходит независимо от предыстории. Пусть Xn – – число молекул, скажем, в «первой» камере A в момент времени n. Для описанного механизма перемещения молекул имеем (задача 2) свойство марковости: (Xn+1 = j | X0 = i0 , X1 = i1 , . . . , Xn−1 = in−1 , Xn = i) = = (Xn+1 = j | Xn = i) (28) и к тому же (Xn+1 = j | Xn = i) = pi j , (29) где pi j были определены в (27). Для этой модели существует стационарное распределение Q = = (q0 , q1 , . . . , qN ), определяемое (задача 3) следующей биномиальной 892 ГЛ. VIII. МАРКОВСКИЕ ЦЕПИ формулой: q j = CNj 1 2 N , j = 0, 1, . . . , N. (30) Все состояния рассматриваемой цепи являются возвратными (задача 4). Интересно отметить, что максимальное значение вероятностей q j , j = = 0, 1, . . . , N, скажем, при четном N, достигается на «центральном» значении j = N/2, что соответствует наиболее вероятному состоянию «равновесия», когда число молекул в каждой камере одно и то же. Разумеется, это устанавливающееся со временем «равновесие» носит вероятностно-статистический характер (описываемый приведенным выше распределением Q). Отметим также, что на интуитивном уровне возможность «стабилизации» числа молекул по камерам довольно-таки понятна: чем дальше состояние i от «центрального» значения, тем (в соответствии с (27)) больше вероятность того, что движение будет происходить по направлению к этому значению. B. Модель Д. Бернулли– –Лапласа. Рассматриваемая модель, сходная в определенном смысле с моделью Эренфестов, была предложена Даниилом Бернулли (1769 г.) и затем проанализирована Лапласом (1812 г.) в связи с описанием процесса обмена частицами двух несжимаемых жидкостей. Более точно, предполагается, что имеются два контейнера A и B, содержащие вместе 2N частиц, из которых N частиц «белого» цвета и N частиц «черного» цвета. Будем говорить, что «система» находится в состоянии i, где i ∈ E = = {0, 1, . . . , N}, если в контейнере A содержится i частиц «белого» цвета и N −i – – «черного». Предположение «несжимаемости» означает, что в рассматриваемом состоянии i в контейнере B содержится N − i частиц «белого» цвета и i частиц «черного» цвета. Общее число частиц в каждом контейнере остается постоянным и равным N. На каждом шаге n из каждого контейнера случайным образом (т. е. с вероятностью 1/N) выбирается по частице и эти частицы меняются местами. Предполагается, что эти процедуры (случайного) выбора частиц из контейнеров проводятся независимым образом и последующие процедуры, проводимые по той же схеме, не зависят от предшествующих этапов. Пусть Xn – – число частиц «белого» цвета в контейнере A. Тогда описанный механизм обмена частицами приводит к выполнению марковского свойства (28), при этом в формуле (29) переходные вероятности pi j опре- § 8. ПРОСТОЕ СЛУЧАЙНОЕ БЛУЖДАНИЕ КАК МАРКОВСКАЯ ЦЕПЬ деляются следующими выражениями (задача 5): i 2 , j = i − 1, N 2 i pi j = 1− , j = i + 1, N i i 2 1− , j = i, N 893 (31) N и pi j = 0, если |i − j| > 1, i = 0, 1, . . . , N. Как и в модели Эренфестов, все состояния здесь возвратные. Стационарное распределение Q = (q0 , q1 , . . . , qN ) существует, единственно и задается (задача 5) формулами (CN ) 2 j qj = N )2 (C2N , j = 0, 1, . . . , N. (32) 4. В начале этой главы было сказано, что ее основной интерес связан с вопросами «асимптотического поведения (с ростом n) систем с отсутствием последействия». Материал предшествующих параграфов показывает, что это поведение исследовалось с точки зрения того, как при больших n ведут себя переходные вероятности pi(n) j для цепей Маркова со счетным множеством состояний E = {i, j, . . . } и, в частности, для простого случайного блуждания, в котором переходы возможны лишь в соседние состояния. Большой интерес представляет исследование аналогичных вопросов и для цепей Маркова с более сложными пространствами состояний. См. по этому поводу, например, [75] , [117] . 5. Рассмотренные выше две модели (Эренфестов и Бернулли– –Лапласа) были названы дискретными моделями диффузии. Дадим некоторое пояснение этому названию, рассматривая предельное поведение простого случайного блуждания в R. Пусть Sn = ξ1 + . . . + ξn , n > 1, S0 = 0, где ξ1 , ξ2 , . . . – – последовательность независимых одинаково распределенных случайных величин с ξi = 0, ξi = 1. Положим X0n = 0 и ! [nt] S [nt] 1 X n =√ ξk , 0 < t 6 1. Xt = √ n n k=1 Понятно, что последовательность (0, X1N/n , X2N/n , . . . , X1N ) может рассматриваться как простое случайное блуждание в моменты времени ∆, √ √2∆, . . . , 1 n n n с ∆ = 1/n и скачками порядка ∆ (∆Xk∆ ≡ Xk∆ − X (k−1)∆ = ξk ∆). Как уже отмечалось в замечании 4 § 8 гл. VII, это случайное блуждание X n = (Xtn) 06t61 таково, что все его конечномерные распределения слабо 894 ГЛ. VIII. МАРКОВСКИЕ ЦЕПИ сходятся к конечномерным распределениям винеровского процесса (броуновского движения) W = (Wt) 06t61 . Но, более того, там же говорилось, что имеет место и функциональная сходимость, т. е. слабая сходимость распределений процессов X n к распределению процесса W (в том же самом смысле, что и сходимость эмпирических процессов к броуновскому мосту; см. п. 4 § 13 гл. III). Винеровский процесс является типичным (и, более того, основным) примером диффузионных процессов, [69, т. 2] , [21] , [131] . Это обстоятельство и объясняет, почему процессы типа X n и те, которые возникают в моделях Эренфестов и Бернулли– –Лапласа, естественно называть дискретными моделями диффузии. 6. Задачи. √ 1. Доказать формулу Стирлинга (n! ∼ 2π nn+1/2 e −n), воспользовавшись следующими вероятностными соображениями ([106] , задача 27.18). Пусть Sn = X1 + . . . + Xn , n > 1, где X1 , X2 , . . . – – независимые случайные величины, распределенные по закону Пуассона с параметром λ = 1. Докажите последовательно, что n S − n − X nn+1/2 e −n n − k nk n √ √ = ; (a) = e −n n (b) k=0 Law h S − n − i n √ n n k! n! → Law [N − ] , где N – – нормально распределенная случайная величина; h i 1 Sn − n − √ (c) → N− = √ ; n 2π √ n+1/2 −n (d) n! ∼ 2π n e . 2. Установить свойство марковости (28). 3. Доказать формулу (30). 4. Доказать, что все состояния марковской цепи в модели Эренфестов являются возвратными. 5. Проверить справедливость формул (31) и (32). § 9. Задачи об оптимальной остановке для марковских цепей 1. Рассматриваемый ниже материал тесно примыкает к § 13 гл. VII, где излагался «мартингальный» подход к решению задач об оптимальной остановке произвольных стохастических последовательностей. Основной акцент в настоящем параграфе будет сделан на тот случай, когда стохастические последовательности порождаются функциями от состояний § 9. ЗАДАЧИ ОБ ОПТИМАЛЬНОЙ ОСТАНОВКЕ 895 марковских цепей, что позволяет общим результатам из § 13 гл. VII придать простую и наглядную форму и интерпретацию. 2. Будем предполагать, что X = (Xn , Fn , x) – – однородная марковская цепь с дискретным временем и фазовым пространством (E, E ). Предполагается также, что пространство (Ω, F), на котором определены величины Xn = Xn (ω), n > 0, является координатным (как в п. 6 § 1) и сами величины Xn (ω) заданы координатным образом: еслиSω = (x0 , x1 , . . .) ∈ ∈ Ω, то Xn (ω) = xn . Под F понимается σ-алгебра σ ( Fn), где Fn = = σ (x0 , . . . , xn), n > 0. Замечание. В «общей теории оптимальных правил остановки» вовсе нет надобности требовать, чтобы Ω являлось координатным пространством. Но тем не менее и в «общей теории» надо все же предполагать, что оно достаточно «богато». (См. подробности в [78] .) Нам же предположение «координатности» облегчит рассмотрения, в частности, в связи с обобщенным марковским свойством (теорема 1 в § 2), которое было приведено именно при этом допущении. Как и в предыдущих параграфах, через P(x; B) обозначаем переходную функцию рассматриваемой цепи (P(x; B) = x {X1 ∈ B}), x ∈ E, B ∈ E . Пусть T – – оператор перехода за один шаг, действующий на E -измеримые функции f = f(x) со свойством x |f(X1)| < ∞, x ∈ E, по формуле ] (1) (T f) (x) = x f(X1) = f(y) P(x; dy) . E (Для простоты записи вместо (T f) (x) пишут T f(x). Аналогичные соглашения применяются и в других подобных случаях.) 3. Чтобы сформулировать задачу об оптимальной остановке для марковской цепи X, предположим, что задана некоторая E -измеримая действительная функция g = g(x) такая, что x |g(Xn)| < ∞, x ∈ E, для всех n > 0 (или 0 6 n 6 N, если a priori существует некоторое «терминальное» значение N, до которого нужно будет принять «оптимальное решение»). Пусть Mn0 – – класс марковских моментов τ = τ (ω) (относительно фильтрации (Fk) 06k6N ) со значениями в множестве «моментов остановки» {0, 1, . . . , n}. Следующая теорема является «марковской» версией теорем 1 и 2 из § 13 гл. VII. Теорема 1. Пусть для 0 6 n 6 N и x ∈ E «цены» sn (x) = sup τ ∈Mn0 где x – – усреднение по мере x. x g(Xτ ), (2) 896 ГЛ. VIII. МАРКОВСКИЕ ЦЕПИ Пусть τ0n = min{0 6 k 6 n : sn−k (Xk) = g(Xk)} (3) Qg(x) = max(g(x), T g(x)). (4) и Тогда имеют место следующие утверждения. 1) Момент τ0n является оптимальным моментом остановки в классе Mn0 : x g(Xτ0n ) = sn (x) (5) для всех x ∈ E. 2) Функции sn (x) могут быть найдены по формуле sn (x) = Q n g(x), (6) x ∈ E, где Q 0 g(x) = g(x) для n = 0. 3) Функции sn (x), n 6 N, подчиняются рекуррентным соотношениям (s0 (x) = g(x)) sn (x) = max(g(x), Tsn−1 (x)), x ∈ E, 1 6 n 6 N. (7) Доказательство. Воспользуемся результатами теорем 1 и 2 из § 13 гл. VII, примененными к функциям fn = g(Xn), 0 6 n 6 N. С этой целью зафиксируем некоторое «начальное» состояние x ∈ E и рассмотрим введенные в упомянутом § 13 функции VnN и vnN . При этом, чтобы подчеркнуть зависимость от начального состояния, будем писать VnN = VnN (x). Таким образом, VnN (x) = sup x g(Xτ ), (8) τ ∈MN n где MN – класс всех марковских моментов (относительно фильтрации n – (Fk) k6N ), принимающих значения в множестве «моментов остановки» {n, n + 1, . . . , N}. Функции vnN определены (в соответствии с (6) § 13 гл. VII) рекуррентным образом: vNN = g(XN ), vnN = max(g(Xn), N x (vn+1 | Fn)). (9) В силу обобщенного марковского свойства (теорема 1 § 2) ( x -п. н.) N x (vN | FN −1) = x (g(XN ) | FN −1) = XN −1 g(X1), (10) где XN −1 g(X1) понимается (см. § 2) следующим образом: берется функция ψ (x) = x g(X1), т. е. ψ (x) = (T g) (x), и по определению считается, что XN −1 g(X1) ≡ ψ (XN −1) = (T g) (XN −1). § 9. ЗАДАЧИ ОБ ОПТИМАЛЬНОЙ ОСТАНОВКЕ 897 Таким образом, vNN = g(XN ) и vNN−1 = max(g(XN −1), (T g) (XN −1)) = (Qg) (XN −1). (11) Продолжая аналогичным образом, находим, что для всех 0 6 n 6 N − 1 vnN = (Q N −n g) (Xn) (12) и, в частности, v0N = (Q N g) (X0) = (Q N g) (x) ( x -п. н.). Согласно (13) из § 13 гл. VII, v0N = V0N . Поскольку V0N = V0N (x) = sN (x), то тем самым sN (x) = (Q N g) (x), что и доказывает формулу (6) для n = N (аналогично и для любого n < N). Из (6) и определения оператора Q получаем рекуррентные формулы (7). Покажем, что определенный формулой (3) момент (при n = N) является n оптимальным в классе MN 0 (аналогично и для n < N в классах M0). Согласно теореме 1 § 13 гл. VII, оптимальный момент τ0N = min{0 6 k 6 N : vkN = g(Xk)}. Из (12) и установленного факта, что sn (x) = (Q n g) (x) для любого n > 0, находим, что vkN = (Q N −k g) (Xk) = sN −k (Xk). (13) τ0N = min{0 6 k 6 N : sN −k (Xk) = g(Xk)}, (14) Следовательно, что и доказывает оптимальность этого момента в классе MN 0. 4. Обозначим DkN = {x ∈ E : sN −k (x) = g(x)}, (15) N CN k = E \ Dk = {x ∈ E : sN −k (x) > g(x)}. (16) τ0N (ω) = min{0 6 k 6 N : Xk (ω) ∈ DN k }, (17) N N DN 0 ⊆ D1 ⊆ . . . ⊆ DN = E, (18) Тогда из (14) заключаем, что и по аналогии с множествами гл. VII, множества CN 0 DkN ⊇ CN 1 и CkN (в Ω), введенными в п. 6 § 13 ⊇ . . . ⊇ CN N =∅ (19) можно называть соответственно областями «остановки» и «продолжения» наблюдений (в E). 898 ГЛ. VIII. МАРКОВСКИЕ ЦЕПИ Отметим специфику рассматриваемых задач об оптимальной остановке для марковских цепей. В отличие от общего случая, в марковском случае ответ на вопрос «прекращать наблюдения или продолжать» решается по состояниям самой марковской цепи (τ0N = min{0 6 k 6 N : Xk ∈ DN k }), иначе говоря, по тому, где находится блуждающая «частица». При этом с принципиальной точки зрения полное решение задач об оптимальной остановке (т. е. описание «цены» sN (x) и оптимального момента τ0N ) находится из рекуррентных «уравнений динамического программирования» (7) последовательным отысканием функций s0 (x) = g(x), s1 (x), . . . , sN (x). 5. Обратимся теперь к задаче об оптимальной остановке в предпо∞ ложении, что τ ∈ M∞ – класс всех конечных марковских мо0 , где M0 – N ментов. (В случае τ ∈ M0 моменты τ 6 N; в случае же τ ∈ M∞ 0 моменты τ = τ (ω) < ∞ для всех ω ∈ Ω.) Итак, пусть «цена» s(x) = sup x g(Xτ ). (20) τ ∈M∞ 0 Чтобы здесь не возникали вопросы существования математических ожиданий x g(Xτ ), можно предположить, скажем, что − x ∈ E. (21) x sup g (Xn) < ∞, n Понятно, что так заведомо будет, если функция g = g(x) ограничена (|g(x)| 6 C, x ∈ E), и, в частности, условие (21) будет выполнено, если пространство E состояний цепи конечно. Из определений «цен» sN (x) и s(x) следует, что для всех x ∈ E sN (x) 6 sN +1 (x) 6 . . . 6 s(x). (22) Естественно, конечно, рассчитывать на то, что lim sN (x) совпадает с N →∞ s(x). И если это так, то тогда, совершая предельный переход в (7), найдем, что «цена» s(x) должна удовлетворять уравнению s(x) = max(g(x), Ts(x)), x ∈ E. (23) Из этого уравнения, между прочим, следует, что для s(x), x ∈ E, выполнены «вариационные неравенства» s(x) > g(x), (24) s(x) > Ts(x). (25) Неравенство (24) говорит о том, что «цена» s(x) является мажорантой функции g(x). Второе неравенство (25) означает, в соответствии с определениями общей теории марковских процессов, что функция s(x) является эксцессивной, или супергармонической. § 9. ЗАДАЧИ ОБ ОПТИМАЛЬНОЙ ОСТАНОВКЕ 899 Таким образом, если для s(x) можно было бы установить справедливость соотношения (23), то мы бы заключили, что «цена» s(x) есть эксцессивная мажоранта функции g(x). Отметим теперь следующее обстоятельство. Если какая-то функция v(x) есть эксцессивная мажоранта функции g(x), то тогда, очевидно, справедливы «вариационные неравенства» v(x) > max(g(x), Tv(x)), (26) x ∈ E. Оказывается, однако, если предположить дополнительно, что функция v(x) является наименьшей эксцессивной мажорантой, то тогда в (26) будет выполняться равенство, т. е. v(x) будет удовлетворять уравнению v(x) = max(g(x), Tv(x)), (27) x ∈ E. Лемма 1. Всякая наименьшая эксцессивная мажоранта v(x) функции g(x) удовлетворяет уравнению (27). Доказательство довольно просто. Ясно, что для v(x) справедливо неравенство (26). Обозначим v1 (x) = max(g(x), Tv(x)). Поскольку v1 (x) > > g(x) и v1 (x) 6 v(x), x ∈ E, то Tv1 (x) 6 Tv(x) 6 max(g(x), Tv(x)) = v1 (x). Следовательно, v1 (x) есть эксцессивная мажоранта функции g(x). Но v(x) – – наименьшая эксцессивная мажоранта. Значит, v(x) 6 v1 (x), т. е. v(x) 6 max(g(x), Tv(x)). Вместе с (26) это доказывает требуемое равенство (27). Проведенные предварительные рассмотрения, основанные на предположении s(x) = lim sN (x) и приведшие к соотношениям (23), а также N →∞ утверждение леммы 1 подсказывают путь к характеризации «цены» s(x) – – по-видимому, это есть наименьшая эксцессивная мажоранта функции g(x). И действительно, справедлива следующая h i Теорема 2. Пусть функция g = g(x) такова, что x sup g − (Xn) < n < ∞, x ∈ E. Тогда имеют место следующие утверждения. (a) Цена s = s(x) есть наименьшая эксцессивная мажоранта функции g = g(x). (b) Цена s(x) совпадает с lim sN (x) = lim Q N g(x) и удовлетвоN →∞ N →∞ ряет «уравнению динамического программирования Вальда– –Беллмана» s(x) = max(g(x), Ts(x)), x ∈ E. 900 ГЛ. VIII. МАРКОВСКИЕ ЦЕПИ (c) Если x h i sup |g(Xn)| < ∞, x ∈ E, то для каждого ε > 0 момент n τε∗ = inf{n > 0 : s(Xn) 6 g(Xn) + ε} является ε-оптимальным в классе M∞ 0 , т. е. ∗ x {τ0 x g(Xτε∗ ), s(x) − ε 6 Если < ∞} = 1, x ∈ E, то момент тимальным), т. е. s(x) = τ0∗ x g(Xτ0∗ ), x ∈ E. будет оптимальным (0-опx ∈ E. (28) (d) Если множество E конечно, то момент τ0∗ принадлежит M∞ 0 и является оптимальным. Замечание. Вполне может случиться, что момент τ0∗ = inf{n > 0 : s(Xn) = = g(Xn)} с положительной вероятностью принимает для некоторых состояний x ∈ E значение +∞, x {τ0∗ = ∞} > 0. (Так бывает даже в случае счетного множества состояний; задача 1.) В этой связи надо было бы условиться о том, что следует понимать под выражением x g(Xτ ), когда τ принимает и значение +∞, поскольку «значение X∞ » не было определено. Часто по определению полагают g(X∞) ≡ lim g(Xn) (см. п. 1 § 13 n гл. VII и [78]). Есть и другая возможность: вместо g(Xτ ) рассматривать g(Xτ ) I(τ < ∞). Тогда, если обозначить M∞ 0 класс всех марковских моментов, принимающих, быть может, и значение +∞, то «цена» s̄ (x) = sup τ ∈M∞ 0 x g(Xτ ) I(τ < ∞) (29) определена и тем самым становится возможным задачу об оптимальной остановке рассматривать и в классе M∞ 0 . Доказательство теоремы 2 приведем здесь лишь для случая конечного множества E. В этом случае оно сравнительно просто и хорошо проясняет возникновение эксцессивных функций в задачах об оптимальной остановке. По поводу доказательства в общем случае см. [78] , [102] . (a) Покажем, что функция s(x) является эксцессивной, т. е. s(x) > Ts(x), x ∈ E. Очевидно, что для каждого состояния y ∈ E и ε > 0 найдется такой ( y -п. н.) конечный (зависящий, вообще говоря, от ε > 0) момент τy ∈ M∞ 0 , что y g(Xτy ) > s(y) − ε. (30) По этим моментам τy , y ∈ E, построим новый момент τ̂ , который определяет, образно говоря, следующую «стратегию» выбора момента «остановки». § 9. ЗАДАЧИ ОБ ОПТИМАЛЬНОЙ ОСТАНОВКЕ 901 Пусть «частица» находится в начальный момент в состоянии x ∈ E. «Остановки» в этом состоянии не происходит, и заведомо совершается одно наблюдение. Пусть в момент n = 1 «частица» оказывается в состоянии y ∈ E. Тогда «стратегия», характеризуемая моментом τ̂ , состоит в том, чтобы считать, что «жизнь частицы» как бы начинается заново, а правило, определяющее ее остановку, управляется моментом τy . Формально же момент τ̂ определяется следующим образом. Пусть y ∈ E. Рассмотрим событие {ω : τy (ω) = n}, n > 0. Поскольку τy – – марковский момент, то это событие принадлежит Fn . Мы предполагаем, что пространство Ω является координатным, порожденным последовательностями ω = (x0 , x1 , . . .) с xi ∈ E, и Fn = σ (ω : x0 , . . . , xn). Отсюда вытекает, что множество {ω : τy (ω) = n} может быть записано в виде {ω : (X0 (ω), . . . , Xn (ω)) ∈ By (n)}, где By (n) есть некоторое множество в E n+1 = E ⊗ . . . ⊗ E (n + 1 раз). (См. также теорему 4 в § 2 гл. II.) Момент τ̂ = τ̂ (ω) определяется так, что он принимает значения вида n + 1 с n > 0 и при этом τ̂ (ω) = n + 1 на множестве X Ân = {ω : X1 (ω) = y, (X1 (ω), . . . , Xn+1 (ω)) ∈ By (n)}. y∈E (С наглядной точки зрения момент τ̂ может быть охарактеризован следующим образом: в любом состоянии x в момент n = 0 заведомо делается наблюдение; если при этом X1 = y, то далее используется момент τy .) P Поскольку Ân = Ω, то момент τ̂ = τ̂ (ω) действительно определен для n>0 всех ω ∈ Ω и является марковским (задача 2). Из данной конструкции, обобщенного марковского свойства (формула (2) из § 2) и (30) находим, что для любого x ∈ E XXX x {X1 = y, (X1 , . . . , Xn+1) ∈ By (n), Xn+1 = z} g(z) = x g(Xτ̂ ) = n>0 y∈E z∈E = XXX pxy y {X0 pxy y {(X0 , n>0 y∈E z∈E = XXX = y, (X0 , . . . , Xn) ∈ By (n), Xn = z} g(z) = n>0 y∈E z∈E = X pxy y g(Xτy ) y∈E > X y∈E . . . , Xn) ∈ By (n), Xn = z} g(z) = pxy (s(y) − ε) = Ts(x) − ε. Тем самым s(x) = x g(Xτ̂ ) > Ts(x) − ε, x ∈ E, 902 ГЛ. VIII. МАРКОВСКИЕ ЦЕПИ и, в силу произвольности ε > 0, s(x) > Ts(x), x ∈ E, что и доказывает эксцессивность функции s = s(x), x ∈ E. Доказанное свойство эксцессивности (супергармоничности) сразу приводит к следующему важному результату. Следствие 1. Для каждого x ∈ E процесс (последовательность) s = (s(Xn)) n>0 (31) является (относительно x -вероятности) супермартингалом. Из теоремы 1 § 2 гл. VII, примененной к этому супермартингалу, заключаем, что для всякого момента остановки τ ∈ M∞ 0 справедливо неравенство s(x) > x s(Xτ ), x ∈ E, (32) и если σ и τ – – два марковских момента из M∞ 0 такие, что σ 6 τ ( x -п. н., x ∈ E), то x s(Xσ) > x s(Xτ ), x ∈ E. (33) (Заметим, что в рассматриваемом случае все условия упомянутой теоремы 1 из § 2 гл. VII выполнены, поскольку пространство E конечно.) Из (32) получаем Следствие 2. Пусть в задаче об оптимальной остановке (20) функция g = g(x), x ∈ E, является эксцессивной (супергармонической). Тогда момент τ0∗ ≡ 0 является оптимальным моментом остановки. (b) Покажем, что s(x) = lim sN (x), x ∈ E. N Так как sN (x) 6 sN +1 (x), то предел lim sN (x) существует. Обозначим его N s̄ (x). Поскольку E – – конечно и для sN (x), N > 0, выполнены рекуррентные соотношения sN (x) = max(g(x), TsN −1 (x)), то, переходя в них к пределу (N → ∞), находим, что s̄ (x) = max(g(x), T s̄ (x)). Отсюда следует, что s̄ (x) есть эксцессивная мажоранта функции g(x). Но s(x) – – наименьшая эксцессивная мажоранта. Значит, s(x) 6 s̄ (x). В то же самое время очевидно, что поскольку sN (x) 6 s(x) для любого N > 0, то s̄ (x) 6 s(x). Следовательно, s̄ (x) = s(x), что и доказывает требуемое утверждение (b) теоремы. § 9. ЗАДАЧИ ОБ ОПТИМАЛЬНОЙ ОСТАНОВКЕ 903 (c, d) Покажем, наконец, что момент τ0∗ = inf{n > 0 : s(Xn) = g(Xn)}, (34) τ0∗ = inf{n > 0 : Xn ∈ D∗ } (35) D∗ = {x ∈ E : s(x) = g(x)}, (36) т. е. момент первого попадания в множество (остановки) является (в случае конечного множества E) оптимальным в классе M∞ 0 . С этой целью прежде всего заметим, что множество D∗ не пусто, поскольку к нему заведомо принадлежат те значения x̃, где g(x̃) = max g(x). x∈E В этих состояниях s(x̃) = g(x̃), и понятно, что оптимальная стратегия должна состоять в том, чтобы в этих состояниях x̃ сразу «останавливаться». Именно это и предписывает момент остановки τ0∗ . Рассматривая момент τ0∗ с точки зрения оптимальности в классе M∞ 0 , нужно прежде всего убедиться в том, что этот момент принадлежит этому классу, т. е. что ∗ x ∈ E. (37) x {τ0 < ∞} = 1, Сделанное предположение конечности множества состояний E действительно позволяет это установить. (В случае счетного множества E это, вообще говоря, уже не так; задача 1.) Для доказательства заметим, что интересующее нас событие {τ0∗ = ∞} T совпадает с событием A = {Xn ∈ / D∗ }. Так что надо показать, что x (A) = 0 n>0 для всех x ∈ E. Если D∗ = E, то это, очевидно, так. Пусть D∗ 6= E. В силу конечности множества E найдется такое α > 0, что g(y) 6 s(y) − α для всех y ∈ E \ D∗ . Тогда для любого τ ∈ M∞ 0 x g(Xτ ) = ∞ X X x {τ = n, Xn = y} g(y) = n=0 y∈E = ∞ X X x {τ = n, Xn = y} g(y) + n=0 y∈D∗ 6 ∞ X X ∞ X X x {τ = n, Xn = y} g(y) 6 x {τ = n, Xn = y} (s(y) − α) 6 n=0 y∈E\D∗ x {τ = n, Xn = y} s(y) + n=0 y∈D∗ ∞ X X n=0 y∈E\D∗ 6 x s(Xτ ) −α x (A) 6 s(x) − α x (A), (38) 904 ГЛ. VIII. МАРКОВСКИЕ ЦЕПИ где последнее неравенство следует из эксцессивности (супергармоничности) функции s(x) и справедливого для нее неравенства (32). Беря в левой части (38) sup по всем τ ∈ M∞ 0 , приходим к неравенству s(x) 6 s(x) − α x (A), x ∈ E. Но |s(x)| < ∞, α > 0. Поэтому x (A) = 0, x ∈ E, что и доказывает конечность момента τ0∗ . Докажем теперь оптимальность этого момента в классе M∞ 0 . По определению τ0∗ s(Xτ0∗) = g(Xτ0∗). (39) Имея в виду это свойство, рассмотрим функцию γ (x) = x g(Xτ0∗ ) = = x s(Xτ0∗). Ниже мы покажем, что эта функция γ (x) 1) является эксцессивной; 2) мажорирует функцию g(x): γ (x) > g(x), x ∈ E. Очевидным образом имеет место также неравенство 3) γ (x) 6 s(x). Из 1) и 2) будет следовать, что γ (x) есть эксцессивная мажоранта функции s(x), которая, в свою очередь, является наименьшей эксцессивной мажорантой функции g(x). Поэтому в силу 3) γ (x) = s(x), x ∈ E, и тогда s(x) = x g(Xτ0∗ ), x ∈ E, что и будет доказывать требуемую оптимальность τ0∗ в классе M∞ 0 . Докажем свойство 1). Обозначим τ̄ = inf{n > 1 : Xn ∈ D∗ }. Этот момент является марковским, τ0∗ 6 τ̄ , τ̄ ∈ M∞ 1 , и поскольку функция s(x) является эксцессивной, то в силу свойства (33) x s(Xτ̄ ) 6 x s(Xτ0∗), (40) x ∈ E. Далее, с учетом обобщенного марковского свойства (см. (2) в теореме 1 § 2) имеем x s(Xτ̄ ) = = ∞ X X x {X1 n=1 y∈D∗ ∞ X X X n=1 y∈D∗ z∈E pxz ∈ / D∗ , . . . , Xn−1 ∈ / D∗ , Xn = y} s(y) = z {X0 ∈ / D∗ , . . . , Xn−2 ∈ / D∗ , Xn−1 = y} s(y) = = X z∈E pxz z s(Xτ0∗ ). (41) § 9. ЗАДАЧИ ОБ ОПТИМАЛЬНОЙ ОСТАНОВКЕ 905 Отсюда в силу (40) находим, что x s(Xτ0∗ ) > X pxz z s(Xτ0∗ ), z∈E т. е. γ (x) > X pxz γ (z), z∈E x ∈ E, что и доказывает эксцессивность функции γ (x). Осталось лишь показать, что функция γ (x) мажорирует g(x). Если x ∈ D∗ , то τ0∗ = 0 и, очевидно, γ (x) = x g(Xτ0∗) = g(x). Рассмотрим множество E \ D∗ и положим E0∗ = {x ∈ E \ D∗ : γ (x) < g(x)}. Это множество E0∗ является конечным, и пусть x0∗ – – то значение, на котором достигается максимум функции g(x) − γ (x), рассматриваемой на множестве E0∗ : g(x0∗) − γ (x0∗) = max∗ (g(x) − γ (x)). x∈E0 Введем новую функцию γ̃ (x) = γ (x) + [g(x0∗) − γ (x0∗)] , x ∈ E. (42) Ясно, что эта функция является эксцессивной (как сумма эксцессивной функции и константы) и γ̃ (x) − g(x) = [g(x0∗) − γ (x0∗)] − [g(x) − γ (x)] > 0 для всех x ∈ E. Тем самым γ̃ (x) является эксцессивной мажорантой функции g(x), и, значит, γ̃ (x) > s(x), поскольку функция s(x) есть наименьшая эксцессивная мажоранта функции g(x). Отсюда следует, что γ̃ (x0∗) > s(x0∗). Но, согласно (42), γ̃ (x0∗) = g(x0∗) и, следовательно, g(x0∗) > s(x0∗). Поскольку s(x) > g(x) для всех x ∈ E, то g(x0∗) = s(x0∗), что означает, что точка x0∗ принадлежит множеству D∗ . По предположению же x ∗ ∈ E \ D∗ . Полученное противоречие показывает, что множество E \ D∗ = ∅. Откуда вытекает, что γ (x) > g(x) для всех x ∈ E. 6. Приведем некоторые примеры. Пример 1. Будем рассматривать простое случайное блуждание с двумя «поглощающими» состояниями 0 и N, описанное в примере 5 § 8. При этом будем считать p = q = 1/2 (симметричное блуждание). Если функция γ (x), x ∈ E = {0, 1, . . . , N}, является для рассматриваемого случайного блуждания эксцессивной, то для всех x = 1, . . . , N − 1 γ (x) > 1 1 γ (x − 1) + γ (x + 1). 2 2 (43) 906 ГЛ. VIII. МАРКОВСКИЕ ЦЕПИ Пусть задана некоторая функция g = g(x), x ∈ {0, 1, . . . , N}. Поскольку состояния 0 и N являются поглощающими состояниями, то функцию s(x) надо искать среди всех функций γ (x), подчиняющихся условию (43) и граничным условиям γ (0) = g(0), γ (N) = g(N). Условие (43) означает выпуклость функции γ (x) (на множестве {1, 2, . . . , N − 1}). Тем самым можно сделать следующий вывод: в задаче s(x) = = sup x g(Xτ ) «цена» s(x) есть наименьшая выпуклая функция, подчиτ ∈M∞ 0 няющаяся граничным условиям s(0) = g(0), s(N) = g(N). С наглядной же точки зрения для определения значений функции s(x) надо поступить следующим образом. «Накинем» на значения функции g(x) «туго натянутую нить». На рис. 42 эта «нить» будет проходить через точки (0, a), (1, b), (4, c), (6, d), где состояния 0, 1, 4, 6 образуют множество остановки D∗ . В этих точках s(x) = g(x). В остальных состояниях x = 2, 3, 5 требуемые значения s(x) определяются линейной интерполяцией. Аналогичным образом значения «выпуклой оболочки» s(x) определяются для всех состояний x ∈ E и в общем случае. b s(x) c d g(x) a 0 1 2 3 4 5 6 Рис. 42. Функция g(x) (пунктиром) и ее выпуклая оболочка s(x), x = 0, 1, . . . , 6. Пример 2. Пусть, как и в примере 7 из § 8, рассматривается простое случайное блуждание (с p = q = 1/2, т. е. симметричное) по множеству состояний E = {0, 1, . . . , N} с отражающими экранами в 0 и N. Рассматриваемое блуждание является положительно возвратным. Отсюда следует, что в задаче об оптимальной остановке s(x) = sup x g(Xτ ) оптимальное τ ∈M∞ 0 правило имеет весьма простую и естественную структуру – – надо дожидаться момента, когда будет достигнуто любое из состояний, где функция g(x) достигает максимального значения, и в этот момент прекратить наблюдения. Пример 3. Предположим, что для простого симметричного случайного блуждания по множеству E = {0, 1, . . . , N} состояние 0 является поглощающим, а N – – отражающим. Пусть x0 – – то из состояний, где функция g(x) достигает максимального значения и которое является ближайшим к N. Тогда оптимальный момент остановки имеет следующий вид: если § 9. ЗАДАЧИ ОБ ОПТИМАЛЬНОЙ ОСТАНОВКЕ 907 x0 6 x 6 N, то остановка блуждания происходит тогда, когда (с x -вероятностью единица) достигается состояние x0 . Между же состояниями 0 и x0 решение об остановке такое же, как и в примере 1, в предположении, что E = {0, 1, . . . , x0 }, где 0 и x0 – – поглощающие состояния. 7. В заключение рассмотрим получившую широкую известность «задачу о выборе наилучшего объекта», называемую также «задачей о разборчивой невесте», «задачей о выборе секретаря», . . . (см. [59] , [78] , [102] , [106]). Для наглядности изложения выберем вариант «задачи о разборчивой невесте». Предположим, что «невеста» желает выбрать наилучшего «жениха» из N возможных кандидатов. Считается, что N известно заранее и a priori все кандидаты упорядочены по «качеству». Для определенности будем считать, что наилучший из них имеет максимальный номер N, второй по качеству – – номер N − 1, . . . , наихудший имеет минимальный номер 1. Поступают кандидаты к невесте в «случайном» порядке, что формализуется следующим образом. Пусть (a1 , a2 , . . . , aN ) – – перестановка чисел (1, 2, . . . , N). Число таких перестановок равно, очевидно, N!, и предполагается, что все они «случайные» в том смысле, что имеют вероятность 1/N!. В рассматриваемой задаче интерпретация упорядоченности выборки (a1 , a2 , . . . , aN ) состоит в том, что (при потенциальной возможности просмотра всех кандидатов) первым к «невесте» поступает кандидат с номером a1 , затем – – с номером a2 , . . . , наконец, последним – – кандидат с номером aN . Ограничения на возможные стратегии «невесты» формулируются исходя из следующих соображений. Абсолютного качества поступающего к ней кандидата «невеста» не знает. Все, что она может относительно качества кандидатов узнать, – – это только то, какой из них лучше или хуже в результате их попарного сравнения. Далее, если «невеста» отвергла кандидата в «женихи», то он к ней больше не возвращается (а он мог оказаться и наилучшим). Стратегия невесты должна заключаться в том, чтобы на основании последовательного просмотра кандидатов (с запоминанием результатов их попарного сравнения и учитывая «качество» отклоненных кандидатов) так выбрать момент остановки τ ∗ , чтобы {aτ ∗ = N} = sup {aτ = N}, (44) τ где τ принадлежит некоторому классу моментов остановки MN 1 , определяемому «информацией», получаемой «невестой» в ходе просмотра канди- 908 ГЛ. VIII. МАРКОВСКИЕ ЦЕПИ датов в «женихи». Чтобы дать более точное описание рассматриваемого класса MN 1 , построим по последовательности ω = (a1 , a2 , . . . , aN ) «ранговую» последовательность X = (X1 , X2 , . . .), естественным образом возникающую в связи с описанным выше способом действий «невесты». Именно, положим X1 = 1 и пусть X2 – – порядковый номер (или, что то же, момент поступления) «жениха», доминирующего всех предшествующих. Так, если X2 = 3, то это означает, что для рассматриваемой последовательности ω = (a1 , a2 , . . . , aN ) значение a1 > a2 , но a3 > a1 (> a2). Продолжая определять аналогичным образом X3 , X4 , . . . , предположим, что, например, X3 = 5. Это означает, что a3 > a4 , но a5 > a3 (> a4). Самое большее может быть N доминантов (в случае (a1 , a2 , . . . , aN ) = = (1, 2, . . . , N)). Если число доминантов для последовательности ω = = (a1 , a2 , . . . , aN ) равно m, то полагаем Xm+1 = Xm+2 = . . . = N + 1. Рассматриваемый класс моментов остановки MN 1 будет состоять из моментов τ = τ (ω), которые обладают тем свойством, что {ω : τ (ω) = n} ∈ FnX , где FnX = σ (X1 , . . . , Xn), 1 6 n 6 N. Рассмотрим более подробно структуру «ранговой» последовательности X = (X1 , X2 , . . .). Нетрудно убедиться (задача 3) в том, что эта последовательность является однородной марковской цепью (с фазовым пространством E = {1, 2, . . . , N + 1}). Переходные вероятности этой цепи определяются формулами: i , j(j − 1) i pi,N +1 = , N pi j = 1 6 i < j 6 N, 1 6 i 6 N, pN +1,N +1 = 1. (45) (46) (47) Отсюда видно, что состояние N + 1 является поглощающим и возможные переходы совершаются по множеству E лишь «вверх», т. е. возможны лишь переходы i → j и j > i. Замечание. Формула (45) вытекает из следующих простых рассмотрений с учетом того, что вероятность каждой из последовательностей ω = (a1 , . . . , aN ) равна 1/N!. Для 1 6 i < j 6 N переходная вероятность pi j = (Xn+1 = j | Xn = i) = {Xn = i, Xn+1 = j} . {Xn = i} (48) § 9. ЗАДАЧИ ОБ ОПТИМАЛЬНОЙ ОСТАНОВКЕ 909 Событие {Xn = i, Xn+1 = j} означает, что значение a j является доминирующим среди значений a1 , . . . , a j и при этом a j > ai . Вероятность этого события равна (j − 2)! 1 = . Точно так же событие {Xn = i} означает, j! j(j − 1) что значение ai является доминирующим значением среди a1 , . . . , ai , и (i − 1)! 1 = . Из этих рассмотрений и (48) вероятность такого события есть i! i получаем формулу (45). Для доказательства формулы (46) надо лишь заметить, что если Xn = i, то Xn+1 = N + 1 означает, что ai доминирует и значения ai+1 , . . . , aN , и значения a1 , . . . , ai−1 . Формула (47) очевидна. Предположим теперь, что «невеста» выбрала некоторый момент остановки τ (относительно системы σ-алгебр (FnX )) и при этом Xτ = i. Тогда условная вероятность того, чтоэтот момент оказался успешным (т. е. aτ = N), равна, согласно (46), Xτ N = i . Следовательно, N {aτ = N} = Xτ , N и, значит, отыскание оптимального момента остановки τ ∗ (т. е. момента, для которого {aτ ∗ = N} = sup {aτ = N}) сводится к решению задачи об оптимальной остановке τ Xτ , N V ∗ = sup τ (49) где τ – – марковский момент относительно системы σ-алгебр (FnX ). В формуле (49) предполагается, что X1 = 1. В соответствии с общим методом решения задач об оптимальной остановке для марковских последовательностей обозначим v(i) = sup τ где i i g(Xτ ), – – математическое ожидание в предположении, что X1 = i, и g(i) = i , N i 6 N, g(N + 1) = 0. Как мы уже знаем (теорема 2), функция v(i), 1 6 i 6 N + 1, является эксцессивной мажорантой функции g(i), 1 6 i 6 N + 1: v(i) > Tv(i) = N X j=i+1 v(i) > g(i), i v(j), j(j − 1) (50) (51) 910 ГЛ. VIII. МАРКОВСКИЕ ЦЕПИ и к тому же наименьшей из таких функций. Из этой же теоремы 2 следует, что функция v(i), 1 6 i 6 N + 1, удовлетворяет уравнению v(i) = max(g(i), Tv(i)), 1 6 i 6 N + 1, (52) при этом, как нетрудно видеть, искомая функция v(i) должна быть такой, что v(N + 1) = 0, v(N) = g(N) = 1. Обозначим через D множество тех состояний i ∈ E, где производится остановка наблюдений. Согласно теореме 1, это множество описывается следующим образом: ∗ D∗ = {i ∈ E : v(i) = g(i)}. Соответственно, область продолжения наблюдений C∗ = {i ∈ E : v(i) > g(i)}. Таким образом, если i ∈ D∗ , то g(i) = v(i) > Tv(i) = N X i j=i+1 j · N X 1 v(j) > j−1 i 1 · g(j) = j j−1 j=i+1 = N X i j=i+1 j · N X 1 j · = g(i) j −1 N j=i+1 1 . j −1 Следовательно, если i ∈ D , то должно быть выполнено неравенство ∗ N X j=i+1 1 6 1. j −1 Далее, если это неравенство выполнено и значения i + 1, . . . , N все принадлежат D∗ , то тогда Tv(i) = N X i j=i+1 j · N X 1 g(j) = g(i) j−1 j=i+1 1 6 g(i) j −1 и тем самым состояние i также принадлежит множеству D∗ . Приведенные рассуждения (с учетом того, что N ∈ D∗ , поскольку v(N) = g(N)) показывают, что множество D∗ должно иметь следующий вид: D∗ = {i ∗ , i ∗ + 1, . . . , N, N + 1}, § 9. ЗАДАЧИ ОБ ОПТИМАЛЬНОЙ ОСТАНОВКЕ 911 где i ∗ = i ∗ (N) определяется из неравенств 1 1 1 1 1 1 + ... + 61< ∗ + ∗ + ... + , + ∗ i∗ i +1 N −1 i −1 i N −1 (53) из которых вытекает, что при больших N i ∗ (N) ∼ N . e (54) Действительно, для всякого n > 2 ln(n + 1) − ln n < 1 < ln n − ln(n − 1). n Откуда ln 1 1 N −1 N < + ... + < ln , n n N −1 n−1 что вместе с (53) приводит к неравенствам ln N −1 N < 1 < ln ∗ , i ∗ (N) i (N) − 2 из которых и следует асимптотика (54). Найдем теперь функцию v = v(i) для i ∈ E = {1, 2, . . . , N + 1}. i Если i ∈ D∗ = {i ∗ , i ∗ + 1, . . . , N, N + 1}, то v(i) = g(i) = . N Пусть i = i ∗ − 1. Тогда v(i ∗ − 1) = Tv(i ∗ − 1) = N X i∗ − 1 j=i ∗ j(j − 1) g(j) = i∗ − 1 N 1 i∗ − 1 + ... + 1 . N −1 Пусть теперь i = i ∗ − 2. Тогда N v(i ∗ − 2) = Tv(i ∗ − 2) = = 1 N X i∗ − 2 i∗ − 2 v(i ∗ − 1) + g(j) = ∗ ∗ (i − 1) (i − 2) j(j − 1) ∗ j=i 1 1 + ... + i∗ − 1 N −1 + N i∗ − 2 X 1 = N j−1 ∗ j=i = ∗ i −1 N 1 i∗ − 1 По индукции устанавливаем, что для всех 1 6 i < i ∗ i∗ − 1 1 1 v(i) = v ∗ (N) = . + . . . + ∗ N i −1 N −1 + ... + 1 . N −1 (55) 912 ГЛ. VIII. МАРКОВСКИЕ ЦЕПИ Тем самым для i ∈ {1, 2, . . . , N} ( ∗ v (N), 1 6 i < i ∗ (N), v(i) = i g(i) = , i 6 N. (56) N Обращаясь к (55), видим, что поскольку 1 1 lim + ... + ∗ N →∞ то при N → ∞ i (N) − 1 lim v ∗ (N) = lim N →∞ N →∞ N −1 = 1, i ∗ (N) − 1 1 = ≈ 0,0368. N e (57) (58) Этот результат, на первый взгляд, может показаться несколько удивительным, поскольку из него следует, что если число кандидатов N велико, то у «невесты» существует стратегия выбора наилучшего из них с весьма большой вероятностью V ∗ = sup {aτ = N} = v ∗ (N) ≈ 0,368. При этом оптимальный момент τ τ ∗ = inf{n : Xn ∈ D∗ }, где D∗ = {i ∗ , i ∗ + 1, . . . , N, N + 1}. Таким образом, оптимальная стратегия «невесты» состоит в том, чтобы N просмотреть i ∗ − 1 (где i ∗ = i ∗ (N) ∼ , n → ∞) кандидатов и затем выбрать e того первого кандидата, который лучше всех предыдущих. В том случае, когда N = 10, более детальный анализ (см., например, § 1 гл. III в [102]) показывает, что i ∗ (10) = 4. Иначе говоря, в этом случае надо просмотреть трех кандидатов и затем из последующих выбрать первого кандидата, который доминирует всех предшествующих. Соответствующая вероятность выбора наилучшего «жениха» (т. е. значение v ∗ (10)) равно примерно 0,399. 8. Задачи. 1. Построить пример, показывающий, что для марковских цепей со счетным множеством состояний может не существовать (в классе M∞ 0 ) оптимального момента остановки. 2. Проверить, что момент τy , введенный при доказательстве теоремы 2, является марковским моментом. 3. Показать, что последовательность X = (X1 , X2 , . . .), введенная в п. 7 при рассмотрении «задачи о разборчивой невесте», образует однородную марковскую цепь. 4. Пусть X = (Xn) n>0 – – однородная марковская цепь со значениями в R и с переходной функцией P = P(x; B), x ∈ R, B ∈ B (R). Говорят, что § 9. ЗАДАЧИ ОБ ОПТИМАЛЬНОЙ ОСТАНОВКЕ 913 R-значная функция f = f(x), x ∈ R, является P-гармонической (или гармонической по отношению к P), если ] x ∈ R, x |f(X1)| = |f(y)| P(x; dy) < ∞, и R f(x) = ] f(y) P(x; dy), R x ∈ R. (59) (Если равенство «=» в (59) заменено на неравенство «>», то говорят, что функция f является супергармонической.) Доказать, что если f – – супергармоническая функция, то для всякого x ∈ R последовательность (f(Xn)) n>0 с X0 = x является супермартингалом (по отношению к мере x). 5. Показать, что момент τ̄ , входящий в (38), принадлежит классу M∞ 1 . 6. По аналогии с примером 1 в п. 6 рассмотреть задачи об оптимальной остановке sN (x) = sup и x g(Xτ ) τ ∈MN 0 s(x) = sup x g(Xτ ) τ ∈M∞ 0 для всех простых случайных блужданий из примеров в § 8. Очерк истории становления математической теории вероятностей При изложении вопросов истории теории вероятностей можно условно выделить (ср. [26] *), [43]) следующие ее этапы: Предыстория Первый период (XVII век – – начало XVIII века) Второй период (XVIII век – – начало XIX века) Третий период (вторая половина XIX века) Четвертый период (начало и середина XX века) Предыстория. Интуитивные представления о случайности и возникновение разного рода рассуждений о возможных шансах (в культовой практике, разрешении споров, предсказаниях и т. п.) уходят в глубь веков. В донаучную эпоху к ним относились как к явлениям, не поддающимся человеческому разуму и рациональному объяснению, и только несколько веков назад началось их осмысление и формально-логическое изучение. Археологические сведения говорят о находках первых «случайных инструментов» – – игральных костей (astragalus), которые в давние времена применялись в примитивных играх **). С определенностью можно утверждать, что такие кости использовались в настольных играх во времена Первой Династии в Египте (около 3500 г. до н. э.), затем в Древней Греции и Древнем Риме. Известно [20] , что римские императоры Август (August, 63 г. до н. э. – – 14 г. н. э.) и Клавдий (Claudius, 10 г. до н. э. – – 54 г. н. э.) были страстными игроками в кости. Помимо игр, в связи с которыми возникали уже тогда простейшие вопросы относительно числа благоприятных и неблагоприятных шансов, сходные вопросы появлялись в страховании и коммерции. Старейшими известными формами страхования являются контракты на морские перевозки, обнаруженные в вавилонских записях, относящихся к периоду 4– –3 тысячи лет до н. э. Практика подобных контрактов перешла затем через финикийцев к грекам, римлянам, индусам. Ее следы можно найти в ранних кодексах Римской цивилизации, законах Византийской империи. В связи со страхованием жизни римский юрист Ulpian составил (220 г. до н. э.) первые таблицы смертности. *) Ссылки в настоящем очерке даются на список литературы, помещенный на с. 933– –937. **) Astragalus – – запяточная кость у парнокопытных; она имеет такую форму, что при бросании может упасть лишь на одну из четырех сторон, поскольку две другие имеют закругленную форму. ИСТОРИЯ СТАНОВЛЕНИЯ МАТЕМАТИЧЕСКОЙ ТЕОРИИ ВЕРОЯТНОСТЕЙ 915 В эпоху расцвета итальянских городов-республик (Рим, Венеция, Генуя, Пиза, Флоренция) в связи с практикой страхования появляется необходимость и в простейшей статистике, и в актуарных расчетах. Известно, что первый точно датированный контракт по страхованию жизни был заключен в Генуе в 1347 году. Города-республики дали начало эпохе Возрождения (Renaissance; конец XIV – – начало XVII века) – – периоду преобразований и обновления в социальной и культурной жизни Западной Европы. Пожалуй, именно в эпоху итальянского Возрождения мы находим следы более или менее серьезных дискуссий, в основном философского характера, относительно «вероятностных» рассуждений у Луки Пачоли (Luca Pacioli, 1445– –1517(?)), Ч. Кальканини (Celio Calcagnini, 1479– –1541) и Н. Тартальи (Nicolо Fontana Tartaglia, 1500– –1557) (см. [43] , [20]). Видимо, одним из первых, кто стал математически анализировать игровые шансы, был Дж. Кардано (Gerolamo Cardano, 1501– –1576), широко известный как изобретатель «карданного вала» и решивший уравнение третьей степени. Его манускрипт (около 1525 г.), опубликованный лишь в 1663 г. под названием Liber de Ludo Aleæ («Книга об азартных играх»), явился не только своего рода практическим пособием для игроков. В нем впервые была высказана идея комбинаций, с помощью которых удобно описывать множество всех возможных исходов (при бросании костей разного рода и в разном числе). Им было обнаружено также, что для правильных костей «отношение числа благоприятных комбинаций к общему числу возможных комбинаций находится в хорошем согласии с игровой практикой» [20] . 1. Первый период (XVII век – – начало XVIII века). Многие, как, например, Лаплас [39] (см. также [61]), связывают рождение и начало «исчисления вероятностей» с перепиской (1654 г.) между Паскалем (Blaise Pascal, 1623– –1662) и Ферма (Pierre de Fermat, 1601– –1665). Эта переписка возникла в связи с некоторыми вопросами, поставленными перед Паскалем кавалером де Мере (Chevalier de Méré, он же Antoine Gombaud – – писатель и моралист, 1607– –1684). Один из этих вопросов был связан с тем, как справедливо разделить ставку в прерванной игре. Конкретно, речь идет о следующем. Пусть два игрока A и B согласились, что в их игре вся ставка достается тому, кто первый выиграет, скажем, в пяти партиях. Предположим, что игра вынужденным образом остановлена тогда, когда игрок A имел четыре выигрыша, а игрок B – – три выигрыша. В какой пропорции игроки должны разделить ставку в этой остановленной игре? Один из «естественных», как может показаться, ответов на этот вопрос состоит в том, что разделение ставки должно произойти в отношении 2 : 1. В самом деле, игра заведомо закон- 916 ИСТОРИЯ СТАНОВЛЕНИЯ МАТЕМАТИЧЕСКОЙ ТЕОРИИ ВЕРОЯТНОСТЕЙ чится через два шага, при этом игроку A достаточно выиграть лишь один раз, а игроку B нужно выиграть оба раза. Отсюда и приходим к отношению 2 : 1. Но по числу выигранных игроками партий также «естественным» можно было бы считать отношение 4 : 3. Правильный же ответ, как нашли Паскаль и Ферма, есть не то и не другое: разделение ставки должно производиться в отношении 3 : 1. Другая задача была связана с вопросом о том, что́ более правдоподобно – – иметь по крайней мере одну шестерку в четырех бросаниях правильной кости или иметь по крайней мере пару шестерок, (6, 6), в 24 одновременных бросаниях двух правильных костей. И в этой задаче Паскаль и Ферма дали правильный ответ: первая комбинация несколько более правдоподобна, нежели вторая. (Вероятность первой комбинации равна 1 − (5/6) 4 = 0,516, а второй 1 − (35/36) 24 = 0,491.) В решении этих задач и Паскаль, и Ферма широко применяли (как и Кардано) комбинаторные рассуждения, ставшие одним из основных приемов «исчисления вероятностей» при подсчетах различных шансов. Нашел здесь свое «прикладное» место и треугольник Паскаля, известный, впрочем, и раньше. В 1657 году выходит в свет книга Х. Гюйгенса (Christianus Huygens, 1629– –1695) De Ratiociniis in Ludo Aleæ («О расчетах в азартных играх»), считающаяся первым систематическим текстом по «исчислению вероятностей». В ней в явной форме формулируются многие фундаментальные понятия и принципы исчисления вероятностей, приводятся правила сложения и умножения вероятностей, содержится дискуссия относительно понятия математического ожидания. Долгое время эта книга была основным пособием по «элементарной теории вероятностей». Центральной фигурой рассматриваемого периода в становлении «теории вероятностей» является Яков Бернулли (Jacob (Jakob, James, Jacques) Bernoulli, 1654– –1705), которому принадлежит заслуга введения в науку «классического» понятия «вероятность события» как отношения числа возможных исходов, благоприятствующих рассматриваемому событию, к общему числу мыслимых исходов. Основной результат Я. Бернулли, с которым ассоциируется его имя, это, конечно, закон больших чисел, лежащий в основе всех применений теории вероятностей. Датой рождения этого закона, сформулированного в виде предельной теоремы, считается 1713 год – – дата выхода в свет трактата книги Я. Бернулли Ars Conjectandi («Искусство предположений»), публикация которого была осуществлена при участии его племянника Николая (Nikolaus) Бернулли; см. [3, с. 9, 27, 75, 83] . Как отмечает А. А. Марков в своей речи, ИСТОРИЯ СТАНОВЛЕНИЯ МАТЕМАТИЧЕСКОЙ ТЕОРИИ ВЕРОЯТНОСТЕЙ 917 посвященной 200-летию закона больших чисел (см. [53] , [3]), Я. Бернулли в письмах (от 3 октября 1703 г. и 20 апреля 1704 г.) к Г. Лейбницу (Gottfried Wilhelm Leibniz, 1646– –1716) писал, что эта теорема ему была «известна уже двенадцать лет назад». (Сам термин «закон больших чисел» предложил Пуассон, 1835 г.) Другой представитель семейства Бернулли, Даниил (Daniel Bernoulli, 1667– –1748), известен в теории вероятностей в связи с дискуссией по поводу так называемого «Петербургского парадокса», для разрешения которого им использовалось понятие «морального ожидания». Первый период становления теории вероятностей совпал с эпохой создания математического естествознания. Именно к этому времени относится обращение к концепциям непрерывности, бесконечности и инфинитезимальной малости. К этому времени относится и создание И. Ньютоном (Isaac Newton, 1642– –1727) и Г. Лейбницем дифференциального и интегрального исчисления. Как отмечает А. Н. Колмогоров [26] , задача этой эпохи состояла в том, чтобы «постигнуть необычайную широту и гибкость (а тогда казалось и всемогущество) математического метода изучения причинных связей. Идея дифференциального уравнения как закона, определяющего однозначно по состоянию системы в настоящее время ее будущую эволюцию, занимала в математическом естествознании еще более исключительное положение, чем в наше время. Теория вероятностей нужна в математическом естествознании там, где эта детерминистская схема дифференциальных уравнений перестает действовать. В это же время конкретного естественно-научного материала для расчетного, так сказать делового, применения теории вероятностей еще не было. Тем не менее неизбежность грубой схематизации реальных явлений при подведении их под детерминистические схемы типа систем дифференциальных уравнений была уже достаточно ясна. Было ясно и то, что на почве хаоса огромного количества не поддающихся индивидуальному учету не связанных между собой явлений в среднем“ могут возникать ” вполне четкие закономерности. Здесь и предвиделась фундаментальная натурфилософская роль теории вероятностей», раскрываемая с достаточной полнотой предельной теоремой Я. Бернулли – – законом больших чисел. Необходимо отметить, что осознание Я. Бернулли важности рассмотрения бесконечных последовательностей результатов повторных испытаний, сама постановка вопроса о предельном поведении частот появления тех или иных событий в этих испытаниях – – были кардинально новыми («нефинитными») идеями в вероятностных рассмотрениях, ограничивавшихся тогда элементарно-арифметическими и простейшими комбинаторными приемами. Именно эта постановка вопроса, приведшая к закону больших чисел, выявила как различие между понятиями вероятности события 918 ИСТОРИЯ СТАНОВЛЕНИЯ МАТЕМАТИЧЕСКОЙ ТЕОРИИ ВЕРОЯТНОСТЕЙ и частоты его появления в конечном числе повторных испытаний, так и возможность определения этой вероятности (с той или иной степенью точности) по значению частоты при большом числе испытаний. 2. Второй период (XVIII век – – начало XIX века). Это период связан, главным образом, с такими именами, как Монмор (Pierre-Rémond de Montmort, 1678– –1719), Муавр (Abraham De Moivre, 1667– –1754), Байес (Thomas Bayes, 1702– –1761), Лаплас (Pierre Simon de Laplace, 1749– –1827), Гаусс (Carl Friedrich Gauss, 1777– –1855) и Пуассон (Siméon Denis Poisson, 1781– –1840). Если первый период носил, по существу, философский характер, то во втором происходит развитие и оттачивание аналитических методов, появляется необходимость в проведении расчетов в разных областях, закладываются вероятностно-статистические подходы к теории ошибок наблюдения, теории стрельбы и др. И Монмор, и Муавр находились под сильным влиянием работ Я. Бернулли в «исчислении вероятностей». В своей книге Essai d’Analyse sur les Jeux de Hasard («Опыт анализа случайных игр»; 1708 г.) Монмор уделяет основное внимание именно развитию методов расчетов в разнообразных играх. В своих двух книгах Doctrinе of Chances («Доктрина случая»; 1718 г.) и Miscellanea Analytica Supplementum («Аналитические методы, или Аналитическая смесь»; 1730 г.) Муавр довольно тщательным образом дает определения таких понятий, как независимость событий, ожидание, условная вероятность. Наиболее известно имя Муавра в связи с нормальной аппроксимацией биномиального распределения. Если закон больших чисел Я. Бернулли выявил, что частоты универсальным образом «в среднем» подчиняются некоторой четкой закономерности (в виде сходимости, в определенном смысле, частот появления событий к их вероятности), то обнаруженная Муавром нормальная аппроксимация выявила другую универсальную закономерность в поведении отклонений от среднего значения. Роль этого результата Муавра и последующих его обобщений столь значительна, что соответствующая «интегральная предельная теорема» называется центральной предельной теоремой теории вероятностей. (Терминология предложена Д. Пойа (George Pólya, 1887– –1985) в 1920 г., [55] .) Монументальной фигурой рассматриваемого периода является, безусловно, Лаплас. Его трактат Théorie Analytique des Probabilités («Аналитическая теория вероятностей»), опубликованный в 1812 году, был основным пособием по теории вероятностей в XIX веке. Он написал также несколько мемуаров по основаниям, философским вопросам и конкретным проблемам исчисления вероятностей, не считая работ по астрономии и ИСТОРИЯ СТАНОВЛЕНИЯ МАТЕМАТИЧЕСКОЙ ТЕОРИИ ВЕРОЯТНОСТЕЙ 919 математическому анализу. Значителен вклад Лапласа в теорию ошибок. Именно ему и Гауссу принадлежит естественная идея введения нормального закона в теории ошибок, возникающего как результат суммарного эффекта сложения большого числа независимых элементарных ошибок. Лаплас также не только придал интегральной предельной теореме Муавра более общую формулировку («теорема Муавра– –Лапласа»), но и предложил новые аналитические доказательства. Вслед за Бернулли Лаплас четко придерживался «принципа равновозможности», или «принципа безразличия», приводящего к «классическому» определению понятия вероятности (в случае конечного числа возможных исходов). Однако уже в этот период появляются и «неклассические» распределения вероятностей, не укладывающиеся в рамки классической схемы. Таковыми, например, являлись нормальный и пуассоновский законы, долгое время рассматривавшиеся лишь как некоторые аппроксимации, а не как распределения вероятностей (в современном понимании этого термина). Другим примером, где также возникали «неклассические» распределения, являлись задачи на «геометрические вероятности» (например, у Ньютона, 1665 г., [52, с. 60]). Сюда же относится и известная «игла Бюффона». Неравные вероятности возникали и у Т. Байеса в связи с формулой Байеса, опубликованной в 1763 году в статье An Essay Towards Solving a Problem in the Doctrine of Chances и дающей правило пересчета априорных вероятностей (которые Байес считал одинаковыми) в апостериорные по происшествии некоторого события. Эта формула породила целое направление в статистике, называемое ныне «байесовским подходом». Из всего сказанного становится ясным, что рамки «классической» (финитной) теории вероятностей существенно сдерживали возможности ее развития и применений, а интерпретация нормального, пуассоновского и др. распределений только лишь как некоторых предельных образований вызывала чувство незавершенности. В рассматриваемый период в теории вероятностей отсутствовали абстрактные математические конструкции и она не рассматривалась иначе как прикладная математика. К тому же ее методы были ограничены рамками конкретных применений (типа азартных игр, теории ошибок, теории стрельбы, страхования, демографии и т. п.). 3. Третий период (вторая половина XIX века). Основным местом, где разрабатывались в это время общие проблемы теории вероятностей, стал Петербург – – П. Л. Чебышев (1821– –1894), А. А. Марков (1856– –1922) и А. М. Ляпунов (1857– –1918) внесли существенный вклад в расширение и углубление всей системы теории вероятностей. Именно благодаря им произошел отказ от ограничения лишь случаем «классических» вероятностей. П. Л. Чебышев с полной ясностью оценил 920 ИСТОРИЯ СТАНОВЛЕНИЯ МАТЕМАТИЧЕСКОЙ ТЕОРИИ ВЕРОЯТНОСТЕЙ роль понятия случайной величины, понятия математического ожидания и эффективным образом продемонстрировал удобство обращения с ними, что ныне рассматривается как нечто само собой разумеющееся. Закон больших чисел, теорема Муавра– –Лапласа относились к случайным величинами, принимающим лишь два значения. П. Л. Чебышевым была существенно расширена сфера действия этих теорем (для более общих случайных величин). Так, уже первый его результат устанавливал справедливость закона больших чисел для сумм произвольных независимых случайных величин, значения которых ограничены некоторой константой. (Следующий шаг был сделан А. А. Марковым, который для доказательства использовал «неравенство Чебышева– –Маркова».) После закона больших чисел П. Л. Чебышев перешел к установлению справедливости теоремы Муавра– –Лапласа для сумм независимых случайных величин, для чего им был разработан новый прием доказательства – – метод моментов, позже усовершенствованный А. А. Марковым. Следующий неожиданный шаг в отыскании общих условий справедливости теоремы Муавра– –Лапласа был сделан А. М. Ляпуновым, который методом характеристических функций, берущим свое начало у Лапласа, доказал эту теорему в предположении наличия у суммируемых независимых случайных величин не всех моментов, а лишь моментов порядка 2 + δ, δ > 0, удовлетворяющих так называемому «условию Ляпунова». Как одну из принципиальных новых концепций следует отметить введение А. А. Марковым схемы зависимых случайных величин, обладающих свойством «отсутствия последействия» и называемых теперь «цепями Маркова», с установлением для них первой строго доказанной «эргодической» теоремы. С определенностью можно констатировать, что работы П. Л. Чебышева, А. А. Маркова и А. М. Ляпунова («Петербургская школа») заложили прочный фундамент всего последующего развития теории вероятностей. В Западной Европе интерес к теории вероятностей во второй половине XIX века стал стремительно возрастать благодаря обнаружившимся глубоким ее связям с чистой математикой, статистической физикой и начавшей бурно развиваться математической статистикой. В это время становилось все более ясным, что собственное развитие теории вероятностей сильно сдерживается рамками ее «классических» предположений (конечное число исходов и их равновозможность) и что соответствующее расширение надо искать в моделях чистой математики. (Уместно напомнить, что в это время теория множеств только создавалась, а теория меры и вовсе находилась лишь на пороге создания.) В то же самое время в чистой математике и, в частности, в теории чисел – – науке, казалось бы весьма отдаленной от теории вероятностей, стали ИСТОРИЯ СТАНОВЛЕНИЯ МАТЕМАТИЧЕСКОЙ ТЕОРИИ ВЕРОЯТНОСТЕЙ 921 использоваться понятия и появляться результаты чисто «вероятностной» природы, стала привлекаться вероятностная интуиция. Так, в 1890 г. А. Пуанкаре (Jules Henri Poincaré, 1854– –1912) в своей работе [57] , посвященной проблеме трех тел, приводит результат о возвратности движения динамической системы, описываемой сохраняющим «объем» преобразованием T , который говорит о том, что если A – – некоторое множество начальных состояний ω, то для «типичных» ω ∈ A траектории T n ω будут возвращаться в множество A бесконечное число раз. (Говоря современным языком, возвратность имеет место не для всех, а лишь для почти всех начальных состояний системы.) В рассмотрениях этого времени часто апеллируют к выражениям типа «случайный выбор», «типичный случай», «специальный случай». В учебнике Calcul des Probabilités ([56] , 1896 г.) А. Пуанкаре задается вопросом о том, «какова вероятность того, что случайно выбранная точка из интервала [0, 1] окажется рациональным числом». В 1888 г. астроном Х. Гюлден (Johan August Hugo Gyldén, 1841– –1896) опубликовал работу [18] , истоки которой (как и у А. Пуанкаре [57] , 1890 г.) были связаны с вопросами планетарной устойчивости и которую теперь бы отнесли к вероятностной теории чисел. Речь в ней шла о следующем. Выберем «случайным» образом число ω ∈ [0, 1), и пусть ω = (a1 , a2 , . . .) есть его разложение в непрерывную дробь, где an = an (ω) – – целые числа. (Для рациональных чисел ω в этих разложениях только конечное число величин an отлично от нуля и образованные по разложению (a1 , a2 , . . .) числа ω (k) = (a1 , a2 , . . . , ak , 0, 0, . . .) используются как наилучшие рациональные аппроксимации для ω.) Спрашивается, как в «типичных» случаях «ведут» себя при больших значениях n величины an (ω). Хотя и не строго, Х. Гюлден устанавливает, что «вероятность» получить в разложении ω = (a1 , a2 , . . .) значение an = k при больших n «более или менее» обратно пропорциональна k2 . (Несколько позже T. Brodén [12] и A. Wiman [62] установили, оперируя с геометрическими вероятностями, что если «случайный» выбор ω ∈ [0, 1) определять как «равномерную распределенность» ω на [0, 1), то вероятность того, что an (ω) = k, стремится при n → ∞ к значению i h 1 1 ; (ln 2) −1 · ln 1 + / 1+ k k+1 отсюда видно, что при больших k это выражение обратно пропорционально k2 , что, в сущности, и имел в виду Х. Гюлден.) Вероятностные понятия и рассуждения во второй половине XIX века систематически стали использоваться в классической физике и статистической механике. Достаточно упомянуть, например, распределение 922 ИСТОРИЯ СТАНОВЛЕНИЯ МАТЕМАТИЧЕСКОЙ ТЕОРИИ ВЕРОЯТНОСТЕЙ Максвелла (James Clerk Maxwell, 1831– –1879) для молекулярных скоростей, см. [44] ; временные средние и эргодическую гипотезу Больцмана (Ludwig Boltzmann, 1844– –1906), см. [6] , [7] . С их именами связано понятие ансамбля, получившее дальнейшее развитие в работах Гиббса (Josiah Willard Gibbs, 1839– –1903), см. [17] . Для всего последующего развития теории вероятностей и углубления понимания роли вероятностных подходов и концепций важную роль сыграли обнаруженный в 1827 году Р. Брауном (Robert Brown, 1773– –1858) феномен, получивший название броуновского движения (описание этого феномена дано им в памфлете «A Brief Account of Microscopical Observation. . . », опубликованном в 1828 году [11]), и явление радиоактивного распада, обнаруженное в 1896 году А. Беккерелем ((Antoine-) Henri Becquerel, 1852– –1908) при исследовании свойств урана. В 1900 г. Л. Башелье (Louis Bachelier, 1870– –1946), [2] , использовал броуновское движение для математического описания стоимости акций; см. подробнее в [74] . Качественное объяснение и количественное описание броуновского движения были даны впоследствии А. Эйнштейном (Albert Einstein, 1879– – 1955), [75] , и М. Смолуховским (Marian Smoluchowski, 1872– –1917), [59] . Явление радиоактивности нашло свое объяснение в рамках квантовой механики, создание которой относится к двадцатым годам двадцатого столетия. Из сказанного выше становится ясно, что появление новых вероятностных схем, моделей и использование вероятностной идеологии не укладывалось в рамки «классической вероятности» и требовало новых понятий, с тем чтобы можно было, например, придать точный математический смысл выражениям типа «случайно выбранная точка из интервала [0, 1)», не говоря уже об объяснении феномена «случайного» броуновского движения. C этой точки зрения весьма ко времени появилась теория множеств и понятие «борелевской меры», введенное Э. Борелем (Émile Borel, 1871– –1956) в 1898 году, [8] , и теория интегрирования А. Лебега (Henri Lebesgue, 1875– –1941), данная им в его книге [40] , 1904 г. (Э. Борелем мера вводилась на евклидовом пространстве как обобщение понятия длины. Современное изложение теории меры на абстрактных измеримых пространствах следует М. Фреше (Maurice Fréchet, 1878– –1973), [71] , 1915 г.; историю теории меры и интегрирования см., например, в [72] .) По существу, сразу же было осознано, что борелевская теория меры и лебеговская теория интегрирования образуют ту концептуальную базу, которая может дать обоснование многих вероятностных рассмотрений и придать точный смысл многим интуитивным высказываниям типа «случайный выбор точки из интервала [0, 1)». И вскоре (1905 г.) Э. Борель сам ИСТОРИЯ СТАНОВЛЕНИЯ МАТЕМАТИЧЕСКОЙ ТЕОРИИ ВЕРОЯТНОСТЕЙ 923 же дает применение теоретико-множественного подхода к теории вероятностей, доказав первую, в сущности, предельную теорему – – усиленный закон больших чисел – – о выполнении некоторых свойств действительных чисел «с вероятностью единица», или «почти наверное». Суть этой теоремы, дающей определенное представление о том, «много или мало» действительных чисел с «исключительными» (в приводимом ниже смысле) свойствами, состоит в следующем. Пусть действительно число ω ∈ [0, 1) и ω = 0, α1 α2 . . . есть его двоичное разложение с αn = 0 или 1 (ср. с рассмотренным выше разложением ω = (a1 , a2 , . . .) в непрерывную дробь). Тогда если νn (ω) – – частота появления единиц среди первых n значений α1 , . . . , αn , то борелевская мера множества тех ω («нормальных», как говорил Э. Борель), для которых νn (ω) → 1/2, n → ∞, равна единице, а тех («исключительных»), для которых такой сходимости нет, равна нулю. Этот результат («усиленный закон больших чисел Бореля») внешне напоминает теорему Я. Бернулли («закон больших чисел»). Однако между ними есть и формально-математическая, и концептуально-философская разница. Действительно, в законе больших чисел утверждается всего лишь, что для всякого ε > 0 вероятность события {ω : |νn (ω) − 1/2| > ε} стремится при n → ∞ к нулю. В усиленном же законе больших чисел утверждается больше – – к нулю стремится вероятность события n o ω : sup |νm (ω) − 1/2| > ε . Далее, в первом случае утверждение касаm>n ется некоторого свойства вероятностей конечных последовательностей (α1 , α2 , . . . , αn), n > 1, и пределов этих вероятностей. Во втором же случае речь идет о свойствах вероятностей, определяемых бесконечными последовательностями (α1 , α2 , . . . , αn , . . .). (Детальное изложение всего круга затронутых математических и философских проблем, связанных с проникновением вероятностных методов в теорию чисел, а также обширный материал, относящийся к созданию современной теории вероятностей, см. в монографии Яна фон Плато (Jan von Plato) Creating Modern Probability, [54] .) 4. Четвертый период (начало и середина XX века). Выявленные к концу XIX века связи теории вероятностей с чистой математикой привели к постановке Д. Гильбертом (David Hilbert, 1862– –1943) в его программном докладе 8 августа 1900 г. на Втором математическом конгрессе в Париже проблемы математизации теории вероятностей. Среди его известных проблем (первая относилась к континуум-гипотезе) шестая формулировалась как проблема аксиоматизации тех физических дисциплин, в которых математика играет доминирующую роль. К этим дисциплинам Д. Гильберт отнес теорию вероятностей и механику, указав также 924 ИСТОРИЯ СТАНОВЛЕНИЯ МАТЕМАТИЧЕСКОЙ ТЕОРИИ ВЕРОЯТНОСТЕЙ на необходимость строгого и удовлетворительного развития метода средних в физике и, в частности, в кинетической теории газов. (Д. Гильберт отмечал, что постановка вопроса об аксиоматизации теории вероятностей была инициирована Г. Больманом (Georg Bohlmann, 1869– –1928) – – приват-доцентом в Гёттингене, который говорил об этой проблематике на актуарном конгрессе, состоявшемся весной того же 1900 г. в Париже, см. [5] , [19] . Вводимая Г. Больманом вероятность определялась как (конечно-аддитивная) функция на событиях, но без достаточно четкого определения «системы событий», что, впрочем, им полностью осознавалось.) Четвертый период в истории становления теории вероятностей – – это период логического обоснования теории вероятностей и становления ее математической дисциплиной. Вскоре после доклада Д. Гильберта было предпринято несколько попыток построения математической теории вероятностей с привлечением элементов теории множеств и теории меры. Так, в 1904 г. Р. Леммель (R. Lämmel, [41] ; см. также [19]) для описания множества исходов обращался к теории множеств, однако само понятие вероятности (выражаемое термином «content» и ассоциируемое с объемом, площадью, длиной, . . .) оставалось на интуитивном уровне предшествующего периода. Другой автор, У. Брогги (Ugo Broggi, 1880– –1965) в своей диссертации (1907 г., [10] ; см. также [19]), выполненной под руководством Д. Гильберта, обращался и к теории меры Бореля и Лебега (основываясь на ее представлении в книге Лебега [40] , 1904 г.), но само понятие (конечно-аддитивной) вероятности требовало для своего определения обращения (в простейших случаях) к «относительным мерам», «относительным частотам» и (в общих случаях) обращения к некоторым искусственным предельным процедурам. Среди авторов последовавших затем работ по логическому обоснованию теории вероятностей следует в первую очередь назвать С. Н. Бернштейна (1880– –1968) и Р. фон Мизеса (Richard von Mises, 1883– –1953). Система аксиом С. Н. Бернштейна ([4] , 1917 г.) была основана на понятии качественного сравнения событий по степени их большего или меньшего правдоподобия. Само же численное значение вероятности появлялось как некоторое производное понятие. Впоследствии весьма сходный подход, основанный на субъективных качественных суждениях («системе знаний субъекта»), получил широкое развитие в работах Б. де Финетти (Bruno de Finetti, 1906– –1985) в конце двадцатых – – начале тридцатых годов (см., например, [65] – – [70]). Идеи Б. де Финетти нашли большую поддержку у ряда представителей байесовского направления в статистике, например, у Л. Сэвиджа (Leonard ИСТОРИЯ СТАНОВЛЕНИЯ МАТЕМАТИЧЕСКОЙ ТЕОРИИ ВЕРОЯТНОСТЕЙ 925 Jimmie Savage, 1917– –1971; см. [60]), а также в теории игр и решений, где «субъективный» элемент играет весьма значительную роль. В 1919 г. Р. Мизес предложил ([49] , [50]) так называемый частотный (говорят также – – статистический или эмпирический) подход к обоснованию теории вероятностей, положив в основу ту идею, что вероятностные концепции могут применяться только к так называемым «коллективам», т. е. индивидуальным бесконечным упорядоченным последовательностям, обладающим некоторым свойством «случайности» их образования. Общая схема Р. Мизеса может быть обрисована следующим образом. Имеется некоторое выборочное пространство исходов «эксперимента», и предполагается возможность проведения бесконечного числа испытаний, приводящих к последовательности x = (x1 , x2 , . . .), где xn – – результат исхода в n-м «эксперименте». Пусть, далее, A – – некоторое подмножество n 1 P в множестве исходов «эксперимента» и νn (A; x) = IA (xi) – – частота n i=1 появления «события» A в первых n испытаниях. Последовательность x = (x1 , x2 , . . .) называется коллективом, если она удовлетворяет следующим двум постулатам (называемым Мизесом альтернативными условиями; см. [49] – – [51]): I (существование предела частот у последовательности) – – для всех «допустимых» множеств A существует предел частот lim νn (A; x) n (= p(A; x)); II (существование предела частот у подпоследовательностей) – – для всех последовательностей x ′ = (x1′ , x2′ , . . .), получаемых из последовательности x = (x1 , x2 , . . .) с помощью некоторой заранее оговариваемой системы («допустимых») правил их образования (Мизес их называет «placeselection functions»), пределы частот lim νn (A; x ′) должны быть теми же n самыми, что и для самой последовательности x = (x1 , x2 , . . .), т. е. совпадать с lim νn (A; x). n Согласно Мизесу, говорить о «вероятности множества A» можно лишь в связи с конкретным «коллективом» и эта вероятность (P(A; x)) определяется (в соответствии с постулатом I) как предел частот lim νn (A; x). n Важно подчеркнуть, что если этот предел не существует (и, значит, x по определению не является «коллективом»), то соответствующая вероятность не определяется. Второй постулат призван у Мизеса выражать (соответствующую интуиции и лежащую в основе всех «вероятностных» рассмотрений) концепцию «случайности» в формировании «коллектива» x = (x1 , x2 , . . .), отражать идею «нерегулярности» этой последовательности и «непредсказуемости» ее «будущих» значений (xn , xn+1 , . . .) по 926 ИСТОРИЯ СТАНОВЛЕНИЯ МАТЕМАТИЧЕСКОЙ ТЕОРИИ ВЕРОЯТНОСТЕЙ «прошлому» (x1 , x2 , . . . , xn−1) для любого n > 1. (У представителей теории вероятностей, придерживающихся колмогоровской аксиоматики, изложенной в § 1 гл. II, такие последовательности должны ассоциироваться с «типичными» последовательностями исходов наблюдений над независимыми одинаково распределенными случайными величинами; см. п. 4 § 5 гл. I.) Сформулированные постулаты, используемые Мизесом при построении, как он говорил ([51, с. 1]), «a mathematical theory of repetitive events», вызвали (особенно в тридцатые годы) большую дискуссию и критику. Основные возражения сводились к тому, что в реальной практике мы, обычно, имеем дело с конечными, а не бесконечными, последовательностями. Тем самым, реально нельзя определить, существует ли предел lim νn (A; x), n нельзя реально определить и «чувствительность» этого предела при переходе от последовательности x к последовательности x ′ . Серьезную критику вызывали также как способ определения Мизесом понятия «допустимых» правил образования подпоследовательностей, так и та расплывчатость в определении множества тех («тестовых») правил, которые допускаются к рассмотрению в альтернативном условии II. Если рассматривать последовательность x = (x1 , x2 , . . .), состоящую и нулей и единиц и такую, что для нее предел lim νn (x; {1}) принимает n значения в интервале (0, 1), то в этой последовательности должно быть бесконечное число и нулей, и единиц. Поэтому если допускать любые правила образования подпоследовательностей, то всегда можно из x образовать подпоследовательность x ′ , состоящую, например, лишь из единиц, для которой предел lim νn (x ′ ; {1}) = 1. Отсюда можно заключить, что n нетривиальные коллективы, инвариантные относительно всех способов образования подпоследовательностей, не существуют. Первый шаг на пути доказательства «непустоты» класса коллективов был сделан А. Вальдом (Abraham Wald, 1902– –1950) в работе [13] , 1937 г. В его конструкции правила образования подпоследовательностей x ′ = (x1′ , x2′ , . . .) из последовательностей x = (x1 , x2 , . . .) описывались с помощью счетного набора функций fi = fi (x1 , . . . , xi), i > 1, принимающих два значения 0 и 1: элемент xi+1 включается в последовательность x ′ , если fi (x1 , . . . , xi) = 1, и не включается, если fi (x1 , . . . , xi) = 0. В 1940 г. А. Чёрч (Alonzo Church, 1903– –1995) предложил, [73] , иной подход к образованию подпоследовательности, основываясь на той идее, что каждый способ образования должен быть на практике «эффективно вычислимым». Эта идея привела Чёрча к понятию алгоритмически вычислимых (т. е. вычислимых с помощью, скажем, машины Тьюринга) функций, которые и были им предложены для образования подпоследовательностей. (Пусть, ИСТОРИЯ СТАНОВЛЕНИЯ МАТЕМАТИЧЕСКОЙ ТЕОРИИ ВЕРОЯТНОСТЕЙ 927 например, xi принимает два значения, ω1 = 0, ω2 = 1. Поставим в соответствие последовательности (x1 , . . . , xn) положительное число λ= n X ik 2k−1 , k=1 где ik определяются так, что xk = ωik . Если ϕ = ϕ(λ) – – бинарная, {0, 1}значная функция, определенная на множестве {0, 1, 2, . . . }, то xn+1 включается в новую последовательность x ′ , когда ϕ(λn) = 1, и не включается, если ϕ(λn) = 0.) В качестве одного из пояснений и оправданий своей концепции «коллектива» как последовательности со свойством «случайности», Мизес приводил ту эвристическую аргументацию, что для таких последовательностей нельзя построить «выигрышную систему игры». Эти рассуждения были подвергнуты критическому анализу в небольшой монографии Ж. Вилля (Jean Ville, 1910– –1988) [14] , 1939 г., в которой он придал мизесовским рассмотрениям строгую математическую форму. Интересно отметить, что именно в этой работе впервые был использован (как математическое понятие) термин «мартингал». Из приведенного выше описания разных подходов к аксиоматике теории вероятностей (. . . , Бернштейн, де Финетти, Мизес) видно, что на них лежит отпечаток усложненности и излишней перегруженности понятиями, многие из которых определяются желанием построения такой схемы теории вероятностей, которая была бы возможно ближе к приложениям, что, как отмечает А. Н. Колмогоров в «Основных понятиях теории вероятностей», [23] , не может привести к простой аксиоматизации. Первой публикацией А. Н. Колмогорова, которая говорит о его интересе к вопросам логического обоснования теории вероятностей, была (недостаточно широко известная) статья «Общая теория меры и исчисление вероятностей», [27] . И само название статьи, и ее содержание показывают, что возможность логического обоснования теории вероятностей А. Н. Колмогоров видел на базе теории множеств и теории меры. Это обстоятельство, как следует из изложенного выше, не было совершенно новым и к тому же было вполне естественным для московской математической школы, для которой теория множеств и метрическая теория функций были одними из основных областей математических исследований. В промежутке между этой статьей (1929 г.) и появлением «Основных понятий» ([23] , 1933 г.) А. Н. Колмогоров публикует одну из своих знаменитых вероятностных работ «Об аналитических методах в теории вероятностей» [29] , о которой П. С. Александров и А. Я. Хинчин писали, [1] : 928 ИСТОРИЯ СТАНОВЛЕНИЯ МАТЕМАТИЧЕСКОЙ ТЕОРИИ ВЕРОЯТНОСТЕЙ «Во всей теории вероятностей XX столетия трудно указать другое исследование, которое оказалось бы столь основополагающим для дальнейшего развития науки. . . ». Фундаментальность этой работы заключалась не только в том, что в ней были заложены основы теории марковских случайных процессов, но и в том, что она показала тесные связи этой теории, да и всей теории вероятностей в целом, с математическим анализом (в частности, с теорией дифференциальных уравнений – – с обычными и частными производными), с классической механикой, классической физикой, . . . В связи с рассматриваемыми вопросами обоснования математической теории вероятностей отметим, что работа «Аналитические методы», [29] , может служить, так сказать, «физической» мотивацией необходимости логического построения основ случайных процессов, что явилось (помимо «аксиоматики») одной из целей «Основных понятий». В основе предложенной А. Н. Колмогоровым (неформальной) аксиоматизации теории вероятностей лежит понятие вероятностного пространства (Ω, F , ), где (Ω, F) – – некоторое (абстрактное) измеримое пространство («элементарных» исходов и «событий») и – – неотрицательная счетно-аддитивная функция множеств из F , нормированная условием (Ω) = 1 («вероятность»); см. § 1 в гл. II). Под случайными величинами понимаются F -измеримые функции ξ = ξ (ω), их математическое ожидание определяется как интеграл Лебега от ξ (ω) по мере . Новым явилось и понятие условного математического ожидания (ξ | G ) относительно σ-подалгебр G ⊆ F (см. в этой связи предисловие А. Н. Колмогорова ко второму изданию «Основных понятий», [24]). В «Основных понятиях» есть теорема, которую А. Н. Колмогоров называет основной, подчеркивая тем самым особую важность содержащегося в ней утверждения (о существовании процессов с заданными конечномерными распределениями). Суть дела здесь в следующем. В «Аналитическим методах» марковские процессы были призваны описывать эволюцию «стохастически определенных систем» и это описание давалось в терминах «дифференциальных» свойств функций P(s, x; t, A), удовлетворяющих «уравнению Колмогорова– –Чепмена». Функции P(s, x; t, A) назывались переходными вероятностями, что связано с их интерпретацией как вероятностей того, что, будучи в момент времени s в состоянии x, «система» окажется в момент времени t в множестве A фазового пространства ее состояний. ИСТОРИЯ СТАНОВЛЕНИЯ МАТЕМАТИЧЕСКОЙ ТЕОРИИ ВЕРОЯТНОСТЕЙ 929 Точно так же и в работах того же времени [30] , [31] , [66] , [67] , посвященных «однородным стохастическим процессам с независимыми приращениями», все рассмотрения велись в терминах свойств] функций Pt (x), удовлетворяющих функциональному уравнению Ps+t (x) = Ps (x − y) dPt (y), естественно возникающему при интерпретации Pt (x) как вероятности того, что за время t приращение процесса будет меньше или равно x. Однако с формально-логической точки зрения вопрос о существовании объекта, который можно было бы назвать «процессом» с заданными переходными вероятностями P(s, x; t, A) или заданными распределениями Pt (x), оставался открытым. Именно к решению этого вопроса и относится основная теорема, утверждающая, что по каждой системе согласованных конечномерных распределений вероятностей Ft1 ,t2 ,...,tn (x1 , x2 , . . . , xn), 0 6 t1 < t2 < . . . < tn , xi ∈ R, можно построить вероятностное пространство (Ω, F , ) и систему случайных величин X = (Xt) t>0 , Xt = Xt (ω), такую, что {Xt1 6 x1 , Xt2 6 x2 , . . . , Xtn 6 xn } = Ft1,t2 ,...,tn (x1 , x2 , . . . , xn). В качестве Ω берется пространство R [0,∞) действительных функций ω = (ωt) t>0 , в качестве F берется σ-алгебра, порожденная цилиндрическими множествами, а мера определяется с помощью процедуры продолжения меры с алгебры цилиндрических множеств (на которых эта мера строится естественным образом по заданным конечномерным распределениям) на наименьшую σ-алгебру, порожденную этой алгеброй множеств. Случайные величины Xt (ω) определяются координатным образом: если ω = (ωt) t>0 , то Xt (ω) = ωt . (Данная конструкция объясняет, почему часто понятие «случайный процесс» отождествляется с (его) мерой в функциональном пространстве R [0,∞) .) В «Основных понятиях» небольшой параграф отводится и вопросам применимости теории вероятностей. Описывая схему условий, по которой идет применение этой теории к «реальному миру экспериментов», А. Н. Колмогоров во многом следует Р. Мизесу, показывая тем самым, что ему был не чужд частотный мизесовский подход в вопросах интерпретации и применимости теории вероятностей. Суть этой схемы условий состоит в следующем. Предполагается, что имеется некоторый комплекс условий, дающий возможность проведения неограниченного числа повторных экспериментов. Пусть (x1 , x2 , . . . , xn) – – результаты n экспериментов со значениями xi , 1 6 i 6 n, принадлежащими, скажем, множеству X, и пусть A – – некоторое интересующее нас подмножество в X. 930 ИСТОРИЯ СТАНОВЛЕНИЯ МАТЕМАТИЧЕСКОЙ ТЕОРИИ ВЕРОЯТНОСТЕЙ Если xi ∈ A, то говорят, что в i-м эксперименте произошло событие A. (Отметим, что a priori не делается никаких предположений «вероятностного» характера типа, что эксперименты проводятся «случайным и независимым образом», не говорится ничего и о «шансах», приводящих к событию A, и т. п.) Далее, предполагается, что событию A может быть приписано некоторое число (обозначаем его (A)) такое, что практически можно быть уверенным в том, что частота νn (A) появления события A в n экспериментах будет при больших n мало отличаться от (A). И если, к тому же, (A) мало, то практически можно быть уверенным в том, что в единичном эксперименте событие A не появится. В «Основных понятиях» А. Н. Колмогоров не входит в детальное обсуждение условий применимости теории вероятностей к «реальному миру», говоря, что «мы . . . сознательно оставляем в стороне глубокие философские изыскания о понятии вероятности в мире опыта», но отмечая во введении к первой главе, что есть области применимости теории вероятностей, «которые не имеют отношения к понятиям случая и вероятности в собственном смысле этого слова». Тридцать лет спустя А. Н. Колмогоров вернулся (см. [32] – – [37]) к вопросу о применимости теории вероятностей, предложив для его разрешения два подхода («первый» и «второй»), в основе которых лежат соответственно, концепция «аппроксимативной случайности» и концепция «алгоритмической сложности». При этом он особо подчеркивал [37] , что, в отличие от Р. Мизеса и А. Чёрча, оперирующих с бесконечными последовательностями (x1 , x2 , . . .), его подходы к понятию «случайности» носят строго финитный характер, т. е. относятся к последовательностям (x1 , x2 , . . . , xN ), N > 1, конечной длины (далее они, следуя [38] , называются цепями), что мы и имеем на самом деле в реальных ситуациях. Концепция «аппроксимативной случайности» вводится так. Пусть (x1 , x2 , . . . , xN ) – – некоторая бинарная (xi = 0, 1) цепь длины N и n 6 N. Говорят, что эта цепь является (n, ε)-случайной по отношению к (конечному) набору Φ допустимых алгоритмов, если существует чис′ ло p (= ({1})) такое, что для любой цепи (x1′ , x2′ , . . . , xm ) с n 6 m 6 N, полученной из (x1 , x2 , . . . , xN ) с помощью некоторого алгоритма A ∈ Φ, частота νm (x ′ ; {1}) появления единицы отличается от p не более чем на ε. (Те алгоритмы из Φ, которые приводят к цепям длины m < n, во внимание не принимаются.) А. Н. Колмогоров показывает в [32] , что если для заданных n и 0 < ε < 1 число допустимах алгоритмов не больше, чем 1 exp{2nε2 (1 − ε)}, 2 ИСТОРИЯ СТАНОВЛЕНИЯ МАТЕМАТИЧЕСКОЙ ТЕОРИИ ВЕРОЯТНОСТЕЙ 931 то для каждого 0 < p < 1 и любого N > n можно найти цепь (x1 , x2 , . . . , xN ), обладающую свойством (n, ε)-случайности («аппроксимативной случайности»). В описанном подходе к выделению «случайных» цепей есть (как и в мизесовском случае) определенный произвол, связанный с неопределенностью описания и отбора допустимых алгоритмов. Понятно при этом, что этот класс алгоритмов не может быть слишком большим, иначе множество «аппроксимативно случайных» цепей оказалось бы пустым. В то же самое время желательно, чтобы допустимые алгоритмы были бы просто устроены (например, задавались бы таблицей). В теории вероятностей сложилось вполне определенное представление, подкрепленное разного рода вероятностными утверждениями, о том, что «типичные случайные реализации устроены достаточно нерегулярно, достаточно сложно». Поэтому если стремиться к тому, чтобы алгоритмическое определение «случайности» цепей, последовательностей было максимально приближено к вероятностному представлению о структуре случайных реализаций, то алгоритмы из Φ должны (в совокупности) позволять отбраковывать «нетипичные, просто устроенные» цепи, объявляя «случайными» те, которые устроены достаточно нерегулярно, достаточно сложно. Эти соображения приводят ко «второму» подходу А. Н. Колмогорова к понятию «случайности», в котором акцент делается не на «простоту» рассматриваемых алгоритмов, а на «сложность» самих цепей и «напрямую» вводится некоторая числовая характеристика «сложности», призванная показывать степень «нерегулярности» в образовании этих цепей. Этой характеристикой является так называемая «алгоритмическая» (или «колмогоровская») сложность KA (x) индивидуальной цепи x по отношению к алгоритму A, определяемая, образно говоря, как длина той самой короткой бинарной цепи, которая, будучи поданной на «вход» алгоритма (машины, компьютера, . . .) A, позволяет на «выходе» эту цепь восстановить. Формальные определения даются следующим образом. Пусть Σ – – совокупность всех конечных бинарных цепей x = (x1 , x2 , . . . . . . , xn), |x| (= n) – – ее длина и Φ – – некоторый класс алгоритмов. Сложностью цепи x ∈ Σ по отношению к алгоритму A ∈ Φ называется число KA (x) = min{|p| : A(p) = x}, т. е. минимальная длина (|p|) той бинарной цепи p на «входе» алгоритма A, которая восстанавливает на «выходе» цепь x (A(p) = x). В [34] А. Н. Колмогоров устанавливает, что (для некоторых важных классов алгоритмов Φ) имеет место следующий результат: существует 932 ИСТОРИЯ СТАНОВЛЕНИЯ МАТЕМАТИЧЕСКОЙ ТЕОРИИ ВЕРОЯТНОСТЕЙ универсальный алгоритм U ∈ Φ такой, что для любого A ∈ Φ найдется константа C(A) такая, что для любой цепи x ∈ Σ KU (x) 6 KA (x) + C(A), а для разных универсальных алгоритмов U ′ и U ′′ |KU ′ − KU ′′ | 6 C, x ∈ Σ, где C не зависит от x ∈ Σ. (А. Н. Колмогоров отмечает в [34] , что одновременно аналогичный результат был установлен Р. Соломоновым.) Это обстоятельство (с учетом также того, что для «типичных» цепей x значение KU (x) растет с ростом |x|) оправдывает следующее определение: сложностью цепи x ∈ Σ по отношению к классу алгоритмов Φ называется величина K(x) ≡ KU (x), где U – – некоторый универсальный алгоритм из Φ. Величину K(x) принято называть алгоритмической или колмогоровской сложностью «объекта» x. А. Н. Колмогоров рассматривал эту величину как меру количества алгоритмической информации, содержащейся в «конечном объекте» x, называя ее энтропией x и полагая, что это понятие является даже более фундаментальным, нежели вероятностное понятие количества информации, требующее для своего определения знания вероятностного распределения на «объектах» x. Величину K(x) можно трактовать также как показатель степени сжатия «текста» x. Если в класс Φ включать алгоритмы типа простого перечисления элементов, то становится понятным, что (с точностью до константы) сложность K(x) цепи x не превышает ее длины |x|. С другой стороны, простые рассмотрения показывают, что количество (бинарных) цепей x сложности менее K не превышает 2K − 1, что есть число различных «входных» бинарных последовательностей длины, меньшей K (1 + 2 + . . . + 2K −1 = 2K − 1). Далее, простые рассуждения (см., например, [15]) показывают, что существуют цепи x, сложность которых (с точностью до константы) равна их длине |x|, и что не может быть большого числа цепей, допускающих сильное сжатие (доля цепей сложности n − a не превосходит 2−a). Все эти рассмотрения естественным образом приводят к следующему определению: «алгоритмически случайными»(по отношению к классу алгоритмов Φ) называются те цепи x, алгоритмическая сложность K(x) которых близка к |x|. Иначе говоря, алгоритмический подход объявляет «случайными» те цепи x, у которых сложность является максимальной (K(x) ∼ |x|). Введенное А. Н. Колмогоровым понятие сложности, алгоритмической случайности породило целое направление, именуемое «колмогоровской сложностью», с многочисленными применениями в самых разнообразных СПИСОК ЛИТЕРАТУРЫ 933 областях математики и ее применений (см. подробнее, например, [38] , [45] – – [48] , [22]). В теории же вероятностей эти новые понятия положили начало большому циклу работ по выяснению того, для каких «алгоритмически случайных» цепей и последовательностей справедливы те или иные вероятностностатистические закономерности (типа усиленного закона больших чисел, закона повторного логарифма; см., например, [16]), открывая, тем самым, возможности применения методов теории вероятностей и ее результатов и в тех областях, которые, как уже отмечалось выше со ссылкой на [24] , не имеют прямого «отношения к понятиям случая и вероятности в собственном смысле этого слова». Список литературы к очерку истории становления математической теории вероятностей [1] А л е к с а н д р о в П. С., Х и н ч и н А. Я. Андрей Николаевич Колмогоров (к пятидесятилетию со дня рождения) // Успехи математических наук. – – 1953. – – Т. 8, № 3. – – С. 177– –200. [2] Б а ш е л ь е (Bachelier L.). Théorie de la spéculation // Annales de l’École Normale Supérieure. – – 1900. – – V. 17. – – P. 21– –86. [3] Б е р н у л л и Я. О законе больших чисел. Ч. 4: Искусство предположений. – – М.: Наука, 1986. – – С. 23– –59. [4] Б е р н ш т е й н С. Н. Опыт аксиоматического обоснования теории вероятностей // Сообщения Харьковского математического общества. Сер. 2. – – 1917. – – Т. 15. – – С. 209– –274. [5] Б о л ь м а н (Bohlmann G.). Lebensversicherungsmathematik // Encyklopaedie der mathematischen Wissenschaften. – – Bd. I, Heft 2. – – Artikel ID4b. – – Leipzig: Teubner, 1903. [6] Б о л ь ц м а н (Boltzmann L.). Wissenschaftliche Abhandlungen. – – V. 1– –3. – – Leipzig: Barth, 1909. [7] Б о л ь ц м а н, Н а б л (Boltzmann L., Nabl J.). Kinetische Theorie der Materie // Encyklopaedie der mathematischen Wissenschaften. – – Bd. V, Heft 4. – – Leipzig: Teubner, 1907. – – S. 493– –557. [8] Б о р е л ь (Borel É.). Leçons sur la théorie des fonctions. – – Paris: GauthierVillars, 1898; Éd. 2. – – Paris: Gauthier-Villars, 1914. [9] Б о р е л ь (Borel É.). Quelques remarques sur les principes de la théorie des ensembles // Mathematische Annalen. – – 1905. – – V. 60. – – P. 194– –195. [10] Б р о г г и (Broggi U.). Die Axiome der Wahrscheinlichkeitsrechnung. Dissertation. Göttingen, 1907. (См. также [19].) [11] Б р а у н (Brown R.). A brief account of microscopical observations made in the months of June, July, and August, 1827, on the particles contained in the 934 ИСТОРИЯ СТАНОВЛЕНИЯ МАТЕМАТИЧЕСКОЙ ТЕОРИИ ВЕРОЯТНОСТЕЙ [12] [13] [14] [15] [16] [17] [18] [19] [20] [21] [22] [23] [24] [25] [26] [27] pollen of plants; and on the general existence of active molecules in organic and inorganic bodies. – – Philosophical Magazine N.S. – – 1828. V. 4. – – P. 161– –173. Б р о д е н (Brodén T.). Wahrscheinlichkeitsbestimmungen bei der gewöhnlichen Kettenbruchentwicklung reeller Zahlen // Akad. Förh. Stockholm. – – 1900. – – V. 57. – – P. 239– –266. В а л ь д (Wald A.). Die Widerspruchsfreiheit des Kollektivbegriffes der Wahrscheinlichkeitsrechnung // Ergebnisse eines mathematischen Kolloquiums. – – 1937. – – V. 8. – – P. 38– –72. В и л ь (Ville J. A.). Étude critique de la notion de collectif. – – Paris: GauthierVillars, 1939. В и т а н ь и П., Л и М. Колмогоровская сложность: двадцать лет спустя // Успехи математических наук. – – 1988. – – Т. 43, № 6. – – С. 129– –166. В о в к В. Г. Закон повторного логарифма для случайных по Колмогорову, или хаотических, последовательностей // Теория вероятностей и ее применения. – – 1987. – – Т. 32, № 3. – – С. 456– –468. Г и б б с (Gibbs J. W.). Elementary Principles in Statistical Mechanics. Developed with especial reference to the rational foundation of thermodynamics. – – New Haven: Yale Univ. Press, 1902; New York: Dover, 1960. Г ю л д е н (Gyldén H.). Quelques remarques relativement à la représentation de nombres irrationnels au moyen des fractions continues // Comptes Rendus. Paris. – – 1888. – – V. 107. – – P. 1584– –1587. Die Entwicklung der Wahrscheinlichkeitstheorie von den Anfängen bis 1933 / Ed. I. Schneider. – – Berlin: Akademie-Verlag, 1989. Д э в и д (David F. N.). Games, Gods and Gambling. The Origin and History of Probability and Statistical Ideas from the Earliest Times to the Newtonian Era. – – London: Griffin, 1962. З в о н к и н А. К., Л е в и н Л. А. Сложность конечных объектов и обоснование понятий информации и случайности с помощью теории алгоритмов // Успехи математических наук. – – 1970. – – Т. 25, № 6. – – С. 85– –127. К и р х г е р, Л и, В и т а н ь и (Kirchherr W., Li M., Vitányi P.). The miraculous universal distribution // Mathematical Intelligencer. – – 1997. – – V. 19, № 4. – – P. 7– –15. К о л м о г о р о в (Kolmogoroff A.). Grundbegriffe der Wahrscheinlichkeitsrechnung. – – Berlin: Springer, 1933; Berlin– –New York: Springer, 1973. К о л м о г о р о в А. Н. Основные понятия теории вероятностей. – – М.– –Л.: ОНТИ, 1936; 2-е изд.– –М.: Наука, 1974; 3-е изд. – – М.: ФАЗИС, 1998. К о л м о г о р о в (Kolmogorov A. N.). Foundations of the Theory of Probability. – – New York: Chelsea, 1950; 2nd ed. – – New York: Chelsea, 1956. К о л м о г о р о в А. Н. Роль русской науки в развитии теории вероятностей // Роль русской науки в развитии мировой науки и культуры. – – Т. I, кн. 1. – – М.: Изд-во Моск. ун-та, 1947. – – С. 53– –64. К о л м о г о р о в А. Н. Общая теория меры и исчисление вероятностей // Коммунистическая академия. Секция естественных и точных наук. Сборник работ математического раздела. – – Т. 1. – – М., 1929. – – С. 8– –21. (См. также [28], c. 48– –58.) СПИСОК ЛИТЕРАТУРЫ 935 [28] К о л м о г о р о в А. Н. Теория вероятностей и математическая статистика. М.: Наука, 1986. [29] К о л м о г о р о в (Kolmogoroff A.). Über die analytischen Methoden in der Wahrscheinlichkeitsrechnung // Mathematische Annalen. – – 1931. – – V. 104. – – P. 415– –458. (См. также [28], c. 60– –105.) [30] К о л м о г о р о в (Kolmogoroff A.). Sulla forma generale di un processo stochastico omogeneo. (Un problema di Bruno de Finetti.) // Atti della Accademia Nazionale dei Lincei. – – 1932. – – V. 15. – – P. 805– –808. (См. также [28].) [31] К о л м о г о р о в (Kolmogoroff A.). Ancora sulla forma generale di un processo omogeneo // Atti della Accademia Nazionale dei Lincei. – – 1932. – – V. 15. – – P. 866– –869. (См. также [28].) [32] К о л м о г о р о в (Kolmogorov A. N.). On tables of random numbers // Sankhyā A. – – 1963. – – V. 25, № 4. – – P. 369– –376. [33] К о л м о г о р о в А. Н. Теория информации и теория алгоритмов. М.: Наука, 1987. [34] К о л м о г о р о в А. Н. Три подхода к определению понятия «количество информации» // Проблемы передачи информации. – – 1965. – – Т. 1, № 1. – – С. 3– –11. (См. также [33], с. 213– –223.) [35] К о л м о г о р о в (Kolmogorov A. N.). Logical basis for information theory and probability theory // IEEE Transactions on Information Theory. – – 1968. – – V. 14, № 5. – – P. 662– –664. (См. также [33], с. 232– –237.) [36] К о л м о г о р о в А. Н. Комбинаторные основания теории информации и исчисления вероятностей // Успехи математических наук. – – 1983. – – Т. 38, № 4. – – С. 27– –36. [37] К о л м о г о р о в (Kolmogorov A. N.). On logical foundations of probability theory // Probability Theory and Mathematical Statistics (Tbilisi, 1982). Berlin etc.: Springer-Verlag, 1983. – – P. 1– –5. – – (Lecture Notes in Mathematics; V. 1021) (См. также [28], с. 467– –471.) [38] К о л м о г о р о в А. Н., У с п е н с к и й В. А. Алгоритмы и случайность // Теория вероятностей и ее применения. – – 1987. – – Т. 32, № 3. – – С. 425– –455. [39] Л а п л а с (Laplace P. S., de). A Philosophical Essay on Probabilities. – – New York: Dover, 1951; – – Первое издание: La Place P. S. Essai philosophique sur les probabilités. – – Paris, 1814. [40] Л е б е г (Lebesgue H.). Leçons sur l’intégration et la recherche des fonctions primitives. – – Paris: Gauthier-Villars, 1904. [41] Л е м м е л ь (Lämmel R.). Untersuchungen über die ermittlung der Wahrscheinlichkeiten. Dissertation. Zürich, 1904. (См. также [19].) [42] Л и, В и т а н ь и (Li M., Vitányi P. M. B.). An Introduction to Kolmogorov Complexity and its Applications. – – 2nd ed. – – Berlin– –New York: SpringerVerlag, 1997. [43] М а й с т р о в Л. Е. Теория вероятностей. Исторический очерк. – – М.: Наука, 1967. [44] М а к с в е л л (Maxwell J. C.). The scientific letters and papers of James Clerk Maxwell. – – V. I: 1846– –1862. – – V. II: 1862– –1873. – – V. III: 1874– –1879 / Ed. P. M. Harman. – – Cambridge: Cambridge Univ. Press, 1990, 1995, 2002. 936 ИСТОРИЯ СТАНОВЛЕНИЯ МАТЕМАТИЧЕСКОЙ ТЕОРИИ ВЕРОЯТНОСТЕЙ [45] М а р т и н - Л ё ф П. О понятии случайной последовательности // Теория вероятностей и ее применения. – – 1966. – – Т. 11, № 1. – – С. 198– –200. [46] М а р т и н - Л ё ф (Martin-Löf P.). The definition of random sequences // Information and Control. – – 1966. – – V. 9, № 6. – – P. 602– –619. [47] М а р т и н - Л ё ф (Martin-Löf P.). On the notion of randomness // Intuitionism and Proof Theory: Proceedings of the conference at Buffalo, NY, 1968 / Ed. A. Kino et al. Amsterdam: North-Holland, 1970. – – P. 73– –78. [48] М а р т и н - Л ё ф (Martin-Löf P.). Complexity oscillations in infinite binary sequences // Zeitschrift für Wahrscheinlichkeitstheorie und verwandte Gebiete. – – 1971. – – V. 19. – – P. 225– –230. [49] ф о н М и з е с (Mises R., von). Fundamentalsätze der Wahrscheinlichkeitsrechnung // Mathematische Zeitschrift. – – 1919. – – V. 4. – – P. 1– –97. [50] ф о н М и з е с (Mises R., von). Grundlagen der Wahrscheinlichkeitsrechnung // Mathematische Zeitschrift. – – 1919. – – V. 5. – – P. 52– –99; 1920. – – V. 7. – – P. 323. [51] ф о н М и з е с (Mises R., von). Mathematical Theory of Probability and Statistics. – – New York– –London: Academic Press, 1964. [52] Н ь ю т о н (Newton I.). The Mathematical Works of Isaac Newton / Ed. D. T. Whiteside. – – V. 1. – – New York: Johnson, 1967. [53] О теории вероятностей и математической статистике (переписка А. А. Маркова и А. А. Чупрова). – – М.: Наука, 1977. [54] П л а т о (Plato J., von). Creating Modern Probability. Its Mathematics, Physics and Philosophy in Historical Perspective. – – Cambridge: Cambridge Univ. Press, 1994. [55] П о й я (Pólya G.). Über den zentralen Grenzwertsatz der Wahrscheinlichkeitsrechnung und das Momentenproblem // Mathematische Zeitschrift. – – 1920. – – V. 8. – – P. 171– –181. [56] П у а н к а р е (Poincaré H.). Calcul des probabilités. – – Paris: G. Carré, 1896. [57] П у а н к а р е (Poincaré H.). Sur le problème des trois corps et les équations de la dynamique. I, II // Acta Mathematica. – – 1890. – – V. 13. – – P. 1– –270. [58] С е л ь в а н а т а н и др. (Selvanathan A., Selvanathan S., Keller G., Warrack B., Bartel H.). Australian Business Statistics. – – Melbourne: Nelson, An International Thomson Publ. Co., 1994. [59] С м о л у х о в с к и й (Smoluchowski M. R., von). Zur kinetischen Theorie der Brownschen Molekularbewegung und der Suspensionen // Annalen der Physik. – – 1906. – – V. 21. – – P. 756– –780. [60] С э в и д ж (Savage L. J.). The Foundations of Statistics. – – New York: Wiley; London: Chapman & Hall, 1954. [61] Т о д х а н т е р (Todhunter I.). A History of the Mathematical Theory of Probability from the Time of Pascal to That of Laplace. – – New York: Chelsea, 1949; – – Первое издание: Cambridge: Macmillan, 1865. [62] У и м а н (Wiman A.). Über eine Wahrscheinlichkeitsaufgabe bei Kettenbruchentwicklungen // Akad. Förh. Stockholm. – – 1900. – – V. 57. – – P. 829– –841. [63] У с п е н с к и й, С е м ё н о в (Uspensky V. A., Semenov A. L.). What are the gains of the theory of algorithms: basic developments connected with the concept СПИСОК ЛИТЕРАТУРЫ [64] [65] [66] [67] [68] [69] [70] [71] [72] [73] [74] [75] 937 of algorithm and with its application in mathematics // Algorithms in Modern Mathematics and Computer Science (Urgench, 1979). – – Berlin etc.: SpringerVerlag, 1981. – – P. 100– –234. – – (Lecture Notes in Computer Science; V. 122.) Ф а й н (Fine T. L.). Theories of Probability. An Examination of Foundations. – – New York– –London: Academic Press, 1973. д е Ф и н е т т и (Finetti B., de). Sulle probabilità numerabili e geometriche // Istituto Lombardo. Accademia di Scienze e Lettere. Rendiconti (2). – – 1928. – – V. 61. – – P. 817– –824. д е Ф и н е т т и (Finetti B., de). Sulle funzioni a incremento aleatorio // Accademia Nazionale dei Lincei. Rendiconti (6). – – 1929. – – V. 10. – – P. 163– –168. д е Ф и н е т т и (Finetti B., de). Integrazione delle funzioni a incremento aleatorio // Accademia Nazionale dei Lincei. Rendiconti (6). – – 1929. – – V. 10. – – P. 548– –553. д е Ф и н е т т и (Finetti B., de). Probabilismo: saggio critico sulla teoria delle probabilità e sul valore della scienza. – – Napoli: Perrella, 1931; // Logos. – – 1931. – – V. 14. – – P. 163– –219. – – English transl.: // Erkenntnis. The International Journal of Analytic Philosophy. – – 1989. – – V. 31. – – P. 169– –223. д е Ф и н е т т и (Finetti B., de). Probability, Induction and Statistics. The Art of Guessing. – – New York etc.: Wiley, 1972. д е Ф и н е т т и (Finetti B., de). Teoria delle probabilità: sintesi introduttiva con appendice critica. – – V. 1, 2. – – Turin: Einaudi, 1970. – – English transl.: Theory of Probability: A Critical Introductory Treatment. – – V. 1, 2. – – New York etc.: Wiley, 1974, 1975. Ф р е ш е (Fréchet M.). Sur l’intégrale d’une fonctionnelle étendue à un ensemble abstrait // Bulletin de la Société Mathématique de France. – – 1915. – – V. 43. – – P. 248– –265. Х о к и н с (Hawkins T.). Lebesgue’s Theory of Integration. Its Origin and Development. – – Madison, Wis. – – London: Univ. Wisconsin Press, 1970. Ч ë р ч (Church A.). On the concept of a random sequence // American Mathematical Society. Bulletin. – – 1940. – – V. 46, № 2. – – P. 130– –135. Ш и р я е в А. Н. Основы стохастической финансовой математики: В 2х т. – – М.: ФАЗИС, 1998. Э й н ш т е й н (Einstein A.). Über die von der molekularkinetischen Theorie der Wärme geforderte Bewegung von in ruhenden Flüssigkeiten suspendierten Teilchen // Annalen der Physik. – – 1905. – – V. 17. – – P. 549– –560. Библиографическая справка (главы IV– –VIII) ГЛАВА IV § 1. Закон «нуля или единицы» Колмогорова содержится в его книге [32]. По поводу закона «нуля или единицы» Хьюитта и Сэвиджа см. также А. А. Боровков [7], Л. Брейман [8], Р. Эш [81]. § 2– –4. Основные результаты здесь получены А. Н. Колмогоровым и А. Я. Хинчиным (см. [32] и литературу там). См. также книги В. В. Петрова [53] и В. Стоута [66]. По поводу вероятностных методов в теории чисел см. книгу Й. Кубилюса [36]. Уместно будет здесь напомнить историю вопроса «усиленный закон больших чисел – – закон повторного логарифма» для схемы Бернулли. Первой работой, в которой возник усиленный закон больших чисел, была работа Э. Бореля о нормальности чисел из множества [0, 1) (É. Borel. Les probabilités dénombrables et leurs applications arithmétiques // Rendiconti del Circolo Matematico di Palermo. – – 1909. – – V. 27. – – P. 247– –271). Если воспользоваться обозначениями из примера 2 § 3, то для величин Sn = n X k=1 I(ξk = 1) − 1 2 полученный Э. Борелем результат состоял в том, что для почти всех (по мере Лебега) ω ∈ [0, 1) сущеcтвует такое N = N(ω), что Sn (ω) ln(n/2) 6 √ n 2n для всех n > N(ω). Тем самым, в частности, Sn = o(n) почти наверное. Следующий шаг был сделан Ф. Хаусдорфом (F. Hausdorff. Grundzüge der Mengenlehre. – – Leipzig: Veit, 1914), который установил, что почти наверное Sn = o(n1/2+ε) для всякого ε > 0. В 1914 году Г. Харди и Дж. Литтлвуд (G. H. Hardy, J. E. Littlewood. Some problems of Diophantine approximation // Acta Mathematica. – – 1914. – – V. 37. – – 1/2 P. 155– –239) показали, что почти наверное Sn = O((n ln n) ). В 1922 году Г. Штейнгауз (H. Steinhaus. Les probabilités dénombrables et leur rapport à la théorie de la mesure // Fundamenta Mathematicae. – – 1923. – – V. 4. – – P. 286– –310) уточнил результат Харди и Литтлвуда, показав, что почти наверное lim sup √ n Sn 2n ln n 6 1. В 1923 году А. Я. Хинчин (A. Khintchine. Über dyadische Brüche // Mathematische √ Zeitschrift. – – 1923. – – V. 18. – – P. 109– –116) устанавливает, что Sn = O( n ln ln n) почти наверное. БИБЛИОГРАФИЧЕСКАЯ СПРАВКА (ГЛАВЫ IV– –VIII) 939 Наконец, через год А. Я. Хинчин (A. Khintchine. Über einen Satz der Wahrscheinlichkeitsrechnung // Fundamenta Mathematicae. – – 1924. – – V. 6. – – P. 9– –20) получает окончательный результат («закон повторного логарифма»): почти наверное lim sup n p(n/2)S ln ln n = 1. n (Отметим, что в рассматриваемом случае σ 2 = [I(ξk = 1) − 1/2] 2 = 1/4, что объясняет возникновение множителя n/2, а не привычного множителя 2n; ср. с формулировкой теоремы 1 в § 4.) Как уже упоминалось в § 4, следующий шаг по установлению справедливости закона повторного логарифма для широкого класса независимых случайных величин был сделан в 1922 году А. Н. Колмогоровым (A. Kolmogoroff. Über das Gesetz des iterierten Logarithmus // Mathematische Annalen. – – 1929. – – V. 101. – – P. 126– –135). § 5. См. по этим вопросам книги В. В. Петрова [92], А. А. Боровкова [7], Д. Дакуна-Кастелля и М. Дюфло [86]. ГЛАВА V § 1– –3. При изложении теории стационарных (в узком смысле) случайных последовательностей использованы книги Л. Бреймана [8], Я. Г. Синая [63] и Дж. Ламперти [38]. Простое доказательство максимальной эргодической теоремы дано А. Гарсиа [12]. ГЛАВА VI § 1. Теории стационарных (в широком смысле) случайных последовательностей посвящены книги Ю. А. Розанова [60], И. И. Гихмана и А. В. Скорохода [13], [14]. Пример 6 часто приводился в лекциях А. Н. Колмогорова. § 2. По поводу ортогональных стохастических мер и стохастических интегралов см. также Дж. Дуб [20], И. И. Гихман и А. В. Скороход [14], Ю. А. Розанов [60], Р. Эш и М. Гарднер [82]. § 3. Спектральное представление (2) получено Г. Крамером и М. Лоэвом (см., например, [42]). В других терминах такое представление содержится в работе А. Н. Колмогорова [29]. См. также книги Дж. Дуба [20], Ю. А. Розанова [60], Р. Эша и М. Гарднера [82]. § 4. Подробное изложение вопросов статистического оценивания ковариационной функции и спектральной плотности содержится в книгах Э. Хеннана [71] и [72]. § 5– –6. См. также книги Ю. А. Розанова [60], Дж. Ламперти [38], И. И. Гихмана и А. В. Скорохода [13], [14]. § 7. Изложение здесь следует книге Р. Ш. Липцера и А. Н. Ширяева [41]. ГЛАВА VII § 1. Большинство основных результатов теории мартингалов получено Дж. Дубом [20]. Теорема 1 содержится у П. Мейера [47]. См. также книги П. Мейера 940 БИБЛИОГРАФИЧЕСКАЯ СПРАВКА (ГЛАВЫ IV– –VIII) [48], Р. Ш. Липцера и А. Н. Ширяева [41], И. И. Гихмана и А. В. Скорохода [14], Ж. Жакода и А. Н. Ширяева [87]. § 2. Теорема 1 часто называется теоремой «о преобразовании свободного выбора», [20]. По поводу тождеств (13), (14) и фундаментального тождества Вальда см. книгу [9]. § 3. Правое неравенство (25) было установлено А. Я. Хинчиным в работе 1923 года (A. Khintchine. Über dyadische Brüche // Mathematische Zeitschrift. – – 1923. – – V. 18. – – P. 109– –116) на пути доказательства закона повторного логарифма. Чтобы пояснить, что же привело А. Я. Хинчина к необходимости получения этого неравенства, напомним схему доказательства усиленного закона больших чисел у Э. Бореля и Ф. Хаусдорфа (см. также данный выше комментарий к § 2– –4 главы IV). Пусть ξ1 , ξ2 , . . . – – последовательность независимых одинаково распределенных случайных величин с {ξ1 = 1} = {ξ1 = −1} = 1/2 (схема Бернулли), Sn = ξ 1 + . . . + ξ n . Доказательство Э. Бореля того, что Sn = o(n) почти наверное, состояло, в сущности, в следующем: поскольку для всякого δ > 0 n то n sup k>n Sn >δ n o 6 o X Sk >δ 6 k Sn4 3n2 3 6 4 4 = 2 4, n4 δ 4 n δ n δ n k>n o 3 Sk >δ 6 4 k δ X k>n 1 →0 k2 Sn при n → ∞, и, значит, по лемме Бореля– → 0 почти –Кантелли (§ 10 главы II) n наверное. Доказательство Ф. Хаусдорфа того, что для всякого ε > 0 почти наверное Sn = o(n1/2+ε), шло аналогичным образом: поскольку Sn2r = O(nr) для всякого целого r > 1/ (2ε), то n sup k>n Sk k1/2+ε o >δ 6 X k>n n o Sk k1/2+ε >δ 6 6 1 δ2r X k>n Sk k1/2+ε 2r 6 c δ2r X k>n kr →0 kr+2εr при n → ∞, где c – – некоторая константа. Отсюда (снова по лемме Бореля– –Кантелли) получаем, что почти наверное Sn → 0. n1/2+ε Из приведенных рассмотрений видим, что ключевым моментом в доказательствах было получение «хорошей» оценки для вероятностей {|Sn | > t(n)}, где t(n) = n у Бореля и t(n) = n1/2+ε у Хаусдорфа (у Харди и Литтлвуда t(n) = (n ln n) 1/2). Именно для получения «хорошей» оценки вероятностей {|Sn | > t(n)} А. Я. Хинчину и понадобились его «неравенства Хинчина» (25) (точнее, правое из этих неравенств). БИБЛИОГРАФИЧЕСКАЯ СПРАВКА (ГЛАВЫ IV– –VIII) 941 По поводу вывода неравенств Хинчина (и правого, и левого) для любого p > 0 и об оптимальности констант A p и B p в (25) см. обзорную статью: Г. Пешкир, А. Н. Ширяев. Неравенства Хинчина и мартингальное расширение сферы их действия // Успехи математических наук. – – 1995. – – Т. 50, вып. 5. – – С. 3– –62. Из правого неравенства (25) при p = 2m А. Я. Хинчин получает, что для всякого t > 0 {|Xn | > t} 6 t −2m |Xn |2m 6 (2m)! −2m t [X] 2m n . 2m m! В силу формулы Стирлинга 2 (2m)! 6D 2m m! e где D = √ 2. Поэтому, полагая m = {|Xn | > t} 6 D 2m [X] 2n et 2 m h m mm , i t2 , находим, что 2 [X] 2n 6 D e −m 6 n 6 D exp 1 − t2 2 [X] 2n o n = D e exp − t2 2 [X] 2n o n = c exp − t2 2 [X] 2n o √ с c = De = 2e. Их этой оценки следует неравенство {|Sn | > t} 6 e 2 − t2 2n , которое√и было использовано А. Я. Хинчиным для доказательства того, что Sn = O( n ln ln n) почти наверное. В книге Ю. Ш. Чао и Г. Тейчера [72] можно найти большой материал по поводу приведенных в этом параграфе неравенств. Теорема 2 принадлежит Э. Ленгляру [39]. § 4. См. монографию Дж. Дуба [20]. § 5. Излагаемый здесь материал следует статьям Ю. М. Кабанова, Р. Ш. Липцера и А. Н. Ширяева [26], Г.-Ю. Энгельберта и А. Н. Ширяева [79] и книге Ж. Невё [50]. Теорема 4 и пример даны Р. Ш. Липцером. § 6. Приводимый здесь подход к проблематике «абсолютная непрерывность и сингулярность» и излагаемые результаты содержатся в работе Ю. М. Кабанова, Р. Ш. Липцера и А. Н. Ширяева [26]. § 7. Теоремы 1 и 2 принадлежат А. А. Новикову [52]. Лемма 1 является «дискретным» аналогом известной теоремы Гирсанова (см. [41]). § 8. См. также монографии Р. Ш. Липцера и А. Н. Ширяева [91], Ж. Жакода и А. Н. Ширяева [87], в которых излагается теория предельных теорем для случайных процессов достаточно общей природы (мартингалы, семимартингалы, . . .). § 9. Здесь изложение следует [98], [100]. Развитие изложенного подхода к обобщению формулы Ито дано в статье Г. Фёллмера, Ф. Проттера и А. Н. Ширяева [101]. 942 БИБЛИОГРАФИЧЕСКАЯ СПРАВКА (ГЛАВЫ IV– –VIII) § 10. Мартингальным методам в страховании посвящена книга Х. Гербера [123]. Приводимые доказательства близки к тексту из [98]. § 11– –12. Более детальное изложение вопросов, относящихся к применениям мартингальных методов в финансовой математике и инженерии, см. в [100]. § 13. Основными монографиями по теории и задачам оптимальных правил остановки являются книги Е. Б. Дынкина и А. А. Юшкевича [102], Г. Роббинса, Д. Сигмунда и И. Чао [59], А. Н. Ширяева [78]. ГЛАВА VIII § 1– –2. По поводу определений и основных свойств марковских цепей см. также книги: Е. Б. Дынкин и А. А. Юшкевич [102], Е. Б. Дынкин [21], А. Д. Вентцель [11], Дж. Дуб [20], И. И. Гихман и А. В. Скороход [14], Л. Брейман [8], Кай-Лай Чжун [75], [120], Д. Ревюз [117]. § 3– –7. О проблематике предельных, эргодических и стационарных распределений вероятностей для марковских цепей см. статью А. Н. Колмогорова [28] и книги: В. Феллер [69], А. А. Боровков [7], [104], Р. Эш [80], Кай-Лай Чжун [120], Д. Ревюз [117], Е. Б. Дынкин и А. А. Юшкевич [102]. § 8. Простое случайное блуждание является классическим примером простейших марковских цепей, для которых были открыты многие закономерности (как, скажем, свойства возвратности и невозвратности, свойства эргодичности и др.). Эти вопросы рассматриваются во многих книгах – – см., например, цитированные выше книги [7], [80], [120], [117]. § 9. Интерес к задачам об оптимальной остановке был обусловлен проблематикой статистического последовательного анализа (А. Вальд [9], М. де Гроот [18], Ш. Закс [22], А. Н. Ширяев [78]). Собственно теории оптимальных правил остановки для марковских цепей посвящены книги Е. Б. Дынкина и А. А. Юшкевича [102], А. Н. Ширяева [78], некоторые разделы книги П. Биллингсли [106]. Мартингальный подход к задачам об оптимальной остановке изложен в монографии Г. Роббинса, Д. Сигмунда и И. Чао [59]. ОЧЕРК ИСТОРИИ СТАНОВЛЕНИЯ МАТЕМАТИЧЕСКОЙ ТЕОРИИ ВЕРОЯТНОСТЕЙ Приводимый очерк был написан автором как дополнение к третьему изданию книги А. Н. Колмогорова «Основные понятия теории вероятностей» [32]. Список литературы [1] А л е к с а н д р о в П. С. Введение в общую теорию множеств и функций. – – М.: Гостехиздат, 1948. [2] А л е к с а н д р о в а Н. В. Математические термины. – – М.: Высшая школа, 1978. [3] Б е р н ш т е й н С. Н. О работах П. Л. Чебышева по теории вероятностей // Научное наследие П. Л. Чебышева. Вып. 1: Математика. – – 1945. – – С. 59– –60. [4] Б е р н ш т е й н С. Н. Теория вероятностей. – – 4-е изд. – – М.: Гостехиздат, 1946. [5] Б и л л и н г с л и П. Сходимость вероятностных мер. – – М.: Наука, 1977. [6] Б о л ь ш е в Л. Н., С м и р н о в Н. В. Таблицы математической статистики. – – 3-е изд. – – М.: Наука, 1983. [7] Б о р о в к о в А. А. Теория вероятностей. – – 3-е изд. – – М.: УРСС, 1999. [8] Б р е й м а н (Breiman L.). Probability. – – Reading, MA: Addison-Wesley, 1968. [9] В а л ь д А. Последовательный анализ. – – М.: Физматгиз, 1960. [10] В а н д е р В а р д е н Б. Л. Математическая статистика. – – М.: ИЛ, 1960. [11] В е н т ц е л ь А. Д. Курс теории случайных процессов. – – М.: Наука, 1975. [12] Г а р с и а (Garsia A. M.). A simple proof of E. Hopf’s maximal ergodic theorem // Journal of Mathematics and Mechanics. – – 1965. – – V. 14, № 3. – – P. 381– –382. [13] Г и х м а н И. И., С к о р о х о д А. В. Введение в теорию случайных процессов. – – М.: Наука, 1977. [14] Г и х м а н И. И., С к о р о х о д А. В. Теория случайных процессов: В 3 т. – – М.: Наука, 1971– –1975. [15] Г н е д е н к о Б. В. Курс теории вероятностей. – – 6-е изд. – – М.: Наука, 1988. [16] Г н е д е н к о Б. В., К о л м о г о р о в А. Н. Предельные распределения для сумм независимых случайных величин. – – М.; Л.: Гостехиздат, 1949. [17] Г н е д е н к о Б. В., Х и н ч и н А. Я. Элементарное введение в теорию вероятностей. – – 9-е изд. – – М.: Наука, 1982. [18] Д е Г р о о т М. Оптимальные статистические решения. – – М.: Мир, 1974. [19] Д о х е р т и (Doherty M.). An amusing proof in fluctuation theory // Combinatorial Mathematics, III: Proceedings of the Third Australian Conference, Univ. Queensland, St. Lucia, 1974. – – Berlin etc.: Springer-Verlag, 1975. – – P. 101– –104. – – (Lecture Notes in Mathematics; V. 452.) [20] Д у б Дж. Л. Вероятностные процессы. – – М.: ИЛ, 1956. [21] Д ы н к и н Е. Б. Марковские процессы. – – М.: Физматгиз, 1963. [22] З а к с Ш. Теория статистических выводов. – – М.: Мир, 1975. Под номерами 85– –101 идет литература, добавленная во втором издании к той, которая была приведена в первом издании книги. Под номерами 102– –136 идет литература, добавленная в третьем издании. Под номером 137 идет книга, добавленная в настоящее издание. 944 СПИСОК ЛИТЕРАТУРЫ [23] И б р а г и м о в И. А., Л и н н и к Ю. В. Независимые и стационарно связанные величины. – – М.: Наука, 1965. [24] И б р а г и м о в И. А., Р о з а н о в Ю. А. Гауссовские случайные процессы. – – М.: Наука, 1970. [25] И с и х а р а А. Статистическая физика. – – М.: Мир, 1973. [26] К а б а н о в Ю. М., Л и п ц е р Р. Ш., Ш и р я е в А. Н. К вопросу об абсолютной непрерывности и сингулярности вероятностных мер // Математический сборник. – – 1977. – – Т. 104, № 2. – – С. 227– – 247. [27] К е м е н и Дж., С н е л л Дж. Конечные цепи Маркова. – – М.: Наука, 1970. [28] К о л м о г о р о в А. Н. Цепи Маркова со счетным числом возможных состояний // Бюллетень МГУ. – – 1937. – – Т. 1, № 3. – – С. 1– –16. [29] К о л м о г о р о в А. Н. Стационарные последовательности в гильбертовском пространстве // Бюллетень МГУ. – – 1941. – – Т. 2, № 6. – – С. 1– –40. [30] К о л м о г о р о в А. Н. Роль русской науки в развитии теории вероятностей // Ученые записки МГУ. – – 1947. – – Вып. 91. – – С. 53– –64. [31] К о л м о г о р о в А. Н. Теория вероятностей // Математика, ее содержание, методы и значение. – – М.: Изд-во АН СССР, 1956. – – Т. II. – – С. 252– –284. [32] К о л м о г о р о в А. Н. Основные понятия теории вероятностей. – – М.; Л.: ОНТИ, 1936; 2-е изд. М.: Наука, 1974; 3-е изд. М.: Фазис, 1998. [33] К о л м о г о р о в А. Н., Ф о м и н С. В. Элементы теории функций и функционального анализа. – – 6-е изд. – – М.: Наука, 1989. [34] К о л ч и н В. Ф., С е в а с т ь я н о в Б. А., Ч и с т я к о в В. П. Случайные размещения. – – М.: Наука, 1976. [35] К р а м е р Г. Математические методы статистики. – – 2-е изд. – – М.: Мир, 1976. [36] К у б и л ю с Й. Вероятностные методы в теории чисел. – – Вильнюс: Гос. изд-во полит. и науч. лит. ЛитССР, 1959. [37] Л а м п е р т и Дж. Вероятность. – – М.: Наука, 1973. [38] Л а м п е р т и (Lamperti J.). Stochastic Processes. – – Aarhus Univ., 1974. – – (Lecture Notes Series; № 38). [39] Л е н г л я р (Lenglart Е.). Relation de domination entre deux processus // Annales de l’Institut Н. Poincaré Sect. B. (N. S.). – – 1977. – – V. 13, № 2. – – P. 171– –179. [40] Л е о н о в В. П., Ш и р я е в А. Н. К технике вычисления семиинвариантов // Теория вероятностей и ее применения. – – 1959. – – Т. IV, вып. 2. – – С. 342– –355. [41] Л и п ц е р Р. Ш., Ш и р я е в А. Н. Статистика случайных процессов. – – М.: Наука, 1974. [42] Л о э в М. Теория вероятностей. – – М.: ИЛ, 1962. [43] М а р к о в А. А. Исчисление вероятностей. – – 3-е изд. – – СПб., 1913. [44] М а й с т р о в Д. Е. Теория вероятностей (исторический очерк). – – М.: Наука, 1967. [45] Математика XIX века / Под ред. А. Н. Колмогорова и А. П. Юшкевича. – – М.: Наука, 1978. СПИСОК ЛИТЕРАТУРЫ 945 [46] М е ш а л к и н Л. Д. Сборник задач по теории вероятностей. – – М.: Изд-во МГУ, 1963. [47] М е й е р (Meyer P.-A.). Martingales and Stochastic Integrals. I. – – Berlin etc.: Springer-Verlag, 1972. – – (Lecture Notes in Mathematics; V. 284). [48] М е й е р П. - А. Вероятность и потенциалы. – – М.: Мир, 1973. [49] Н е в е Ж. Математические основы теории вероятностей. – – М.: Мир, 1969. [50] Н е в ё (Neveu J.). Discrete-Parameter Martingales. – Amsterdam etc.: North– Holland, 1975. [51] Н е й м а н Ю. Вводный курс теории вероятностей и математической статистики. – – М.: Наука, 1968. [52] Н о в и к о в А. А. Об оценках и асимптотическом поведении вероятностей непересечения подвижных границ суммами независимых случайных величин // Известия АН СССР. Серия математическая. – – 1980. – – Т. 40, вып. 4. – – С. 868– –885. [53] П е т р о в В. В. Суммы независимых случайных величин. – – М.: Наука, 1972. [54] П р о х о р о в Ю. В. Асимптотическое поведение биномиального распределения // Успехи математических наук. – – 1953. – – Т. VIII, вып. 3 (55). – – С. 135– –142. [55] П р о х о р о в Ю. В. Сходимость случайных процессов и предельные теоремы теории вероятностей // Теория вероятностей и ее применения. – – 1956. – – Т. I, вып. 2. – – С. 177– –238. [56] П р о х о р о в Ю. В., Р о з а н о в Ю. А. Теория вероятностей. – – 2-е изд. – – М.: Наука, 1973. [57] Р а м а ч а н д р а н Б. Теория характеристических функций. – – М.: Наука, 1975. [58] Р е н ь и (Rényi A.) Probability Theory. – – Amsterdam: North-Holland, 1970. [59] Р о б б и н с Г., С и г м у н д Д., Ч а о И. Теория оптимальных правил остановки. – – М.: Наука, 1977. [60] Р о з а н о в Ю. А. Стационарные случайные процессы. – – М.: Физматгиз, 1963. [61] С а р ы м с а к о в Т. А. Основы теории процессов Маркова. – – М.: Гостехиздат, 1954. [62] С е в а с т ь я н о в Б. А. Ветвящиеся процессы. – – М.: Наука, 1971. [63] С и н а й Я. Г. Введение в эргодическую теорию. – – Ереван: Изд-во Ереван. ун-та, 1973. [64] С и р а ж д и н о в С. X. Предельные теоремы для однородных цепей Маркова. – – Ташкент: Изд-во АН УзССР, 1955. [65] Справочник по теории вероятностей и математической статистике / Под ред. В. С. Королюка. – – Киев: Наукова думка, 1978. [66] С т о у т (Stout W. F.). Almost Sure Convergence. – – New York etc.: Academic Press, 1974. [67] Teopiя имовiрностей. – – Киiв: Вища школа, 1976. 946 СПИСОК ЛИТЕРАТУРЫ [68] Т о д х а н т е р (Todhunter I.). A History of the Mathematical Theory of Probability from the Time of Pascal to that of Laplace. – – London: Macmillan, 1865. [69] Ф е л л е р В. Введение в теорию вероятностей и ее приложения: В 2-х т.– – М.: Мир, 1984. [70] Х а л м о ш П. Теория меры. – – М.: ИЛ, 1953. [71] Х е н н а н Э. Анализ временных рядов. – – М.: Наука, 1964. [72] Х е н н а н Э. Многомерные временные ряды. – – М.: Мир, 1974. [73] Ч а о, Т е й ч е р (Chow Y. S., Teicher Н.). Probability Theory. Independence, Interchangeability, Martingales. – – 3rd ed. – – New York: Springer-Verlag, 1997. [74] Ч е б ы ш е в П. Л. Теория вероятностей: Лекции акад. П. Л. Чебышева, читанные в 1879, 1880 гг. / Издано А. Н. Крыловым по записи A. M. Ляпунова. – – М.; Л., 1936. [75] Ч ж у н К а й - л а й. Однородные цепи Маркова. – – М.: Мир, 1964. [76] Ш и р я е в А. Н. Случайные процессы. – М.: Изд-во МГУ, 1972. – [77] Ш и р я е в А. Н. Вероятность, статистика, случайные процессы: В 2-х т. – – М.: Изд-во МГУ, 1973– –1974. [78] Ш и р я е в А. Н. Статистический последовательный анализ. – – 2-е изд. – – М.: Наука, 1976. [79] Э н г е л ь б е р т, Ш и р я е в (Engelbert H.-J., Shiryaev A. N.). On the sets of convergence of generalized submartingales // Stochastics. – – 1979. – – V. 2, № 3. – – P. 155– –166. [80] Э ш (Ash R. B.). Basic Probability Theory. – – New York etc.: Wiley, 1970. [81] Э ш (Ash R. B.). Real Analysis and Probability. – – New York etc.: Academic Press, 1972. [82] Э ш, Г а р д н е р (Ash R. B., Gardner М. F.). Topics in Stochastic Processes. – – New York etc.: Academic Press, 1975. [83] Я г л о м А. М., Я г л о м И. М. Вероятность и информация. – – 3-е изд. – – М.: Наука, 1973. [84] Г р и н в у д, Ш и р я е в (Greenwood P. E., Shiryayev A. N.). Contiguity and the Statistical Invariance Principle. – – London: Gordon & Breach, 1985. [85] Д а д л и (Dudley R. M.) Distances of probability measures and random variables // Annals of Mathematical Statistics. – – 1968. – – V. 39, № 5. – – P. 1563– –1572. [86] Д а к у н а - К а с т е л л ь, Д ю ф л о (Dacunha-Castelle D., Duflo М.). Probabilités et statistiques: 1, 2. – – Paris: Masson. – – 1: Problèmes à temps fixe. – – 1982; – – 2: Problèmes à temps mobile. – – 1983. – – Перев. на англ. яз.: Probability and Statistics: V. I, II. – – Berlin etc.: Springer-Verlag, 1986. [87] Ж а к о д Ж., Ш и р я е в А. Н. Предельные теоремы для случайных процессов: В 2-х т. – – М.: Физматлит, 1994. [88] З о л о т а р е в В. М. Современная теория суммирования независимых случайных величин. – – М.: Наука, 1986. [89] Л е К а м (Le Cam L.). Asymptotic Methods in Statistical Decision Theory. – – Berlin etc.: Springer-Verlag, 1986. СПИСОК ЛИТЕРАТУРЫ 947 [90] Л и з е, В а й д а (Liese F., Vajda I.). Convex Statistical Distances. – – Leipzig: Teubner, 1987. [91] Л и п ц е р Р. Ш., Ш и р я е в А. Н. Теория мартингалов. – – М.: Наука, 1986. [92] П е т р о в В. В. Предельные теоремы для сумм независимых случайных величин. – – М.: Наука, 1987. [93] П о л л а р д (Pollard D.). Convergence of Stochastic Processes. – – Berlin etc.: Springer-Verlag, 1984. [94] П р е с м а н Э. Л. О сближении по вариации распределения суммы независимых бернуллиевских величин с пуассоновским законом // Теория вероятностей и ее применения. – – 1985. – – Т. XXX, вып. 2. – – С. 391– –396. [95] Р о з а н о в Ю. А. Теория вероятностей, случайные процессы и математическая статистика. – – М.: Наука, 1985. [96] Р о т а р ь В. И. К обобщению теоремы Линдеберга– –Феллера // Математические заметки. – – 1975. – – Т. 18, вып. 1. – – С. 129– – 135. [97] С е в а с т ь я н о в Б. А. Курс теории вероятностей и математической статистики. – – М.: Наука, 1982. [98] Ш и р я е в (Shiryayev A. N.) Probability. – – 2nd ed. – – Berlin etc.: SpringerVerlag, 1995. [99] Ш и р я е в (Shirjayev A. N.) Wahrscheinlichkeit. – – Berlin: VEB Deutscher Verlag der Wissenschaften, 1988. [100] Ш и р я е в А. Н. Основы стохастической финансовой математики: В 2х т. – – М.: ФАЗИС, 1998. [101] Ф ё л л м е р, П р о т т е р, Ш и р я е в (Föllmer H., Protter Ph., Shiryaev A. N.). Quadratic covariation and an extension of Itô’s formula // Bernoulli. – – 1995. – – V. 1, № 1/2. – – P. 149– –170. [102] Д ы н к и н Е. Б., Ю ш к е в и ч А. А. Теоремы и задачи о процессах Маркова. – – М.: Наука, 1967. [103] Г н е д е н к о, К о л м о г о р о в (Gnedenko B. V., Kolmogorov A. N). Limit Distributions for Sums of Independent Random Variables. – – Reading, MA, etc.: Addison-Wesley, 1954. [104] Б о р о в к о в А. А. Эргодичность и устойчивость случайных процессов. – – М.: УРСС, 1999. [105] Г р и м м е т, С т и р з а к е р (Grimmet G. R., Stirzaker D. R.). Probability and Random Processes. – – Oxford: Clarendon Press, 1993. [106] Б и л л и н г с л и (Billingsley P.). Probability and Measure. – – 3rd ed. – – New York: Wiley, 1995. [107] Б о р о в к о в А. А. Математическая статистика. – – М.: Наука, 1984. [108] Д а р р е т т (Durrett R.). Probability: Theory and Examples. – – Pacific Grove, CA: Wadsworth & Brooks/Cole, 1991. [109] Д а р р е т т (Durrett R.). Stochastic Calculus. – – Boca Raton, FL: CRC Press, 1996. [110] Д а р р е т т (Durrett R.). Brownian Motion and Martingales in Analysis. – – Belmont, CA: Wadsworth International Group, 1984. 948 СПИСОК ЛИТЕРАТУРЫ [111] К а л л е н б е р г (Kallenberg O.). Foundations of Modern Probability. – – 2nd ed. – – New York: Springer-Verlag, 2002. [112] К а р л и н, Т е й л о р (Karlin S., Taylor H. M.). A First Course in Stochastic Processes. – – 2nd ed. – – New York etc.: Academic Press, 1975. [113] К а ш и н Б. С., С а а к я н А. А. Ортогональные ряды. – – 2-е изд. – – М.: АФЦ, 1999. [114] Ж а к о д, П р о т т е р (Jacod J., Protter Ph.). Probability Essentials. – – Berlin etc.: Springer-Verlag, 2000. [115] Н ё т с (Neuts V. F.) Probability. – – Boston, MA: Allyn & Bacon, 1973. [116] П л а т о (Plato J.). Creating Modern Probability. – – Cambridge: Cambridge Univ. Press, 1998. [117] Р е в ю з Д. Цепи Маркова. – – М.: РФФИ, 1997. [118] У и л ь я м с (Williams D.). Probability with Martingales. – – Cambridge: Cambridge Univ. Press, 1991. [119] Х о л л, Х е й д е (Hall P., Heyde C. C.). Martingale Limit Theory and Its Applications. – – New York etc.: Academic Press, 1980. [120] Ч ж у н К а й - Л а й (Chung Kai Lai). Elementary Probability Theory with Stochastic Processes. – – 3rd ed. – – Berlin etc.: Springer-Verlag, 1979. [121] Математическая энциклопедия: В 5 т. / Гл. ред. И. М. Виноградов. – – М.: Советская энциклопедия, 1977– –1985. [122] С т и г л е р (Stigler S. M.). The History of Statistics: The Measurement of Uncertainty Before 1900. – – Cambridge: Belknap Press of Harvard Univ. Press, 1986. [123] Г е р б е р Х. Математика страхования жизни. – – М.: Мир, 1995. [124] Э р е н ф е с т ы П. и Т. (Ehrenfest P., Ehrenfest T.). Über zwei bekannte Einwände gegen das Boltzmannsche H-Theorem // Physikalische Zeitschrift. – – 1907. – – V. 8. – – P. 311– –314. [125] Теория вероятностей и математическая статистика: энциклопедия / Гл. ред. Ю. В. Прохоров. – – М.: Большая Российская энциклопедия, 1999. [126] В о л ь ф р а м (Wolfram S.). The Mathematica® Book. – – 4th ed. – – Champaign; Cambridge: Wolfram Media; Cambridge Univ. Press, 1999. [127] Д у б (Doob J. L.). What is a martingale? // The American Mathematical Monthly. – – 1971. – – V. 78. – – P. 451– –463. [128] С и н а й Я. Г. Курс теории вероятностей. – – М.: Изд-во МГУ, 1985. – – 2-е изд., 1986. [129] С и н а й (Sinaı̆ Ya. G.). Topics in Ergodic Theory. – – Princeton, NJ: Princeton Univ. Press, 1999. – – (Princeton Mathematical Series; V. 44.) [130] В а л ь т е р с (Walters P.) An Introduction to Ergodic Theory. – – New York etc.: Springer-Verlag, 1982. [131] Б у л и н с к и й А. В., Ш и р я е в А. Н. Теория случайных процессов. – – М.: Физматлит, 2003. [132] Х м а л а д з е Э. В. Мартингальный подход в теории непараметрических критериев согласия // Теория вероятностей и ее применения. – – 1981. – – Т. XXVI, вып. 2. – – С. 246– –265. СПИСОК ЛИТЕРАТУРЫ 949 [133] Г а м и л ь т о н (Hamilton J. B.). Time Series Analysis. – – Princeton, NJ: Princeton Univ. Press, 1994. [134] Б е р н у л л и Я. О законе больших чисел. – – Ч. 4: Искусство предположений. – – М.: Наука, 1986. [135] Л у к а ч Е. Характеристические функции. – – М.: Наука, 1979. [136] Х р е н н и к о в (Khrennikov A.). Interpretations of Probability. – – Utrecht: VSP, 1999. [137] Ш и р я е в А. Н. Задачи по теории вероятностей. М.: МЦНМО, 2006. Предметный указатель B (C) 218 B (D) 218 (B, S)-рынок 788 — безарбитражный 792 — полный 798 D-измеримость 107 d-система Дынкина 205 (E, E ) 251 F /E -измеримая функция 251 Fτ 684 λ-система 205 π-λ-система 205 π-система 205 σ-алгебра 193, 201, 248 — остаточная 563 —, порожденная разбиением 249 — — случайной величиной 248 — хвостовая 563 S-представление 800 U-образная кривая 130 А абсолютная непрерывность асимптотическая 500 распределений — — вероятностных 226, 272, 497 — — мер 226, 272, 497, 743 — — —, достаточные условия 746 абсолютно непрерывный тип распределения 226 авторегрессионная схема 618 аксиоматика Колмогорова 196 аксиомы теории вероятностей 196 акция 789 алгебра множеств 30, 192 — — порожденная разбиением 31 — — тривиальная 31 —, порожденная множеством 201 алгебраические свойства матриц 850 альтернатива Гаека– –Фельдмана 751, 753 — Какутани 747 арбитраж 792 арбитражная возможность 792, 794 асимптотическая абсолютная непрерывность 500 — малость 463 — разделимость полная 500 — сингулярность 500 атом 365 — разбиения 31 Б базис ортонормированный счетный 373 Байеса теорема 49 — — обобщенная 316 — формула 49 банахово пространство 364 банковский счет 789 белый шум 616 бернуллиевские сдвиги 610 биномиальное распределение 38 близость по вариации 491 большие уклонения 96, 593 борелевская алгебра 210 — функция 244 борелевское множество 210 — пространство 314 броуновский мост 421 броуновское движение 420 — —, конструкция 420 В Вальда тождество 698 — фундаментальное тождество 701 вариационные неравенства 819, 899 вектор средних значений 414 Венна диаграмма 179 ПРЕДМЕТНЫЙ УКАЗАТЕЛЬ вероятности разорения 783 вероятностная модель 33, 191, 196 — — в расширенном смысле 193 вероятностно-статистическая модель 97, 321 вероятностно-статистический эксперимент 321 вероятностное пространство 33, 196 — — каноническое 346 — — полное 225 — — фильтрованное 825 вероятность 194, 196 — апостериорная 49 — априорная 49 — исхода 32 — ошибок первого и второго рода 491 — первого возвращения 160, 857 — — попадания 160, 857 — разорения 112, 116 — — в страховании 783 вес 32 ветвящийся процесс 145 взаимная характеристика 691 винеровская мера 241 винеровский процесс 420, 764 — — условный 421 выбор без возвращения 25, 27, 42 — с возвращением 24, 27 выборки неупорядоченные 24, 27, 28 — упорядоченные 24, 27, 28 выборочная дисперсия 343 выборочное среднее 343 выигрыш в лотерею 35 выпуклая оболочка 906 Г гауссовская последовательность 420 — система 410, 418 — случайная величина 339 гауссовский вектор 412, 414 — —, критерий независимости компонент 414 — процесс 420 гауссовско-марковский процесс 421 геометрические вероятности 309 951 гильбертово пространство 368 — — сепарабельное 373 главное значение логарифма 454 граф 143 Д двуточие условное 801 диаграмма Венна 179 динамическое программирование 899 дискретная мера 225 дискретной теории восстановления основная лемма 863 дисперсия 64, 330 — выборочная 343 доверительный интервал 97, 101 — —, надежность 101 — —, уровень значимости 101 доминируемость 711 достаточная под-σ-алгебра 321 — — минимальная 324 — статистика 321 З задача Галилея 163 — о разборчивой невесте 907 — о размещении 27 — о разорении 112 — о совпадениях 34 — о счастливых билетах 163 закон «0 или 1» Бореля 565 — — Колмогорова 565, 728 — — Хьюитта и Сэвиджа 567 — арксинуса 123, 130 — больших чисел 69, 447 — — — Бернулли 73 — — — для марковских цепей 153 — — — Пуассона 449 — — — усиленный 574 — — — Хинчина 437 — повторного логарифма Хартмана и Винтнера 586 законы Моргана 36, 180 И игла Бюффона 309 952 ПРЕДМЕТНЫЙ УКАЗАТЕЛЬ игра благоприятная 687 — неблагоприятная 117, 687 — справедливая 687 Изинга модель 44 измеримая функция 244 измеримое отображение 598 — пространство 193 — — (C, B (C)) 217 — — (D, B (D)) 218 — — (R, B (R)) 210 ∞ ∞ — — (R , B (R )) 213 n n — — (R , B (R )) 211 (R T , B (R T )) 215 —— Q Q Ωt , Ft 218 —— t ∈T t ∈T измеримость относительно разбиения 107 изометрическое соответствие 630 импульсная переходная функция фильтра 634 инвариантное множество 601, 607 индикатор множества 56 интеграл верхний 285 — Ито стохастический 782 — Лебега 257–259 — Лебега– –Стилтьеса 259, 275 — нижний 285 — Римана 283 — — верхний 286 — — нижний 286 — Римана– –Стилтьеса 283 — стохастический 626 — Хеллингера 494 интегральная теорема Муавра– –Лапласа 87 интегрирование с помощью подстановки 292 интервал доверительный 97 — —, надежность 101 — —, уровень значимости 101 интерполяция 662 информация Кульбака 499 — Фишера 99 испытание 53 исход 23 К каноническое вероятностное пространство 346 канторова функция 228 капитал 791 каплинг 489 квадратическая ковариация 691, 777 — характеристика 690 квантильная функция 485 класс апериодический 854 — неразложимый 852 — определяющий 434 —, определяющий сходимость 434 2 — Харди H 655 классические модели 38 — распределения 38 классический способ задания вероятностей 34 ковариационная матрица 331 — функция 420, 614 — —, оценивание 643 — —, спектральное представление 620 ковариация 65, 330, 614 — квадратическая 691 комбинаторика 34 компенсатор 690 комплекс условий 23 конгруэнтность по распределению 469, 484 конечно-аддитивная вероятностная мера 193 — вероятность 193 — стохастическая мера 623 конечномерные функции распределения 345 контигуальность последовательностей мер 500 координатный способ построения процесса 346 корреляционная функция 614 коэффициент корреляции 65, 331 коэффициент корреляции максимальный 341 ПРЕДМЕТНЫЙ УКАЗАТЕЛЬ — — надежности 101 кривая регрессии 334 критерий Карлемана единственности проблемы моментов 405 — Коши сходимости в среднем порядка p > 1 363 — — — по вероятности 361 — — — почти наверное 360 — согласия 520 кумулянт 398 Л лемма Бореля– –Кантелли 357 — Бореля– –Кантелли– –Леви 736 — Кронекера 577 — Пратта 293 — Слуцкого 364 — Тёплица 576 — Фату 263 — Хелли– –Брэя 436 линейная зависимость 65 — независимость 371, 372 линейное многообразие 370, 373 — — замкнутое 373 логарифмическая прибыль 790 локальная абсолютная непрерывность мер 743 — предельная теорема 82 М мажоранта супермартингальная 818 — — наименьшая 819 — эксцессивная 899 — — наименьшая 899 максимальная эргодическая теорема 604 максимальные неравенства 707 марковская зависимость 826 — цепь 139, 142, 351, 826 — — апериодическая 856 — — в широком смысле 826 — — возвратная 868 — — — нулевая 868 — — — положительная 869 — — невозвратная 868 953 — — неразложимая 852 — — однородная 143, 831 — — стационарная 151 — — эргодическая 849 марковский момент 683, 786 — процесс 348 марковское свойство 142, 826 — — в узком смысле 826 — — в широком смысле 826 — — обобщенное 839 — — строгое 159, 841, 842 — ядро 831 мартингал 132, 681, 786 — квадратично интегрируемый 690 — Леви 682 — локальный 684 — обобщенный 683 — обращенный 134, 692 мартингал-разность 689 мартингальное преобразование 685 математическая статистика 75, 97 математическое ожидание 60, 257, 258 — —, свойства 61, 260 — — условное 106, 299 — — —, свойства 300 матрица ковариаций 331, 414 — неотрицательно определенная 331 — переходных вероятностей 142 — псевдообратная 422 — стохастическая 143 медиана 68 мера σ-аддитивная 193 — σ-конечная 193 — абсолютно непрерывная 226, 272, 497, 743 — атомическая 365 — вероятностная 194 — винеровская 241 — внешняя 225 — внутренняя 225 — Гаусса 611 954 ПРЕДМЕТНЫЙ УКАЗАТЕЛЬ мера дискретная 225, 493 — доминирующая 493 — инвариантная 847 — конечно-аддитивная 192 — — стохастическая 623 — Лебега 224, 230, 233 — — n-мерная 232 — Лебега– –Стилтьеса 224, 229 — мартингальная 793 — неопределенности 77 — непрерывная в «нуле» 195 — ортогональная 624, 627 — полная 225 — с ортогональными значениями 624 — сингулярная 226, 228 — со знаком 490 — стационарная 847 — стохастическая 623 — счетно-аддитивная 193 — считающая 493 — элементарная стохастическая 624 — Эшера 795 меры ортогональные 497, 743 — сингулярные 497, 743 — эквивалентные 497, 743 метод моментов 443 — Монте-Карло 310, 581 — наименьших квадратов 739 — одного вероятностного пространства 482, 485 — характеристических функций 443 метризуемость слабой сходимости 477 метрика Леви– –Прохорова 478 метрика Ки Фан 483 минимальная достаточная под-σ-алгебра 324 многомерное гипергеометрическое распределение 42 множество инвариантное 601, 607 — остановки 820 — — наблюдений 897 — почти инвариантное 601 — продолжения наблюдений 820, 897 модель Бернулли– –Лапласа 892 вероятностно-статистическая 97 Гальтона–Ватсона 145, 174 диффузии дискретная 891 Изинга одномерная 44 испытаний, связанных в цепь Маркова 140 — Кокса– –Росса– –Рубинштейна, CRR 796, 810 — Крамера– –Лундберга 784 — смешанная авторегрессии и скользящего среднего 620 — эксперимента с бесконечным числом исходов 191 — — с конечным числом исходов 33 — Эренфестов 891 момент остановки 113, 134, 683 — первого возвращения 123 — разорения 783 моменты 259 — абсолютные 259 — смешанные 398 монотонный класс 202 — — наименьший 202 морфизм 598 мультиномиальное распределение 41 — — — — — Н наборы неупорядоченные 24 — упорядоченные 24 надежность доверительного интервала 101 наименьшая σ-алгебра 201 — алгебра 201 — супермартингальная мажоранта 819 наименьший монотонный класс 202 начальное распределение 142 независимость 45, 50 — алгебр множеств 50, 51 — линейная 371, 372 — множеств (событий) 50, 207 — попарная 51, 66 — приращений 420 — систем множеств 50, 51, 207 — случайных величин 59, 254 — — элементов 254 ПРЕДМЕТНЫЙ УКАЗАТЕЛЬ неклассические условия 463 некоррелированность 65, 330 непрерывность мер абсолютная 272 неравенства Буркхольдера 714 — для вероятностей больших уклонений 719 — Дуба 707 — Дэвиса 715 — Марцинкевича– –Зигмунда 713 — Фреше 38 — Хинчина 713 неравенство Белла 69 — Берри– –Эссеена 89, 456, 505 — Бесселя 370 — Бонферрони 37 — Бореля 424 — Буля 199 — Гаека– –Реньи 724 — Гёльдера 270 — Дворецкого 723 — для вероятностей больших уклонений 96 — Иенсена 269 — — для условных математических ожиданий 327 — Колмогорова 569 — —, односторонний аналог 573 — Коши– –Буняковского 61, 269 — Коши– –Шварца 61 — Леви 590 — Ляпунова 269 — Минковского 270 — Оттавиани 723 — Рао– –Крамера 99 — Слепяна 424 — Чебышева 71, 268 — —, двумерный аналог 80 — Шварца 61 — Эссеена 406 норма 362 нормальные по Борелю числа 581 О область остановки наблюдений 820, 897 955 — продолжения наблюдений 820, 897 обновляющая последовательность 650 обобщенная теорема Байеса 316 — функция распределения 229 обобщенное марковское свойство 839 обратное уравнение 147 — —, матричная форма 147 объединение множеств 29, 197 оператор перехода за один шаг 162, 895 определяющий класс 434 оптимальная остановка 813 — — марковских цепей 894 опцион 804 — -колл 806 — -пут 806 — Американского типа 806 — Европейского типа 805 — покупателя 806 — продавца 806 опционный контракт 804 ортогонализация Грама– –Шмидта 372 ортогональное разложение 381 ортогональные меры 497 основная лемма дискретной теории восстановления 863 — теорема о стационарных распределениях 874 — — об эргодических распределениях 874 отклонение стандартное 64, 411 относительная компактность 438, 439 отношение правдоподобия 139 отображение измеримое 598 — — сохраняющее меру 598 оценивание ковариационной функции 643 — спектральной плотности 644 — — функции 644 оценка 97, 333 — асимптотически несмещенная 645 — Бернштейна 80 — вероятности «успеха» 97 — максимального правдоподобия 45 — несмещенная 97, 326 956 ПРЕДМЕТНЫЙ УКАЗАТЕЛЬ оценка оптимальная в среднеквадратическом смысле 66, 333 — — линейная 370, 381 — сильно состоятельная 740 — состоятельная 97, 642 — спектральной плотности Бартлетта 647 — — — Журбенко 647 — — — Парзена 647 — эффективная 98 ошибка первого и второго рода 491 — среднеквадратическая 333 П паритет колл-пут 813 перемешивание 603 пересечение множеств 30, 197 перестановочная система событий 199 перестановочное событие 566 переходная вероятность 142, 348 — функция 831 период неразложимого класса 854 — последовательности 853 — состояния 853 периодограмма 645 перпендикуляр 371, 381 платежное поручение 798 — — воспроизводимое 798 плотная последовательность случайных величин 501 плотность 226, 232, 245, 273 — n-мерного гауссовского распределения 233 — гауссовская двумерная 332 — условного распределения вероятностей 308 подходящее множество функций 209 полиномы Бернштейна 79 — Пуассона – –Шарлье 376 — — — нормированные 376 — Эрмита 375 — — нормированные 375 полнота 225 — (B, S)-рынка 798 p — пространства L , p > 1 363, 364 полунорма 362 пополнение 224 портфель ценных бумаг 791 — — — самофинансируемый 791 порядковая статистика 343 последовательности вполне детерминированные 649 — детерминированные 649 — мер взаимно контигуальные 500 — — полностью асимптотически разделимые 500 — — сближаемые 500 — обращенные 778 — предсказуемые 681 — регулярные 649 — сингулярные 649 — скользящего среднего 617 — стационарные в узком смысле 597 — — в широком смысле 614 — чисто детерминированные 649 — эргодические 608 последовательность обновляющая 650 — почти периодическая 615 — случайных величин плотная 501 — частично наблюдаемая 664 почти всюду 261 — инвариантное множество 601 — наверное 261 предельная пренебрегаемость 463 — теорема интегральная 74, 87 — — локальная 74, 82 предсказуемая последовательность 681 представление Колмогорова– –Леви– – Хинчина 471 — Леви– –Хинчина 476 преобразование Бернулли 610 — Колмогорова 610 — Крамера 592 — Лапласа– –Стилтьеса 785 — метрически транзитивное 601 — сохраняющее меру 598 — Фурье 383 ПРЕДМЕТНЫЙ УКАЗАТЕЛЬ преобразование эргодическое 601 — Эшера 795 — — условное 797 прибыль логарифмическая 790 принцип инвариантности 461, 764 — — Донскера– –Прохорова 764 — отражения 123 — подходящих множеств 203 проблема моментов 403 — —, критерий единственности 405 продожение меры 222 проекция 371 производная Лебега 497 — Радона– –Никодима 273 производящая функция 294 производящая функция последовательности 164 — случайной величины 165 — экспоненциальная 164 пространство банахово 364 — исходов 23, 196 — состояний марковской цепи 142, 826 — фазовое 142, 826 — элементарных событий 23, 196 процедура Робинса– –Монро 733 процентная ставка банковская 789 — — рыночная 789 проценты простые 790 — сложные 790 процесс броуновского движения 420, 764 — ветвящийся 145 — винеровский 420 — — условный 421 — восстановления 352 — гауссовский 420 — гауссовско-марковский 421 — гибели-размножения 145 — марковский 348 — Пуассона 784 — с независимыми приращениями 420 прямое произведение σ-алгебр 212 — — мер 53 — — пространств 53, 219 957 — уравнение 147 — —, матричная форма 147 пустое множество 197 Р равенство Парсеваля 374 равномерная интегрируемость 264 разбиение 31, 401 разделимость последовательностей мер 500 различение гипотез 491 разложение Вольда 648, 652 — Дуба 689 — каноническое последовательности 766 — Крикеберга 723 — Лебега 497, 744 — Хана 490 размещение дробинок по ячейкам 27 размещения без повторений 25 — с повторениями 24 разность множеств 30, 197 распределение 226 — F 227 — t 227, 340 — бернуллиевское 57 — бета 227 — биномиальное 39 — Вейбулла 343 — вероятностей процесса 253 — — случайного вектора 58 — — случайной величины 57, 245 — гамма 227 — гауссовское 92, 227 — — n-мерное 233 — — —, характеристическая функция 412 — —, семиинварианты 402 — — среднее, дисперсия 330 — геометрическое 226 — гипергеометрическое 43 — — многомерное 42 — двойное экспоненциальное 343 — дискретное 226 — — равномерное 226 958 ПРЕДМЕТНЫЙ УКАЗАТЕЛЬ распределение инвариантное 150, 847, 849 — Колмогорова 520 — Коши 227 — логарифмически нормальное 336 — многомерное 58, 231 — мультиномиальное 42 — начальное 142 — нормальное 92, 227 — обратно-биномиальное 243 — отрицательно-биномиальное 226 — Паскаля 226 — полиномиальное 42 — Пуассона, пуассоновское 89, 226 — равномерное на [a, b] 227 — Рэлея 339 — сингулярное 228 — стационарное 150, 847, 849 — Стьюдента 227, 340 — устойчивое 472 — хи 339 — хи-квадрат 227, 339 — экспоненциальное 227 — — двустороннее 227 — эргодическое 148 расстояние Какутани– –Хеллингера 493 — Леви 436 — по вариации 490 — —, оценка Прохорова 509 расширенная случайная величина 247 — числовая прямая 221 реализация процесса 253 регулярная функция распределения 313 регулярные условные вероятности 311 — — распределения 312 — — —, существование 314 рынок неполный 806 — полный 806 С свертка распределений 337 свертка Вандермонда 174 секвенциальная компактность 440 семейство марковских цепей 836 — мер относительно компактное 438 — — плотное 438 семиинварианты простые 400 — смешанные 398 сигма-аддитивность, σ-аддитивность 193 сигма (σ-)-алгебра 193 символ Кронекера 375 симметрическая разность множеств 197 сингулярность мер 497 сингулярные меры 226, 497, 743 система лебеговских множеств 224 — ортогональных случайных величин 369 — ортонормированная 369 — — полная 373 — — случайных величин 369 — Радемахера 377 — событий перестановочная 199 — Хаара 377 скалярное произведение 368 скользящее среднее двустороннее 617 — — одностороннее 618 скорость сходимости в усиленном законе больших чисел 591 — — в центральной предельной теореме 505 слабая сходимость 429, 430 — —, метризуемость 477 случайная величина 56, 244 — — абсолютно непрерывная 245 — — безгранично делимая 469 — — биномиальная 57 — — гауссовская 330 — — дискретная 244 — — инвариантная 601 — — комплексная 252 — —, не зависящая от будущего 683, 786 — — непрерывная 245 — — почти инвариантная 601 — — простая 244 — — расширенная 247 — — устойчивая 472 ПРЕДМЕТНЫЙ УКАЗАТЕЛЬ случайная последовательность 253, 420 — функция 253 случайное блуждание 112, 123 — — простое 880 — число случайных величин 145 случайный вектор 58, 252 — процесс с дискретным временем 253 — — с непрерывным временем 253, 420 — — с ортогональными приращениями 627 — элемент 251 смешанная модель авторегрессии и скользящего среднего 620 событие 29, 196 — достоверное 30 — невозможное 30 — перестановочное 566 согласованности свойство 234, 238 — условие 239, 345 состояние цепи апериодическое поглощающее 143 — — возвратное 858 — — — нулевое 862 — — — положительное 862 — — достижимое 851 — — невозвратное 858 — — несущественное 851 — — поглощающее 885 — — существенное 851 состояния цепи взаимно достижимые 851 — — сообщающиеся 851 сочетания без повторений 26 — с повторениями 24 спектральная мера 622 — плотность 617 — —, оценивание 644 — функция 622 — характеристика фильтра 635 спектральное окно 646 ковариационной — представление функции 620 959 — — стационарной последовательности 629 справедливая цена опциона 806 среднее значение 60 средняя длительность блуждания 118 — продолжительность игры 112 стандартное отклонение 64, 330 статистика Бозе– –Эйнштейна 28 — достаточная 321 — Максвелла– –Больцмана 28 — Ферми– –Дирака 28 статистическая независимость 50 степень разброса 64 стохастическая матрица 143 — мера 623 — — конечно-аддитивная 623 — — ортогональная 624 — — с ортогональными значениями 624 — — элементраная 624 — последовательность 681 — — возрастающая 681 — — доминируемая 711 — — предсказуемая 681 — экспонента 289, 720 стохастический интеграл 626 — — Ито 782 строго марковское свойство 158, 841, 842 структурная функция 625 субмартингал 681 — локальный 684 — обобщенный 683 сужение меры 237 сумма множеств 197 суммирование по Чезаро 365, 870 суммы верхние 282 — нижние 282 супермартингал 682 супермартингальная мажоранта 818 суперхеджирование 807 —, верхняя цена 809 существенный супремум 364, 815, 816 схема Бернулли 69, 81 960 ПРЕДМЕТНЫЙ УКАЗАТЕЛЬ схема серий 449, 456 сходимость в основном 429, 430, 435 — — в смысле конечномерных распределений 435 p — в смысле L 354 — в среднем квадратическом 354 — в среднем порядка p 354 — по вариации 491 — по вероятности 354, 483 — —, метризуемость 477 — по закону 482 — по мере 354 — по распределению 355, 447, 482 — почти всюду 354, 483 — почти наверное 354, 483 — с вероятностью единица 354, 483 — — —, неметризуемость 477 — слабая 429, 430 — —, метризуемость 477 счетная аддитивность 193 Т телескопическое свойство 108 — — второе 301 — — первое 300 теорема Байеса 49, 316 — Беппо Леви 295 — Берри– –Эссеена 89, 505 — Биркгофа– –Хинчина 604 — Бохнера– –Хинчина 395 — Вейерштрасса 79 — Герглотца 620 — Гирсанова , дискретная версия 758 — Гливенко и Кантелли 512 — Дуба 718, 725 — — о максимальных неравенствах 707 — — о разложении субмартингалов 689 — — о сходимости субмартингалов 725 — — о числе пересечений 718 — Ионеску Тулчи 348 — Кантелли 574 — Каратеодори 222 — — — — — — — — — — — — — — — — — — — — — — — — — — — — — — — — — — — — — Колмогорова и Хинчина 569 — — о «двух рядах» 571 — о продолжении мер 238 — о продолжении меры 234 — о существовании процесса 346 — о «трех рядах» 572 — об интерполяции 663 — об усиленном законе больших чисел 575, 578 Лебега о мажорируемой сходимости 264 Леви 727 Макмиллана 78 Манна– –Вальда 486 Марцинкевича 396 Мерсера 423 Муавра– –Лапласа 87 непрерывности 444 о баллотировке 136 о возвратности Пуанкаре 599 о «двух рядах» 571 о замене переменных под знаком интеграла Лебега 274 о монотонной сходимости 262 о монотонных классах 203 — —, функциональная версия 209 о нормальной корреляции 334 — —, векторный случай 417 о преобразовании свободного выбора 940 о сходимости под знаком условных математических ожиданий 302 о «трех рядах» 572 Пифагора 381 Пойа для случайных блужданий 885 — для характеристических функций 395 Прохорова 439 Пуанкаре 462 — о возвратности 599 Пуассона 89, 449 Радона– –Никодима 273 Рао и Блэкуэлла 326 ПРЕДМЕТНЫЙ УКАЗАТЕЛЬ теорема Улама 442 — факторизации 322 — Фубини 276 — фундаментальная вторая 798 — — первая 792 — Хелли 440 — Хелли– –Брэя 437 — центральная предельная 443, 448, 451, 457, 464 — — — для зависимых величин 762 — — — функциональная 764 — Чернова 595 — эргодическая 149, 608, 639 — — максимальная 604 теория восстановления 704 тождество Вальда 135, 698 — — фундаментальное 701 — паритета колл-пут 813 — Спицера 294 точки роста 226 траектория процесса 253 — — типичная 77 треугольник Паскаля 25 У уравнение баланса 619 — Вальда– –Беллмана 899 — восстановления 353 — Колмогорова – –Чепмена 146, 347, 837 — — — обратное 147 — — — прямое 147 — обратное , матричная форма 147 — прямое , матричная форма 147 уравнения динамического программирования 898 уровень значимости 101 усиленный закон больших чисел 574 условие асимптотической малости 463 — — — равномерной 764 — Крамера 591 — Линдеберга 451, 456 — Ляпунова 455 — предельной пренебрегаемости 463 — — — равномерной 764 961 — согласованности 239, 345 условная вероятность 46, 296, 299 — — относительно σ-алгебр 299 — — — разбиений 296 — — — разбиения 103 — — — случайных величин 104, 299 — — регулярная 311 — дисперсия относительно σ-алгебры 299 условное двуточие 801 — математическое ожидание 106, 109, 299 — — — в широком смысле 370, 381 — — —, свойства 300 устойчивая случайная величина 472 Ф фазовое пространство 142, 826 факторизационная теорема 322 фильтр 634 —, импульсная переходная функция 634 — Калмана– –Бьюси 668, 672 — физически осуществимый 635 фильтрация 664 —, поток σ-алгебр 681 формула Байеса 49 дифференцирования — дискретного 791 — замены переменных Ито 777 — интегрирования по частям 287 — Ито 783 — —, дискретная версия 777, 780 — — для броуновского движения 777 — обращения 391 — пересчета математических ожиданий 273 — — условных математических ожиданий 319, 749 — полной вероятности 48, 104, 107 — связи моментов и семиинвариантов 399 962 ПРЕДМЕТНЫЙ УКАЗАТЕЛЬ формула Сеге– –Колмогорова 668 — Стирлинга 44 — трапеции 780 — умножения вероятностей 48 фундаментальная теорема теории арбитража 788 фундаментальность в среднем порядка p 355, 363 — по вероятности 355, 361 — с вероятностью единица 355, 360 фундаментальные теоремы математической статистики 511 функции распределения конечномерные 345 — — эмпирические 512 функция борелевская 244 — верхняя 585 — восстановления 352 — гармоническая 913 — Дирихле 292 — измеримая 244 — ковариационная 614 — концентрации 409 — корреляционная 614 — нижняя 585 — ошибок 94 — полунепрерывная 432 — Радемахера 377 — распределения 57, 58, 221 — — n-мерная 231 — — безгранично делимая 469 — — обобщенная 229 — — регулярная 313 — — случайного вектора 58 — — случайной величины 57, 245 — — устойчивая 472 — супергармоническая 898, 913 — Хаара 378 — эксцессивная 898 фьючерс 805 Х характеристика взаимная 691 — квадратическая 690 — фильтра спектральная 635 — — частотная 635 характеристическая функция 383 — —, примеры 407 — —, свойства 386 — — безгранично делимая 469 — — множества 56 — — устойчивая 472 — — устойчивого распределения 475 характеристических функций метод 443 хеджирование совершенное 806 Ц цена в задачах об оптимальной остановке 895 центральная предельная теорема 443, 448, 457, 464 — — — для зависимых величин 762 — — — функциональная 764 цепь Маркова 140, 351 — — однородная 143 — — стационарная 151 циклический подкласс 854 цилиндрические множества 214 Ч частота 70 частотная характеристика фильтра 635 число пересечений 718 — размещений 25 — сочетаний 25 Э эквивалентность по распределению 484 эквивалентные меры 497, 743 экран отражающий 888, 890 экспонента стохастическая 289, 720 экспоненциальное семейство 325 экстраполяция 657 эксцессивная мажоранта 899 — — наименьшая 899 — функция 898 элементарная теорема теории восстановления 704 ПРЕДМЕТНЫЙ УКАЗАТЕЛЬ элементарное событие 23 энтропия распределения 76 эргодическая теорема 149, 608 — — в среднеквадратическом смысле 639 — — максимальная 604 эргодичность 148, 601 Я ядро Фейера 645 963 Указатель обозначений п. н. −−→ 354 п.в. −−→ 354 d − → 355 Lp −→ 354 − → 354 Fn ⇒ F 429 Fξn ⇒ Fξ 355 w Fn − → F 429 430, 435 n⇒ w 430 n→ f 435 n⇒ w → µ 433 µn − µn ⇒ µ 433 d ηn − → η 447 d ξ = η 469 D X = Y 484 ⊗ A 422 A 30 A + B 30 A ∩ B 30 A ∪ B 29 A △ B 67 дA 430 Ac (t) 290 AnM 25 A 30, 192 α(D) 31, 201 BL 480 B \ A 30 B(K0 , N; p) 812 B 211 B (R) 211 B (C) 218 B (D) 218 B (R) 210 B (R ∞) 214 B (R n) 211 B (R T ) 216 B ([0, 1]) 224 B1 ⊗ B2 212 C 217 C+ 734 CN 812 C(F) 429 C(fN ; ) 806, 807 C(f ; ) 809 Ckl 25 (ξ, η) 65, 330, 614 D 218 ξ 64 (ξ | D) 111 (ξ | G) 299 ∆Fξ (x) 61 d (X, Y) 483 (E, E) 252 (E, E , ρ) 430 En (λ) 720 Et (A) 289 h 492 E r(P, P) ξ 60, 257 (η1 , . . . , ηn) 370 (ξ; A) 259 (ξ | D) 106 (ξ | G) 298 (ξ | η) 109, 299 (ξ | η1 , . . . , ηk) 109 (ξ | D) 106 A (ξ | η1 , . . . , ηn) 370 erf 94 hf, gi 625 F ∗ G 337 Fξ 57, 245 fξ 245 F 193 F /E 251 F ∗ 201 F∗ 201 FA 201 Fξ 248 Fτ 684 F Q 224 Ft 219 t ∈T Φ(x) 92 ϕ(x) 92 H(x) 83 h 494 H(P, P) h 494 H(α; P, P) ] ξ d 257 Ω ] ξ d 259 A ] (L– –S) ξ (x) G(dx) 259 R] (R– –S) ξ (x) G(dx) 259 R (L) ∞ ] ξ (x) dx 259 −∞ L2 368 L p 362 L∞ 364 h 478 L(P, P) Lθ (ω) 98 Lk (A) 124 L (η1 , . . . , ηn) 370 L (η1 , η2 , . . .) 373 l. i. m. 355 ( ) 793 (M) n 25 hMi 690 (ν ,...,ν ) mξ 1 k 398 MNn 814 med 437 µ 192 µ(A) 192 µ(E ) 202 µ1 × µ2 276 N(A) 34 N(A ) 32 УКАЗАТЕЛЬ ОБОЗНАЧЕНИЙ N(Ω) 23 ( ) 793 N (m, σ 2) 330 N (m, R) 412 32, 194 (A) 32 (A | D) 103 (A | G) 299 (A | η) 104 (A | ξ) 299 (B | D) 296 (B | G) 297 (B | A) 46 Pξ 57, 244 p(ω) 32 P = { α ; α ∈ A} 438 P 146 P (k) 146 PN 813 h n) ⊳ (P n) 500 (P h n) ⊳⊲ (P n) 500 (P h n) M (P n) 500 (P h 490 kP − Pk h ∗BL 480 kP − Pk kp(x, y)k 143 kpi j k 143 e 146 Π (k) 146 R 210 R 211 R(n) 614 R 1 211 R T 215 R ∞ 213 R n 211 Rn 377 Rn (x) 377 (R, B (R)) 210 ρ(ξ, η) 65, 331 h 493 ρ(P, P) ρ(n) 614 (ν ,...,ν ) sξ 1 k 398 965 σ (E ) 201 σ (ξ) 248 h 490 Var(P − P) Xn∗ = max |X j | 707 j6n Xnπ 791 hX, Y i 691 [X, Y] n 691 [X] n 691 {Xn →} 733 Z 613 Z(∆) 623 Z(λ) 623 χ2 339 θk ξ 597 ξ ⊥ η 369 (Ω, A , ) 33, 193 (Ω, A , θ ; θ ∈ Θ) 97 # 781 4 32 (a1 , . . . , an) 24 [a1 , . . . , an ] 24 Некоторые общематематические обозначения R = (−∞, ∞) – – множество действительных чисел, действительная прямая, евклидово одномерное пространство R+ = [0, ∞) R = [−∞, ∞] – – расширенная действительная прямая: R = R ∪ {−∞} ∪ {∞} R+ = [0, ∞] Q– – множество рациональных чисел Q+ = Q ∩ R+ Rd – – евклидово d-мерное пространство N– – натуральные числа: или {0, 1, 2, . . . }, или {1, 2, . . . } Z– – множество целых чисел: {0, ±1, ±2, . . . } C– – множество комплексных чисел (a, b) = {x ∈ R : a < x < b}, (a, b] = {x ∈ R : a < x 6 b}, [a, b] = {x ∈ R : a 6 x 6 b} [a, b) = {x ∈ R : a 6 x < b} inf X – – нижняя грань множества X ⊆ R sup X – – верхняя грань множества X ⊆ R inf xn – – нижняя грань множества X = {xm , xm+1 , . . . } n>m sup xn – – верхняя грань множества X = {xm , xm+1 , . . . } n>m Если xn ∈ R, n > 1, то lim inf xn = lim xn ≡ sup inf xn , n→∞ m>1 n>m n lim sup xn = lim xn ≡ inf sup xn , n→∞ n m>1 n>m lim xn = x ⇔ lim xn = lim xn = x ⇔ lim xn > x > lim xn . x + = max(x, 0), ( x⊕ = x −1 , 0, Для действительных чисел: x − = − min(x, 0) x 6= 0, x=0 x ∨ y = max(x, y), x ∧ y = min(x, y) [x] или ⌊x⌋ – – наибольшее целое число, не превосходящее x ⌈x⌉ – – наименьшее целое, большее или равное x 8 < 1, x > 0, 0, x = 0, : −1, x < 0 (иногда sign x определяется как 1, если x > 0, и −1, если x < 0) sign x – – знак числа x: sign x = НЕКОТОРЫЕ ОБЩЕМАТЕМАТИЧЕСКИЕ ОБОЗНАЧЕНИЯ 967 xn → x, где n ∈ {1, 2, . . . }, означает, что lim xn = x n xn ↑ означает, что x1 6 x2 6 . . . ; xn ↑ x означает, что xn ↑ и lim xn = x n xn ↓ означает, что x1 > x2 > . . . ; xn ↓ x означает, что xn ↓ и lim xn = x n Для комплексных √ чисел z = a + ib, где a, b ∈ R и i = −1 – – мнимая единица: z = a − ib – – число, сопряженное с z 2 2 1/2 |z| – – модуль числа z (= (a + b ) ) Re z, Im z – – действительная и мнимая части z: Re z = a, Im z = b Для евклидова d-мерного пространства R d : 2 2 1/2 |x| – – евклидова норма x = (x1 , . . . , xd), т. е. (x1 + . . . + xd) x · y или (x, y) – – скалярное произведение x = (x1 , . . . , xd) и y = (y1 , . . . , yd ), т. е. x1 y1 + . . . + xd yd В теории множеств: An ↑ означает, что A1 ⊆ A2 ⊆ . . . ; An ↑ A означает, что An ↑ и An ↓ означает, что A1 ⊇ A2 ⊇ . . . ; An ↓ A означает, что An ↓ и lim sup An , или lim An , или {An б. ч.} означает T m>1 S An S T An = A An = A – – множество точек, n>m принадлежащих бесконечному числу множеств An , n > 1 lim inf An или lim An означает S m>1 T An – – множество точек, принадлежащих n>m всем An , n > 1, за исключением, быть может, их конечного числа IA или I(A) – – индикатор множества A {...} – – множество Математические символы: ≪– – абсолютная непрерывность ∼– – эквивалентность ⊥– – ортогональность f(x) = O(g(x)), x → ∞ ⇔ ∃C > 0 и x0 такие, что |f(x)| 6 C|g(x)|, x > x0 f(x) = o(g(x)), x → ∞ ⇔ ∀ε > 0 ∃x0 (ε) такое, что |f(x)| 6 ε|g(x)| для всех x > x0 (ε) f(x) ∼ g(x), x → ∞ ⇔ f(x) = g(x) + o(g(x)) (f ◦ g) (x) = f(g(x)) – – композиция f и g ≡ — тождественно равно; по определению Альберт Николаевич Ширяев ВЕРОЯТНОСТЬ – –2 Редактор Т. Толозова Подписано в печать 6.06.2007 г. Формат 60 × 90 1/16. Бумага офсетная №1. Печать офсетная. Печ. л. 26. Тираж 1500 экз. Заказ № Издательство Московского центра непрерывного математического образования. 119002, Москва, Большой Власьевский пер., 11. Тел. (495) 241– –74– –83. Отпечатано с готовых диапозитивов в ППП «Типография Наука“». ” 121099, Москва, Шубинский пер., 6. Книги издательства МЦНМО можно приобрести в магазине «Математическая книга», Большой Власьевский пер., д. 11. Тел. (495) 241–72–85. E-mail: [email protected]