Курс лекций ВТСП

реклама
ЛЕКЦИИ
ВВЕДЕНИЕ В ТЕОРИЮ СЛУЧАЙНЫХ ПРОЦЕССОВ
СОСТАВИЛ
ДОЦЕНТ КАФЕДРЫ ВММФ ЕНМФ ТПУ
КРИЦКИЙ О.Л.
СЕМЕСТР 8, 2009/2010 УЧЕБНЫЙ ГОД
ЕНМФ ТПУ
2010 г.
СОДЕРЖАНИЕ
1. ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ СЛУЧАЙНЫХ ПРОЦЕССОВ …………………..
2
ВВЕДЕНИЕ ………………………………………………………………………………….
2
1.1. ПРИМЕРЫ СЛУЧАЙНЫХ ПРОЦЕССОВ …………………………………………...
3
1.2. СХОДИМОСТЬ СЛУЧАЙНЫХ ПРОЦЕССОВ В СРЕДНЕКВАДРАТИЧНОМ.
НЕПРЕРЫВНОСТЬ. ДИФФЕРЕНЦИРУЕМОСТЬ ……………………………………….
6
1.3. ВИНЕРОВСКИЙ ПРОЦЕСС ………………………………………………………….
9
1.4. ИНТЕГРАЛ ИТО. СВОЙСТВА. ФОРМУЛА ИТО..………………………………….
11
1.4.1. СВОЙСТВА ИНТЕГРАЛА ИТО …………………………………………………….
12
1.4.2. ФОРМУЛА ИТО ……………………………………………………………………..
16
2. МАТЕМАТИЧЕСКИЕ МОДЕЛИ ФИНАНСОВОЙ МАТЕМАТИКИ ..………………
20
2.1. УРАВНЕНИЕ ФОККЕРА–ПЛАНКА–КОЛМОГОРОВА .…………………………..
20
2.1.1. ГРАНИЧНЫЕ УСЛОВИЯ УРАВНЕНИЯ ФОККЕРА–ПЛАНКА–
КОЛМОГОРОВА ……………………………………………………………………………
2.1.2. НЕКОТОРЫЕ РЕШЕНИЯ УРАВНЕНИЯ ФОККЕРА–ПЛАНКА–
КОЛМОГОРОВА ……………………………………………………………………………
23
25
2.2. УРАВНЕНИЕ БЛЭКА – ШОУЛСА (BLACK – SCHOLES) …………………………
27
2.2.1. ДОПУЩЕНИЯ МОДЕЛИ БЛЭКА – ШОУЛСА ……………………………………
30
2.2.2. ПРИВЕДЕНИЕ УРАВНЕНИЯ БЛЭКА – ШОУЛСА К КАНОНИЧЕСКОМУ ВИДУ …………………………………………………………………………………………
31
2.3. МОДЕЛЬ СТОХАСТИЧЕСКОЙ ВОЛАТИЛЬНОСТИ ……………………………..
33
3. СЛУЧАЙНЫЕ БЛУЖДАНИЯ ЧАСТИЦЫ. ПРОЦЕСС ПУАССОНА ………………
37
3.1. СЛУЧАЙНЫЕ БЛУЖДАНИЯ ЧАСТИЦЫ ………………………………………….
37
3.2. ПРОЦЕССЫ РОЖДЕНИЯ И ГИБЕЛИ ………………………………………………
39
3.3. ПРОЦЕСС ПУАССОНА ………………………………………………………………
40
4. СТОХАСТИЧЕСКИЕ МОДЕЛИ ОБРАБОТКИ ЭМПИРИЧЕСКИХ ДАННЫХ ……
43
4.1. АВТОРЕГРЕССИОННАЯ МОДЕЛЬ AR(P) …………………………………………
4.2. ОБОБЩЕННАЯ АВТОРЕГРЕССИОННАЯ МОДЕЛЬ УСЛОВНОЙ
НЕОДНОРОДНОСТИ GARCH(P,Q) ………………………………………………………
УКАЗАНИЯ ПО ВЫПОЛНЕНИЮ ИНДИВИДУАЛЬНОГО ЗАДАНИЯ ………………
43
СПИСОК ЛИТЕРАТУРЫ ………………………………………………………………….
54
ПРИЛОЖЕНИЕ 1 …………………………………………………………………………..
55
47
50
1. ОСНОВНЫЕ ПОНЯТИЯ
ТЕОРИИ СЛУЧАЙНЫХ ПРОЦЕССОВ
ВВЕДЕНИЕ
Статистические задачи занимают значительно место в матеметике, физике, экономике,
особенно в случае необходимости учета флуктуационные эффекты. Наибольшую популярность и простоту имеют стохастические процессы, построенные на основе теории марковских случайных процессов диффузионного типа, а так же процессы, флуктуирующие параметры которых являются гауссовыми случайными величинами.
Цель данного курса – показать взаимосвязь экономики, физики и теории стохастических процессов – как различные задачи, описываемые стохастическими уравнениями, могут
быть решены при помощи общего подхода, известного в уравнениях математической физики.
Определение: пусть G – некоторое множество, содержащее все подмножества множества , т.е. G=2. Если

1.  k  G,  Ak  G следует, что  Ak  G ,
k 1

2.  k  G,  Ak  G следует, что  Ak  G ,
k 1
3.   G ,
4. Если A G , то и A  G .
При выполнении свойств 1) – 4) G называют  – алгеброй пространства событий .
Определение: вероятностью P называют отображение P : G  [0,1] , что
1.  A G P( A)  0 ,
2. P()  1 ,
   
3. P  Ak    P Ak  , причем Ak  G попарно не пересекаются друг с другом.
 k 1  k 1
При выполнении свойства 3) говорят о –аддитивности вероятности. Если справедливо ра n  n
венство P  Ak    P Ak  , то принято говорить только об аддитивности вероятности.
 k 1  k 1
Определение: тройка , G, P называется вероятностным пространством.
Определение: случайной величиной называется функция  :   n , отображающая
вероятностное пространство в одномерное евклидово пространство.
Определение: случайной функцией называется отображение  : T     , если для
каждого момента t она представляет собой случайную величину. Если t время, то t , 
называют случайным процессом.
Определение: пусть t ,  – случайный процесс и t 0  T – некоторая фиксированная
точка. Тогда t 0 ,  называется сечением случайного процесса в т. t 0 .
Определение: пусть  – вероятностное пространство, 0   – фиксированное элементарное событие. Пусть t ,  – случайный процесс. Детерминированная функция
t , 0   t  называется реализацией (выборочной функцией), соответствующей элементарному событию 0   .
В соответствии с данным определением случайный процесс можно трактовать как совокупность сечений или пучок траекторий.
Определение: случайный процесс t ,  называется регулярным, если его траектория
для любого t  T непрерывна справа и имеет конечный предел слева.
Определение: пусть t , , t ,  – два случайных процесса. Они называются стохастически эквивалентными на T, если вероятность их отклонений в любой момент времени
t T равна нулю:
P , t,   t ,   0 .
1.1. ПРИМЕРЫ СЛУЧАЙНЫХ ПРОЦЕССОВ
1) Рассмотрим обыкновенное дифференциальное уравнение с некоторым случайным
возмущением:
(1)
xt   x 2  f t , x t 0  x0 ,   0 .
Пусть f t   0, т.е. исходное уравнение превращается в уравнение с разделяющимися
переменными. Тогда
t
t
 1

1

dx
1 1
dx
1
 t   
x t   x 2  2   dt   2    dt    t  
 t  .
x x0
x
x x0
x
x
  x0 
0
0
1
Обозначим через t 0  
. Тогда окончательно имеем:
 x0
1
xt  
.
(2)
 t  t 0 
Данное решение имеет особенность в точке t  t 0 . Проанализируем эту особенность.
Если x0  0 , то t 0 отрицательно и xt   0 при t   , так как в знаменателе выражения (2)
будет стоять произведение двух положительных числа. В случае x0  0 параметр t 0 отрицателен. Односторонние пределы в т. t 0 равны следующим выражениям:
1
1
lim x(t )  lim
  , lim x(t )  lim
.
t t0 0
t t0 0  t  t 
t t 0  0
t t0  0  t  t 
0
0
Односторонние пределы не равны друг другу, т.е. в t  t 0 функция (2) теряет непрерывность. Более того, можно говорить о взрывном характере поведения в окрестности t 0 , так как
функция совершает бесконечный скачок с   до   .
Впомним про случайную силу f t  и исследуем оказываемое ею влияние на поведение
решения задачи (1). При x0  0 она несущественно (мало) влияет на xt  в (1). Однако с ростом t функция xt  убывает. Поэтому начиная с некоторого момента времени xt  будет
слегка флуктурировать около нуля из–за f t  , так как случайная сила будет преобладать.
Стремясь к нулю, xt  перебрасывается случайной силой f t  в область отрицательных значений, причем это происходит до момента t 0 . Как следствие, xt  стремится к   слева и
  справа и имеет взрывной характер в т. t 0 . Проходя точку t 0 , из–за отсутствие других
особенностей в (2) функция xt  вновь стремится к нулю при t   . Начиная с некоторого
момента времени опять будут наблюдаться флуктуации около нуля из–за влияния на решение случайной силы.
Вид решения показан схематично на рис. 1.
2) Поведение на финансовых рынках.
Допустим, что на финансовом рынке производится покупка или продажа некоторого
товара стоимостью S i , где i  0, N – номер дня покупки. Наша прибыль или убыток за день
S  S i def
 Ri .
составит в абсолютном безразмерном выражении i 1
Si
Рис. 1. Поведение решения задачи (1) в окрестности особой точки
Предположим, что величина прибыли имеет нормальное распределение: Ri ~ N a, *2  .
Тогда средняя прибыль за N дней составит R 
1 N
 Ri , а выборочная смещенная дисперсия
N i 0
(квадрат отклонения от средней прибыли):
1 N
2
S 2   Ri  R  .
N i 0
Кроме того, с силу сделанных ранее предположений Ri можно записать в виде
Ri  a  * ,
где  ~ N 0,1 – стандартная нормальная случайная величина.
Ri
Действительно,
имеет
функцию
распределения
 1 t  a 
1/ 2
F  x   1 / 2  1   exp   
2

 2 *
x
F x   1/ 2
1/ 2

 x a  / *


2
(3)
вида

t  a  , переходим к интегралу
 dt . Делая замену s 

*

 s2 
exp    ds , т.е. к функции распределения случайной величины
 2
 ~ N 0,1.
Рассмотрим промежуток  ti  ti 1  ti . На этом промежутке изменение между Si и
S i 1 зависит от времени, причем чем больше времени между продажей и покупкой, тем более
сильным может быть это изменение. Пусть имеет место линейная зависимость:
a    ti ,
где  – коэффициент пропорциональности. Тогда
S i 1  S i
   t i  * .
(4)
Si
Рассмотрим случай отсутствия случайной составляющей , т.е. найдем решение уравнения
Si 1  Si 1    ti  .
Ri 
Пусть в начальный момент времени стоимость продукта на бирже составляла S 0  S t 0 .
Тогда из последнего равенства
S i 1  S i
  Si .
 ti
Переходя в нем к пределу при  ti  0 , получаем обыкновенное дифференциальное уравнение
dS
 S ,
dt
решение которого с учетом начального условия есть
S  S0e t .
Учтем теперь влияние стохастической составляющей . Для этого определим стандартное отклонение  * для случайной функции Ri , оценив его порядок. Дадим вспомогательное
определение.
Определение: волатильностью случайного процесса S называется число
N
S
1
Ri  R 2 , где  t – некоторый интервал времени.


 t N  1 i 0
t
Волатильность характеризует неустойчивость случайного процесса. Чем она больше,
тем процесс менее устойчив и тем сложнее прогнозировать его поведение.
Для проведения оценки  * потребуем ограниченности квадрата волатильности по времени, т.е. lim
t 0
*2
  . В этом случае, так как  * удовлетворяет (3), а каждое входящее в него
t
слагаемое вида


Ri  R2
имеет порядок малости  t , то в целом *2  O t  , или
*  O  t . Исходя из определения O – большого можно записать равенство:
(5)
*   t ,
2
где  – коэффициент пропорциональности.
Подставляя (5) в (4), имеем:
S i 1  S i
   ti    t  .
(6)
Si
Вспоминая, что  ~ N 0,1, можно считать  функцией только от пространственной
переменной x, так как она имеет функцию распределения
x
 t2 
1/ 2
F x   1/ 2   exp    dt ,
 2

которая зависит только от x.
def
Обозначим через W   t x  . Это соотношение называют приращением винеровского случайного процесса, который в уравнении (6) играет роль белого шума, вносящего в
детерминированный процесс S  S 0 e  t стохастически малые изменения.
Найдем параметры процесса W и покажем, что он нормально распределен. Имеем:


EW   E  t x    t  E x   t  0  0 ,
DW   E
  t x   t  D x  1 .
2
Наконец, так как  ~ N 0,1, то функция распределения для
FW x    t 1/ 2
1/ 2
 s
  exp  
 2

x
2
W будет иметь вид

 ds  (делаем замену переменного под знаком интеграла

t x
 2 
1
 
 d . Последнее равенство есть функция
exp

t
 2t 
распределения нормальной случайной величины с нулевым средним и дисперсией  t . Значит, W ~ N 0,  t .
В соответствии со сделанным обозначением (6) запишется в виде
S i 1  S i
   t i  W . Переходя в нем к пределу при  ti  0 , получим дифференциальное
Si
уравнение вида
d S  S d t   S dW .
(7)
Это основное уравнение данного курса. Его решение будет получено позднее.
Уравнение (7) описывает случайное блуждание частицы или системы частиц в некоторой среде. При этом предполагается, что время между столкновениями двух соседних частиц
пренебрежимо мало по сравнению со временем жизни системы в целом. Это так называемое
броуновское движение.
Определение: волатильностью случайного процесса S называется число
N
S
1
Ri  R 2 , где  t – некоторый интервал времени.


 t N  1 i 0
t
1.2. СХОДИМОСТЬ СЛУЧАЙНЫХ ПРОЦЕССОВ
В СРЕДНЕКВАДРАТИЧНОМ.
НЕПРЕРЫВНОСТЬ. ДИФФЕРЕНЦИРУЕМОСТЬ
   t s ) =  t 1 / 2
1/ 2

t
Определение: пусть  n ,  :T    R случайные процессы. Говорят, что  n сходится
по вероятности к  на интервале T, если lim P  n      0 в каждый фиксированный моn
мент времени t.
Определение: пусть  n ,  :T    R случайные процессы. Говорят, что  n сходится к
 почти наверное (п.в.), если P lim  n    1 в каждый фиксированный момент времени t.

n 

Определение: пусть  n ,  :T    R случайные процессы. Говорят, что  n сходится к




 в среднеквадратичном в т. t=t0 , если lim E   n    0 при условии E  2n t 0    .
n
2
Определение (см., например, [6,13,15]): пусть  n ,  :T    R случайные процессы.
Говорят, что  n сходится к  по распределению в т. t=t0 , если lim E  n  E  , при условии


n 
E  t 0    .
Можно показать (см. [19]), что выполнены следующие соотношения между данными
определениями:
сходимость п.в.  сходимость в среднеквадратичном  сходимость по вероятности 
сходимость по распределению.
В теории курса наиболее важным является сходимость в среднеквадратичном, поэтому
остановимся на ней более подробно. Докажем справедливость утверждения следующей леммы.
Лемма 1.2.1: пусть  n   в т. t=t0 в среднеквадратичном. Тогда  n   по вероятности в этой точке.
2
n
Доказательство: Так как последовательность  n   в среднеквадратичном, то
1
1
2
2
   0  N () n  N () E  n     , или, что т.ж. самое, 2 E  n     . Пользуясь не

1
равенством Чебышева 2 E x 2  P x   при x   n   , получаем:

1 1
2
 2 E  n     P n    ,
 
причем оно справедливо для любого >0. Пусть 1=-1. Тогда 1  0 N (1 ) (тот же номер,




 


что и выше), что n  N () P n     1 . Последнее означает, что  n   по вероятности
в т. t=t0, ч.т.д.
Определение: пусть  :T    R случайный процесс. Говорят, что t ,  непрерывен
в т. t=t0 в среднеквадратичном, если


   0    0 t T , t  t0  
следует, что
E t   t0    .
Определение: ковариационной функцией случайного процесса  :T    R называется
функция At1 , t2   Et1 t2  .
Ковариационная функция играет исключительно важную роль при определении случайных процессов. Ее важность определяется следующими теоремами.
Теорема 1.2.1: пусть E t1 t 0   0 . Пусть случайный процесс t  непрерывен в т.
t=t0. Тогда ковариационная функция At1 ,t 2  непрерывна в точке t 0 ,t 0  .
Доказательство: по условию, t ,  непрерывен в т. t=t0 в среднеквадратичном, т.е.
2


   0    0 t1 , t 2 T , t1  t0  , следует, что E t1   t0    . Кроме того, справедливо неравенство:
2
E 2 t1   E 2 t0   Et1   t0    ,
так как E t1 t 0   0 , ч.т.д.
Определение: пусть  :T    R случайный процесс. Говорят, что t ,  дифференцируем в среднеквадратичном в т. t=t0, если существует случайный процесс t ,  , что
  t 0  h   t 0 

lim E 
 t 0   0 .
h 0
h


Процесс t ,  принято обозначать как t ,  и называть производной функции
t ,  в среднеквадратичном. Предыдущее определение можно записать в виде:
2
   t 0  h   t 0  2 

lim  E 
   t , 
h 0 
h




Теорема 1.2.2: процесс t ,  дифференцируем в т. t=t0 в среднеквадратичном  ко-
 2 A t1 , t 2 
гда в т. t=t0 существуют непрерывная обобщенная смешанная производная
и не t1  t 2
dE  
прерывная производная
.
dt
d
E   .
Теорема 1.2.3: пусть существует функция t ,  . Тогда E t ,  
dt
Доказательство:
t  h   t 

E t ,  

h


справедливость
утверждения
следует
из
неравенства
2

t  h   t   


E  t ,  
  . Выражение, стоящее справа, стреh

 


мится к квадратному корню производной t ,  при h  0 . Возводя обе части неравенства
в квадрат, беря математическое ожидание и переходя к пределу, получаем, что
2
 
 2
t  h   t  
t  h   t    

0  lim E  E t ,  
E E  t ,  
   0.
   lim
h
h
h 0
  
  h0  
 
d
E    , справа – E t,  , ч.т.д.
Выражение слева есть
dt
 2 A t1 , t 2 
.
 t1  t 2
Тогда случайный процесс t ,  дифференцируем на T и справедливы следующие равенства:
Теорема 1.2.4: пусть в каждый момент времени существует производная
def
def
def
 2 A t1 , t 2 
A
 E 1  2 , 2)
 E 1 2   A t1 , t 2  ,    , 1  t1 ,  2  t 2  .
 t1
 t1  t 2
Доказательство: действительно,
At1  h, t 2   At1 , t 2 
A
 t  h  1 
 lim
 lim E  2 1
  E 1  2  .
h0
 t1 h0
h
h


Кроме того,
 2 A t1 , t 2     A t1 , t 2   



E 2 1   E 1 2  , причем в последнем равенстве знак мате t1  t 2
 t1   t 2   t1
матического ожидания и производной можно поменять в соответствии с теоремой 3, ч.т.д.
Определение: пусть t ,  – два случайных процесса. Он называется дифференцируемым потраекторно на T, если для каждого фиксированного элементарного события 0  
1)
функция t ,0  дифференцируема в среднеквадратичном. Потраекторную производную
принято обозначать как  t .
Соотношение между потраекторной производной  t  и производной в среднеквадратичном t ,  дает следующая теорема:
Теорема 1.2.5: пусть  t  – потраекторная производная и t ,  – производная в среднеквадратичном случайного процесса t ,  . Тогда P  , t ,    t ,   1, т.е. производные эквивалентны друг другу по вероятности.
Доказательство: допустим противное. Пусть 0   , что t , 0    t , 0  в любой
   t  h, 0   t , 0  2  def
 
момент времени. По определению, t , 0   lim  E 
   t , 0  . Проh0 
h
 
 
тиворечие доказывает теорему.
Замечание: теоремы 3, 4 устанавливают основные характеристики случайного процесса t ,  . Так, математическое ожидание перестановочно со знаком производной. Кроме
 2 A t1 , t 2 
ковариа t1  t 2
ционной функции At1 ,t 2  процесса t ,  . Теорема 1.2.5 устанавливает эквивалентность
между производными. Пользуясь теоремой, можно брать производные как по времени, так и
по элементарным событиям. И эти операции будут эквивалентными.
того, ковариационная функция для t ,  есть смешанная производная
1.3. ВИНЕРОВСКИЙ ПРОЦЕСС
Винеровский процесс является наиболее простым и изученным среди случайных процессов. Его широкие применения в экономической теории, в теории фракталов, в финансовой математике обусловливают повышенный теоретический интерес к его свойствам. В основе винеровского процесса лежат так называемые марковские процессы, когда вероятность
занять системой определенное местоположение в заданном диапазоне в будущий момент
времени однозначно определяется только текущими ее координатами и не зависит от прошлых состояний. В соответствии с этим допущением можно получить следующее определение:
Определение: винеровским процессом W t ,  называют случайный процесс, для которого выполнены следующие аксиомы:
1) для
любого
разбиения
временного
интервала
[0,T]
точками
0  t0  t1  t 2 ...  t n1  t n  T приращения W t1   W t0 , W t 2   W t1 , W t3   W t 2 , ...,
W t n   W t n1  независимы;
2) пусть t1 , t 2 T , t1  t 2 . Тогда случайная величина W t 2   W t1  распределена нормально с нулевым средним и дисперсией t 2  t1 ;
3) реализации W t ,0  непрерывны по t на T.
Для того чтобы оперировать с винеровским процессом, требуется знание начальных и
центральных моментов нормальных случайных величин.
Пусть имеется случайная величина  ~ N a,  2 . Найдем для нее начальные моменты


 k  Ex  и центральные моменты  k  E x  a  . Имеем:
1  Ex  a  Ex  Ea  a  a  0 .
Далее
проинтегрируем
по
частям

 1
 x  a 2  
k
 dx :
 k  E x  a    
exp  
2

 2
2




k
k
выражение
для
 x  a 2 

 x  a k
u  exp  
 x  a 2  
1
2 

 dx 
2

k   
exp  
.

  k  2 2
2 


2




2


k

1
 


dv  x  a k dx

Выражая  k  2 и сдвигая индекс, окончательно имеем:
 k  k  1 2  k 2 ,
(8)
где  2   2 – дисперсия, k  2 , 1  0 .
По аналогии выводится формула для начальных моментов:
 k  k  1 2  k 2 ,
(9)
где  2   – дисперсия, k  2 , 1  некоторое число.
Теорема 1.3.1: пусть [a, b]  T – некоторый интервал, пусть a  t 0  t1  ...  t n  b – некоторое разбиение, пусть   max ti 1  ti  . Тогда
2
i 0 , n
2
 n1

2
lim E  Wi 1  Wi   b  a    0 ,
 0
 i 0

где Wi  W ti  – винеровский процесс в точках разбиения интервала.
n 1
Доказательство: найдем математическое ожидание выражения
 W
i 0
i 1
 Wi  :
2
n 1
 n1
 n1
2
2
E  Wi 1  Wi     E Wi 1  Wi     D Wi 1  Wi   (по аксиоме 2) винеровского процес i 0
  i 0
 i 0
n 1
са) =  t i 1  t i   t n  t 0  b  a .
i 0
Теперь определим дисперсию
n 1
 W
i 0

2
D  Wi 1  Wi    (по
 i 0

n 1
n 1
 E W
i 1
i 0
n 1
аксиоме
i 0
винеровского
процесса)
=
n 1
 D W
i 1
i 0

 Wi   E Wi 1  Wi 
4
1)
 Wi  :
2
i 1
 Wi  
2
.
2 2
Так как в выражении для дисперсии записаны четвертый и второй начальные моменты
нормальной случайной величины (ибо приращения винеровского процесса нормальны), то
для продолжения доказательства воспользуемся формулой (9).
n 1
n 1
n 1
n 1
 n1
4
2 2
2
2
2
2
D  Wi 1  Wi     E Wi 1  Wi   E Wi 1  Wi    3 t i !  t i   t i !  t i    2 t i !  ti  
i 0
i 0
i 0
 i 0
 i 0




n 1
   t i 1  t i   b  a   0 при   0 .
i 0
Так как математическое ожидание для
n 1
 W
i 0
i 1
 Wi  равно b  a  , то по определению дис2
персии имеем:
2
 n1

 n1
2
2 
E  Wi 1  Wi   b  a    D  Wi 1  Wi     b  a   0 при   0 , ч.т.д.
 i 0

 i 0

Замечание: определение винеровского процесс справедливо с точностью до произвольной случайной величины , которая играет роль константы. Для доказательства рассмотрим
~ t,   W t,    и докажем, что он винеровский, если W t ,  – винеровский
процесс W
процесс.
~ t   W
~ t , W
~ t   W
~ t , W
~ t   W
~ t , ..., W
~ t   W
~ t  независимы, так
1) приращения W
1
0
2
1
3
2
n
n 1
они равны приращениям W t1   W t0 , W t 2   W t1 , W t3   W t 2 , ..., W t n   W t n1  ;
~ t   W
~ t  распределена нормально с нулевым средним и диспер2) случайная величина W
2
1
~
~
сией t 2  t1 , так как W t 2   W t1   W t 2   W t1  ;
~ t ,   непрерывны по t на T в силу непрерывности   .
3) реализации W
W t, 
0
В дальнейшем, чтобы зафиксировать конкретный винеровский процесс, будем фиксировать начало этого процесса – точку W0  W t0 ,  .
Теорема 1.3.2: винеровский процесс не дифференцируем в среднеквадратичном в любой момент времени T.
Доказательство: рассмотрим левую и правую производные в точке (t,). Имеем:
1
W t  h   W t  
2
lim E
 (так как h2 – число)= lim 2 E W t  h   W t   (так как прираще
h


0
h0 
h
h


1
ния винеровского процесса распределены нормально)= lim 2 t  h  t    . По аналогии,
h0 h
2
W t  h   W t  
предел слева равен lim E 
   . Значит, производной в т. t не существует,
h0
h

ч.т.д.
Заметим, что если в аксиоме 2) винеровского процесса положить t1  0, t 2  t , то
2
W t   W 0 ~ N 0, t  . Если условиться, что W 0  W0  0 , то W t  ~ N 0, t  . Пользуясь этим
свойством, вычислим ковариационную функцию At1 ,t 2  .
Теорема 1.3.3 (о ковариационной функции винеровского процесса): пусть начальная
точка винеровского процесса W0  0 . Тогда  t1 , t2  0 ковариационная функция винеровского процесса равна At1 , t2   min t1 , t2 .
Доказательство: Пусть t1  t 2 . Тогда
At1 , t 2   E W1 W2   E W1 W2  W22  W22   E W1 W2  W22   E W22   E W2 W1  W2   E W2  0 
def
2
 EW2  W0 W1  W2   EW2  W0   (так как приращения винеровского процесса независимы) = E W2  W0  E W1  W2   DW2  W0   0  0  t 2 .
1) Пусть t1  t 2 . Тогда
2
def

 
  
At1 , t 2   E W1 W2   E W1 W2  W12  W12  E W1 W2  W12  E W12  E W1 W2  W1   E W1  0 
2
 EW1  W0 W2  W1   EW1  W0   (так как приращения винеровского процесса независимы) = E W1  W0  E W2  W1   DW1  W0   0  0  t1 .
Объединяя вместе два этих случая, получаем, что At1 , t2   min t1 , t2 , ч.т.д.
2
1.4. ИНТЕГРАЛ ИТО. СВОЙСТВА. ФОРМУЛА ИТО
Применим теорию, развитую для винеровского процесса W t  , чтобы определить интеграл Ито. Для этого рассмотрим некоторую функцию f :T     . Фиксируя интервал
[ a, b] по времени, разобьем его точками a  t0  t1  t 2 ...  t n1  t n  b на непересекающиеся
интервалы, ti  a  i  h , i  0, n, h  b  a  n 1 . На каждом интервале [t i 1 , t i ] , i  1, n, выберем
промежуточную точку  i и зададим последовательность частичных сумм
n
S n   f  i   Wi ,
(10)
i 1
где Wi  Wi  Wi 1 – приращение винеровского процесса.
В качестве  i выберем точку ti 1 , т.е. левую границу интервала [t i 1 , ti ] . Определим интеграл Ито как среднеквадратичный предел:
b

где   max ti  ti 1  .
a
2
 n

f dW  lim E   f ti 1  Wi  ,
 0
 i 1

i 1, n
Определение интеграла существенным образом зависит от выбора промежуточных точек  i . Так, если выбрать в качестве  i левый конец интервала [t i 1 , ti ] , т.е. i  ti 1 , то полуt t 
чается определение интеграла Ито. Если положим  i   i 1 i  , то (10) определяет интеграл
 2 
Стратоновича. Наконец, при i  ti задается интеграл Климонтовича. Стоит отметить, что
свойства этих интегралов отличаются кардинальным образом, так как между ними нет единого соответствия.
Примеры:
 n

 n

2

  (так как приращения винеровскоdW

lim
E

W

lim
E

W

2

W

W





i
i
i
j
0


 0
i j
 i 1
 0  i 1

2
1
1)
 E W  2 lim  E W  E W    t
n
го процесса независимы)  lim
n
2
 0
i
i 1
 0
i
i j
j
i 1
i
 ti 1   t n  t 0  1 .
2) пусть f :T   – некоторая детерминированная неупреждающая функция, т.е. функция,
значения которой независимы с приращениями винеровского процесса для любого времени t.
Это означает, что E  f i Wi   E f i  E Wi . Тогда
n
 n 2

 n

2


f
dW

lim
E
f

W

lim
E
f

W

2
f
f

W

W

lim
E f i 21Wi 2 .





i 1
i
i 1 j 1
i
j
a
  i 1 i
 0
 0
 0
i j
i 1
 i 1

 i 1

По условию известно, что функция f :T   детерминирована, т.е. не зависит от случайных величин. В фиксированный момент она будет равна некоторой константе, которую
можно вынести за знак математического ожидания. Поэтому
2
b

n
lim
0


n
 E f i21Wi 2  lim
i 1


0
 f i21  ti   f 2 dt .
0
i 1
def b
n
 f i21 E Wi 2  lim

i 1
a
2
n
 n

S

Wi 1  Wi . Дополним это выражение
W
dW

lim
E
W

W
.
Обозначим
через




n
i 1
i
a
 0
i 1
 i 1

до полного квадрата:
n
2
1 n
1 n
S n  Wi 1  Wi   Wi 21   Wi 2  2Wi 1 Wi   Wi 2  Wi 21    Wi 1   Wi    Wi 2  Wi 21 .
2 i 1
2 i 1
i 1
b
3)
Рассмотрим более подробно сумму
 W
n
i 1
i 1
  Wi

2
 W
n
i 1

i 1
  Wi

2
 Wi 21

. Имеем:

 Wi 21  W0  W1  W0   W02  W1  W2  W1   W12  ...  Wn1  Wn1  Wn1   Wn21 
2
2
2
 Wn2  W02 .
Поэтому
1 2
1 n

Wn  W02     Wi 2 .
2
2 i 1
1
1
Среднеквадратичный предел для Wn2  W02  равен Wn2  W02  . Найдем среднеквад2
2
Sn 
ратичный предел для
n
 W
i 1
i
2
. Согласно теореме 1 п.1.3 этот предел равен
2
 n1
2
lim E  Wi 1  Wi    b  a  .
 0
 i 0

Собирая все части, окончательно получаем, что
b
b
1
1
1
1 b
E S n2  Wn2  W02  b  a   W 2  t a .
a W dW  lim
a
0
2
2
2
2
1 b
Замечание: добавок  t a в интеграле Ито возникает из-за стохастичности подынте2
гральной функции. Если функция детерминирована (см. пример 2 п.1.4), то этот добавок отсутствует.
 


1.4.1.СВОЙСТВА ИНТЕГРАЛА ИТО
Определение: функция f :T     называется неупреждающей, если  t , s  T , t  s
E  f t W s   W t   E  f t  EW s   W t  .
1) Пусть f :T     – неупреждающая непрерывная функция, T  [a, b] , причем на ин-
    . Тогда интеграл Ито  f t,  dW
b
тервале T E f
существует.
2
a
Доказательство: докажем, что существует предел в среднеквадратичном. Действительно,
2
b
n
 n 2

 n

2


f
dW

lim
E
f

W

lim
E
f

W

2
f
f

W

W

lim
E f i 21Wi 2 





i 1
i
i 1 j 1
i
j
a
  i 1 i
 0
 0
 0
i j
i 1
 i 1

 i 1



 E f  t   E f dt.
b
n
 lim
0
i 1
2
i 1
2
i
a
Последний интеграл – интеграл Римана от непрерывной ограниченной функции, который будет всегда существовать, ч.т.д.
2) Пусть f :[a, b]     – неупреждающая непрерывная функция и пусть на [a, b] выполнено неравенство E f 2   . Тогда существует c  [ a, b] , что
 
b

c
b
a
c
f dW   f dW   f dW .
a
Доказательство: рассмотрим такое разбиение интервала [a,b], чтобы точка разбиения
b
попадала в точку c: a  t0  t1  t 2 ... t s  c  t s 1  ... t n1  t n  b . Так как

f dW существу-
a
2
 n

ет, то существует предел lim E   f ti 1  Wi  в среднеквадратичном. Тогда справедливо
 0
 i 1

равенство:
2
2
2
 n

 s

 n

lim E  f ti 1  Wi   lim E  f ti 1  Wi   lim E  f ti 1  Wi  ,
0
0
 i 1

 i 1
 0  i s 1

b
или

c
b
a
c
f dW   f dW   f dW , ч.т.д.
a
b
f , g :[a, b]    
3) Пусть
–
неупреждающие
функции.
Пусть
 c f  g dW ,
a
b

a
b
f dW ,  g dW существуют. Тогда
a
b
b
 c f  g dW  c 
2
a
a
b
f dW   g dW .
a
b
Доказательство: так как
 c f  g dW
существует, то существует предел в средне-
a
квадратичном и так как подынтегральные функции являются неупреждающими, то
2
n
 n

 2 n 2

2




c
f

g
dW

lim
E
c
f

g

W

lim
E
c
f

W

g i21Wi 2  






i 1
i 1
i
i 1
i
a
 0
i 1
 i 1
 0  i 1



 n

 n

 lim E  2  c f i 1  g i 1 c f j 1  g j 1 Wi W j   c 2 lim E   f i 21Wi 2   lim E   g i21Wi 2  .
 0
0
 i 1
 0  i 1

 i j

В силу справедливости равенства (аналогичное равенство выполнено и для функции g)
b

 n

 n

E   f i 21Wi 2   E   f i 1Wi   2 E   f i 1 f j 1Wi W j
 i 1

 i 1

 i j
2

 n

  E   f i 1Wi  , получаем, что

 i 1


2
 n

 n

c lim E   f i 21Wi 2   lim E   g i21Wi 2   c 2  f dW   g dW , ч.т.д.
 0
 i 1
 0  i 1

a
a
4) Пусть f – непрерывная функция на замкнутом и ограниченном интервале T   (т.е. T –
b
b
2
t
компакт). Тогда функционал

f dW непрерывен как функция переменного верхнего
0
предела.
Доказательство:
по
определению
необходимо
доказать,
что
2


   0    0 t1 T , t1  t 2   следует, что E   f dW   f dW    . Предположим для
0
 0

определенности, что t1  t 2 . По теореме Кантора на компакте непрерывная функция достигает максимума max f t  . Тогда
t1
t2
tT
2
t2
t2
t 2



 t1


E   f dW   f dW   (по свойству 1) = E   f dW   E max f t   dW  
 tT


 t1

0
t1
 0



1
2
2
2
2
max f t  .
 E max f t t 2  t1   max f t  t 2  t1   max f t   2   , где  
t

T
tT
tT
tT
2
Аналогично доказывается случай t 2  t1 , ч.т.д.
5) О математическом ожидании интеграла Ито: пусть f :[a, b]     – неупреждающая
2
 






b

функция и существует интеграл  f dW   . Тогда E   f dW   0 .
a

a
2

b

 n
 

Доказательство: по определению, E   f dW   E lim E   f i 1 Wi  . По условию
 0  i 1
 
a


теоремы, интеграл Ито существует, т.е. существует предел в среднеквадратичном
b
2
 n

lim E   f i 1 Wi  . Как известно (см. п. 1.2), из сходимости в среднеквадратичном следует
 0
 i 1

сходимость по распределению, т.е. внешнее математическое ожидание можно внести под
знак предела и под знак степени:
2
2
2

  n
 n
 

 n


E lim E   f i 1 Wi   lim E  E   f i 1 Wi    lim E   E  f i 1 Wi  .
 0  i 1
  0   i 1
  0  i 1


Пользуясь тем, что f :T     – неупреждающая функция, окончательно имеем:
2
2
 n

 n

lim E  E  f i 1 Wi   lim E  Ef i 1 E Wi   0 ,
 0
 0
 i 1

 i 1

что и требовалось доказать.
6) Пусть f :T     – некоторая непрерывная неупреждающая функция и пусть на
T  [a, b] выполнено неравенство E  f 2    . Тогда
b

a
b
f dW   f dt ,
2
a
или в более короткой эквивалентной форме
dW 2  dt
 f dW

b
Доказательство: по условию теоремы, докажем, что
2
 dt  0 , или, по опреде-
a
2
 n

лению, что lim E  f i 1 Wi 2   ti   0 . Имеем:
0
 i 1

2
n
n


2


lim E   f i 1 Wi 2   ti   lim E   f i 21 Wi 2   ti   2  f i 1 f j 1 Wi 2   ti W j2   t j  
 0
i j
 i 1
 0  i 1

(так как f t ,  – неупреждающая функция) =
 n

2
(11)
lim   E f i 21 E Wi 2   ti  2  E f i 1 E f j 1 E Wi 2   ti W j2   t j .
0
i j
 i 1

Рассмотрим подробнее каждое из слагаемых. Воспользуемся тем, что в силу независимости приращений винеровского процесса DWi W j   D Wi  DW j  . Тогда

  




    
 
 

 


E Wi 2   ti W j2   t j  E Wi 2 W j2  E Wi 2  t j  E  ti W j2   ti  t j  DWi W j  




 E Wi  t j  E W  ti   ti  t j   ti  t j   ti  t j   ti  t j   ti  t j  0 . Далее,

2

2

2
j

E  Wi 2   t i  E  Wi 4  2 Wi 2  ti   ti2  (по 8) п. 1.3) = 3  ti2  2  ti2   ti2  2  ti2 . Поэтому
в (11) имеем:
n
 n

2
lim   E f i 21 E Wi 2   ti  2  E f i 1 E f j 1 E Wi 2   ti W j2   t j   2 lim  E f i 21  ti2 
0
0
i j
i 1
 i 1

n


 lim    E  f i 21  t i  .
 0
 i 1

  

    


 
 E f  dt существует и ограничен. Значит,
b
По условию теоремы интеграл по Риману
2
a
2
b
 n

 n

2
lim    E f i 21  ti    E f 2 dt lim   0 , т.е. lim E  f i 1 Wi   ti   0 , ч.т.д.
 0
 0
0
 i 1

 i 1
 a
2
Замечание: для сокращения записи пишут, что dW  dt . Однако эту запись нужно по-
 

 
 f dW
b
нимать только как равенство нулю интеграла
2


 dt .
a
 0, dW dt  0, dt   0, N  0 в смысле последнего замечания.
7) dW
Согласно свойствам 6), 7) можно говорить, что dW 2 имеет один порядок малости с dt
(все в интегральном смысле).
8) Интегрирование многочленов: обобщим свойства 6) – 7). Докажем, что
b
b
1
n
n
n1
n1




(12)
W
dW

W
b

W
a

W n1 dt .
a

n 1
2a
2N
N 1


Доказательство: рассмотрим производную по времени:
n
def

d
W  W   W n
n
W   lim
.
t 0
dt
t
Воспользуемся формулой бинома Ньютона. Тогда
W  W n W n  Cn1 W n1W  Cn2 W n2 W 2  ...  Cnn W n .
Следовательно, (13) преобразуется к виду:
(13)
lim
W  W n  W n
t
 t 0
C n1 W n1W  C n2 W n2 W 2  ...  C nn W n
.
 t 0
t
 lim
Применим свойства 6), 7). Тогда
 
W 2 N
W 2
 0,
 1 при  t  0 и поэтому
t
t
d W n  C n1 W n1dW  C n2 W n2 dt .
Интегрируя это выражение на промежутке [ a, b] , имеем:
 
b
b
n
n 1
 d W   n W dW 
a
a
или
b
W n   n W n1dW 
b
a
a
b
Выразим
W
n 1
b
dW :
W
a
a
b
nn  1
W n2 dt .

2 a
b
n  1 W n2 dt . Сдвигая индекс на единицу,
1
dW  W n 
n
2 a
a
b
n 1
nn  1
W n2 dt ,

2 a
b
окончательно получаем:

b

b
1
n
n1
n1
n 1
a W dW  n  1 W b  W a   2 a W dt ,
что и требовалось доказать.
Замечание: формула интегрирования многочленов является аналогом формулы интегрирования по частям. Кроме того, нетрудно заметить, что в (12) имеется добавок
b
n
  W n1 dt , возникающий только из–за стохастичности подынтегральной функции W n .
2a
n
1.4.2. ФОРМУЛА ИТО
Формула Ито является основной при интегрировании случайных процессов. Ее замечательные свойства позволяют получить основные уравнения и краевые задачи, являющие
следствием соответствующих математических моделей. Рассматривая свойства интеграла,
мы вплотную подошли к ее формулировке.
Теорема 1.4.1 (одномерная формула Ито): пусть f t ,W  – некоторый случайный процесс. Тогда
  f 1 2 f 
f
 dt 
(14)
df t ,W   

dW ,
2 
W
  t 2 W 
или в интегральной форме
b
b
  f 1 2 f 
f
b

(15)
f a   

dt

dW .
2 

 t 2 W 
W
a
a
Доказательство: рассмотрим функцию f t ,W  как функцию двух переменных и применим к ней разложение в ряд Тейлора в окрестности точек разбиения
a  t0  t1  t 2 ...  t n1  t n  b :
f
f
1 2 f
2 f
1 2 f 2
2
 fi 
 ti 
Wi 
Wi 
Wi ti 
ti  o ti2 , Wi 2 , i  1, n 1.
2
2
t
W
2 W
 t W
2 t
Суммируя по i  1, n  1 и устремляя   max ti  ti 1  к нулю, имеем:


i 1, n
f
f
1 2 f
dt 
dW  
dt .
2

t

W
2

W
a
a
a
b
fn  f0  
b
b
(16)
Заметим, что при этом мы воспользовались свойствами 6) и 7):
N 1
dW  d t , dW 2N  0, dW dt  0, dt   0, N  0 .
Таким образом, выражение (16) совпадает с (15). Вспоминая о принятых обозначениях,
получаем (14), ч.т.д.
По аналогии с теоремой 1.4.1 можно доказать справедливость двумерной формулы
Ито:
Теорема 1.4.2 (двумерная формула Ито): пусть f t,W1 ,W2  – некоторый двумерный
случайный процесс. Тогда
f
f
f
1 2 f
1 2 f
2 f
df t ,W  
dt 
dW1 
dW2 
dt 
dt 
 dt ,
t
 W1
 W2
2  W12
2  W22
 W1  W2
где   corr dW1 ,dW2  – взаимная корреляция между двумя независимыми винеровскими
процессами.
Приведем примеры на применение формулы Ито.
Примеры:
1) Рассмотрим процесс поведения на финансовых рынках, который был введен в п. 1.1.
Дифференциальное уравнение (7) определяет стоимость некоторого актива, подвергающегося случайному взаимодействию с внешним миром:
d S  S d t   S dW  S  d t   dW  .
Введем новую переменную F  ln S . Тогда согласно (14) имеем (зависимость от времени отсутствует):
dF
1 d 2F
1
1
dF 
dS
d S 2  dS  2 dS 2 .
2
dS
2dS
S
2S
2
Используем (7). Тогда dS 2  S d t   S dW    2 S 2 dt 2   2 S 2 dW 2  2  S 2 d t dW 
(по свойствам 6), 7) интеграла Ито) =  2 S 2 dt . Окончательно,
1
1
1 

(17)
dF  S d t   S dW   2  2 S 2 dt      2  dt   dW .
S
2 
2S

Заметим, что такая замена переменного помогает в нахождении решения (7). Действительно, используя формулу Ито и свойство 3) интеграла Ито (п. 1.4.1) имеем:
t
t
t
dS
2
(18)
0 S   0 d t   0 dW .
Вся сложность нахождения решения уравнения (7) заключается в определении стохаt
dS
стического интеграла 
, так как остальные интегралы вычисляются достаточно просто.
S
0
2
t
Действительно,   d t является обычным Римановым интегралом и равен  t , величину вто0
t
рого можно посчитать согласно (12):  2  dW   2 W t   W 0 . Пусть для определенности
0
t
W 0  0 . Тогда  2  dW   2 W t .
0
t
Вычислим
откуда
dS
по формуле Ито. Для этого используем (17):
S
0
dS 1 2
d ln S  
  dt ,
S 2

dS
1
 d ln S    2 dt .
S
2
t
t
t
dS
1
1
t
Поэтому 
  d ln S    2  dt  ln S 0   2t . Подставляя все члены в (18), окончаS
2 0
2
0
0
тельно получим:
1
t
ln S 0   2 t   t   2 W .
2
Полагая, что в начальный момент времени случайная величина S t ,  имела распределение S 0,   S 0 , находим решение S t ,  :


1 
(19)
S  S 0 exp      2  t   2 W  .
2 


Полученное решение имеет интересные свойства:

1 
1  

a) если     2   0 , то exp      2  t  с ростом времени неограниченно возрастает и
2 
2  


S t ,  стремится к бесконечности. Это означает, что стоимость товара стремится к бесt
конечности. Кроме того, прибыль за время t, которая может быть найдена как
dS
, по
S
0

(19) так же неограниченно возрастает;
1 

b) если     2   0 , то с ростом времени стоимость товара и прибыль от него бесконечно
2 

мала;
1 

c) если     2   0 , то имеет место неравновесное состояние рынка, когда с течением
2 

времени S t ,  будет флуктуировать от нуля до бесконечности.
2) Процесс Орнштейна – Уленбека.
Пусть S t ,  – скорость частицы массой m, находящейся в подвижной среде и движущейся под воздействием множественных случайных взаимодействий частиц друг с другом.
Пусть при этом имеется трение вида  S t ,  . Тогда S t ,  удовлетворяет уравнению Ланжевена:
d S  m S d t   dW   S d t   dW ,
(20)
где   m .
Уравнению (20) можно дать и экономическую формулировку: пусть S t ,  – скорость
продажи или покупки некоторого актива стоимостью m, причем плата за ведение торговых
операций равна  S t ,  . Тогда S t ,  удовлетворяет (20).
Стохастическое уравнение (20) принято называть уравнением Орнштейна – Уленбека.
Оно существенно нелинейно и разделить переменные, как это было проделано в примере 1),
не удается.
Для нахождения решения умножим (20) на интегрирующий множитель. В самом общем
случае вид множителя будет зависеть от типа решаемого уравнения. К сожалению, общего
алгоритма для определения этого множителя не существует.
Умножим (20) на функцию exp   t  :
e   t d S  e   t  S d t  e   t  dW .
(21)
t
Пользуясь формулой Ито, сделаем замену переменного F  e S в (21):
1
d e   t S     e   t S dt  e   t dS   0  dS 2 .
(22)
2
Заметим, что в (21) e   t d S  e   t  S d t  e   t  dW . В соответствии с (22) имеем:
d e   t S  e   t dS   e   t S dt  e   t  dW ,
или, отбрасывая промежуточное соотношение,
d e   t S  e   t  dW .
Данная форма записи является более удобной. Она позволяет проинтегрировать (21) и
найти его решение напрямую. После интегрирования по промежутку [0, t ] , имеем:



 d e
t
t


t
S   e   t  dW .
0
0
Вследствие неизвестной функциональной природе параметров ,  (они могут быть
t
произвольными функциями) вычислить
e
t
 dW в общем случае не представляется воз-
0
t


можным. Тем не менее,  d e   t S легко вычисляется:
0
 d e
t
t

S  e   t S  e   t S  S 0  ,
t
0
0
где S 0 – некоторое начальное распределение случайного процесса S t ,  . Предположим, что
это распределение нормально. Тогда
t
S  S 0    e  t s dW s 
(23)
0
так же будет нормальным с некоторыми параметрами.
Данная формула определяет вид решения уравнения (20). Остается найти параметры
нормального распределения. Предположим, что S t ,  является неупреждающей функцией.
Тогда согласно (23) имеем:
t

a) E S   E S 0   E    e  t  s dW s   (по свойству 5 интеграла Ито, см. 1.4.1) = E S 0  .
0

b) DS   E S  E S   (по свойству 5 интеграла Ито, см. 1.4.1. Кроме того, пользуемся тем,
2
 t  t  s 

dW s   0 ) =
что S 0 неупреждающая функция, S 0 не зависит от dW , т.е. E  S 0   e
 0

2
2
t


t

2
 E  S 0    e  t s dW s   E S 0   E S 0  E S 0   E    e  t s dW s   DS 0  
0


0

t


 D   e  t  s dW s  .
0

Замечание: техника решения уравнения Ланжевена, продемонстрированная в примере
2), может быть обобщена. Рассмотрим нелинейное дифференциальное уравнение вида
dS  f t , S d t  c(t ) S dW , S t 0  S0 ,
где f t , S , c(t ) – некоторые непрерывные функции, вид которых известен. В этом случае
имеет место следующий алгоритм:
t
 t
1 2 

a) Вводим интегрирующий множитель F  exp    c dW   c dt  . Умножая на него исход20
 0

ное уравнение, получаем:
F dS  F f d t  FcS dW .
(24)
b) Найдем d FS  по формуле Ито и формуле интегрирования по частям
d FS   F dS  S dF  dF dS .
По формуле Ито имеем:

t
  t
1 2 
dF  exp    c dW   c dt   F c 2 dt  c dW .
20

  0
Поэтому d FS   F dS  cSF dW . Сравнивая это выражение с (24), получаем, что
(25)
d F S   F f d t .
c) Введем новую переменную Z t ,   F t , S t,  . Тогда уравнение (25) запишется в виде
 Z
d Z  F f  t,  d t ,
(26)
 F
с начальным условием Z 0,   F 0, S 0,   (так как S t 0  S0 ) = 1 S 0  S 0 .
d) Полагая элементарные события фиксированными параметрами, решаем (26) как обычное
дифференциальное уравнение первого порядка. Найдя Z t ,   F t , S t,  , переходим к
Z t , 
искомой функции S t ,  
.
F t , 
Замечание: этот подход применяется при решении класса дифференциальных уравнений
dS  S  d t   S dW , S t 0  S0 ,


,  – некоторые константы.
2. МАТЕМАТИЧЕСКИЕ МОДЕЛИ
ФИНАНСОВОЙ МАТЕМАТИКИ
Примеры решения стохастических дифференциальных уравнений, представленные в п.
1.4.2 (особенно способ нахождения решения уравнения Ланжевена) не являются универсальными и не могут быть применены для абсолютно произвольного дифференциального уравнения. Тем не менее, в общем случае отыскать решение возможно, если перейти от стохастических к соответствующим уравнениям в частных производных. Для последних имеется
развитая теория и существует большое число методов решения (например, метод разделения
переменных Фурье).
2.1. УРАВНЕНИЕ ФОККЕРА –ПЛАНКА –КОЛМОГОРОВА
Первое уравнение, которое будет рассмотрено ниже, называется уравнением Фоккера –
Планка – Колмогорова. Оно является одним из основных в теории случайных процессов.
Оно будет получено из так называемого диффузионного приближения (броуновского движения), что является частным случаем общей теории марковских процессов.
Броуновское движение было открыто в 1827 году английским ботаником Робертом
Броуном. Он заинтересовался стохастическим движением пыльцы, которое наблюдал при
помощи микроскопа. Пытаясь найти ответ на вопрос «а не является ли подобное движение
проявлением жизни пыльцы?», он провел ряд экспериментов и выяснил, что такое движение
присуще и пыли, и взвести краски.
Дальнейшее развитие теория броуновского движения получила в работах А. Энштейна
в 1905 г., в которых было дано его математически строгое описание и обоснование.
Определение: броуновским движением называется движение частиц, причем движение
каждой частицы в отдельности не зависит от движения других частиц. Кроме того, движения
этой частицы в разные временные интервалы считаются независимыми до тех пор, пока временные интервалы движения не слишком малы (т.е. бесконечно малые интервалы по времени отбрасываются).
Энштейн показал, что движение броуновской частицы вызывается частыми соударениями с окружающими ее частицами. Полагая нерегулярность таких взаимодействий, а так же
допуская статистически независимые удары, приходим к выводу, что поведение частицы
может быть описано только вероятностным законом. Найдем этот закон распределения вероятности. Для этого обозначим через Pt , x1 , t1 , x вероятность перехода частицы с координатами x1 в момент времени t в точку с координатами x в момент времени t1 , t1  t . Допустим,
что переходы частицы совершаются в моменты времени t 0  t s0  t s2 ...  t sk  t  t1  t sk 1  ...t sn .
Пусть вероятность перехода из состояния x1 в состояние x не зависит от t s0 , t s1 , ..., t sn , а зависит только от t1 , t . Так как движения в разные временные интервалы независимы, то суммируя по ним, получаем, что вероятность перехода частицы из точки x0 в момент времени t 0 в
область состояний от точки x до точки x   x к моменту времени t1 есть
(1)
Pt 0 , x0 , t1 , x   x ,
потому что вероятность перейти в каждую точку интервала постоянна и равна Pt0 , x0 , t1 , x  .
Покажем, что справедливо равенство вида:
Pt 0 , x0 , t1 , x    Pt 0 , x0 , t , z  Pt , z , t1 , x  dz .
(2)
Действительно, вероятность перехода из точки x0 в промежуток [ z, z   z ] к моменту t
равна (по (1)) Pt , z, t1 , x  x . Учитывая, что  x имеет один порядок малости с  z , получаем, что переход из z в x ко времени t1 будет осуществлен с вероятностью Pt , z, t1 , x  z . В
силу взаимной независимости переходов из x0 в z и из z в x получаем, что вероятность
перехода из x0 в x равна произведению вероятностей перехода:
(3)
Pt 0 , x0 , t1 , x  Pt 0 , x0 , t , z Pt , z, t1 , x z .
Пусть z 0  z1 ...  z n – некоторые промежуточные состояния между z и z   z . Так как
(3) выполнено для всех zi , i  0, n , то
n
Pt 0 , x0 , t1 , x    Pt 0 , x0 , t1 , zi Pt1 , zi , t , x  zi .
i 1
Переходя к пределу при   max zi  zi 1  стремящемся к нулю, получаем, что
i 1, n
Pt 0 , x0 , t1 , x    Pt 0 , x0 , t , z  Pt , z , t1 , x  dz ,
что и требовалось доказать.
Уравнение (2) называют уравнением Чепмена – Колмогорова. Это нелинейное функциональное уравнение связывает все вероятности перехода друг с другом. Вследствие своей
сложности и нелинейности оно редко решается в чистом виде. Однако оно часто применяется при выводе других уравнений, описывающих ту или иную систему частиц.
Используем (2) при выводе уравнения Фоккера – Планка – Колмогорова (УФПК). Умножим
обе части (2) на трижды непрерывно дифференцируемую функцию x  , удовлетворяющую
условию  xa   xb   xb   xa 0 . Затем интегрируем обе части полученного равенства по
x на [a, b]:
b
b
a
a


 x Pt0 , x0 , t1 , xdx   x  Pt0 , x0 , t, z  Pt, z, t1 , xdz dx .
Пусть интервал изменения переменной z есть интервал [a, b]. По теореме Фубини,
b
b
b



(4)
a x  Pt0 , x0 , t1 , x dx  a Pt0 , x0 , t , z   a x  Pt , z, t1 , x dx dz .

Разложим x  в ряд Тейлора до второго члена включительно в окрестности точки Z:
1
1
2
3
 x   z    z  x  z   z  x  z    x  z  ,   [ x, z ] .
2
6
Заметим, что последнее слагаемое является остаточным членом в форме Лагранжа.
1
3
Обозначим его через r2 x   x  z  . Тогда, подставляя выражение для x  в правую
6
часть (4), имеем:
b
b
b
b


a x  Pt0 , x0 , t1 , x dx  a Pt0 , x0 , t , z   z a Pt , z, t1 , x dx  a z x  z Pt , z, t1 , x dx 
b
b

1
2
  z  x  z  Pt , z , t1 , x  dx   r2  x  Pt , z , t1 , x  dx  dz .
2a
a

b
Так как Pt , z, t1 , x  – плотность распределения вероятности, то  Pt , z, t1 , x dx  1. Поa
этому
b
a x  Pt0 , x0 , t1 , x dx  a Pt0 , x0 , t , z z dz  a Pt0 , x0 , t , z   a z x  z Pt , z, t1 , x dx 
b
b
b
b
b

1
2
  z  x  z  Pt , z , t1 , x  dx   r2  x  Pt , z , t1 , x  dx  dz .
2a
a

(5)
E x  z 
E x  z 
 A x, t , lim
 2k11  x, t  , если они существуют.


0


2
Обозначим lim
0
Предположим, что вероятность больших отклонений за малое время стремится к нулю,
E r2 x 
0.
т.е. lim
 0

Деля (5) на , интегрируя полученное выражение по частям, учитывая, что
b
 Pt, z, t , xdx  1 , перейдем к пределу при
1
  0 . Тогда в силу условий на x, y  и в силу
a
сделанных обозначений получим:
  P   A P   2 k11 P  



x
a   t   x   x 2  dx  0

,
b
Так как x, y  – произвольная функция, то последнее равенство справедливо тогда и
только тогда, когда выражение, стоящее в квадратных скобках, равно нулю. Следовательно,
 P  2 k11 P   A P 


.
t
x
 x2
(6)
Уравнение вида (6) называют УФПК или уравнением Колмогорова вперед, т.к. его решение определяется через начальную вероятность Pt 0 , x0   p0 и вычисляется в будущие
моменты времени. Движение происходит вперед. Наряду с (6) можно рассмотреть уравнение
Колмогорова назад:
 P  2 k11 P   A P 


.
t
x
 x2
Если задаться вопросом о связи (6) с (7) из п. 1.1, то можно показать, что
Ax, t    x, k11 x, t    2 x 2 ,
где  – дрейф,  – волатильность.
Замечание (о применимости УФПК): при построении (6) был осуществлен предельный
переход в (5) при   0 . Если границы временного промежутка есть [0, T ] , то условие мало
сти параметра
является необходимым (но недостаточным) для возможности описывать
T
броуновское движение с помощью (6). Выполнение этого условия означает, что время между
случайными взаимодействиями между частицами пренебрежимо мало по сравнению с общим временем T жизни системы. Это так называемое диффузионное приближение.
Интересный случай возникает при вероятности перехода Pt, x, t1 , x1   x1  x . Очевидно, что это случай винеровского процесса. Тогда (6) не будет зависеть от координаты x:
P
 Z t , P0  0,
t
где Z t  – случайный процесс с математическим ожиданием нуль и ковариационной функцией At1 , t 2   2t 2  t1  .
2.1.1. ГРАНИЧНЫЕ УСЛОВИЯ УФПК
Перепишем (6) через поток вероятности, для чего выбелим производную по x:

 P   k11 P 
 
 A P  .
 t x   x

 k11 P 
 A P , получаем
Вводя обозначение I 
x
P I

 0.
(7)
 t x
Уравнение (7) имеет вид уравнения сохранения или уравнения неразрывности (см. подробнее [19]). В данном случае имеет место сохранение вероятности.
Справедлива следующая теорема:
Теорема 2.1 (о полном потоке вероятности):  I, n  ds задает полный поток вероятS  G
ности через поверхность S , являющуюся границей исходной области.
Граничные условия задаются обычно через вектор потока I . Существует три основных
вида граничных условий:
1) граничные условия первого рода: P  G   x, t  , x, t  – некоторая функция.
2) граничные условия второго рода:
P
 P, n   G  I  G   x, t  , x, t  – некоторая
 n G
функция.
Граничные условия второго рода часто называют мягкими граничными условиями.
3) граничные условия третьего рода (условия непротекания, жесткие граничные условия):
P
x P  G   x 
 x, t  , x, t  – некоторая функция, 2 x    2 x   0 . При
 n G
x, t   0 говорят об исчезающем потоке на границе.
Заметим, что граничные условия третьего рода обобщают и понятие граничных условий первого, и граничных условий второго рода. Они получаются, если положить
x  0, x  0 соответственно.
Запишем граничные условия исходя из физических условий, накладываемых на частицы, совершающих броуновское движение.
a) Отражающая граница – пусть частица не может покинуть границы заданной области G,
т.е. поток вероятности на границе равен нулю. Согласно теореме 1, I, n   0 . В одномерном
случае,
который
нами
рассматривается,
это
означает,
что
P
P

 0, G  [a, b] , т.к. направление вектора нормали совпадает с направлени x xa  x xb
ем оси OX. Очевидно, что отражающая граница соответствует граничным условиям второго рода.
b) Поглощающая граница – пусть при попадании частицы на границу  G она удаляется из
системы частиц. В частности, если говорить о пакете акций как о такой системе, то случай поглощающей границы соответствует условию покупки или продажи при достижении правой или левой границ интервала G  [ a, b] .
По условию, частица не должна находиться на границе, т.е. вероятность находиться на
 G равна нулю: P  G  0 .
c) Разрывные граничные условия – пусть в (6) коэффициенты k11 x, t , Ax, t  разрывны, но
через  G происходит свободное движение частиц. Тогда [ P ]  G  0, [ I]  G  0 , где [] –
скачок функции.
d) Выходная граница (например, для определенности, x=a).
k
Пусть G  [ a, b] и k11 a, t   11
 0 . Пусть Aa, t   0 . Тогда частица, достигающая
 x xa
границу x=a, уходит в область x<a. Можно показать, что среднее время достижения такой
границы конечно, а решение Px, t  зависит от времени.
e) Входная граница (например, для определенности, x=a).
k
Пусть G  [ a, b] и k11 a, t   11
 0 . Пусть Aa, t   0 . В этом случае частица, дости x xa
гающая границы x=a, возвращается в область G , т.е. частица никогда не покидает G через
x=a. Можно показать, что в этом случае существует стационарное решение Px , но среднее
время достижения границы бесконечно велико.
f) Хотя бы одно достижение границы за время t.
Пусть Px, t  – вероятность того, что частица, находящаяся в момент времени t=0 в
точке x  [a, b] , за время t хотя бы раз достигнет точки x=a или x=b. Пусть Bx,t ,  –
вероятность перехода частицы за время t из т. x в интервал ,    . Предположим при
этом, что частица не будет находиться на границе x=a или x=b ни разу.
В соответствии со сделанными обозначениями вероятность того, что частица, находящаяся в т. x в момент t=0, будет лежать внутри a, b , ни разу не коснувшись границ, равна
b
 Bx, t, d . В то же время, вероятность коснуться границ равна Px, t  . Суммируя вероятa
b
ности
 Bx, t, d
и Px, t  , получаем единицу, так как это вероятности противоположных
a
событий:
b
 Bx, t, d  Px, t   1 .
a
Покажем, что для Px, t  справедлив аналог теоремы Чепмена – Колмогорова (см. (2) п.
2.1.):
b
Px, t  t   Px, t    Bx, t ,  P, t d .
(8)
a
Действительно, вероятность Px, t  t  того, что за время t  t  произойдет хотя бы
одно достижение границы, равно сумме вероятности Px, t  хотя бы одного достижения
границы за время t и вероятности того, что за время t этого не произойдет (а произойдет
за оставшееся время t). Вероятность того, что граница будет достигнута за время t вычисляb
ется по формуле (2) п. 2.1.:
 Bx, t,  P, t d . Складывая вероятности, получаем, что (8)
a
справедлива.
Пользуясь (8), вычислим вероятность нахождения в точке границы x=a:
b
Pa, t   Pa, 0   Ba, 0,  P, t d .
a
Заметим, что Pa, 0  1 , так как частица уже находится на границе, т.е. достигла ее в
b
момент времени t=0. Кроме того,
Ba, 0,   0 . Следовательно,
 Ba, 0,  P, t d  0 ,
т.к. частица не движется и
a
Pa, t   1 .
По аналогии,
b
Pb, t   Pb, 0   Bb, 0,  P, t d  1.
a
Определим начальное условие. Заметим, что если x  a или x  b , то Px, 0  0 , т.к.
частица не движется и лежит вне границы. Если же x  a или x  b , то Px, 0  1 .
Таким образом, решение задачи хотя бы одного достижения границы удовлетворяет (6)
0, x  (a, b)
с граничными условиями Pa, t   1 , Pb, t   1 и начальному условию Px, 0  
.
1, x  a, x  b
2.1.2. НЕКОТОРЫЕ РЕШЕНИЯ УРАВНЕНИЯ
ФОККЕРА–ПЛАНКА–КОЛМОГОРОВА
Уравнение (6) с граничными условиями, приведенными в п. 2.1.1., решаются аналитически с применением методов, известных из курса математической физики (см. [11,16]).
Например, хорошо известный метод разделения переменных или метод Фурье. Рассмотрим
несколько случаев:
1) Поглощающие границы.
Пусть (6) имеет вид
 P  2 k11 P 

.
(9)
t
 x2
т.е. коэффициент дрейфа (процент, с которым выплачивается дивиденд) равен нулю. Пусть
начальное условие есть
Px, 0  x  x0  ,
где x0 – начальная точка процесса.
Пусть границы области G  [0,1] , где задано уравнение, являются поглощающими, т.е.
P0, t   P1, t   0 .
Решение краевой задачи ищем в виде Px, t   X xT t  . Подставляя его в (9), получаем,
что T X  TX  , или
T  X 

   const .
T
X
Тогда решение последнего уравнения сводится к решению задачи Штурма – Лиувилля
вида:
X   X , X 0  X 1  0 .
Общее его решение (ненулевое) будет только в случае   0 :
X  C1 cos   x  C 2 sin   x .
Данное решение должно удовлетворять граничным условиям. Используя граничные
условия, определяем, что
C1  0, C 2 sin    0 ,
Решением последнего тригонометрического уравнения являются собственные числа
 n   2 n 2 , n Z . Подставляя их в общее решение, находим собственные функции:
X n  C2 sin   n x  C2 sin  n x  ,
причем константа C2 определяется произвольным образом. Положим для определенности
C 2  1.
Зная систему собственных функций, можно найти разложение Фурье для X x  :

X x    Ck X k ,
k 0
1
где Ck   X x  X n x dx – коэффициенты ряда Фурье.
0
Перейдем ко второму уравнению из соотношения
T  X 

   const , заменяя  на
T
X
уже известные собственные числа  n   2 n 2 , n Z :


T    n T  T  C exp  n t   T  C exp   2 n 2 t .
Значит, общее решение краевой задачи (9) будет выражаться по формуле:
P x, t   X  x T t    C k C exp   2 n 2 t sin  n x  ,

(10)
k 0
причем коэффициенты C k , C пока не определены.
Неизвестные коэффициенты находятся из покоэффициентного сравнения ряда Фурье,
записанного по системе собственных функций X n  sin  n x  для начального условия
Px, 0  x  x0  , с (10). Так как ряд Фурье функции Дирака есть

 x  x0    C k sin  n x  ,
k 0
1
где Ck   x  x0  sin  n x dx  sin  n x0  , то
0

 x  x0    sin  n x sin  n x0  .
(11)
k 0
Подставим в (10) точку t=0:

P x,0    C k C sin  n x  .
k 0
(12)
Сравнивая (11) и (12), получаем, что Ck C  sin  n x0  , т.е. решение (9) окончательно
имеет вид:
P x, t    exp   2 n 2 t sin  n x sin  n x0  .

k 0
Эта функция определяет вероятность перехода из точки x в точку x0 . При t   Px, t   0 .
2) Отражающие границы.
Решим (9) с начальным условием
Px, 0  x  x0  ,
где x0 – начальная точка процесса.
Пусть границы области G  [0,1] , где задано уравнение, являются отражающими, т.е.
P
0, t    P 1, t   0 .
x
x
Решение краевой задачи ищем аналогично случаю 1), рассмотренному выше. При этом
собственные числа  n   2 n 2 , n Z , собственные функции:
X n cos  n x  .
Решение (9) с отражающими границами окончательно имеет вид:
P x, t   1   exp   2 n 2 t cos  n x cos  n x0  .

k 0
Эта функция определяет вероятность перехода из точки x в точку x0 и при t  
Px, t   1.
3) Процесс Орнштейна – Уленбека (уравнение Ланжевена).
Для этого процесса уравнение (6) имеет вид:
P
 2 P  A x P 
.
 k11 2 
t
x
x
Выберем начальное условие Px, 0 произвольной функцией.
По аналогии с предыдущими случаями, решение этой задачи Коши ищем в виде
Px, t   X xT t  ,
откуда
Ax

X  
X
X 0.
k11
k11
Делая замену аргумента y  x
A
, получаем уравнение для полиномов Эрмита H n  y  ,
k11
решение которого есть собственные функции X n  y   2 n n!
1 / 2
H n  y  и собственные числа
 n  n A, n Z . Общее решение записывается в виде:

P  x, t   
k 0
где An  2 n n!
1 / 2


A
exp  Ax 2 / k11 exp  nA t  An H n  y  ,
2 n! k11
n

 Px, 0 H  y dx .
n

2.2. УРАВНЕНИЕ БЛЭКА – ШОУЛСА (BLACK – SCHOLES)
Уравнение Блэка – Шоулса является основным при моделировании покупки и продажи
так называемых опционов или производных ценных бумаг.
Определение: опционом покупателя (продавца) называется ценная бумага (контракт),
дающая держателю опциона право купить (продать) определенный актив (пакет акций, облигаций, фьючерсов и т.п.) в установленный период или момент времени на заранее известных условиях. Контрагент обязан исполнить обязательства, связанные с правами держателя
дериватива, за что он получает плату, называемую ценой контракта. В случае опциона покупателя ее принято обозначать через C, в случае опциона продавца – P.
Уравнение Блэка – Шоулса возникло из задачи определения справедливой (или равновесной) цены опциона, которая устраивает и покупателя, и продавца. Эта задача была решена
Фишером Блэком и Майроном Шоулсом в 1973 году, за что Майрон Шоулс и Роберт Мертон
получили Нобелевскую премию в области экономики в 1997 г.
Различают опционы покупателя (call options) и опционы продавца (put options). Если
опцион предъявляется к исполнению в определенный момент времени N, то говорят об опционе европейского типа. Если же опцион может быть предъявлен к исполнению в любой
случайный момент t  N , то говорят об опционе американского типа.
Рассмотрим подробнее оперирование с опционами европейского типа.
1) Опцион покупателя
Пусть цена опциона равна C. Пусть опцион дает право приобрести в момент времени N
акции ценой K (цена фиксирована). Пусть в момент времени N фактическая (реальная) стоимость акций равна S. Она может быть как больше, так и меньше K.
Найдем прибыль покупателя:
a) S  K .
В этом случае покупателю выгоднее приобрести акции на рынке, чем предъявить опцион к исполнению. Поэтому прибыль покупателя составит (–C).
b) S  K .
В этом случае прибыль покупателя составит (S–K–C).
По аналогии, прибыль продавца составит величину C и (K +C– S) соответственно.
В соответствии с рассуждениями, сделанными выше, следует, что покупка опциона покупателя связана с надеждой на повышение цены актива.
2) Опцион продавца.
Пусть цена опциона равна P. Пусть опцион дает право продать в момент времени N акции ценой K (цена фиксирована). Пусть в момент времени N фактическая (реальная) стоимость акций равна S. Она может быть как больше, так и меньше K. Прибыль продавца в момент времени N составит (K – S–P) в случае S  K и (–P), если S  K . Таким образом, покупка опциона продавца связана с надеждой на понижение цены актива.
Для определенности, в дальнейшем будем рассматривать опцион покупателя (случай
опциона продавца рассматривается аналогично). Пусть V S , t , , , E,T , r  – равновесная
(справедливая) цена опциона покупателя, где E – цена (страйк-прайс), по которой покупатель
имеет право приобрести актив в момент времени T (экспирэйшн дэйт, момент окончания
действия опциона), t – текущее время, S – фактическая цена актива в момент t,  – средняя
доходность базового актива (процентная ставка),  – величина риска (волатильность, риск
больших отклонений случайного процесса V), r – безрисковая процентная ставка.
Заметим, что в функции V S , t , , , E,T , r  переменными являются только S, t , остальные играют роль параметров. Поэтому будем обозначать справедливую цену только как
V S , t  .
Пусть S – текущая стоимость одной акции, пусть  – их количество. Тогда справедливая цена портфеля акций, состоящего из одного опциона покупателя и  акций, предназначенных для продажи, равна
(13)
  V S , t     S .
Предположим, что S удовлетворяет дифференциальному уравнению
d S  S d t   S dW ,
рассмотренному нами ранее (см. п.1.1).
Дифференцируя (13), имеем:
d  dV S , t     dS ,
По формуле Ито, примененной для стохастического процесса V S , t  , имеем:
dV 
(14)
V
1  2V
V
dt
dS 2 
dS .
2
t
2 S
S
Так как dS 2   2 S 2 d t 2   2 S 2 dW 2  2  S 2 dWd t   2 S 2 d t , то
V
 2 S 2  2V
V
dt
dt 
dS .
2
t
2 S
S
Таким образом, изменение цены портфеля равно
V
 2 S 2  2V
V
(15)
d 
dt
dt 
dS    dS .
2
t
2 S
S
В равенстве (15) есть два вида слагаемых – детерминированные (они стоят при d t ) и
стохастические (при dS ). Последние заранее неизвестны и их можно считать риском оперирования с нашим активом:
 V

Risk  
    dS .
 S

V
  , то риск будет равен нулю. В этом случае говорят о
Если предположить, что
S
безрисковом активе. В этом случае изменение цены портфеля будет удовлетворять уравнению
V
 2 S 2  2V
(16)
d 
dt
dt .
t
2 S2
Операцию уменьшения риска называют хеджированием (страхованием). Для случая,
рассмотренного выше, применяют специальное название –  – хеджирование. Более того,
(16) является примером так называемой динамической стратегии страхования, так как произV
водная
является некоторой функцией времени и с ее изменением число акций пакета
S
должно так же меняться.
Продолжим исследование (16). Так как портфель безрисковый, то за момент d t портфель стоимостью  принесет доход (если, например, положить деньги в банк) в сумме
d  r dt ,
где r – безрисковая процентная ставка.
Учитывая (13), имеем:
d  r V    S dt .
V
  , и учитывая (16), последовательно получаем
Пользуясь тем, что
S
dV 

V 
d  r V 
 S  dt ,

S



V 
V
 2 S 2  2V
r V 
 S  dt 
dt
dt ,
S 
t
2 S2

или

V
 2 S 2  2V
V 
dt 
dt  r V 
 S  dt  0 ,
2
t
2 S
 S 

  V  2 S 2  2V

V  

 r V 
 S   dt  0 .

2

t
2

S

S



Интегрируя последнее соотношение по промежутку [0, t], получаем, что
t
  V  2 S 2  2V

V  
0   t  2  S 2  r V   S  S   dt  0 .
Интеграл по множеству ненулевой меры равен нулю тогда и только тогда, когда
подынтегральная функция равна нулю, т.е.
 V  2 S 2  2V
V
(17)

r
 S  rV  0 .
2
t
2 S
S
Уравнение (17) называется уравнением Блэка – Шоулса (Black – Scholes).
Несмотря на сделанные ранее предположения о функциональной зависимости
V S , t, , E,T , r  , решение уравнения не зависит от величины дрейфа . Это связано с тем, что
величина риска в модели равна нулю и нет необходимости перерестраховываться и учитывать излишние риски, которые возникли бы в результате проведения операции хеджирования.
2.2.1. ДОПУЩЕНИЯ МОДЕЛИ БЛЭКА – ШОУЛСА (BLACK – SCHOLES)
Уравнение (17) записано при следующих важных предположениях, ограничивающих
его применение на практике:
1) Модель Блэка – Шоулса построена в предположении о нормальном законе распределения
прибыли от торговли. Это означает, что предполагается выполнение дифференциального
уравнения для функции прибыли S:
d S  S d t   S dW .
2) Волатильность  в (17) есть некоторая постоянная, хотя на практике она является некоторой неизвестной функцией времени t  . Иногда при проведении реальных расчетов полагают известной зависимость t, S  , но в этом случае решение (17) будет иметь бесконечную дисперсию.
3) Согласно модели фактическая цена актива S t ,  лежит в полуинтервале [0, ) .
4) Безрисковая процентная ставка r t  – известная функция времени. Это ограничение позволяет найти решение уравнения (17) явно. На практике такая зависимость не известна и
является случайной величиной. Зачастую r t  определяется по эмпирическим данным
(например, по результатам торгов).
5) По акциям пакета не производится дивидендных выплат
Если по акциям пакета производятся дивидендные выплаты с дивидендной ставкой по
акциям D, то (17) преобразуется к виду (подробнее о таких уравнениях см. [20]):
 V  2 S 2  2V
V

 r  D 
 S  rV  0 .
2
t
2 S
S
6)  – хеджирование осуществляется непрерывно.
Это самое существенное и самое жесткое ограничение модели, так как на практике
хеджирование производится в дискретные моменты времени. Зачастую время для переоценки риска и вычисления  зависит от стоимости ведения торговых операций с ценными бумагами, входящими в пакет. Однако если за ведение торговых операций плата не
берется, то ограничение модели будет напрямую связано с минимальным количеством
времени, необходимым для обработки брокером заказа на покупку или продажу акций
пакета (чтобы довести размер пакета до оптимального, равного  ).
7) В соответствии с 6), модель не учитывает плату за ведение торговых операций с ценными
бумагами.
8) Модель не учитывает возможность одновременной покупки или продажи ценных бумаг.
Замечание: начальное и граничные условия для (17) задаются по аналогии с УФПК (см.
2.1.1).
2.2.2. ПРИВЕДЕНИЕ УРАВНЕНИЯ БЛЭКА – ШОУЛСА
К КАНОНИЧЕСКОМУ ВИДУ. ФОРМУЛЫ БЛЭКА – ШОУЛСА
Приведем (17) к каноническому виду, удобному для нахождения решения стандартными методами.
a) Введем новую переменную U S , t  по правилу V  e  r T t  U и подставим ее в (17):
 U  2 S 2  2U
U
(18)

r
S  0.
2
t
2 S
S
b) Изменим знак производной по времени, для чего введем новую временную переменную
  T  t  ,
где T – время окончания контракта, t – текущее время.
Имеем следующие равенства:
2
2
U
   U t , U   U t ,  U2    U2 t  .

t
S
S
S
S
Поэтому преобразуется в равенство вида:
 U  2 S 2  2U
U
(19)

r
S .
2

2 S
S
c) В (19) введем новую переменную :   ln S , или S  exp  . Тогда
 U  U d  U 1
U


 e 
;
S  d S
 S

2 U
  U 
    U 

  (по равенству выше) =
e
  (по правилу дифференцирования

2
S  S 
 S 
  
S
 U d     U 

.
произведения) =  e 
e
  dS
 S    
  U 

 , необходимо посмотреть по какому правилу находится
 S    
U
U
 e 
производная по S. Рассмотрим выражение
. Из него следует, что при взятии
S

производной по S функция U дифференцируется по переменной , а результат умножается на
   U      U    2U

e

e
e   . Поэтому
.
 S    
     
 2
Окончательно имеем:
2
2 U
2   U
2   U


e

e
.

S2
 2
Используя соотношения для производных, запишем (19) в виде:
 U  2  2U   2  U
.
(20)

  r  

2   2 
2  
Заметим, что коэффициенты при производных уравнения стали постоянными.
Для того чтобы найти
 2 
d) Введем переменную x по правилу: x     r     и вместо U ,  будем рассматри2 

вать новую функцию W x,   U , . Тогда (20) преобразуется в равенство вида
 W  2  2W
.
(21)


2  x2
Уравнение (21) является канонической формой записи уравнения диффузии или уравнения параболического типа. Его фундаментальным решением является функция
  x  x0 2 
1
,
W  x,  
exp  
2  2  
2 

где x0  начальное условие.
При подстановке W x,  в (21) получаем дельта–функцию:
 W  2  2W

 x  x0  .

2  x2
Общее решение уравнения (21) получается с помощью фундаментального решения посредством формулы

W  x,     W W  x, 0  dx ,

где W x, 0 – начальное условие.
 2 
Вспоминая о сделанных обозначениях x  ln S   r    T  t  , получаем, что общее
2 

решение уравнения (18) выражается по формуле

 ln S  ln S  r  0.5  2 T  t  2  V S , T 
e r T t 
0
0


(22)
V S , t  
exp
dS 0 ,
2





S
2

T

t
2T  t   0
0


где V S 0 , T  – функция вознаграждения во время окончания контракта.
Рассмотрим два частных случая применения этой формулы.
a) Опцион покупателя
Так как функция вознаграждения равна V S 0 , T   max  S 0  E, 0, то (22) приобретает
следующий вид:
E
 ln S  ln S  r  0.5  2 T  t  2  S  E 
e r T t 
0
 0
V S , t  
exp  
dS 0 .
2


 S0
2  T  t 
2T  t    

Делая замену S 0  exp x0  , получаем:








ln E
  x  ln S  r  0.5  2 T  t 2 
e r T t 
0
 exp x dx 
V S , t  
exp  
0
0
2





2

T

t
2T  t   


ln E
  x  ln S  r  0.5  2 T  t 2 
e r T t 
0
 dx .
E
exp  
2

 0


2

T

t
2T  t   


Делая соответствующие замены переменного под знаками обоих интегралов, окончательно получим:
d1
d2
 t 02 
 t 02 
r T t 
V S , t   S  exp    dt 0  E e
 exp   2  dt0 ,
 2


где




ln S  ln E  r  0.5  2 T  t 
ln S  ln E  r  0.5  2 T  t 
, d2 
.
T  t  
T  t  
Таким образом, для опциона покупателя справедливая цена равна
V S , t   S F d1   E e  r T t  F d 2  ,
d1 
(23)
(24)
 t 
где F d i    exp    dt – функция распределения нормальной случайной величины,
 2

i  1, 2 .
b) Опцион продавца
Так как функция вознаграждения равна V S 0 , T   max  E  S 0 , 0, то (22) будет иметь
вид:
E
 ln S  ln S  r  0.5  2 T  t  2  E  S 
e r T t 
0
0

V S , t  
exp  
dS 0 .
 S0
2  2 T  t 
2T  t    

По аналогии можно получить, что для опциона продавца справедливая цена равна
(25)
V S , t   S F  d1   E e  r T t  F  d 2  ,
di
2




 t2 
где F d i    exp    dt – функция распределения нормальной случайной величины,
 2

i  1, 2 .
Найдем число акций , при котором риск равен нулю. Ранее (см. п. 2.2.) было найдено,
V
  . Дифференцируя (24) и (25) и учитывая, что d i – константы, i  1, 2 , получаем:
что
S
a) Опцион покупателя:   F d1  , d1 вычисляется по (23).
b) Опцион продавца:   F  d1  , d1 вычисляется по (23).
Замечание: если S  E и r  0 , т.е. в случае когда цена акции по опциону совпадает с
фактической ценой на рынке и когда безрисковая процентная ставка равна нулю, (24) – (25)
приобретают вид:
для опциона покупателя:
   T t 
  T  t 
  F
 .
V S , t   S  F  




2
2





для опциона продавца:

  T t 
  T  t 
  F
 .
V S , t    S 1  F  




2
2





При тех же условиях для опциона покупателя справедливо асимптотическое равенство:
T t
V S , t   S 
при t  T .
(26)
2
Отметим, что (24) – (25) называются формулами Блэка – Шоулса для определения равновесной (справедливой) цены опциона покупателя и продавца соответственно.
di
2.3.
МОДЕЛЬ СТОХАСТИЧЕСКОЙ ВОЛАТИЛЬНОСТИ
Основным недостатком модели Блэка – Шоулса, рассмотренной в п.2.2., является предположение о постоянном уровне волатильности =const. Оно наиболее существенно ограничивает анализ реальных рисковых активов, торгуемых на фондовых рынках, так как зачастую эти финансовые инструменты обладают переменной волатильностью с функциональной зависимостью вида =(t,S) или более сложной, когда  является стохастическим про-
цессом. Поэтому в данном параграфе будет рассмотрена модель стохастической волатильности, обобщающая теорию Блэка – Шоулса.
Пусть S – текущая стоимость актива, удовлетворяющего уравнению
d S  S d t   S dW1 ,
W1 – винеровский процесс.
Пусть  – некоторый стохастический процесс, причем
d  ps, , t d t  qs, , t dW2 ,
где ps, , t , qs, , t  – некоторые непрерывные функции, W2 – винеровский процесс, отличный от W1 .
Пусть W1 , W2 коррелированны между собой с корреляцией
  corr dW1 , d W2  .
Пусть, как и прежде, V S ,, t  – справедливая цена опциона (для определенности, опциона покупателя). Вследствие того, что модель описывается двумя стохастическими уравнениями, то, по аналогии с п.2.2., требуется проводить уже два вида страхования активов.
Первым из них будет уже рассмотренное  – хеджирование, вторым – страхование так называемого волатильного риска. Образуем портфель, в котором будет один опцион со справедливой ценой V S ,, t  , соответствующий покупке  акций стоимостью S. Пусть в портфель
включены и 1 опционов страхования (которые являются вторыми производными бумагами
для акций и производными бумагами для опционов) с ценой V1 S , , t  .
Суммарная стоимость портфеля составит
  V S , t     S  1 V1 .
Изменение стоимости за время dt будет
d  dV S , t     dS  1  dV1 .
По формуле Ито, примененной для стохастического процесса V S ,, t  , имеем:

V
V
V
1   2V
 2V 2
 2V
2

dV 
dt 
dS 
d   2 dS  2 d  2
d  dS  .
t
S

2S
S


По аналогии, применим формулу Ито для функции V1 S , , t  :
dV1 

 V1
V
V
 2V
 2V1
1   2V
d t  1 dS  1 d   21 dS 2  21 d 2  2
d  dS  .
t
S

2 S
S


Подставляя dV , dV1 в выражение для d , и учитывая   corr dW1 , d W2  , получаем:
d 

V
V
V
V
1   2V
 2V
 2V
dt 
dS 
d   2 dS 2  2 d 2  2
d  dS     dS  1  1 d t 
t
S

2S
S
t


  V1

 V1
 2V1
1   2V1 2  2V1 2

  ,
 1  
dS 
d  
dS

d


2
d

dS
2
2


S


2



S

S





или, преобразуя d 2 , dS 2 :
 V
  2V
V  2 S 2   2 V
 2 V1 
 2 V1  q 2   2V
 2 V1  





 dt 
d  
 1  1 




qS





1
1
1
2
2 
2 
 S
 2   2

t

t
2

S



S

S









 V

 V
V
V 
 
 1  1   dS  
 1  1  d .
S
 
 S

 
Чтобы избавиться от стохастичности, в последнем выражении приравняем нулю коэффициенты, стоящие при d, dS :
 V

V

 1  1     0,
S
 S

 V
V 

 1  1   0 .
 
 
Данные соотношения принято называть хеджирующими. Они позволяют обнулить
риск, связанный с покупкой опционов страхования и опциона покупателя.
Окончательно,
 V
  2V
 V1  2 S 2   2 V
 2 V1 
 2 V1  q 2   2V
 2 V1  







d  
 1 

  S 2  1  S 2   qS  S  1  S    2   2  1  2  dt .

t

t
2







После применения хеджирующих соотношений портфель активов становится безрисковым. Поэтому за момент d t портфель стоимостью  принесет доход в сумме
d  r dt ,
где r – безрисковая процентная ставка.
Учитывая что   V S , t     S  1 V1 , имеем:
d  r V S , t     S  1 V1 dt .
Тогда
 V
  2V
 V1  2 S 2   2 V
 2 V1 
 2 V1  q 2   2V
 2 V1  







  t  1   t  2   S 2  1  S 2   qS  S  1  S    2   2  1  2  dt 







 r V S , t     S  1 V1 dt .
Соберем слева все, что связано с V, а справа – все, что связано с V1 :
 V 


  
1
 V  2 S 2  2 V

 2V q 2  2V
V




qS

 rS
 rV  
2
2
2 S
S 2 
S
 t

1

  V    V  2 S 2  2 V1
 2V1 q 2  2V1
V
  1   1 


qS

 rS 1  rV1  .
2
2
2 S
S 2 
S
    t

Так как опционы со справедливыми ценами V , V1 имеют разные параметры (сроки исполнения, функции вознаграждения и т.п.), то обе части равенства должны быть независимы
от типа контракта – т.е. они должны зависеть только от S, t, . Определим эту функцию как
 p  q ,
где  – произвольная функция, называемая рыночной ценой риска, p, q – фиксированные
функции уравнения d  ps, , t d t  qs, , t dW2 . Тогда
 V 


  
1
 V  2 S 2  2 V

 2V q 2  2V
V


 qS

 rS
 rV    p  q ,
2
2
2 S
S 2 
S
 t

()
1

  V1    V1  2 S 2  2 V1
 2V1 q 2  2V1
 V1
  0 .

 



qS


rS

rV
1
2
2



t
2



S
2

S

S



 

Рассмотрим случай, когда не производится страхование риска покупки опционов. Таким образом, решим вопрос – выгодно ли проводить процедуру страхования, не является ли
она излишней? Пусть портфель состоит из одного опциона и  акций стоимостью S. Следовательно, стоимость портфеля составит
  V S , , t     S ,
причем волатильность удовлетворяет уравнению
d  ps, , t d t  qs, , t dW2 .
По формуле Ито, примененной к V S ,, t  , получаем:
dV 

 V
V
V
V
1   2V
 2V
 2V
V
V
dt 
dS 
d   2 dS 2  2 d 2  2
d  dS  
dt 
dS 
d 
t
S

2S
S
S


 t
q 2  2V
 2V  2 S 2  2V
dt


Sq

dt .
2  2
S
2 S2
Так как d  dV S , , t     dS , то
 V  2 S 2  2V
 V

 2V q 2  2V 
V
 dt  
d  



Sq

  dS 
d .
2
2 

t
2



S
2

S



S






Как обычно, проведем  – хеджирование по имеющейся у нас информации (не учиты V

вая страхование волатильного риска). Тогда 
    0 . Так как портфель становится без S

рисковым, то d  r dt или d  r dt  0 . Тогда
d  rV    S dt  0 .
V
Подставим в него найденное значение d и учтем, что  
:
S
  V  2 S 2  2V
 2V q 2  2V 
V
V

 dt  rVdt  r  rS

 Sq

dt 
d  0 .
2
2 
2 S
S 2  
S

 t
Воспользуемся тем, что d  ps, , t d t  qs, , t dW2 . Заметим так же, что в соответV
ствии с () выражение при dt равно q  p 
. Тогда

V
dt  dW2  .
d  rdt  q

V
dW2 должЭто равенство означает, что на единицу изменения риска волатильности

но приходиться  единиц дополнительных страховых средств. Если же не проводить страV
dW2  0 , т.е. портфель будет содержать ненулевой незахования, то   0 и d  rdt  q

страхованный риск.
Изменим в равенстве   V S , , t     S параметр  на 1 , S – на V1 , что означает рассмотрение пакета из двух опционов. Тогда   V  1 V1 . Повторяя выкладки, получаем:
 V  2 S 2  2V
V

   S
 rV  0 .
()
2
t
2 S
S
Добъемся того, чтобы V  S была частным решением этого уравнения (тогда цена торгуемого актива совпадает со справедливой ценой опциона). Для этого подберем соответствующую функцию  . Подставляя V  S в (), имеем:
  S  rS  0 ,
откуда
r

.

Определив рыночную стоимость риска торговли активом, подставим его в исходное
уравнение:
 V  2 S 2  2V
V

 rS
 rV  0 ,
2
t
2 S
S
т.е., учитывая риск  , получаем обычное уравнение Блэка – Шоулса, рассмотренное в п.2.2.
Подводя итог, можно сказать, что волатильность является важнейшим параметром при
торговле опционами. Ее трудно оценить, наблюдать или предугадать, т.к. зачастую она является стохастической функцией. Использование постоянной волатильности приводит к неверным результатам. Предполагая ее стохастичный характер, получаем систему уравнений ().
Для уменьшения рисков должны быть проведены мероприятия по выполнению хеджирую-
 V

V
щих соотношений 
 1  1     0,
S
 S

 V
V 

 1  1   0 . При отсутствии дополнитель 
 
V
dW2  0 , который не позволяет расного страхования появляется систематический риск q

r
сматривать портфель как безрисковый. Цена риска равна  
, где  – ожидаемый воз
врат средств (дрейф), r – безрисковая процентная ставка,  – волатильность актива.
3.
СЛУЧАЙНЫЕ БЛУЖДАНИЯ ЧАСТИЦЫ. ПРОЦЕСС ПУАССОНА
3.1. СЛУЧАЙНЫЕ БЛУЖДАНИЯ ЧАСТИЦЫ
Рассмотрим частицу, которая находится в некоторой точке x=n, n Z . Пусть она движется только на единицу вправо или влево. Пусть вероятность движения вправо равна p, вероятность движения влево равна q=1–p. Пусть частица движется в интервале
[0, a], a  n, a  Z . Пусть при достижении границ интервала частица прекращает движение
(т.е. имеют место поглощающие границы x=0 и x=a, см. подробнее п.2.1.2).
При выполнении вышеуказанных условий говорят, что частица совершает случайное
1
блуждание. Если p  q  , то блуждание называется симметричным. Если p  q , то говорят
2
о том, что удары данной частицы слева другими частицами более вероятны. Если p  q , то
говорят о том, что удары данной частицы справа другими частицами более вероятны.
Пусть q n – вероятность того, что частица, начав движение из x=n, попадет в т. x=0 и
будет поглощена этой границей. Пусть p n – вероятность того, что частица, начав движение
из x=n, попадет в т. x=a и будет поглощена этой границей. Тогда q0  1 , так как частица уже
достигла x=0. Аналогично, pa  1, так как частица уже достигла x=a. В силу того, что
qn  pn  1 получаем, что p0  0 и qa  0 .
В соответствии со сделанными обозначениями имеем:
(27)
qn  pqn1  qqn1 , n  1, a  1.
Действительно, частица может совершить движение влево с вероятностью p или движение вправо с вероятностью q. Попадая в точки x=n+1 и x=n–1, вероятность продолжить
движение из них равна qn1 и q n 1 соответственно. По формуле полной вероятности получаем (27).
Вспоминая о граничных условиях, имеем следующую краевую задачу:
(27’)
qn  pqn1  qqn1 , q0  1 , qa  0 , n  1, a  1.
Пусть p  q . Найдем частные решения (27’), для чего рассмотрим две последователь-
qn
. Подставляя их в (27), имеем:
pn
a) p 1  q 1  p  q  1  qn .
ности qn  1 и qn 
q n1
q n1 q n1 q n
p  q n  q n1 q n  p  q  q n

q





 n  qn .
p n1
p n1
pn
p n1
pn
pn
p
n
q
Таким образом, qn  1 и qn  n являются частными решениями (27). В силу линейp
ности (27) относительно qn , qn1 , qn1 линейная комбинация
b) p 
qn
q n  A 1  B  n
p
(28)
так же будет частным решением. В силу произвольности A, B оно будет общим.

 q n1
q n1  
q n1 
q n1 
p  A 1  B  n1   q  A 1  B  n1   A p 1  q 1  B p n1  q n1  =
p  
p 
p 

 p
n
n
q
q
(так как qn  1 и qn  n являются частными решениями и (27) выполнено)  A  B  n  qn .
p
p
Найдем константы A, B из граничных условий. Для этого решим систему уравнений
Действительно,
qa
 0 . Очевидно, что ее решение имеет вид:
pa
pa
qa
,
.
B a
A


p  qa
pa  qa
Подставляя его в (28), получаем решение (27’):
ra  rn
(29)
qn  a
,
r 1
где r  qp 1 .
1
В случае p  q  выражение (29) не справедливо и превращается в неопределенность
2
0
1
вида . Для разрешения неопределенности найдем значение предела при p  . Имеем:
0
2
n
n
 1 r 

p  qn 
.

lim
1

lim qn  (добавим и вычтем единицу в (29)) = lim 1 

a 
n
a n a 
p1 2
p1 2
 1  r  p1 2  p  q p 
q0  A  B  1 , q a  A  B
 pn  qn 
0
Вычислим отдельно lim  n
. Так как имеет место неопределенность , то

a
n

a
p1 2
0
 p q p 
можно формально воспользоваться правилом Лопиталя по параметру p. Учтем, что

n 
q n p  1  p   n q n1 . Тогда

 pn  qn 



pn  qn 
np n1  nq n1
lim  n

lim

lim


  (подставляем
a
n

a
n

1
a

1
n

a
q
n

a

1
p 1 2
 p  q p  p1 2  p n  q a p na  p1 2  np  aq p  q n  a  p

 


вместо p и q их значения) =
   n2 
n2   a 2  2   2  n  a 2 
n 2 1
1 n 1
1 a 1
n 1
1 n  a
1 n 1
1 q
1 n  a 1

2n
n
 .
n  a  n  a  a
Поэтому
n
.
(29’)
p 1 2
a
По аналогии, для вероятности p n того, что частица, начав движение из x=n, попадет в
т. x=a и будет поглощена этой границей, также можно записать уравнение типа (27). Для этого в нем необходимо сделать замену qn  1  pn и ввести новые вероятности перехода p и
q на шаг влево и вправо соответственно: p  1  p или p  q ; q  1  q или q  p . Тогда (27)
приобретает вид:
pn  ppn1  q pn1 , n  1, a  1.
Кроме того, граничные условия должны быть следующими (по соображениям, приведенным выше): pa  1, p0  0 .
Получаем краевую задачу:
pn  ppn1  q pn1 , p0  0 , pa  1 , n  1, a  1.
(27’’)
Ее решение
lim qn  1 
r n 1
, r  qp 1 .
r a 1
Замечание: задачу случайного блуждания частицы можно переписать в терминах финансовой математики: пусть на рынке имеются две конкурирующие фирмы с капиталом n и
(a-n) соответственно, причем a, n – целые числа. Пусть величина суммарного капитала фирм
в целом не изменяется, а просто перераспределяется между ними: капитал одной может быть
увеличен только за счет капитала другой. Пусть вероятность накопления одной условной
единицы капитала первой фирмой есть p, второй – p  q . Пусть вероятность потерять одну
условную единицу капитала первой фирмой есть q, второй – q  p .Обозначая через q n вероятность того, что фирма с капиталом n в конце концов разорится (монополизация рынка второй фирмой), а через p n – вероятность того, что разорится другая фирма, получаем задачу
(27’), решение которой есть (29) – (29’).
pn 
3.2. ПРОЦЕССЫ РОЖДЕНИЯ И ГИБЕЛИ
Пусть X  N – некоторое подмножество целочисленных точек, пусть его элементы –
xi  i – целочисленные точки. Пусть pij s, t  – вероятность перехода из точки xi в момент s в
точку x j в момент t. По определению вероятности выполнены соотношения:
1, i  j

i , jX
0, i  j.
Формула Чепмена – Колмогорова (см. гл.2, п.2.1, 2)) будет иметь вид:
pij s, t    pik s, u  pkj u, t , u [ s, t ] .
pij s, t   0,
 p s, t   1, p s, s   
ij
ij
ij
(30)
kX
Перейдем к изучению стохастического процесса, в котором из состояния x n можно перейти только в точки x n 1 и x n 1 , а из состояния 0 можно перейти только в состояние 1. Переход от x n к x n 1 называется рождением, а от x n к x n 1 – гибелью частицы (или распад). Данная модель не исключает и самозарождения (т.е. переход 0  1 ).
pij h 
pij h   1
, i  j и aii  lim
Обозначим через aij  lim
, где pij h  – вероятность пеh0
h0
h
h
рехода из точки xi в точку x j за время t , t  h . Тогда вероятность перехода из точки xi в
точку x j за один шаг равна
pij h  
aij
.
aii
Это следует из определения марковского процесса или из (30) при числе слагаемых,
равном единице (в этом случае (30) будет формулой условной вероятности).
По определению процесса следует, что ai , i 1 и ai , i 1 будут единственными коэффициентами, отличными от нуля (так как движение возможно лишь на шаг влево и вправо от x n ).
Обозначим через  i  ai , i 1 ,  i  ai , i 1 . Тогда из разложения в ряд Тейлора ai , i 1 , ai , i 1 в окрестности xi получим:
pi , i 1 t  
ai , i 1
  i t  ot , pi , i 1 t  
ai , i 1
  i t  ot .
aii
aii
Кроме того, aii   i   i  .
Уравнение Колмогорова вперед (см. п.2.1) приобретет вид (в наших обозначениях):
d
pij t   aii pij  ai , i 1 pi 1, j  ai , i 1 pi 1, j ,
dt
или
d
pij t    i   i  pij   i pi 1, j   i pi 1, j .
dt
Кроме того, справедливы начальные условия:  1  0,  0  0 .
По аналогии, уравнение Колмогорова назад будет следующим:
d
pij t   a jj pij  a j 1, j pi , j 1  a j 1, j pi , j 1 ,
dt
(31)
или
d
pij t    j   j  pij   j 1 pi , j 1   j 1 pi , j 1 .
dt
Начальные условия остаются теми же:  1  0,  0  0 .
(32)
Зафиксируем точку xi (в формуле (32) индекс i не меняется) и обозначим p j t   pij t  .
Зададим начальное условие на p j t  : пусть p j 0   p0 известно. Пусть, кроме того,
p j t  не зависят от времени и постоянны: p j t   p j . Для нахождения решения запишем (22)
при j  0 . Тогда
  0 p0  1 p1  0 ,
откуда
0
p0 .
1
Подставляя его в (32), записанном при j  1 , получим:

 2 p2  1  1  p1   0 p0  1 0 p0 ,
1
откуда

p 2  1 0 p0 .
1  2
Производя остальные вычисления по аналогии, окончательно имеем:
p1 
n 1
p2 

i
i 0
n

p0 .
(33)
i
i 1

Последовательность
p n задает распределение вероятностей, если
p
i 0
i
 1 , или
1
 j 1  j


      p  1 . Отсюда вытекает условие на p :

0

i  i 
0

j 0 i 0
 i 1  


1
1
   j 1  j
  


p0     i    i 
.
 j 0  i 0  i 1   

 
Подставляя его в (33), получаем окончательное решение задачи рождения – гибели.
3.3. ПРОЦЕСС ПУАССОНА
Определение: пуассоновским процессом N t ,  , t>0, называют случайный процесс, для
которого выполнены следующие аксиомы:
1) N 0,   0 ;
2) для любых точек временного интервала [0,T] 0  s  t   приращение
N t   N t   N s  имеет пуассоновское распределение со средним t  s  :
k t k
exp   t , k   ;
k!
3) случайные величины N t0 , N t k   N t k   N t k 1 , k  1,  попарно независимы.
Докажем корректность данного определения, т.е. покажем, что оно непротиворечиво.
Для этого определим вероятность наступления k событий за промежуток времени от 0 до t.
Обозначим ее через Pk t  . Докажем, что P1 t    t  ot  , где  – некоторый параметр.
Действительно, рассмотрим для простоты временной интервал [0,1] и обозначим через
p вероятность того, что за время 1 не наступит ни одно событие. Разобьем этот промежуток
PN t   k  
n
на n равных непересекающихся частей  t k , k  1, n , причем 1    t k . Тогда по определению
k 1
вероятности независимых событий имеем:
n
n
1
p  P0 t   P0  t1 P0  t 2 ... P0  t n    P t k    P0    (так как интервалы разбиения равn
k 1
k 1
n
  1 
1 n
ны между собой 1/n)= P0  1   P0   .
 n  k 1
  n 
Отсюда
следует,
1
P0    p1 / n .
n
что
Как
следствие,
 k 1 k
k
1 k
P0    P0      P0     p1 / n  p k / n .
n
 i 1 n  i 1  n  i 1
Докажем, что в общем случае P0 t   p t , t – произвольное неотрицательное число.
В силу сепарабельности множества рациональных чисел для произвольного действиk 1
k
 t  . Вследтельного числа t и для произвольного n существует натуральное k, что
n
n
k
ствие монотонного убывания функции P0  , k  1, n (так как p  1 и с ростом k
n
p k / n  p k 1 / n  ...  p1/ n ) выполнено неравенство:
 k 1
k
P0 
  P0 t   P0   ,
 n 
n
или
p
k 1
n
k
n
 P0 t   p .
k
. Переходя к пределу в предыдущем неравенстве, по принциn  n
пу милиционера получаем, что
p t  P0 t   p t ,
Обозначим через t  lim
т.е. P0 t   p t для любого t временного интервала.
Отметим, что полученная функция P0 t   p t является функцией вероятности, т.е.
0  P0 t   1 . Имеем три взаимоисключающих случая:
a) p  0
b) p  1
c) 0  p  1.
t
В случае a) P0 t   0  0 , т.е. вероятность того, что хотя бы одно событие произойдет,
равно единице. В случае b) P0 t   1t  1 и события не наступают вовсе.
Остановимся подробнее на третьем случае 0  p  1 . В силу произвольности p можно
подобрать такое , что p  e   .
По определению вероятностного пространства, P0 t   P1 t   P1 t   1 . Так как по доказанному выше P0 t   p t  e  t , найдем разложение в ряд Маклорена функции P0 t  . Имеем:

P0 t   
k 0
или
f k  0 k
2 t 2
t  1  t 
 0 t2 ,
k!
2!
 
P0 t   1   t  0t  .
Кроме того,
P1 t    t  0t  .
Определим вероятность того, что за время t+t событие наступит ровно k раз. События
могут наступить в соответствии со следующей схемой:
1) за время t произойдет k событий, за t – ни одного;
2) за время t произойдет k-1 событие, за t – одно;
3) …
k+1) за время t произойдет 0 событий, за t – k.
По формуле полной вероятности
k
Pk t  t    Pj t  Pk  j  t  .
j 0
k 2
Обозначим через Rk   Pj t  Pk  j  t  . Оценивая Pj t  сверху единицей, имеем:
j 0
k 2
k

j 0
s 2
s 2
Rk   Pk  j  t    Ps  t    Ps  t   P1  t   1  P0  t   P1  t   0 t  .
Поэтому расписывая два слагаемых суммы
k
 P t  P  t  , начиная с конца, имеем:
j 0
j
k j
Pk t  t   Pk t  P0  t   Pk 1 t  P1  t   Rk = (пользуемся оценками для Rk , а так же соотношениями для P0 t  и P1 t  )= 1  t Pk t    t Pk 1 t   0t  , откуда
Pk t  t   Pk t   tPk t   tPk 1 t   ot  ,
или
Pk t  t   Pk t 
 Pk t   Pk 1 t   o t 2 .
t
Учитывая, что предел правой части равенства при t  0 существует, существует предел левой части. Переходя к пределу при t  0 , получаем дифференциальное уравнение
dPk
 Pk t   Pk 1 t  ,
dt
где Pk t  – искомая функция, k  1,  .
Зададим начальные условия. Так как P0 t   1   t  0t  , то P0 0  1 . Кроме того,
 
P1 0  0 , P1 0  1  P0 0  P1 0  0 , т.е. Pk 0  0, k  1 .
Для нахождения решения сделаем замену переменного Pk  e  tU k t  , где U k t  – новая
переменная. Начальные условия перепишутся в виде:
U 0 0  1,U k 0  0, k  1.
В соответствии с тем, что P0 t   p t  e  t получаем: U 0 t   1 .
В результате замены переменного
dPk
dU k
 e U k t   e 
уравнение приобретает
dt
dt
вид:
dU k
 U k 1 t , k  1,  .
dt
Решим уравнение последовательно:
dU 1
 U 0 t   U1  t  C  C  0 из краевых условий  U1  t ;
случай k  1 –
dt
dU 2
2t 2
2t 2
 U 1 t   U 2 
случай k  2 –
;
 C1  C1  0 из краевых условий  U 2 
dt
2!
2!
…
k t k
общий случай – U k 
.
k!
k t k t
Поэтому Pk t   e tU k t  
e , т.е. используемое определение корректно.
k!
Замечание: промежуток времени, прошедший между появлениями двух последовательных событий, является случайной величиной . Т. к. событие >t эквивалентно тому, что за
P  t   P0 t   e  t
промежуток t событие не случится ни разу, то
или
P  t   1  P  t   1  e t . Это равенство определяет функцию распределения случайной
величины .
4. СТОХАСТИЧЕСКИЕ МОДЕЛИ ОБРАБОТКИ ЭМПИРИЧЕСКИХ ДАННЫХ
4.1. АВТОРЕГРЕССИОННАЯ МОДЕЛЬ AR(p)
Рассмотрим математическую модель, которая позволяет обработать эмпирические данные (например, котировки акций и т.п.) и оценить их будущее значение. Предлагаемая авторегрессионая модель позволяет получить оценку стохастического процесса hn , используя
знания о его предыдущих состояниях hn1 , hn2 , ..., hn p .
Пусть W t  – винеровский процесс, пусть a  t0  t1  t 2 ...  t n1  t n  b – некоторое разбиение временного интервала. Пусть Wn t   Wn t   Wn1 t  – приращение винеровского
процесса в точке t n . Рассмотрим авторегрессионую модель порядка p:
hn  a0  a1hn1  a2 hn2  ...  a p hn p  Wn ,
(34)
где a0 , a1 , ..., a p ,  – некоторые коэффициенты.
Введем в рассмотрение оператор сдвига L hn  hn1 . С его помощью (34) переписывается в виде
hn  a0  a1 Lhn  a2 L2 hn  ...  a p Lp hn  Wn ,
или
(35)
I  a1 L  a2 L2  ...  a p Lp hn  a0  Wn ,


где I – единичный оператор: I hn  hn .
Для полного описания эволюции процесса hn необходимо задать начальные условия
h1 p , h2 p , h3 p , ..., h p 1 p , h0 . Положим, что все они равны нулю, т.к. в дальнейшем будет показано, что асимптотическое поведение hn при n   не зависит от вида начальных условий.
Рассмотрим простейший случай p=1. Модель (34) будет переписана в виде
hn  a0  a1hn1  Wn .
(36)
Этот случай является особенным, т.к. модель (36) учитывает влияние предыдущего момента времени и не учитывает влияние от hn2 , ..., hn p , что напоминает марковские процессы.
Более детальное исследование вопроса о том, так ли это, будет проведено далее.
Потребуем, чтобы h0 не зависело от Wn . Тогда
h1  a0  a1h0  W1 ,
h2  a0  a1h1  W2  a0  a1 a0  a1h0  W1   W2  a0 1  a1   a12 h0  a1W1  W2  , …,



hn  a0 1  a1  a12  ...  a1n1  a1n h0   a1Wn1  a12 Wn2  ...  a1n1W1  Wn

(37)
Заметим, что в (37) наиболее важную роль играет параметр a1 , который входит в равенство в степени n, начальное условие h0 встречается только в первой степени.
С ростом n влияние h0 на hn будет изменяться в зависимости от значения a1 . Имеет
b) a1  1 ,
место три случая: a) a1  1,
c) a1  1 .
Найдем математическое ожидание, дисперсию и ковариацию hn . По (37) имеем:

  1  a



Ehn  a0 1  a1  a12  ...  a1n1  a1n Eh0  0  ...  0  a0 1  a1  a12  ...  a1n1  a1n Eh0 ,
Dhn
2
2
1
2  n 1
1
 a  ...  a
4
1
 a
2n
1
Dh0 .
Наконец, covhn , hnk   E hn hnk   Ehn Ehnk  a12nk  D h0   2 a1k 1  a12  a14  ...  a12nk 1  ,
если n  k  1.
Вернемся к рассмотрению трех случаев изменения a1 .


Так как 1  a1  1  a1  a12  ...  a1n1  1  a1n , то согласно полученным формулам для математического ожидания при a1  1 , Eh0   , n   имеем:


Ehn  a0 1  a1  a12  ...  a1n1  a1n Eh0  a1n Eh0  a0
1  a1n
,
1  a1
 1  a1n 
a
  0 .
lim Ehn  lim a Eh0  lim  a0
n
n
n
 1  a1  1  a1
Аналогично, если Dh0   , то

n
1

Dhn  a12 n Dh0 


 2 1  a12 n
,
1  a12

  2 1  a12 n
lim Dhn  lim a Dh0  lim 
2
n
n
n
 1  a1
 2 a1k
Наконец, lim covhn , hnk  
.
n 
1  a12

2n
1

 
2
 1 a2 .
1

Таким образом, последовательность hn при n   и a1  1 становится стационарной
последовательностью. В частности, если положить, что начальное условие
 a0
2 

 , то по доказанному выше hn так же будет иметь нормальное распредеh0 ~ N 
,
2 
1

a
1

a
1
1 

a0
2
, Dhn 
. Такое свойство hn называется стационарно1  a1
1  a12
стью, когда с ростом n не меняются параметры распределения и функция распределения.
ление с параметрами Ehn 
1
1
  2 a1k      
covhn , hnk 

Так как corr hn , hnk  
= a1k при n   ,
 
2 
2
2
Dhn Dhnk
 1  a1  1  a1   1  a1 
то с ростом k корреляция стремится к нулю со скоростью геометрической прогрессии.
Случай a1  1 соответствует случаю экспоненциального роста n.
Рассмотрим третий случай, когда a1  1 . Сравнивая (36) с (27) (см. п. 3.1 гл. 2), видно,
что имеет место классическое случайное блуждание частицы. Если, например, a1  1, то из
(36) последовательной подстановкой получаем
hn  a0 n  h0  W1  W2  ...  Wn 
и Ehn  a0 n  Eh0 .
Кроме того, Dhn   2 n   при n   .
Перейдем к нахождению решения уравнения (36). Для этого обратим оператор
I  a1 L , где I – единичный оператор, L – оператор сдвига. Рассмотрим вспомогательное соотношение:
I  a1 L  a12 L2  ...  a1k Lk I  a1 L   I  a1 L  a1 L  a12 L2  a12 L2  ...  a1k Lk  a1k 1 Lk 1  I  a1k 1 Lk 1 .
Уравнение (36) можно переписать в виде I  a1 L hn  a0  Wn . Применим к этому



 

равенству слева оператор Z  I  a1 L  a12 L2  ...  a1k Lk  : Z I  a1 L hn  Z a0  Wn  . По доказанному выше, Z I  a1 L hn  I  a1k 1 Lk 1 hn . Поэтому
I  a
k 1 k 1
1
Выражая hn , имеем:
L
h
n
 Z a0  Wn  .
hn  a1k 1 Lk 1hn  Z a0  Wn  .
Пусть k=n-1. Тогда
hn  a1n Ln hn  Z a0  Wn  .
Заменяя I  a1 L hn  a0  Wn , получаем
hn  a1n Ln hn  Z I  a1 L hn ,
или


hn  a1n h0  I  a1 L  a12 L2  ...  a1n1 Ln1 I  a1 L hn .
(38)
Данное выражение определяет разложение обратного оператора I  a1 L  . Действительно,
I  a1L1 hn  a1n h0  I  a1L  a12 L2  ...  a1n1Ln1 hn .
Далее, обозначим через n  a0  Wn . Рассмотрим последовательность
1

 


hn   a1j n j .
(39)
j 0
Докажем, что hn является решением уравнения I  a1 L hn  n .
Действительно, предполагая сходимость ряда, имеем:


j 0
j 0
I  a1 Lhn  hn  a1hn1   a1j n j  a1  a1j n j 1  n  a1n1  a12 n2  ...  a1k nk  ... 
 a1n1  a n2  ...  a nk  ...  n .
2
1
k
1
Теорема 4.1. Пусть Eh02   , a1  1 . Тогда ряд hn , определяемый (39), сходится к hn ,
задаваемому (38), в среднеквадратичном:
2
lim E hn  hn   0 .
n
Кроме того, hn является единственным решением задачи (36).
Доказательство: докажем единственность решения. Предположим противное – существует процесс hn , удовлетворяющий (36), записанному в операторной форме
I  a1 Lhn  n . По (38) при n=k+1 и по определению оператора сдвига имеем:


n
hn  a1n h0  I  a1 L  a12 L2  ...  a1n1 Ln1 n   a1j n j  a1n h0 .
j 0
Обозначим через hnk   a1j n j частичную сумму ряда (39) и рассмотрим E hn  hnk  :
k
2
j 0


k 2
n
E hn  h
2
k
 k

 E  a1j n j  a1k 1hn( k 1)   a1j n j   E a1k 1hn( k 1)
j 0
 j 0


Так как a1  1 , Eh02   , то lim E hnk  hn
k 


2

2
 a12k 1 E hn( k 1)   a12 k 2 Eh02 .
2
 0 . Это означает, что hn сходится к hn в
среднеквадратичном, ряд hn сходится в среднеквадратичном и hn  hn в среднеквадратичном
смысле. Противоречие последнего доказывает единственность решения уравнения (36), ч.т.д.
Рассмотрим случай p=2. В этом случае модель (34) будет переписана в виде
hn  a0  a1hn1  a2 hn2  Wn ,
или в операторной форме:
I  a1 L  a2 L2 hn  a0  Wn  n .
(40)
Алгоритм нахождения решения задачи (40) полностью повторяет одномерный случай с
той лишь разницей, что добавляется отыскание разложения оператора I  a1 L  a2 L2 на




множители: I  a1 L  a2 L  I  1 L I   2 L  , где 1 , 2 – неизвестные константы.
Пользуясь свойствами оператора сдвига и раскрывая скобки, имеем:
I  1 LI   2 L  I  1   2 L  1 2 L2  I  a1 L  a2 L2 .
Сравнивая коэффициенты, получаем систему
1   2   a1 ,

1 2  a2 .
Используя теорему Виета, заключаем, что 1 ,  2 являются корнями квадратного урав2




нения 2  a1  a2  0 , т.е. 1, 2  0.5 a1  a12  4a2 .
С учетом найденных 1 ,  2 выражение (40) перепишется в виде:
I  1 LI   2 Lhn  n .
Заметим, что ранее (при p=1) было найдено разложение обратного оператора I  a1 L 
1
(см. (38)). Предположим, что обратные операторы I  1 L  , I   2 L  существуют. Тогда
1
hn  I   2 L I  1 L n .
1   2 . Методом неопределенных коэффициентов находим разложение
1
Пусть
1
1
I   2 L 1 I  1 L 1 в сумму простых дробей:
I   2 L 1 I  1 L 1  1   2 1 1 I  1 L 1   2 I   2 L 1  .
Поэтому
1
1
1
1
1
hn  I   2 L I  1 L n  1   2  1 I  1 L   2 I   2 L n .


(41)
Предположим, что  i  1 , i=1,2. Используя геометрическую прогрессию, запишем операторное разложение для I   i L :
1

I   i L 1   ki Lk ,
L0  I ,
k 0
и подставляя его в (41), окончательно имеем:


1
2
k k
hn 

L


k2 Lk n  (по определению оператора сдвига)=

1
n
1   2  





k 0
1
2 k 0




i
1
2
, i  1,2.
k1nk 
k2 nk   C1k1  C 2 k2 nk , Ci 


1   2 
1   2  k 0
1   2  k 0
k 0
Единственность решения доказывается по аналогии со случаем p=1.
4.2. ОБОБЩЕННАЯ АВТОРЕГРЕССИОННАЯ МОДЕЛЬ УСЛОВНОЙ НЕОДНОРОДНОСТИ GARCH(p,q)
Прогнозирование волатильности рисковых активов играет важную роль при построении и расчете математических моделей финансовой математики. Оно применяется в теории
ценообразования опционов, используется при разработке прибыльных стратегий размещения
портфелей ценных бумаг различного вида и типа. Кроме того, оценивание уровня будущей
волатильности находит все большее приложение в определении предельного уровня риска
(Value–at–Risk, VAR).
Первоначальные исследования волатильности были связаны с предположением о нормальности дневных приращений цен акций. Однако в дальнейшем было показано, что такое
предположение не обосновано, так как приращения не имеют нормального распределения. У
эмпирической функции плотности распределения, построенной на основе исторических данных (рис.2), существует ненулевой эксцесс (kurtosis) и асимметрия (skew). Кроме того, присутствует вытянутость функции плотности в –окрестности точки математического ожидания, а так же наблюдаются так называемые «толстые хвосты» (fat–tails), когда вероятность
значительных изменений ценовых приращений выше, чем для нормального распределения.
Математически это означает, что случайный процесс является негауссовым, немарковским с
долговременной корреляцией между данными.
Для изучения распределений таких случайных процессов и прогнозирования будущего
уровня их волатильности было предложено большое количество моделей. Наиболее изученной является модель Блэка – Шоулса (Black–Scholes) (см. п.2.2) для опционов. Она базируется на формуле Блэка – Шоулса расчета равновесной цены опционов покупателя и продавца.
Фиксируя в ней различные цены исполнения E (strike prices) и сроки окончания действия
контрактов T (times to maturity), получают так называемую «предполагаемую волатильность»
(implied volatility), которую сравнивают с эмпирическими оценками  по историческим данным. Данная модель позволяет построить новое распределение (implied–распределение) приращений временного ряда, которое уже будет иметь более толстые хвосты (рис.2) по сравнению с нормальным распределением и, как следствие, дает возможность рассчитать волатильность более точно. Тем не менее, хвосты остаются достаточно «тонкими» по сравнению
с распределениями данных реальных финансовых рынков, что недопустимо.
В связи с вышесказанным в настоящее время получили развитие другие подходы,
например, процесс прогнозирования волатильности с помощью метода GARCH(p,q), позволяющий проводить анализ коррелированных и высокочастотных данных. Метод основан на
предположении авторегрессионой зависимости вида
p
  0   i u
2
n
i 1
q
2
n i
  j  2n j
(42)
j 1
где  0  0,  i  0,  j  0 – коэффициенты модели, подлежащие оценке,  0    i    j  1 ,
i
j
hn  hn 1
– относительные приращения значений временного ряда hn ,  n – волатильhn
ность, n  1,2,... .
При построении метода является существенным предположение о виде распределения
u n . В зависимости от него различают: GARCH(p,q) с нормальным распределением
un 


u n ~ N 0, *2 , экспоненциальный GARCH (или EGARCH) с t–распределением Стьюдента,
APARCH c асимметричным t–распределением Стьюдента и др. (например, NARCH,
MARCH, HARCH и т.п.).
Рис. 2. Эмпирическая плотность распределения для опциона покупателя (call option) на
фьючерсный контракт на акции РАО ЕЭС РТС с котировками в рублях (код ES7000F5, торги
проходили с 01 декабря 2004 по 05 июля 2005 года, всего 143 котировки) в сравнении с другими плотностями (1 – нормальная плотность с a=10-3, =4,510-4; 2 – implied –плотность; 3
– эмпирическая плотность с a=10-3, =4,510-4), N – число наблюдений, попавших в соответствующий интервал.
Для простоты изложения рассмотрим (42) с p=1 и q=1. Тогда модель будет иметь вид:
 2n  V  u n21  2n1 ,
(43)
где   0,   0,   0 – коэффициенты модели, подлежащие оценке, V  0 – долговременное
h  hn 1
среднее отклонение в структуре данных,       1 , u n  n
– относительные прираhn
щения значений временного ряда hn ,  n – волатильность, n  1,2,... .
Предположим произвольность распределения дневных приращений u n  hn  hn1 hn1 ,
hn – цена некоторого актива в n–ый день торгов. Так как   1     , то (43) можно представить в виде
 2n  V  u n21  V    2n1  V .
(44)
Записывая (44) в будущий момент времени (n+k), получаем, что
 2n k  V  u n2 k 1  V    2n k 1  V  .
Оценим дневную волатильность  n по последним k наблюдениям:
 2n 
1 k
u ni  u 2 ,

k  1 i 1
1 k
 uni – выборочное среднее, k – лаг (задержка) временного ряда.
k i 1
Учитывая, что математическое ожидание E u n2    2n , имеем:
где u 




E  2n k  V    E  2n k 1  V .

Так

как




E  2n1  V    E  2n  V ,


 ...     E 2n  V , или
k

E

E  2n k 1  V    E  2n k 2  V ,
то

2
n k





E  2n k 2  V    E  2n k 3  V ,



…,

 V    E 2nk 1  V     E 2nk 2  V 


2

(45)
E 2nk  V     E 2n  V .
Равенство (45) определяет условие устойчивости GARCH (1,1). Действительно, если
    1 , то последнее слагаемое вносит все меньший вклад в математическое ожидание и с
ростом лага k стремится к V:
lim E  2n k   V .
(46)
k
k 
Если же     1 , то E     и случайный процесс  2n будет в среднем стремительно
возрастать, что свидетельствует о его неустойчивости.
Исходя из (46) можно сделать вывод, что V характеризует уровень возврата временного
ряда к прежнему состоянию с коэффициентом возврата  .
Перейдем к определению параметров модели (43). Наиболее общим способом их оценки является нахождение максимума функции правдоподобия
2
n
m
L   fi ,
i 1
или логарифмической функции правдоподобия
m
ln L   ln f i ,
(47)
i 1
где f i – функции плотности распределения наблюдений, m – число наблюдений. Например,
если предположить, что имеет место нормальное распределение приращений u i с математическим ожиданием a и дисперсией  i2 , то
 u  a 2 
1
exp   i 2  .
2 i 
2  i

Легко показать, что в этом случае задача определения максимума выражения (47) совпадает с нахождением максимума функции
m 
u  a 2 
Lm     2 ln  i  i 2  .
(48)
i
i 1 

Вид Lm изменится, если принять гипотезу о распределении u i , отличном от нормального.
Поиск максимума (48) осуществляется в соответствии с выполнением необходимого
условия существования экстремума функции трех переменных:
 Lm
 Lm
 Lm
 0,
 0,
 0,
(49)



где    V .
Решение нелинейной системы (49) в предположении единственности экстремума в некоторой расчетной области может проводиться любым итерационным методом: методом
наискорейшего спуска, сопряженных градиентов и т.п.
Заметим, что в произвольном случае определить параметры , ,  из (49) достаточно
сложно. Прежде всего это связано с необходимостью многократного решения системы (7)
при расчетах значений ряда  2n на всем временном горизонте (при любом n), что трудно
осуществимо, если прогнозирование волатильности осуществляется в реальном времени.
Кроме того, не стоит забывать и о подборе хорошего начального приближения итерационного алгоритма, и о том, что найденный экстремум будет локальным.
fi 
После оценивания коэффициентов , ,  и подстановки их в (43) остается провести
статистическое исследование надежности предложенного метода GARCH(1,1) при прогнозировании волатильности. Так как модель (43) является автокорреляционной, то в качестве теста надежности естественно потребовать уменьшения автокорреляции  k с фиксированным
лагом k после применения метода:

 k  corr ui , uik   Eui  ui ui k  uik  D ui D uik

1
, i  1, n  k  .
Вычисление  k следует проводить для значений рядов u n и u n  n соответственно до и
после применения GARCH(1,1).
Известно, что гипотеза H 0 об уменьшении автокорреляции в структуре данных проверяется с помощью статистики Ljung-Box:
m
2
  nn  2 k ,
k 1 n  k
где m – максимальное значение лага, заданное исследователем.
2
Гипотеза H 0 принимается, если   1
a m  , где a – уровень значимости критерия,
и отвергается в противном случае. Соответственно, GARCH(1,1), определяемый выражением
(43) с коэффициентами, удовлетворяющими (49), является статистически надежным с уров2
нем значимости a, если   1
a m  .
УКАЗАНИЯ ПО ВЫПОЛНЕНИЮ ИНДИВИДУАЛЬНОГО ЗАДАНИЯ
Рассмотрим приложение теории случайных процессов к решению задач индивидуального задания №1 (см. приложение 1).
Задача 1. Изобразить график случайной функции Y (t )  sin S (t )  t  , t  [0, 2] , S (t ) – случайная величина, распределенная нормально с параметрами a  0 ,  2  1 .
Решение: случайная величина S (t ) характеризует частоту случайных колебаний функции
Y (t )  sin S (t )  t  . В каждый фиксированный момент времени S (t ) также фиксирована и распределена по нормальному закону. Поэтому Y (t )  sin S (t )  t  – не что иное, как совокупность сшитых непрерывным образом кривых вида Yk (t )  sin kt , k – случайное число.
Рис. 3. Стохастический процесс Y (t )  sin S (t )  t  , t  [0, 2] .
График получившейся кривой приведен на рис. 3.
Задача 2. Изобразить график случайной функции Y (t )  exp  S 2 (t )  t , t  [0, ] , S (t ) – случайная величина, распределенная нормально с параметрами a  1 ,  2  4 .
Решение: по аналогии с примером 1, получаем решение, изображенное на рис. 4.




Рис. 4. Стохастический процесс Y (t )  exp  S 2 (t )  t , t  [0, 100] .
Задача 3. Найти предел в среднеквадратичном X (t )  lim X n (t ) , если последовательность
n 
 t
распределена нормально X n t  ~ N  0,  .
 n
Решение: по определению, необходимо
найти
такой

процесс
 
X (t ) ,
чтобы
lim E  X n (t )  X t   0 . Раскроем скобки: lim EX n2  2E  X n X   E X 2  0 . Предполагая су2
n
n
?
ществование всех трех пределов, имеем:
 
lim EX n2  2 lim E  X n X   lim E X 2  0 .
n
n
n
?
(1)
Вычислим каждый предел отдельно.
 2
 x2n2  
2
lim EX n  lim   x exp   2  dx   (по теореме Лебега о предельном переходе под знаком
n 
n 
 2t  
 


 x 2 n 2 
интеграла) =  lim  x 2 exp   2  dx  0 . Заметим, что можно напрямую вычислить интеn 
 2 t 



 x2n2 
t
2
грал  x exp   2  dx 
, что так же приводит к равенству lim EX n2  0 .
3
n
2 n
 2t 

Предположим, что предельный процесс является нулевым:
X t   0 .
В этом случае lim E  X n X   0 , lim E X 2   0 . Тогда равенство (1) превращается в верn
n 
ное тождество и lim X n (t )  X t   0 в среднеквадратичном.
n 
Задача 4. Найти предел в среднеквадратичном X (t )  lim X n (t ) , если X n t  
n 
X n t  распределена равномерно на интервале [0,1].
Решение: по аналогии с предыдущим примером, необходимо доказать, что
 
sin nt
, причем
nt
lim EX n2  2 lim E  X n X   lim E X 2  0 .
n
n
n
?
Вычислим каждый предел отдельно.
Так как для достаточно больших n sin nt  nt 2 (кроме точки нуль), то
P X n  t   Fn t  
 f xdx

X n t
 f xdx
 f xdx ,

sin nt  nt 2
sin nt
t
nt
где f t  – плотность равномерной функции распределения.
Следовательно, lim Fn t  
n 

 f x dx  F t  ,
т.е. предельный стохастический процесс

X (t )  lim X n (t ) также будет иметь равномерное распределение, однако параметры распреn 
деления пока неизвестны. Тем не менее, lim EX n (t )  E  X   0.5 .
n 
Окончательно, lim EX n2  2 lim E  X n X   lim E X 2   1 / 3  2 lim E  X n X   lim E X 2 .
n 
n 
n 
n 
n 
Имеем два возможных варианта соотношений между X n , X .
1)
независимы,
Xn, X
т.е.
 
E  X n X   EX n EX  1/ 4 .
lim E  X n (t )  X t  
2
Тогда
n
1/ 3  1/ 2  lim E X 2  0 , т.е. последовательность X n расходится (расстояние между
n
 
X n , X постоянно и не равно нулю), если только lim E X 2  1/ 6 . Следовательно, если в
n
качестве предельного процесса взять равномерно распределенный на [0,1] случайный
процесс с параметрами E X   0.5 и E X 2  1/ 6 , независимый с X n , то
 
lim E  X n (t )  X t   0 .
2
n
2)
X n , X зависимы. Допустим, что X n сходится в среднеквадратичном. Тогда X n сходится
и
по
распределению,
 
т.е.


 
E lim X n X  E X 2 .
n
Поэтому
 
lim E  X n (t )  X t   1/ 3  E X 2 . Последнее выражение равно нулю, если E X 2  1/ 3 .
2
n
Следовательно, если в качестве предельного процесса взять равномерно распределенный
на [0,1] случайный процесс с параметрами E X   0.5 и E X 2  1/ 3 , зависимый с X n ,
то lim E  X n (t )  X t   0 .
 
2
n
Задача 5. Пользуясь формулой Ито, доказать формулу интегрирования по частям
d UV   U dV  V dU  dU dV .
Решение: применим формулу Ито для функции F  UV :

F
F
1 2 F
2 F
2 F
2
2




dF 
dU 
dV  
dU

dV

2
dUdV   UdV  VdU  dUdV ,
2
2
U
V
2!  U
 UV
V

ч.т.д.
Задача 6. Найти решение дифференциального уравнения dS  r dt  SdW , S (0)  S 0 , S 0 – некоторая случайная величина.
Решение: Согласно технике решения дифференциальных уравнений, приведенной в п. 1.4.2.,
выберем интегрирующий множитель в виде F  exp  W  t 2 / 2 . Найдем d FS  по формуле интегрирования по частям (задача 5): d FS   FdS  S dF  dS dF . По формуле Ито

dF 

F
F
1 2 F
2
2 F
dW 
dt 
dt



FdW

F
dt

dt  FdW   2 F dt ,
W
t
2 W 2
2
2
dF dS  dF r dt  SdW    2 SFdt .
Подставляем найденные выражения в формулу для d FS  :
d FS   SFdW   2 SFdt  Frdt  SFdW   2 SFdt  Frdt . Таким образом, исходное уравнение сведено к уравнению вида
d FS   Frdt ,
которое является уравнением в полных дифференциалах и его решение находится непосредственным интегрированием по промежутку [0,t]:
t
FS  t0   Frdt ,


F  exp  W  t 2 / 2 .
0
Учитывая, что F 0  exp 0  1, получаем окончательный ответ:
S t  
t

1
 S 0  r  Fdt  .

F 
0

Задача 7. пусть a, b – некоторые фиксированные числа. Найти решение уравнения:
bS
dS 
dt  dW (броуновский мостик), S 0  S 0  a  const , t  [0,1) .
1 t
Решение: некоторые уравнения, в отличие от задачи 6, где применен интегрирующий множитель, можно решать соответствующей заменой переменного. В данном случае сделаем заbS
мену F 
. По формуле Ито вычислим dF :
1 t
F
F
1 2 F 2
dS
bS
dF 
dS 
dt 
dS  

dt .
2
S
t
2 S
1  t 1  t 2
Вспоминая обозначения для F и учитывая, что по условию задачи dS  Fdt  dW , имеем:
Fdt  dW b  S
dF  

dt ,
1 t
1  t 2
или
dW
dF  
.
1 t
Интегрируем по промежутку [0,t], делаем обратную замену переменного и получаем
окончательный ответ:
t
dW
S t   S 0  1  t 
ds .
1 s
0
СПИСОК ЛИТЕРАТУРЫ
1. Курс теории случайных процессов: Учебное пособие / А. Д. Вентцель.—2-е изд., доп.—
М.: Наука; Физматлит, 1996.—398 с.
2. Случайные процессы: Учебник для вузов / И. К. Волков, С. М. Зуев, Г. М. Цветкова.—М.:
Изд-во МГТУ, 1999.—448 с.
3. Курс теории вероятностей: Учебник для вузов / В. П. Чистяков.—5-е изд.—М.: Агар,
2000.—255 с.
4. Теория стохастических систем: Учебное пособие / В. С. Пугачев, И. Н. Синицын.—М.:
Логос, 2000.—1000 с.
5. Теория вероятностей и случайных процессов: Учебное пособие / В. Н. Тутубалин.—М.:
Изд-во МГУ, 1992.—400 с.
6. Теория случайных процессов и ее инженерные приложения: Учебное пособие для вузов /
Е. С. Вентцель, Л. А. Овчаров.—2-е изд., стер.—М.: Высшая школа, 2000.—383 с.
7. Курс статистического моделирования: Учебное пособие для вузов / С. М. Ермаков, Г. А.
Михайлов.—М.: Наука, 1976.—319 с.
8. Феллер, Вильям. Введение в теорию вероятностей и её приложения: Пер. с англ.: В 2 т. /
В. Феллер.—М.: Мир, 1984- Т. 1.—1984.—527 с.
9. Феллер, Вильям. Введение в теорию вероятностей и её приложения: Пер. с англ.: В 2 т. /
В. Феллер.—М.: Мир, 1984- Т. 2.—1984.—751 с.
10. Теория случайных процессов и ее инженерные приложения / Е. С. Вентцель, Л. А. Овчаров.—М.: Наука, 1991.—384 с.
11. Стратонович Р. Л. Теория информации.—М.: Советское радио, 1975.—423 с.
12. Курс теории случайных процессов: Учебное пособие для университетов / А. Д. Вентцель.
— М.: Наука: Физматлит, 1975.—319 с.
13. Стохастические дифференциальные уравнения и диффузионные процессы: Пер. с англ. /
С. Ватанабэ, Н. Икэда.—М.: Наука, 1986.—445 с.
14. Прикладные задачи теории вероятностей / Е. С. Вентцель, Л. А. Овчаров.—М.: Радио и
связь, 1983.—416 с.
15. Гихман И.И. Теория случайных процессов: В 3 т. / И. И. Гихман, А. В. Скороход.—М.:
Наука, 1971.
16. Стохастические уравнения глазами физика: Основные положения, точные результаты и
асимптотические приближения / В. И. Кляцкин.—М.: Физматлит, 2001.—528 с.
17. Колебания, волны, структуры / Н. В. Карлов, Н. А. Кириченко.—М.: Физматлит, 2001.—
496 с.
18. Прикладная статистика: Основы эконометрики: Учебник: В 2-х т.—М.: ЮНИТИ-ДАНА,
2001/ С. А. Айвазян, В. С. Мхитарян.—2001.—656 с.
19. Гардинер К.В. Стохастические методы в естественных науках. М.: Мир, 1986.
20. P. Wilmott, Derivatives. The theory and practice of financial engineering, New York, John
Wiley & Sons, 1999.
приложение 1
ИНДИВИДУАЛЬНОЕ ЗАДАНИЕ №1
ВАРИАНТ №1
1. Изобразить график случайной функции:
а. Y (t )  cosS (t )  t  1 , t  0 , S (t ) – случайная величина, распределенная нормально с параметрами a  1,  2  4 . Пусть S (t ) принимает только положительные значения.


b. Y (t )  exp  S (t )  t 2 , t  0 , S (t ) – случайная величина, распределенная нормально с параметрами a  2 ,  2  1 . Пусть S (t ) принимает только положительные значения.
2. Найти предел в среднеквадратичном при n   :
а.
Доказать,
что
последовательность
случайных
n
wn   0 t  
2 1
s

s 1 m  2 s 1
m 2
процессов
sin mt 
сходится в среднеквадратичном к винеровскому процесm
су W (t ) , если известно, что  n ~N(0,1).
n
sin st 
b. wn   0 t    s
,  n распределены равномерно на [0,1].
s
s 1
 t  5n 
3. Непрерывен ли процесс X (t )  lim X n (t ) , где X n (t )  sin n 
 , t  (0,1] , где  n
n 
n 

распределены равномерно на [0,1]? Дифференцируем ли он?
4. a. Пусть S (t ) – процесс Орнштейна – Уленбека, удовлетворяющий уравнению
dS  S dt   dW , S (0)  S0 , ,  – некоторые числа. Найти ковариационную функцию,
используя для вычисления математическое ожидание и дисперсию (см. лекции).
b. Найти решение стохастического дифференциального уравнения Бесселя:
a 1
dS 
dt  dW , S (0)  S 0 , S 0 – некоторая случайная величина, распределенная нор2S
мально с математическим ожиданием нуль и дисперсией единица.
5. Сделать замену переменного в процессе dS  S dt   SdW :

a. F  exp t 2 S  t



b. F  ln t S  t
6. Вычислить интеграл Ито:
2
t
a. Y (t )   eW dW s 
t


b. (по определению) Y (t )   s 2  1 dW s 
0
0
ВАРИАНТ №2
1. Изобразить график случайной функции:
а. Y (t )  sin S (t )  t  2, t  0 , S (t ) – случайная величина, распределенная нормально с параметрами a  0 ,  2  1 . Пусть S (t ) принимает только положительные значения.


b. Y (t )  tg S 2 (t )  t , t  0 , S (t ) – случайная величина, распределенная равномерно с параметрами a  1, b  4 .
2. Найти предел в среднеквадратичном при n   :
n
sin s  0.5t 
а. Доказать, что последовательность случайных процессов wn    s 2
схоs  0.5t
s 1
дится в среднеквадратичном к винеровскому процессу W (t ) , если известно, что  n ~N(0,1).
n
sin st 
s 1
2
b. wn    s
s
,  n имеют распределение Вейбулла с параметрами   10 3 и k  10 .
n
 t  n 
3. Непрерывен ли процесс X (t )  lim X n (t ) , где X n (t )  
 , t  (0,1] , где  n имеют
n 
 n 
распределение Вейбулла с параметрами   10 1 и k  2 ? Дифференцируем ли он?
4. Найти решение стохастических дифференциальных уравнений:
a. dS  S dW , S (0)  S 0 ,  – некоторое число, S 0 – некоторая случайная величина, распределенная нормально с математическим ожиданием нуль и дисперсией единица.
1
b. dS  S dt  S  t  dW , S (0)  S 0 , S 0 – некоторая случайная величина, распределенная
2
нормально с математическим ожиданием нуль и дисперсией единица.
Примечание: использовать формулу Ито.
5. Сделать замену переменного в процессе dS  S dt   dW :
a. F  cos 2 / 3 tS 
 
b. F  sin t 2 S
6. Вычислить интеграл Ито:
t
t
a. с помощью формулы интегрирования по частям  f s d W s   f W 0   W s  df s  найти
0
t
0
t
Y (t )   s 3dW s 
0
t
b. (по определению) Y (t )   ln s  1 dW s 
0
ВАРИАНТ №3
1. Изобразить график случайной функции:
а. Y (t )  cos2t  S (t ), t  0, t  1, 2, 3... – дискретное время, S (t ) – случайная величина, имеющая распределение Бернулли с вероятностью успеха p  34 . Число испытаний n  10 . b.
Y (t )  A exp( t )  BS (t )  C , t  0 , S (t ) – случайная величина, распределенная нормально с
параметрами a  0 ,  2  1 , A, B, C – некоторые коэффициенты.
2. Найти предел в среднеквадратичном при n   :
а. Доказать, что последовательность случайных процессов X n t ,   xn (t )    , где
nt / 2, t [0; 2 / n]

xn (t )  nt  1, t [2 / n;1/ n] сходится в среднеквадратичном к дельта–функции (t ) .
0,
t  1/ n

n
b. wn    s
s 1
cosst 
,  n имеют распределение Максвелла с параметром   2 .
s
 t 
3. Непрерывен ли процесс X (t )  lim X n (t ) , где X n (t )  n  n  , t  (0,1] ,  n имеют расn 
 n 
пределение Максвелла с параметром   1? Дифференцируем ли он?
4. Найти решение стохастических дифференциальных уравнений:
S
1
dt 
dW , S (0)  S 0 .
a. dS  
1 t
1 t
1
  
b. dS   S dt  1  S 2 dW , S (0)  a  const   ,  , причем время выбирается из усло2
 2 2

   
вия, что t  inf s  0,W ( s)   ,   .
 2 2 

Примечание: использовать формулу Ито.
5. Сделать замену переменного в процессе dS   dt   SdW :
a. F  cos 2 / 3 tS   sin 2 / 3 t  S 
b. F  ln  t 2 S  t 2  S  1 


6. Вычислить интеграл Ито:
s
a. с помощью формулы Ито найти Y ( s)   cos W dW t 
0
s
b. (по определению) Y ( s)   t W dW t 
0
ВАРИАНТ №4
1. Изобразить график случайной функции:
а. Y (t )  sin tS(t ) , t  0, t  1, 2, 3... – дискретное время, S (t ) – случайная величина, имеющая
распределение Пуассона с вероятностью успеха p  10 4 . Число испытаний n  5000 .
b. Y (t )  AtS (t ) 2  BtS (t )  C , t  0 , S (t ) – случайная величина, распределенная равномерно
на промежутке [ 2, 3] , A, B, C – некоторые коэффициенты.
2. Найти предел в среднеквадратичном при n   :
а. X n (t ) 
n
2
 t W (t k ) , где t k – некоторые точки разбиения интервала [a,b], W (t ) – винеров-
k 1
ский процесс. Будет ли предельный процесс lim X n (t )  X (t ) винеровским?
n 
b. Найти математическое ожидание и дисперсию процесса X (t )  lim X n (t ) , определенного
n 
выше.
3. Найти решение стохастических дифференциальных уравнений:
a. dS  et Wdt  d W  , S (0)  S 0 – некоторая случайная величина.
aS
bS
1
1
b. (система) dS1   S1dt  1 dW , dS 2   S 2 dt  2 dW .
2
b
2
a
4. Непрерывен ли процесс S (t ) , являющийся решением уравнения 3.a на интервале t  [0,1] ?
Дифференцируем ли он?
5. Сделать замену переменного в процессе dS   Sdt   SdW :
a. F  cos3 / 2 t  S   sin 3 / 2 t  S 
b. F  ln  tS  t 2  S 


6. Вычислить интеграл Ито:
s
a. с помощью формулы Ито найти Y ( s)   sin W dW t 
0
s
b. (по определению) Y ( s)   tW 2 dW t 
0
ВАРИАНТ №5
1. Изобразить график случайной функции:


а. Y (t )  exp  t 2 S (t )  t , t  0, S (t ) – случайная величина, имеющая показательное распределение с параметром   0.5 .
b. Y (t )  At 2  B cosS (t )  , t  0 , S (t ) – случайная величина, распределенная равномерно на
промежутке [0,2] , A, B – некоторые коэффициенты.
2. Найти предел в среднеквадратичном при n   :
t  ti Wi  ti 1  t Wi 1, t [ti , ti 1 ],
ba
а. X n (t )  
, где ti  a  i
– точки разбиения отрезка
n
t [ti , ti 1 ]
0,
[a,b], t [ti , ti 1 ] . Будет ли предельный процесс lim X n (t )  X (t ) винеровским?
n 
b. Найти математическое ожидание и дисперсию процесса X (t )  lim X n (t ) , определенного
n 
выше.
exp  n 
, t  (0,1] ,  n распределены
n
n 
нормально с нулевым средним и дисперсией единица? Дифференцируем ли он?
4. Найти решение стохастических дифференциальных уравнений:
a. dS  r dt  S dW , S (0)  S 0 – некоторая случайная величина, распределенная нормально
с математическим ожиданием нуль и дисперсией единица.
b. Пусть S (t ) – средне–возвратный процесс Орнштейна –Уленбека, удовлетворяющий
уравнению dS    S dt   dW , S (0)  S 0 , ,  – некоторые числа. Найти S (t ) . Воспользоваться способом решения уравнения Орнштейна –Уленбека (см. лекции).
1
dt   SdW :
5. Сделать замену переменного в процессе dS  
S t
3. Непрерывен ли процесс X (t )  lim X n (t ) , где X n (t ) 
a. F  cos3 t  S   sin 2 t  S 
b. F  ln  S  t 2  S 


6. Вычислить интеграл Ито:
s
a. с помощью формулы Ито найти Y ( s )   sin 2W  t  dW t 
s


0
b. (по определению) Y ( s)   tW 2  t 2W dW t 
0
ВАРИАНТ №6
1. Изобразить график случайной функции:
 t
а. Y (t )  exp  t 2  W s dW s  , t  0, W (t ) – винеровский процесс.
0
b. Y (t )  Acost   BW (t ) , W (t ) – винеровский процесс, A, B – некоторые коэффициенты.
2. Найти предел в среднеквадратичном при n   :
 t (n  1) 
2t
а. X n (t )  exp  
 W e , W (t ) – винеровский процесс. Будет ли предельный проn 

цесс lim X n (t )  X (t ) винеровским?
 
n 
b. Найти математическое ожидание и дисперсию процесса X (t )  lim X n (t ) , определенного
n 
выше.
3. Найти решение стохастических дифференциальных уравнений:
a. Пусть S (t ) – средне–возвратный процесс Орнштейна –Уленбека, удовлетворяющий
уравнению dS    S dt   dW , S (0)  S 0 , ,  – некоторые числа. Найти S (t ) . Воспользоваться способом решения уравнения Орнштейна –Уленбека (см. лекции).
b. Найти математическое ожидание и дисперсию средне–возвратного процесса Орнштейна
–Уленбека (см. 3.a)
4. Непрерывен ли процесс S (t ) , являющийся решением уравнения 3.a на промежутке
t  (0, ) ? Дифференцируем ли он на этом промежутке?
5. Сделать замену переменного в процессе dS  Sdt   dW :
a. F  arctg 3 / 2  t  3 S 2  S  1   artctg 3 / 2  t  3 S 2  S  1 




b. F  S S
6. Вычислить интеграл Ито:
t
 
a. с помощью формулы Ито найти Y (t )   sW d e sW
0
t
b. (по определению) Y (t )   W d sW 
0
ВАРИАНТ №7
1. Изобразить график случайной функции:
t
а. Y (t )  arccost   W s   A exp( t ) dW s  , t  [0, ] , W (t ) – винеровский процесс, А – констан0
та.
b. Y (t )  A costW (t ) , W (t ) – винеровский процесс, A – некоторый коэффициент.
2. Найти предел в среднеквадратичном при n   :
1 1 1

k t k k!1 1  nt sin( n t ) t , t  0,
а. X n (t , k )  
причем k фиксировано, k  0, 1, 2 ... . Будет

0
,
t

0
,

ли предельный процесс lim X n (t , k )  X (t , k ) винеровским?
n 
b. Найти математическое ожидание и дисперсию процесса X (t , k )  lim X n (t , k ) , определенn 
ного в задании 2.
3. Будет ли стохастический процесс, определенный в задании 2, непрерывным, дифференцируемым на t  [0,1] ?
4. Найти решение стохастических дифференциальных уравнений:
1
a. dS  dt  S dW , S (0)  S0  0 – некоторая случайная величина, распределенная норS
мально с математическим ожиданием нуль и дисперсией единица,  – константа.
1
b. dS  2 dt  S dW , S (0)  S0  0 – некоторая случайная величина, распределенная норS
мально с математическим ожиданием нуль и дисперсией единица,  – константа. Будет
ли решение непрерывным в любой момент времени t.
5. Сделать замену переменного в процессе dS   SdW :
a. F  ln  t  3 S 2  S  1   exp 3 / 2  t  3 S 2  S  1 






S
b. F  S  t 2  t
6. Вычислить интеграл Ито:
t
a. с помощью формулы Ито найти Y (t )   sW d sW 
0
t
b. (по определению) Y (t )   s 2W dW s 
0
ВАРИАНТ №8
1. Изобразить график случайной функции:
t
а. Y (t )  arctg t   W s   A  s dW s  , t  [0, ] , W (t ) – винеровский процесс, А – константа.
0
2
b. Y (t )  AW (t )  BtW (t )  C , W (t ) – винеровский процесс, A, B, C – некоторые коэффициенты.
2. Найти предел в среднеквадратичном при n   :
1 1

t k k!1 1  nt sin(n t ) t , t  0,
а. X n (t , k )  
причем k фиксировано, k  0, 1, 2 ... .

0
,
t

0
,

 t (n  1) 
b. X n (t )  cos 
 W ln (t  1)  , t  0.
n 

3. Броуновский мостик: пусть a, b – некоторые фиксированные числа. Найти решение уравbS
dt  dW , S0  a  const , t  [0,1) .
нения: dS 
1 t
4. Выполнить следующее задание:
a. Показать, что для решения уравнения 3 справедливо равенство: lim S (t )  b в среднеквадt 1
ратичном.
1
b. dS   dt  S dW , S (0)  S0  0 – некоторая случайная величина, распределенная норS
мально с математическим ожиданием нуль и дисперсией единица, ,  – константы. Будет ли решение непрерывным в любой момент времени t?
5. Сделать замену переменного в процессе dS  dt   SdW :
a. F  ln  t  3 S 2  S  1   exp 3 / 2  t  3 S 2  S  1 




b. F  S  t S
6. Вычислить интеграл Ито:
t
 
a. с помощью формулы Ито найти Y (t )   ln s d sW 2
t


0
b. (по определению) Y (t )   W 2  1 dW
0
ВАРИАНТ №9
1. Изобразить график случайной функции:

t
а. Y (t )  exp   W s   A cos s  dW s  , t  [0, ] , W (t ) – винеровский процесс, А – константа.

0
b. Y (t )  cos 2 (2S (t )) t , S (t ) – случайная величина, имеющая распределение Вейбулла с параметрами   10 5 и k  10 .
2. Выполнить следующие задания:
a. Пусть стохастический процесс определен формулой
k  exp( t ) s t s 
X (t , k )   
 , X (t ,0)  0, k  0, 1, 2 ... .Показать, что процесс будет иметь незаs!
s 1 

висимые приращения по k.
b. Найти предел в среднеквадратичном при n   :
t n sin s
n d W s  .
X n (t )  
s
0
 
 n dW s  ,
t n sin s
3. Будет ли процесс X (t )  lim X n (t ) , где X n (t )  
n 
0
s
непрерывным на
t  [0,1] ? Дифференцируемым?
4. Найти решение стохастических дифференциальных уравнений:
a. dS  dt  S dW , S (0)  S0  0 – некоторая случайная величина, распределенная нормально с математическим ожиданием нуль и дисперсией единица,  – константа.
5. Докажите формулу дифференцирования по частям: пусть dSi  i Si dt  Si dW , i  1, 2 –
два стохастических процесса. Тогда d S1S2   S1dS2  S2 dS1  dS1dS2 .
1
6. Сделать замену переменного в процессе dS  2 dt  S dW :
S

a. F  ln S 3  t

b. F  S  t cos S
7. Вычислить интеграл Ито:
2

t
a. с помощью формулы Ито найти Y (t )   W n d s  W 2
t

0
 
b. (по определению) Y (t )   W 2 s dW
0
ВАРИАНТ №10
1. Изобразить график случайной функции:
а.
t
Y (t )   Pk ( s) dW s  ,
где
Pk s 
–
полином
k–го
порядка
от
W (t ) :
0
k
Pk s   ak W  ...  a1W  a0 , t  [0,1] , W (t ) – винеровский процесс, аi – константы, k=2.
b. Y (t )  S (t ) t 2  1 , S (t ) – случайная величина, имеющая распределение Максвелла с параметром   1.
2. Найти предел в среднеквадратичном при n   :
t
 2 
а. X n (t )   exp   s
d W s  .
n 

0
t
 2
b. X n (t )   ln  s n
1 

 W s  d W s  .

t s2
3. Будет ли процесс X (t )  lim X n (t ) , где X n (t )  
W s d W s  , непрерывным на
2
n 
n

1
0
t  [0,1] ? Дифференцируемым?
4. Найти решение стохастических дифференциальных уравнений:
1 

a. dS   c   2  Sdt  S dW , S (0)  S0  0 – некоторая случайная величина, распределенная
2 

нормально с математическим ожиданием нуль и дисперсией единица,  – константа.
1
c. dS  3 S dt  3 S 2 dW , S (0)  const  0 , t>0. Будет ли решение непрерывным в любой
3
момент времени t?
5. Сделать замену переменного в процессе dS  ln S dt   e S dW :
a. F  t 2 S

S  t
b. F  ln S  t  | 3 t
6. Вычислить интеграл Ито:
t
a. с помощью формулы Ито найти Y (t )   W n d s / W 
0
t
b. (по определению) Y (t )   e w dW
0
ВАРИАНТ №11
1. Изобразить график случайной функции:
t
а. Y (t )   exp (W ) dW s  , где W (t ) – винеровский процесс. Использовать при вычислении
0
  и формулу Ито.
W
de
b. Y (t )  S (t )t 2  1 , S (t ) –случайная величина, распределенная равномерно на промежутке
[0,3] .
2. Найти предел в среднеквадратичном при n   :


arctg ns 2  1
d W s  .
ns
0
t
а. X n (t )  
t
 
b. X n (t )   sin

ns  1  sin
 ns d W s .
0


t  1  n  1 n s / 1 n 
3. Будет ли процесс X (t )  lim X n (t ) , где X n (t )   

n 
0 2  n 
на t  [0,1] ? Дифференцируемым?
4. Найти решение стохастических дифференциальных уравнений:
a. dS  S 2 dt , S (0)  1 , t  [0,1) .
b. dS  33 S 2 dt , S (0)  0 . Будет ли решение единственным?
5. Сделать замену переменного в процессе dS  S dt   SdW :
a. F  S    S  t
b. F  arctg (t cos S )
6. Вычислить интеграл Ито:
d W s  , непрерывным
t
a. с помощью формулы Ито найти Y (t )   W n d W / s 
0
t
b. (по определению) Y (t )   We w dW
0
ВАРИАНТ №12
1. Изобразить график случайной функции:
t
а. Y (t )   cos(W ) dW s , где W (t ) – винеровский процесс. Использовать при вычислении ин0
теграла разложение в ряд Тейлора подынтегральной функции в окрестности точки W и формулу Ито.
b. Y (t )  S (t ) ln t  1 , S (t ) –случайная величина, распределенная нормально с параметрами
a  2 ,  2  1 . Пусть S (t ) принимает только положительные значения
2. Найти предел в среднеквадратичном при n   :
2 2
t  n  2 s n
а. X n (t )   

0  2n  1 
t  3n 2
d W s  .
 n  1 
b. X n (t )   
 2

0  2n  n  1 
sn 3 /(1 n)
d W s  .
t
 2n 
3. Будет ли процесс X (t )  lim X n (t ) , где X n (t )   sin n 
 d W s , непрерывным на
3
n

1
n 


0
t  [0,1] ? Дифференцируемым?
4. Найти решение стохастических дифференциальных уравнений:
1, t  0,
a. (процесс Орнштейна–Уленбека) dS  t S dt  dW , S (0)  0 , (t )  
(использо 1, t  0.
вать лекции). Сравнить полученное решение с решением уравнения dS  t dt . Будет ли
решение последнего уравнения единственным?
1
b. dS  2 dt , S (0)  1 . Будет ли решение единственным, непрерывным?
S
1
5. Сделать замену переменного в процессе dS  ln t dt   dW , t>0:
S
a. F  S    S  t
b. F  sh (t 2 cos S )
6. Вычислить интеграл Ито:
t
 
a. с помощью формулы Ито найти Y (t )   W 2 d e sW
0
t
b. (по определению) Y (t )   ch W dW
0
ВАРИАНТ №13
(повышенной сложности)
1. Изобразить график случайной функции:
t
а. Y (t )   cos (W 2 ) dW s  , где W (t ) – винеровский процесс. Использовать при вычислении ин0
теграла разложение в ряд Тейлора подынтегральной функции в окрестности точки W и формулу Ито.
b. Y (t )  S (t ) ln cos(t )  1 , S (t ) –случайная величина, распределенная нормально с параметрами a  0 ,  2  1 . Пусть S (t ) принимает только положительные значения
2. Найти предел в среднеквадратичном при n   :
( n)
 tm2  n , m  0, 2 n . Докаа. (Бакстер) Пусть имеется отрезок [0, t ] и его разбиение вида t m
2 n 1
    
( n)
( n) 2
зать, что в среднеквадратичном  W t m
 t , где W (t ) – винеровский процесс.
1  W t m
m0

3. Дифференцируем ли случайный процесс вида f t   
  для любого t?
sin n 2t
n2
4. Найти решение стохастических дифференциальных уравнений:
1
a. dS   dt  S dW , S (0)  S0  0 – некоторая случайная величина, распределенная норS
мально с математическим ожиданием нуль и дисперсией единица, ,  – константы. Будет ли решение непрерывным в любой момент времени t?
1
  
b. dS   S dt  1  S 2 dW , S (0)  a  const   ,  , причем время выбирается из усло2
 2 2

   
вия, что t  inf s  0,W ( s)   ,   . Примечание: использовать формулу Ито.
 2 2 

1
5. Сделать замену переменного в процессе dS   dt   SdW :
S
ln S  t cos S 
a. F  S
b. F  t S  , где  S  – гамма–функция.
6. Вычислить интеграл Ито:
n 1
t
 
a. с помощью формулы Ито найти Y (t )   W n d e sW , n – произвольное.
0
t
b. (по определению) Y (t )   cos W dW
0
ВАРИАНТ №14
1. Изобразить график случайной функции:
t
а. Y (t )   sin (2W ) dW s  , где W (t ) – винеровский процесс. Использовать при вычислении ин0
теграла разложение в ряд Тейлора подынтегральной функции в окрестности точки W и формулу Ито.
b. Y (t )  S (t ) exp( t )  2 , S (t ) –случайная величина, распределенная нормально с параметрами a  2 ,  2  1 . Пусть S (t ) принимает только положительные значения
2. Найти предел в среднеквадратичном при n   :
( n)
 tmn1 , m  0, n . Докаа. (Бакстер) Пусть имеется отрезок [0, t ] и его разбиение вида t m
2 n 1
    
( n)
( n) 2
зать, что в среднеквадратичном  W t m

W
t
 t , где W (t ) – винеровский процесс.
m
1
m0

3. Непрерывен ли случайный процесс вида f t   
  , t [0,1] ?
sin n 2t
n2
4. Найти решение стохастических дифференциальных уравнений:
a. (броуновское движение) dS  dt  dW , S (0)  S0  0 – случайная величина, распределенная нормально с математическим ожиданием нуль и дисперсией единица, , – константы.
b. (процесс Коха для краткосрочной процентной ставки) dS  r  S dt   S dW , S (0)  0 ,
2r
r , ,  – некоторые константы. Исследовать поведение решения в случае r  1 , 2 .

5. Сделать замену переменного в процессе dS  S dt   dW :
n 1
a. F  ln 3 S  t cos S 
b. F  explog 2 t sin S 
6. Вычислить интеграл Ито:
t
 
a. с помощью формулы Ито найти Y (t )   W d W 3 .
0
t
b. (по определению) Y (t )   sh W dW
0
ВАРИАНТ №15
1. Изобразить график случайной функции:
t
а. Y (t )   sh 2 (W ) dW s , где W (t ) – винеровский процесс. Использовать при вычислении
0
  и формулу Ито.
W
de
b. Y (t )  S (t ) ctg t  1 , S (t ) –случайная величина, распределенная равномерно на промежутке
  5 
 4 , 6  .
2. Найти предел в среднеквадратичном при n   :
t  n  s n
а. X n (t )   
 d W s  .
0 n  s 
t
n
s
 s 
b. X n (t )    sin    cos   d W s  .
n
 n 
0
t
 s 
3. Будет ли процесс X (t )  lim X n (t ) , где X n (t )   sin n 
 d W s  , t  [0,1] , непрерывным?
n 
 n
0
Дифференцируемым?
4. Выполнить следующие задания:
a. Доказать формулу интегрирования по частям:
t
t
 f s d W s   f W 0   W s  df s  ,
0
t
0
b. Найти решение стохастического дифференциального уравнения Бесселя:
a 1
dt  dW , S (0)  S 0 , S 0 – некоторая случайная величина, распределенная нормально
S
с математическим ожиданием нуль и дисперсией единица.
5. Сделать замену переменного в процессе dS  S dt   dW :
dS 
a. F  ln 3 S  t cos S 
b. F  explog 2 t sin S 
6. Вычислить интеграл Ито:
t
 
a. с помощью формулы Ито найти Y (t )   W 2 d W 2 .
0
t
b. (по определению) Y (t )   sh t W  dW
0
ВАРИАНТ №16
1. Изобразить график случайной функции:
t
а. Y (t )   e(W  1) dW s  , где W (t ) – винеровский процесс. Использовать при вычислении
0
  и формулу Ито.
W
de
b. Y (t )  S (t ) exp( t 2 ) , S (t ) –случайная величина, распределенная нормально с параметрами
a  3 ,  2  4 . Пусть S (t ) принимает только положительные значения.
2. Найти предел в среднеквадратичном при n   :
t
а. X n (t )   nln n  s   ln n d W s  .
0
t
b. X n (t )   sin ln ns  1  sin ln ns  d W s  .
1
t
 s 
3. Будет ли процесс X (t )  lim X n (t ) , где X n (t )   cos n 
 d W s  , t  [0,1] , непрерывным?
n 
 n
0
Дифференцируемым?
4. Найти решение стохастических дифференциальных уравнений:
a. dS    t S dW , S (0)  S0 , =10, S 0 – некоторая случайная величина, распределенная
нормально с математическим ожиданием нуль и дисперсией единица.
c. dS  S dt  S  t 2 dW , S (0)  S 0 , S 0 – некоторая случайная величина, распределенная
нормально с математическим ожиданием нуль и дисперсией единица.
Примечание: использовать формулу Ито.
5. Сделать замену переменного в процессе dS  dt   S 2 dW :
a. F  ln ch t cos S 




 
b. F  sin S 2 ln t  cos t 2
6. Вычислить интеграл Ито:
t
 
a. с помощью формулы Ито найти Y (t )   W  s d W 2 .
0
t
b. (по определению) Y (t )   sh W  s dW
0
ВАРИАНТ №17
1. Изобразить график случайной функции:
t
а. Y (t )   sh(W ) dW s  , где W (t ) – винеровский процесс. Использовать при вычислении
0
  и формулу Ито.
W
de
b. Y (t )  3 S (t ) t 2  1 , S (t ) –случайная величина, имеющая показательное распределение с параметром   0.5 .
  сходится к винеровскому процессу.
k
sin n 2t
n 1
n2
2. Доказать, что процесс X k t   
 
k cos n 2t
на t  [0,1] ? Является
n2
n 1
3. Непрерывен ли процесс X (t )  lim X k (t ) , где X k t   
k 
ли он дифференцируемым?
4. Найти решение стохастических дифференциальных уравнений:
a. dS  et Wdt  d W  , S (0)  S 0 – некоторая случайная величина.
aS
bS
1
1
b. (система) dS1  S1dt  1 dW , dS 2  S 2 dt  2 dW .
2
b
2
a
5. Сделать замену переменного в процессе dS  ln S dt   SdW :
a. F  exp sh t cos S 
b. F  sin th S ctht   costh S ctht 
6. Вычислить интеграл Ито:
t
 
a. с помощью формулы Ито найти Y (t )   W  s 3 d W 2 .
0
t
b. (по определению) Y (t )   ch W  s  dW
0
ВАРИАНТ №18
1. Изобразить график случайной функции:
t
а. Y (t )   ch 2 (W ) dW s  , где W (t ) – винеровский процесс Использовать при вычислении
0
  и формулу Ито.
W
de


b. Y (t )  ln S 2 (t ) t  1 , S (t ) –случайная величина, распределенная равномерно с параметрами
a  1, b  4 .
2. Выполнить следующее задание:

1, t  
 n W (t )
а. Доказать, что X n (t )  2
сходится к X (t )   t  k   
при n   .
k 0
0, t  
b. Доказать, что X n (t )  n
 n W (t )

1, t  
сходится к X (t )   t  k   
при n   .
k 0
0, t  
t
 s 
3. Будет ли процесс X (t )  lim X n (t ) , где X n (t )   cos n 
 d W s  , t  (0,1] , непрерывn 
 n
0
ным? Дифференцируемым?
4. Найти решение стохастических дифференциальных уравнений:
1
dt  S dW , S (0)  S0  0 – некоторая случайная величина, распределенная норS
мально с математическим ожиданием нуль и дисперсией единица.
a. dS 
b. dS  S 2 dt  S dW , S (0)  S0  0 – некоторая случайная величина, распределенная нормально с математическим ожиданием нуль и дисперсией единица,  – константа. Будет
ли решение непрерывным в любой момент времени t.
5. Сделать замену переменного в процессе dS  S dt   SdW :
a. F  exp sh t cos S 
b. F  sin sh S ch t   cosch S sh t 
6. Вычислить интеграл Ито:
t
 
a. с помощью формулы Ито найти Y (t )   W  s 4 d W 3 .
0
t
b. (по определению) Y (t )   exp W  s  dW
0
ВАРИАНТ №19
1. Изобразить график случайной функции:
t
а. Y (t )   3 W 2 dW s  , где W (t ) – винеровский процесс, t   6 .
0
b. Y (t )  S (t ) t  1 , S (t ) –случайная величина, распределенная равномерно с параметрами
a  1, b  3 .
2. Найти предел в среднеквадратичном при n   :
1
а. X n (t )  sin n n t ,  n – последовательность нормально распределенных случайных велиn
чин со средним нуль и дисперсией единица, t  [0,1] .
1
b. X n (t )  2 exp   2n t ,  n – последовательность нормально распределенных случайных веn
личин со средним нуль и дисперсией единица, t  [0, 4] .
sin 5n  sin 3n
3. Будет ли процесс X (t )  lim X n (t ) , где X n (t ) 
exp   n t  , t  (0,1] ,  n расn 
n2 t
пределены нормально с нулевым средним и дисперсией единица, непрерывным? Дифференцируемым?
4. Найти решение:
a. dS  eW dt  S dW , S (0)  S 0 – некоторая случайная величина, распределенная нормально
с математическим ожиданием нуль и дисперсией единица.
b. Пусть S (t ) – средне–возвратный процесс Орнштейна –Уленбека, удовлетворяющий
уравнению dS    S dt   dW , S (0)  S 0 , ,  – некоторые числа. Найти S (t ) . Воспользоваться способом решения уравнения Орнштейна –Уленбека (см. лекции).
5. Сделать замену переменного в процессе dS  shS dt   ch S dW :


a. F  exp t 2 S  ln S
 


b. F  th t S
6. Вычислить интеграл Ито:
t


a. с помощью формулы Ито найти Y (t )   sh 2W  d W 2  W .
0
t
b. (по определению) Y (t )   W dW
0
ВАРИАНТ №20
1. Изобразить график случайной функции:
t
а. Y (t )   tW dW s  , где W (t ) – винеровский процесс. Использовать при вычислении интегра0
ла разложение в ряд Тейлора подынтегральной функции в окрестности точки W и формулу
Ито.
b. Y (t )  tS (t )  W (t ) , S (t ) – случайная величина, имеющая распределение Максвелла с параметром   1.
2. Найти предел в среднеквадратичном при n   :
n
ns
а. X n (t )   
 d W s  .
0 n  s 
t
n
t
s
 s 
b. X n (t )    cos   sin    d W s  .
n
 n 
0
  nt  1 
 , t  (0,1] ,
 n 
3. Будет ли процесс X (t )  lim X n (t ) , где X n (t )  sin n 
n 
 n распределены
нормально с нулевым средним и дисперсией единица, непрерывным? Дифференцируемым?
4. Найти решение:
1
a. dS  3 dt  S dW , S (0)  S0  0 – некоторая случайная величина, распределенная норS
мально с математическим ожиданием нуль и дисперсией единица,  – константа. Будет
ли решение непрерывным в любой момент времени t.
b. dS   S dW , S (0)  S0  0 – некоторая случайная величина, распределенная нормально с
математическим ожиданием нуль и дисперсией единица,  – константа.
5. Сделать замену переменного в процессе dS  ln S dt   ch S dW :
 
a. F  exp t 2 S
b. F  ln  S 2  S 2  t 2 


6. Вычислить интеграл Ито:
t


a. с помощью формулы Ито найти Y (t )   sh 2 W  ch 2 W dW .
0
t
b. (по определению) Y (t )   W 2  1 dW
0
Скачать