120103 Лекции ЧМЛА 2010

реклама
Лекция 1
1. Предмет и цели курса, его структура и содержание:
рекомендуемая литература.
Все задачи космической геодезии могут быть получены из решения т.н.
фундаментального уравнения космической геодезии
r=R+ 
(1)
связывающего между собой геоцентрический радиус-вектор космического
аппарата (КА) (искусственного спутника Земли (ИСЗ)) r, топоцентрический
радиус-вектор ИСЗ  и геоцентрический радиус-вектор R наземного пункта,
из которого производится наблюдение ИСЗ.
Вектора, входящие в уравнение (1), считаются заданными в трехмерных
инерциальной или земной системах координат. При этом вектор 
полностью или частично получается из измерений, а вектора R или r в
зависимости от поставленной задачи определяются из решения системы
линейных алгебраических уравнений вида
Ax = f,
(2)
где А- матрица коэффициентов, х- вектор неизвестных, f- вектор свободных
членов. Формируется система уравнений (2) по результатам множества
измерений ИСЗ, содержащих ошибки разного рода, на которые
накладываются ошибки используемой модели движения космических
аппаратов и наземных пунктов. При решении системы (2), размер которой
может достигать сотни и тысячи уравнений, большую роль играет структура
матрицы коэффициентов А, характер накопления погрешностей вычислений
на ЭВМ. Таким образом, даже при использовании высокоточной
измерительной аппаратуры, конечный результат будет содержать ошибки.
Целью данного спецкурса является изучение оптимальных способов решения
системы линейных уравнений (2), позволяющих получить наиболее точное
значение компонент вектора решения x.
Полный курс состоит из 5 частей: При существующей расчасовке удается
пройти только первые три части.
1 часть (базовые знания по ЛА).
Некоторые сведения их теории конечномерных пространств.
Понятие о векторном пространстве, его размерности и базисе. Понятие
нормированного, метрического и евклидова линейных пространств. Свойства
векторов и операции с ними. Виды матриц и операции с матрицами. Понятия
вырожденности и ранга матрицы. Псевдообратные матрицы и их свойства.
Линейные отображения и преобразования. Собственные
значения и
собственные векторы матриц. Матричные разложения (примерно 5 лекций).
2 часть (вводная в решение задач КГ).
Вычислительные задачи КГ и их свойства
Нелинейная природа задач КГ, преобразование нелинейных задач в
линейные. Понятие прямых и обратных задач. Проблемы, связанные с
решением обратных задач. Неустойчивость обратных задач. Понятие
корректно и некорректно поставленных задач. Измерительные задачи как
разновидность обратных задач. Условия регулярности измерительной задачи.
Понятие динамической системы. Общая постановка задачи оценивания
состояния динамической системы.
Типичные методы оценивания
динамической системы и их целевые функции (примерно 2 лекции).
3 часть. Решение СЛАУ в идеальных вычислительных условиях.
Условия корректности решения. Классификация решений различных
видов СЛАУ. Понятие прямых и итерационных методов. Некоторые методы
решения СЛАУ (методы Гаусса, Холецкого, ортогонального и сингулярного
разложения и др.) (примерно 5 лекций).
4 часть. Решение СЛАУ в реальных вычислительных условиях.
Ошибки исходных данных. Погрешности представления чисел в ЭВМ.
Ошибки округления при выполнении арифметических операций на ЭВМ и их
распространение. Прямой и обратный анализ ошибок. Обусловленность
задачи и вычислений. Условия устойчивости решения СЛАУ. Алгоритмы
решения плохо обусловленных СЛАУ (принцип
регуляризации) и
произвольных СЛАУ. (примерно 6 лекций)
5 часть (заключительная)
Процесс подготовки и решения задач КГ на ЭВМ.
Основные этапы и их содержание. Некоторые практические советы по
реализации вычислительных алгоритмов на ЭВМ. (примерно 1 лекция)
Рекомендуемая литература по теме курса:
Основная литература:
1. Журкин И.Г., Нейман Ю.М. «Методы вычислений в геодезии», 1988г.
2. Воеводин В.В. «Вычислительные основы линейной алгебры», 1977г.
3. Годунов С.К. «Решение систем линейных уравнений», 1980г.
4. Малышев А.Н. «Введение в вычислительную линейную алгебру», 1991г.
5. Тихонов А.Н., Арсенин В.Я. «Методы решения некорректных задач»,
1974г. (1-е издание), 1979 (2), 1986 (3).
6. Форсайт Дж., Моулер К. «Численное решение систем линейных
алгебраических уравнений», 1969г.
7. Форсайт Дж., Малькольм М., Моулер К. «Машинные методы
математических вычислений», 1980г.
Дополнительная литература:
8. Лоусон Ч., Хенсон Р. «Численное решение задач метода наименьших
квадратов», 1986г.
9. Беклемишев Д.В. «Дополнительные главы линейной алгебры», 1983г.
10. Годунов С.К. и др. «Гарантированная точность решения систем линейных
уравнений в евклидовых пространствах», 2-е издание, 1992г.
11. Райс Дж., «Матричные вычисления и математическое обеспечение»,
1984г.
12. Парлетт Б. «Симметричная проблема собственных значений», 1983г.
Ну а теперь перейдем непосредственно к теме нашей лекции.
1 часть (базовые значения по ЛА)
Некоторые сведения из теории конечномерных пространств.
Линейное пространство (ЛП).
Понятие ЛП является одним из основных в математике. Исключительно
важная роль ему отводится и в ЧМЛА. ЛП определяется как некоторое
множество и совокупность операций на нем с определенными свойствами.
Определение. Множество R векторов х,у,z,… называется ЛП, если в
нем заданы операции сложения векторов (х+у)  R и умножения вектора на
число а*х  R, причем выполнены следующие условия:
1. х+у=у+х
(коммутативности)
2. (х+у)+z=x+(у+z)
(ассоциативности при сложении)
3. а(bх)=(аb)х
(ассоциативности при умножении)
4. х + 0 = х
(существование нуля)
5. х + (-х)= 0
(существование противоположного элемента)
6. 1*х=х
7. (а+b)x=ax=bx
(дистрибутивности при сложении)
8. a(x+у)=ах+ау
(дистрибутивности при умножении)
где а,b – действительные части (ДЧ). Мы будем рассматривать
векторные ЛП только над полем ДЧ (есть еще поле комплексных чисел),
поэтому в названии ВП опускаем название «действительное» - ДВП, а будем
говорить просто ВП.
Также следует отметить, что элементы множества R называют
векторами независимо от их конкретной природы (см. примеры).
Примеры линейных пространств: - ВП геометрических векторов на
плоскости
- ВП упорядоченных троек действительных чисел (в пространстве)
- ВП полиномов вида……….  аi ,хi
- ВП конечных последовательностей ДЧ,
например, для векторов (с1 , с2 , …,сn) и (d1,d2,…dn)
(с1 , с2 , …,сn)+ (d1,d2,…dn) = (c1+ d1, c2 + d2,… сn+dn),
а*(с1 , с2 , …,сn)= (ас1 , ас2 , …, асn).
Понятие о размерности и базисе пространства.
Размерность пространства связана с понятием линейной зависимости и
независимости векторов. Пусть векторы х1 , х2,…,хn  R, ai – ДЧ. Выражение
а1 х1 + а2 х 2 +…+аn хn =ЛК
(1.1)
называется линейной комбинацией векторов (ЛК).
Числа а1 а2 ,…. аn – коэффициенты ЛК.
ЛК называется тривиальной, если все аi = 0 , т.е. ЛК= 0.
Иначе, когда (/а1/+/а2/+…/аn/= 0 ) – нетривиальной.
 R называется линейно
Определение. Векторы х1 , х2,…,хn
зависимыми, если существует их нетривиальная ЛК = 0 . В противном
случае эти векторы – линейно независимы, т.е. а1 х1 + а2 х 2 +…+аn хn = 0
только при
а1 = а2= …. =аn =0.
Примеры:
- 2 неколлинеарных вектора – всегда линейно независимы;
- 3 компланарных – линейно зависимы, т.к. 3-й вектор есть ЛК 2-х
остальных, т.е.
а1 х1 + а2 х 2 +а3 х3=0 => х3=b1x1+ b2x2 (b1 =-a1/a3 , b2 =-a2/a3 ).
Определение. Размерностью пространства называется наибольшее
число линейно независимых его векторов.
Обозначение: dim R = n или Rn
Векторное пространство заданное на плоскости R2 имеет размерность 2.
Пространственное векторное пространство R3 имеет размерность 3.
Определение. Базисом ЛП называется упорядоченный набор его
линейно независимых векторов, число которых
равно размерности
пространства.
Базисные векторы обычно обозначаются следующим образом:
е1, е2,…..,еn  Rn
В одном пространстве существует бесконечное количество базисов,
различающихся размером и направлениями базисных векторов.
е1 а1
х
е1
х
а1
а2
е2
а 2 е2
где х – вектор
а1 и а2 – координаты вектора ( в базисе (е1, е2)).

Определение. Подпространством Rk
Rn называется всякое
подмножество Rn, являющееся линейным пространством, причем
dim Rk  dim Rn
Пример: По отношению к 3-х мерному пространству R3 , плоскость R2
является подпространством.
Норма, расстояние, скалярное произведение векторов.
Определение. ЛП называется нормированным, если определено
правило, согласно которому принадлежность х  R ставится в соответствие
ДЧ //х//, называемым нормой вектора, при этом удовлетворяются следующие
условия:
1. //х//>= 0 , //х// = 0, если x = 0.
2. //ах//=/а/*//х//, а – действительное число.
3. //х+у//< //х//+//у// (неравенство треугольника Минковского).
Пусть вектор х задан в п-мерном пространстве Rn, х  Rn.
Примеры норм вектора х:
1. //х// = /х/, для х  R1 - множество ДЧ – простая норма, существует
только для действительных чисел.
2. Октоэдрическая или  – норма - //х//  =

n
3. //х//Е=  
 i 1
2
1
x 
i
2
=
x x
2
2
1
2
n

/ xi /.
i 1
 .....  xn , - евклидова норма в пространстве
2
n
R.
имеет геометрический смысл – это длина вектора х.
4. //х//с = max
/xi/, i=1,2,…, n, - кубическая или с- норма.
i
Вектор х называется нормированным, если //х// = 1.
В нормированном пространстве можно определить расстояние (х,у)
между векторами х и у как евклидову норму их разности, т.е. (х,у) =//х-у//Е
(1.2)
При этом:
1. (х, у) >0, причем (х, у) =0, если х = у.
2. (х, у) =  (у, х), т.е. //х-у//Е = //у- х//Е.
3. (х,z)  (x,у) + (у,z),
причем //х-z//Е  //х-у//Е +//у-z//Е.
Пространство, на котором задана операция определения расстояния
(х,у) называется метрическим нормированным пространством.
Определение. ЛП R называется евклидовым, если на нем определено
понятие скалярного произведения векторов (х,у), удовлетворяющее
следующим аксиомам.
1. (х,у)=(у,х)
(коммутативность)
2. (ах,у) =а(х,у)
(ассоциативность), где а – ДЧ
3. (х+у,z)=(х,z)+(у,z)
(дистрибутивность)
4.(х,х)  0,
при этом (х,х)= 0,
если
х= 0 (положительная
определенность).
Свойства 2, 3 - свойства линейности скалярного произведения (СП).
Пример: в ортонормированном базисе для векторов х и у имеем
(х, у)=((х1, х2,…., хn)(у1, у2,….уn)) = х1 х1 + х2 у2+…+ хnуn = ДЧ.
Евклидову норму можно определить через скалярное произведение:
//х//Е =
õ, õ 
т.е., всякое евклидово пространство является нормированным и,
следовательно, метрическим.
В векторной алгебре известно неравенство Коши-Буняковского:
õ, õ 
/(х, у)/ 

ó, ó  , где х,у  Rn

  
Отсюда выводится понятие угла между векторами  õ, ó :


   
cos  õ, ó   õ, ó  /


 

õ, õ   ó, ó


õ
,
ó


 

// õ // Å  // ó //
(1.3)
Å


Если  õ, ó =900, то (х, у) = 0, а векторы х и у –ортогональны, т.е. х  у.


Определение. Совокупность n векторов евклидова пр-ва х1, х2,…хn  Rn
составляет ортонормированную систему, если векторы имеют единичную
норму и попарно ортогональны, т.е.
(хi, хi)=1, где
i  [1, n ],
(хi, хj)=0, где
i, j  [1, n ], i  j.
Пример:
х_
1. Вектор у = //х//Е всегда имеет единичную норму.



2. Пр-во R2 - плоскость - евклидово пространство, (х, у)=/х//у/*сos  õ, ó .

(х,у)=х1 у1 +х2 у2 (для ортонормированного базиса i, j);
3. Пространство Rn векторов
х=(х1, х2,…,хn)
у=(у1,у2,…уn)
___________________
(х, у)=
n

i 1
хi уi (для ортонормированного базиса).

Пусть в Rn задан ортонормированный базис,
(е1, е2,….,еn)  Rn – базисные векторы.
Тогда x  Rn м.б. представлен в виде х=х1е1+х2е2+…..+хnen.
Поскольку (еi, ei )=1;
(еi, ej )=0, i  j, то очевидно,
хi=(х,еi)/(еi , ei)=(x, ei), i  [1, n]
Т.е. i –я координата вектора х равна скалярному произведению этого
вектора с i –м базисным вектором.
Любое евклидово векторное пространство конечной размерности имеет
ортонормированный базис.
Кафедра астрономии и гравиметрии
В.А. Ащеулов, Ю.В. Сурнин
Лекции по курсу
«Численные методы линейной алгебры в задачах космической геодезии»
7 семестр
Объем курса: лекций – 24 часа
лабораторных занятий – 24 часа.
форма отчетности - экзамен
Лекция 2.
1.4. Понятие матрицы. Виды матриц и их свойства.
Если m*n выражений расставлены в прямоугольной таблице из m строк и n
столбцов:
I а11 а12 …. а1n I
I а21 а22 …. а2n I
I ………………….. I
I аm1
an2 ….. amn I
то говорят о матрице размера m*n или сокращенно об m*n –матрице, а
выражения aij называют элементами матрицы. Положение элемента в
таблице характеризуется двойным индексом. Первый индекс означает номер
строки, второй – номер столбца, на пересечении которых стоит элемент
(нумерация строк производится сверху вниз, а столбцов – слева направо).
Элементами матрицы, как правило, являются числа, но иногда и другие
математические объекты, например, векторы, многочлены, дифференциалы и
даже матрицы.
Матрицы обозначаются следующими способами:
 à11....... à1n 


 ............... 


 a m1...... a mn 
a
.......... a1n
11
.....................
a
m1
........ a mn
à11....... à1n 


 .............. 
 à ...... à 
mn 
 ü1
а также ( аij ) или I aijI или [ aij]
Матрицы бывают двух видов:
квадратные (m=n) и
прямоугольные (m  n : m>n или m<n)
Матрица размера n*n называется квадратной матрицей порядка n.
Элементы аii, т.е. элементы, стоящие в таблице на диагонали квадрата,
проходящей из левого верхнего угла в правый нижний, на т.н. главной
диагонали матрицы, называется главными диагональными элементами или
просто диагональными элементами. Элементы аi, n-i+1 (i=1. …, n), т.е.
элементы, стоящие на диагонали, которая проходит из правого верхнего угла
в левый нижний (побочная диагональ матрицы), иногда называются
побочными диагональными элементами.
В случае m*n – матрицы элементы аii (i=1, …., min (m, n)) также
называют главными диагональными элементами или просто диагональными
элементами.
Сумма главных диагональных элементов называется следом (Spur, Trace)
матрицы и обозначается Sp A или TrА.
Типы квадратных матриц:
1. Диагональная
Матрица, недиагональные элементы которой равны 0, называются
диагональной (т.е. аij =0 при i  j , aii  0 и обозначается A=diag(a11,
a22, …, ann) =diag (d1, d2, ...., dn).
2. Единичная
Диагональная матрица, с диагональными элементами равными 1,
называется единичной матрицей (т.е. аij =0 при i=j, аii=1) и обозначается
обычно Е или I.
Единичные матрицы в теории матричного исчисления играют такую же
роль, как и 1 в обычной алгебре.
3.Верхняя треугольная.
Матрица, у которой все элементы расположенные под главной
диагональю =0 (т.е. аij=0 при i>j), называется верхней треугольной матрицей.
4. Нижняя треугольная.
Матрица, у которой все элементы расположенные над главной
диагональю =0 (т.е. аij=0 при i<j), называется нижней треугольной матрицей.
5. Симметричная.
Матрица, у которой элементы, симметричные относительно главной
диагонали равны между собой (т.е. аij=аji при i  j) называется симметричной
матрицей.
6. Кососимметричная.
Матрица, у которой элементы, симметричные относительно главной
диагонали равны между собой по модулю и противоположны по знаку (т.е.
аij=аji при i  j) называется кососимметричной матрицей.
Типы прямоугольных матриц:
По внешнему виду: - вертикальные, когда m>n.
- горизонтальные, когда m<n.
1. Нулевая.
Матрица, все элементы которой равны 0, называется нулевой (т.е. аij=0
для всех i , j) и обозначается обычно 0. Играет такую же роль, как 0 в
обычной алгебре.
2. Блочная.
Матрица, элементами которой являются матрицы (блоки) меньшей
размерности, называется блочной.
3. Матрица-строка (вектор-строка).
Матрица размером 1*n, состоящая из одной строки, называется матрицейстрокой.
4. Матрица-столбец (вектор-столбец, m-мерный вектор).
Матрица размером m*1, состоящая из одного столбца, называется
матрицей-столбцом.
5. Разреженная.
Матрица, у которой многие элементы =0, называется разреженной.
Определения, данные нами для нулевых, блочных и разреженных матриц
справедливы и для квадратных матриц.
В свою очередь определения, данные нами для диагональных,
единичных, верхне и нижне - треугольных квадратных матриц справедливы с
приставкой «почти» и для прямоугольных матриц. Например, «почти»
треугольная матрица и т.д.
1. Подматрицы.
Каждая таблица, которая получается из матрицы Аmn вычеркиванием
части строк и столбцов, называется подматрицей матрицы Аmn.
Определители матриц и их свойства.
Определителем n-го порядка квадратной матрицы А называется число
(det A,  À, À ), которое ставится ей в соответствие по правилу
n
det A=  (-1)1+ja1jM1j ,
(2.1)
j=1
(правило вычисления определителя разложением по первой строке), где
а1j – элементы первой строки, М1j –миноры порядка n-1.
Минор – это определитель меньшего порядка, чем исходный,
получаемый из него вычеркиванием каких-либо строк и столбцов.
Минор Мij элемента аij – определитель, получаемый из исходного
определителя
вычеркиваем i-ой строки и j-го столбца, на пересечении
которых расположен элемент аij.
Под алгебраическим дополнением Аij элемента аij понимают минор
домноженный на (-1) в степени i + j , тогда
n

À

j=1
à
1j
1 j
A
1j
(2.2)
Минор любого порядка можно разложить на миноры меньшего порядка
(вплоть до 2-го порядка).
Определитель 2-го порядка вычисляется просто (правило треугольника)
à
à
11
21
à
à
12
== а11 а22- а21*а12
(2.3)
22
Свойства определителей.
1*. Определитель м.б. вычислен разложением по любой его i-ой строке
или любому j-му столбцу.
2*. Величина определителя не меняется при транспонировании матрицы.
3*. При перестановке местами 2-х столбцов (строк) определитель меняет
свой знак на противоположный.
4*. Определитель матрицы с двумя одинаковыми столбцами (строками)
равен 0.
5*. Определитель матрицы с нулевой строкой (столбцом) равен 0.
6*. Общий множитель какой-либо строки (столбца) можно выносить за
знак определителя.
7*. Необходимое и достаточное условие равенства нулю определителя –
линейная зависимость его столбцов (строк).
8*. Величина определителя не изменится, если к какому-либо его
столбцу (строке) прибавить линейную комбинацию других столбцов (строк)
данного определителя.
9*. Определитель диагональных и треугольных матриц равен
произведению их диагональных элементов.
10*. Сумма произведения элементов какой-либо строки (столбца) на
соответствующие алгебраические дополнения другой строки (столбца) равна
0.
11*. Для квадратных матриц А и В одинакового размера
det(AB)=detA*detВ
и другие.
Операции над матрицами.
2. Транспонирование матрицы.
Если в матрице Аmn поменять местами строки со столбцами, не меняя в
них порядка расположения элементов, то полученная матрица Bnm называется
транспонированной к Аmn и обозначается Аmnт
Bnm =Amnт ( bij =aji).
Свойства операции транспонирования:
1*.

т
=
 т
2*. (А+В)т =Ат + Вт
3*. (Ат)т = А
4*. (АВ)т = ВтАт
5*. Для симметричной матрицы Ат=А.
6*. Для любой матрицы А произведения АтА и ААт – всегда симметричные.
7*. Если х – n-мерный вектор размера n*1, то хтх=х1 2+х2 2 +…+хn 2=(//x//E)2
3. Равенство матриц.
Две матрицы А и В называют равными, если они имеют одинаковый
размер и все элементы, стоящие на одних и тех же местах равны между
собой.
А=В если > аij =bij для всех i, j
Линейные операции над матрицами: сложение матриц, умножение
матрицы на число.
4. Сумма матриц одинакового размера.
Сумма двух матриц А и В одинакового размера есть матрица С того же
размера с элементами cij = aij +bij Т.о., сложение матриц одинакового
размера происходит поэлементно.
5. Умножение матрицы на действительное число (ДЧ).
Произведение матрицы А на ДЧ
есть матрица В того же размера с
элементами bij =  * aij , т.е. умножение матрицы на ДЧ происходит
поэлементно.
Свойства линейных операций:
1. А+В = В+А
2. А+В+С = (А+В)+С = А+(В+С)
3. А+0=А
4. А+(-1)А=0
5.

(А+В) =

А+

       
7*.       
6*.
8*. 1 * А=А
9*. 0 * А = 0 ,

0=0
В
Свойства 1* - 9* взятые вместе показывают, что множество этих матриц
одинакового размера образует ВП.
Введем понятие нормы матриц.
Рассмотрим множество матриц А размера m*n. Пусть в этом множестве
введены обычные линейные операции сложения матриц и умножение
матрицы на число. (Причем это число и элементы матрицы, принадлежащей
множеству Аmn, берутся из одного поля Р, например – ДЧисла). Тогда данное
множество Аmn с выделенными в нем операциями представляет собой
конечномерное ЛП. Обозначим это пространство Rmn.
Зададим в пространстве Rmn числовую функцию f (A), которая каждой
матрице из Rmn сопоставляет некоторое ДЧ, удовлетворяющее условиям
нормированного ЛП. Эту функцию будем называть нормой в пространстве
матриц, а ее значение на матрице А нормой матрицы А.
Часто вместо обозначения f (A) используют обозначение  , как и для
нормы вектора. Т.о., для нормы матрицы должны выполнятся следующие
условия:
1.  > 0 для любой ненулевой матрицы из Rmn
2.
À
3.
À Â
 *
=

À
À ,
Â
+
где
 - ДЧ
, где А, В  Rmn.
Приведем наиболее часто используемые в практике вычислений нормы
матриц, принадлежащие пространству Rmn:
m
1.  – норма À = max  àij
(2.4)

j
i=1
Производится сравнение сумм по столбцам. В качестве  - нормы
принимается максимальная из сумм модулей элементов матрицы А по
столбцам. Число таких сумм равно числу столбцов n.
n
2. С – норма À = max
(2.5)
 àij
i
ñ
j=1
Производится сравнение
сумм по строкам. В качестве С – нормы
принимается максимальная из сумм модулей элементов матрицы А по
строкам. Число таких сумм равно числу строк m.
À
3.
Å
  m n 2  1/2
  aij 
,


i
j


(2.6)
получившая название евклидовой нормы матрицы. Евклидову норму
матрицы можно определить и таким образом
À

Å
trAÒ À
4. m – норма
5. М-норма
À
À

ü
m

trA AÒ
(2.7)
 max aij
(2.8)
i, j
mn
 max aij 
i, j
mn

À
(2.9)
m
6.
A

s
max  À A
 i
,
(2.10)
получившая название спектральной нормы матрицы. Числа  i   i ,
где  i собственные значения
матрицы Ат А, являются сингулярными
числами матрицы А.
6. Умножение сцепленных матриц.
Матрицы Amk и Bkn называется сцепленными если число столбцов
первой матрицы равно числу строк второй матрицы. При этом матрицы Bkn и
Amk могут оказаться несцепленными, если n  m.
Произведение АВ двух сцепленных матриц А и В есть матрица С, где
Сmn=Amk *Bkn , при этом Сij =
k
a b
 1
i
(2.11)
j
т.е. элемент, стоящий в i-ой строке и j-ом столбце матрицы произведения
С получается в виде скалярного произведения i-ой строки матрицы А на j-ый
столбец матрицы В.
Свойства умножения м-ц:
1*. АВ  ВА
2*. А(В+С)=АВ+АС
3*. (А+В)С=АС+ВС
4*.(АВ)С=А(ВС)
5*. АО=О
6*. 0В=О
7*. АЕ=ЕА=А
9. Существуют, т.н. делители нуля, т.е. если А  О, В  О,
произведение АВ может быть нулевой матриц (АВ=О); например;
2

 52  23    1

 
93

34

 16
8

то
2 2 

3  5  0 0 0


8 24   0 0 0 

0 16 
Следовательно, из того что АВ=0, А  0, нельзя сделать заключение что
В=0, и аналогично из АВ=АС, А  0, в общем случае не следует, что В=С.
10*. Для квадратных м-ц А и В одинакового размера
det(AB)=detA*detB
7. Степени матриц.
Для квадратной матрицы А
Аn=A*A*….*A
(n сомножителей)
если А невырожденная
A0 =E
ApAg =Ap+g
(Аp)g = Apg
8. Операции с блочными матрицами
выполняются по тем же правилам, что и с обычными матрицами, где в
качестве элементов выступают блоки. При выполнении операций блоки
должны быть согласованы по размерам для соответствующих действий
сложения, перемножения матриц.
1*.


À

Ñ


 Â
 D


  A

  C
 


2*  A
 C
 B  K  L
 D   M  N


3*  A
C

 
 
 K
 
 M
 


B
D




 B 
 D 
 
  A K

  C  M
L
N
 B L
 D N
 
 
   AK  BM
 
  CK  DM
 






AL  BN
CL  DN






ЛЕКЦИЯ 3.
9. Понятие вырожденности и ранга матрицы. Обратная матрица.
Определение. Матрица называется невырожденной (неособенной),
если все ее столбцы (или строки) представляют собой систему линейнонезависимых векторов. Иначе матрица вырожденная (особенная).
Для квадратных матриц мерой линейной зависимости или
независимости столбцов (или строк) является определитель матрицы. Если
 A =0 - то матрица вырожденная, если  A  0 – то матрица
невырожденная.
Определение. Рангом матрицы А называется максимальное число
линейно-независимых столбцов (или строк) матрицы. (rang (A), r(A))
Для невырожденной матрицы Amn : r=min(m,n) (т.е. матрица А имеет
полный ранг). Для вырожденной r<min(m,n) (т.е. матрица А имеет неполный
ранг).
В матрице Аmn минор  r порядка r (r  min (m, n) называется базисным
минором, а его строки и столбцы базисными, если r  0, все остальные
миноры порядка r+1 равны нулю или не существуют.
Следовательно, ранг матрицы равен порядку его базисного минора.
Любая строка (столбец) матрицы являются линейной комбанацией ее
базисных строк (столбцов).
Две матрицы А и В эквиваленты (А  В), если равны их ранги r(A) = r(B).
Эквивалентные преобразования матрицы – преобразования, не
изменяющие ее ранга, а именно:
- перестановка строк (столбцов);
- умножение какой-либо строки или столбца на число, не = 0;
- прибавление к какому-либо столбцу (строке) линейной комбинации
других столбцов (строк)
Некоторые свойства рангов матриц:
1. r(AB)  min {r(A), r (B)}
2. r(A)=r(Aт)=r(Aт A)=r(AAт)
3. Если А – произвольная, Р и Q – любые согласованные с А по
умножению квадратные невырожденные матрицы, то
r(PAQ)=r(A).
Один из способов определения ранга: с помощью эквивалентных
преобразований матрица приводится к «трапецеидальному» виду, тогда ранг
матрицы равен числу ненулевых строк (алгоритм Гаусса).
В матричной алгебре действия деления не существует: деление
заменяется умножением на обратную матрицу (ОМ).
Дадим определение ОМ (для квадратных матриц)
Определение. Квадратная матрица А-1 называется обратной для
квадратной матрицы А, если
А-1 А=АА-1=Е.
(3.1)
Если А – квадратная матрица, то ее невырожденность есть необходимое
и достаточное условие существования ОМ А-1, такой что АА-1=Е. При этих
условиях матрица А-1, обратная для А, определена однозначно.
Т.о.,
обратные матрицы существуют только у квадратных
невырожденных матриц.
Свойства обратной матрицы.
1. (А-1)-1=А
(обратная матрица от обратной есть исходная).
-1
-1
-1
-1
2. (АВС) =С *В *А , если С-1, В-1, А-1 существуют
3. (Ат)-1=(А-1)т
4. Е-1=Е
5.det(A-1)=1/det(A)
6. Если D = diag( d1, d2,……dn),
то D-1=diag(1/d1, 1/d2,…..1/dn).
Вычисление обратной матрицы.
1-й способ. Метод неопределенных коэффициентов в применении к
СЛАУ АХ=Е приводит к n линейным системам n уравнений с n
неизвестными каждая. Решение каждой из этих n систем уравнений дает
столбец обратной матрицы Х=А-1.
2-й способ.
 A11 A12..... A1n 



1
1
A21 A22..... A2n 
À  det  A  ..........................  ,


 An1 An 2 ..... Ann 


(3.2)
где Аij – алгебраические дополнения элементов аij исходной матрицы Аnn.
Определение. Квадратная матрица называется ортогональной, если ее
столбцы (или строки) представляют собой ортонормированную систему
векторов.
В случае ортогональной матрицы А:
АnnтAnn=AnnAnnт=Еnn
и, т.о. Ат=А-1
Примеры:
 2 1
 - невырожденная
 0 1
1. А= 

А-1 =1/det(A)  À11

 =1/2

22 
À
À À
12
21
 1  1

 =
0
2


 0,5  0,5 

 .
0
1


Проверка:
 2 1  0,5  0,5   1 0 
  

. .
1   0 1 
 0 1  0
АА-1= 
 2 1
2. А=   - вырожденная
 2 1
А-1=1/0 (…) - не существует, т.к. (det(A)=0).
3. Ортогональная матрица (матрица вращения):
 Cos Sin 
 ;
 Sin  Cos 
A= 
 Cos Sin 

 Sin  Cos 
Aт = 
1 0
 == > A-1=Aт
0 1
АтА=ААт=Е 
4. Матрица перестановки (она ортогональна)-
0 1 0


1 0 0
0 0 1


Как было сказано ранее,
для вырожденных квадратных матриц Аnn (r(A) < n),
для невырожденных прямоугольных матриц Аmn (при m  n, r(A)=min(m,n)
не существует классической обратной матрицы.
Однако и для прямоугольных и для вырожденных матриц существует и
причем единственная обобщенная ОМ А+, называемая псевдообратной
(главной псевдообратной матрицы Мура-Пенроуза).
И если А- квадратная невырожденная, то А+ = А-1
10. Псевдообратная матрица (ПМ).
1случай.
Пусть Аmn – прямоугольная матрица полного ранга, т.е.
r(A)=min(m,n). Тогда можно показать (но мы на этом останавливаться не
будем), что главная псевдообратная матрица (ГПМ) вычисляется по
формуле:
Аnm+ = если r=n<m, то [ (AтА)-1 Ат] nm,
= если r= m<n, то [ Aт(AAт)-1 ] nm,
Если А –квадратная (n*n) и r=n, то
(3.3)
Аnn+ =(AтA)-1Ат=А-1(Ат)-1Ат=А-1(В-1В)=А-1,
Аnn+=Ат(ААт)-1=Ат(Ат)-1А-1=(ВВ-1)А-1=А-1.
Если форма А -- >
▐
== > A+ -- > ▄▄
Если форма А -- > ▄▄
(т.е. А+ имеет размер Ат).
== > A+ -- > ▐
2 случай. Пусть теперь Аmn –прямоугольная (в частности, квадратная)
матрица неполного ранга, т.е. 0 < r(A) < min(m, n).
Представим матрицу А в виде следующего скелетного разложения
(декомпозиции, факторизации, произведения):
Amn=BmrCrn .
(3.4)
Всегда ли это можно сделать? Проведем следующее рассуждение,
позволяющее ответить положительно на этот вопрос.
Возьмем r линейно-независимых столбцов матрицы А и составим из них
матрицу В. Она будет размера m*r. Каждый столбец матрицы А является
линейной комбинацией
столбцов В, т.к. последние образуют базис
пространства столбцов матрицы А (т.е. Im А). Коэффициенты этих ЛК
запишем в столбцы и из этих столбцов составим матрицу С. В ней будет n
столбцов высотой r, т.е. ее размер равен r*n.
Матрицы В и С в скелетном разложении (3.4) – матрицы полного ранга.
Это следует из свойства ранга произведения матриц, а именно:
r(BC)  min (r (B), r (C))
(3.5)
или r (B)  r (BC)=r(A)=r
r(C)  r (BC)=r(А)=r
Поскольку размеры В и С m*r и r*n, то
r (B)  r
r(C)  r
(3.6)
Так что из (3.5) и (3.6.) следует, что
r(B)=r(C)=r .
(3.7)
Следовательно, матрицы В и С в (3.4) – имеют полный ранг. Формула
обращения произведения квадратных невырожденных матриц
Аnn-1=(BnnCnn)-1=Cnn-1Bnn-1
для псевдообращения в общем случае неверна, т.е.
(3.8)
А+=(ВС)+  С+В+
Однако доказано (мы доказывать не будем), что если
(3.9)
r(B)=r(C)=r , то Anm+=(BmrCrn)+=Cnr+Brm+ .
(3.10)
А поскольку в скелетном разложении В и С имеют полный ранг, то для
прямоугольной матрицы Аmn неполного ранга r псевдообратная А+
определяется следующим образом:
Аnm+=Cnrт(CrnCnrт)-1*(Brmт Bmr)-1Brmт ,
(3.11)
где Amn=BmrCrn - скелетное разложение
и rang(A)=r<min(m, n).
Итак, формулы (3.3) и (3.11) определяют псевдообратную матрицу А+
для произвольной прямоугольной матрицы А полного и неполного ранга. Ее
вычисление связывается с вычислением обычной обратной матрицы, что не
всегда удобно и представляет собой самостоятельную проблему.
Для матриц небольших размеров (m, n<4) вычисление по формулам,
определяющим псевдообратную матрицу (3.3.) и (3.11) , не вызывает особых
затруднений.
Рассмотрим простые примеры:
1. А1 1=а – скаляр, r=m=n, А+=  А-1=1/а, если а  0.
à 1
2. А21=     
 b   2
r=n=1 < m=2
A+=(AтA)-1Aт=[1/(a2+b2)][a b]=[1/5] [1 2]= [1/5 2/5].
3. A12=[a b]=[1 2] r=m=1 < n=2,
a
1
 1/ 5 
A+=Aт(AAт)-1=   [1/(a2+b2)]=   [1/5]=   .
 2 / 5
b
 2
a
 aa ab 
 ;
4. A22=   (a b)= 
 ab bb 
b
r=1, m=n=2, det=0.
a
b
B21=  
C12=(a b)=Bт;
A22+=B(Bт B)-1(ВтВ)-1Вт=
 a 2 ab 
 
.
=   [1/(a2+b2)2] (a b)= [1/(a2+b2] 
2
b
 ab b 
a
Если b=0 , a=
2
 2 0  1 / 2 0 
 = 
 ,
0
0
0
0

 

A+=[1/4] 
 2 0

0
0


A22= 
1 0
 .
0
0


A+A=AA+= 
5.
1 0 0


A33=  0 1 0  , r=2, m=n=3
0 0 0


1 0


B32=  0 1 
0 0


1 0 0

 0 1 0
C23= 
B+=(BтB)-1Bт=С ,
С+=Ст(CCт)-1=В ,
А+=С+В+=ВС=А.
Получение скелетного разложения (3.4) самостоятельная проблема.
Например:
Как выбрать у матрицы А линейно-независимые столбцы?
Как, вообще говоря, определить их число, т.е. ранг матрицы?
Существуют методы, основанные на некоторых стандартных разложениях
(факторизациях матриц), которые позволяют получить ответы (в той или
иной степени достоверные) на эти вопросы.
На таких разложениях
остановимся позже, а сейчас приведем некоторые полезные свойства
псевдообратных матриц без их доказательств.
Свойства псевдообратных матриц.
Пусть А – матрица m*n, А+ - псевдообратная ей размером n*m.
1) АА+А=А
А+АА+=А+
2) А+ААт=Ат
АтАА+=Ат
3) (АтА)+Ат=А+
Ат(ААт)+=А+
4) (АА+)т=АА+
(А+А)т=А+А – симметричность
5) (АА+)2=АА+
(А+А)2=А+А –идемпотентность (проекционность)
(АА+) и (А+А)
6) (АтА)+=А+(Ат)+
(ААт)+=(Ат)+А+
7) (А+)т=(Ат)+
8) (А+)+=А
9) АА+=А+А
если А –симметричная матрица
+
10) //E-AA //<//E-AB//, если
B размера n*m
Свойства (3) м.б. использовано как один из способов вычисления
псевдообратные матрицы:
А+= если r  n<m, то (AтA)+Ат,
если r  m<n, то Aт(ААт)+ .
Дело в том, что вычислять псевдообратные симметричные матрицы (АтА) и
(ААт) проще (через собственные значения, о которых будем говорить на
следующей лекции).
ЛЕКЦИЯ 7.
2.4. Понятие корректно и некорректно поставленных задач.
Понятие корректной постановки физической задачи, решение которой
получается из СЛАУ Ах = f было введено французский математик Ж.
Адамаром (1932г.).
Задача корректна (корректно поставлена) (для СЛАУ Ах = f), если
выполнены условия:
1. решение существует (f  F , х  Х);
2. решение единственно (однозначно);
3. решение устойчиво (т.е. х непрерывно зависит от f , или в
математических терминах:
  >0,
 > 0,
если  f < , то х < ,
т.е. необходимо, чтобы малым изменениям в исходных данных
соответствовали достаточно малые изменения в конечном результате. Про
такие задачи еще говорят, что они хорошо обусловлены.
Долгое время считалось, что всякая задача физики или техники должна
удовлетворять этим условиям. Задачи, не удовлетворяющие этим условиям,
назывались некорректными (некорректно поставленными).
Во второй половине 20 века (возможно из – за развития автоматики,
электроники, ЭВМ…….) выяснилось, что некорректных задач среди
практических, прикладных значительно больше чем корректных. Встала
проблема решения таких задач, которая привела к появлению теории
регуляризации некорректно поставленных задач.
В следующем параграфе мы рассмотрим важнейший класс обратных
задач – задачи оценивания (или измерительные задачи), которые возникают
при анализе траектории движения космических аппаратов (КА).
2.5. Измерительные задачи (ИЗ) как разновидность обратных задач (ОЗ).
Условия регулярности ИЗ-чи.
Определение:
Задачи обработки и интерпретации результатов измерений будем
называть измерительными задачами (ИЗ) .
И физическую, и космическую геодезию можно рассматривать, в
определенной мере, как науки о методах и результатах решения
определенного множества ИЗ-ч. Пример ИЗ КГ: определение координат НП
по фазовым радиодальномерным измерениям сигналов навигационных КА-в.
Мы говорили (ранее в параграфе 2.3.) о проблемах, связанных о
решением ОЗ-ч. Поскольку ИЗ-чи – это подмножество ОЗ-ч, следовательно
им сопутствуют те же проблемы.
В то же время, поскольку математика не занималась ИЗ-ми, ими
занимались другие дисциплины – математическая статистика, теория систем,
кибернетика и т.п., поэтому проблемы их решения формулировались в
других терминах и имели другой методологический подход. В частности,
для того, чтобы ИЗ-чу было возможно решать, она д.б. поставлена
регулярно (в переводе с латинского – правильно).
Задача называется регулярно поставленной, если выполнены условия:
- решение существует;
- решение единственно;
- решение состоятельно (при увеличении объема выборки измерений
решение приближается к истинному решению).
Здесь видно явное сходство с условиями корректности, но есть различие
в 3 пункте.
В некоторых (редких) случаях регулярно поставленная задача м.б.
некорректной, а нерегулярная – корректной, хотя в большинстве случаев эти
термины – регулярность, корректность – имеют почти одинаковый смысл. В
каких случаях это происходит Вы можете понять сами, сравнив условия
корректности и регулярности. Например, задача оценивая параметров
гравитационного поля Земли по наблюдениям траектории ИСЗ с
одинаковыми наклонениями орбит корректна, но не являются регулярно
поставленной.
2.6. Понятие динамической системы (ДС).
ИЗ-чи в физической и КГ являются, как правило, статистическими, т.е.
измерения содержат случайные и систематические ошибки, измерения
избыточны, поэтому для их обработки используются статистические методы.
При этом ИЗ-чу удобно интерпретировать как задачу оценивания состояния
некоторой ДС, т.е. изменяющейся с течением времени. В принципе, согласно
общей теории систем, любой реальный объект м.б. объявлен системой.
Системой м.б. названа совокупность связанных между собой элементов. Если
эти связи м.б. описаны законами механики (динамики), то система
называется динамической. Поведение ДС моделируется, обычно,
обыкновенными дифференциальными уравнениями (например, 2-ой закон
Ньютона ma=F ==> m (dV/dt)=F).
Текущее состояние ДС формально м.б. описано некоторым зависящим
от времени вектором – вектором состояния (ВС) ДС.
При описании динамической системы используют обозначения:
G – модель дв-я ДС;
n
вектор x (t)  R – n-мерный ВС ДС в любой момент времени t;
С – вектор параметров ДС;
S – модель измеряемого выхода (ИВ);
вектор   Rm – вектор измеряемого выхода.
тогда динамическую систему можно описать выражениями:
G : x=f (x, C, t), xO=x(tO).
S : =F(x)
Важнейшими свойствами ДС являются ее наблюдаемость,
декомпозируемость и устойчивость.
Наблюдаемость – возможность однозначного определения вектора
состояния x (t) и параметров С ДС по ИВ-ду  .
Декомпозируемость – возможность разделения ДС на независимые
подсистемы.
Устойчивость – возможность ДС сохранять текущее состояние в
некоторой малой окрестности при малых возмущениях начального состояния
и параметров ДС. (Свойство устойчивости тесно связано с корректностью
ИЗ-чи).
Пример: Сеть НП и созвездие КА м.б. интерпретированы как некоторая
ДС, ВС которой включает координаты НП и элементы орбит КА, G- модель
движения НП и КА; S – модель измерений.
2.7. Общая постановка задачи оценивая состояния ДС.
Задача оценивания ДС состоит в получении оценок вектора состояния на
заданный момент времени по измеряемому выходу. Т.о., это – измерительная
задача. В общем случае, задача оценивания состоит из следующих частей:
1 задание математической модели движения ДС G;
2 задание модели ИВ
S;
3 задание вектора оцениваемых параметров q;
4 задание вектора измерений  и вероятностных характеристик его
ошибок v;
5 задание критерия качества решения (какой либо Целевой функции F).
Задача д.б., как уже отмечалось, поставлена регулярно и корректно.
Один из существенных результатов теории ДС заключается в том, что
регулярность постановки задачи оценивания предполагает выполнение 3-х
условий (дополнительных):
1. адекватность модели движения ДС (близость к движению реальной
ДС);
2. наблюдаемость ДС (взаимно-однозначное соответствие между ВС и
вектором значений ИВ);
3. состоятельность критерия качества решения (обеспечивающего
приближение решения к истинному при росте объема выборки измерений).
Т.о., прежде чем решать задачу, необходимо определить, регулярна она
или нет, корректна или нет. Для этого используются специальные критерии,
которые д.б. проанализированы.
Если задача нерегулярна, то проводится ее регуляризация (привлекается
дополнительная априорная информация, изменяется состав ВОП и т.п.).
Далее выбирается метод решения задачи, который определяется выбором
целевой функции или критерия качества решения. Затем осуществляется
выбор вычислительной процедуры (вычислительного алгоритма).
2.8. Типичные методы оценивания ДС и их целевые функции.
Как мы уже говорили в п. 2.1., уравнения, связывающие измеренные
величины  , погрешности измерений и моделей v и определенные
параметры q называются уравнениями наблюдений. Они образуют
нелинейную по q систему ур-ий:
 (q)=  +v
(6.3)
От нелинейной системы ур-й (6.3) можно перейти к СЛАУ вида
Ах=f (6.7)
В СЛАУ (6.7) векторы х и v – неизвестны.
Т.о. неизвестных всегда больше, чем ур-й (n+m > m) и, следовательно, в
условиях действия погрешностей измерений и других нельзя получить
решения близкого к истинному без дополнительной информации или
дополнительных условий. Такие условия накладывает критерий качества
решения или другими словами целевая функция, что позволяет исключить из
(6.7) вектор v. Рассмотрим некоторые распространенные целевые функции
математической статистики.
ввиду минимизации   //Ах-f//=min (по снк), его малости, фактически
решается СЛАУ вида Ах=f.
2.8.1. Метод Наименьших Квадратов (МНК).
Основоположники: Лежандр (18в.), Гаусс (нач.19в.).
МНК м.б. применен для оценки неизвестных параметров, если известна
функциональная зависимость между измеряемыми величинами и искомыми
параметрами. Этот метод статистической обработки экспериментальных
данных требует минимума априорных сведений об ошибках измерений: для
его эффективного использования достаточно задать первые и вторые
моменты случайных ошибок измерений M (v), D (v).
Целевая функция имеет вид:

F(  , f)=//v// Ê   1 
À  f  Ê


ò

1
1
À  f   min ,


где Kv-1 ковариационная м-ца (дисперсий и ковариаций).
В частности, если Kv-1 =diag (P1, P2, ….Pm,
m
то F=  , vi , pi  min (измерения независимые)
2
i 1
а
если
1
Ê
m
 , òî F  
i 1

2
i
 //  // E  
ò

     min
(измерения
однородные).
Если решается СЛАУ, то оценки МНК – несмещенные и эффективные
(теорема Гаусса-Маркова, т.е.


М     èñò , // D  //  min .


2.8.2. Метод Максимального Правдоподобия (ММП).
Основоположник: Фишер, 1925 г.
Этот метод основан на предположении, что известен закон
распределения измеряемых случайных величин, зависящий от искомых
параметров.
Целевая функция F имеет вид:








F  , f   L , f   


A  f   max , где L – функция правдободобия.


Тогда в L подставляются значения результатов измерений и в качестве
оценок искомых параметров берутся те их значения, при которых функция L
принимает наибольшее значение, т.е. в качестве оценок неизвестных берут
такие значения параметров при которых результаты измерений являются
наиболее вероятными.
В случае нормального распределения v , МНК является частным
случаем ММП.
Недостатки метода: 1. требуется значение вида распределения
вероятности результатов измерений; 2. сложность алгоритма получения
оценок ММП и изучения их свойств (оценка точности и т.д.).
2.8.3. Метод Максимума Апостериорной Вероятности (ММАВ).
Идея Байеса (17в.).
До сих пор предполагалось, что ВОП является неизвестным, но не
случайным вектором, т.е. при всех измерениях предполагалось этот вектор
принимает одинаковые значения. Теперь же будем считать, что ВОП –
случайный и имеет свое распределение вероятностей.
Рассмотрим 3 разновидности метода ММАВ
Наиболее распространенными оценками ВОП в ММАВ является
следующие:

1. Наиболее вероятная оценка

1, обеспечивающая то значение
вектора х, которое может появиться с наибольшей вероятностью при данном
векторе измерений.
Здесь учитывается дополнительная априорная информация о ВОП (в
виде х, Кх) начальные условия!
Целевые функции F имеет вид:

F  , f



ò
1
1 
  K   
 min
K





 
или F  , f   // // K 1  // // K 1  min

 
ò
На практике возможны случаи, когда априорная плотность вероятности
вектора х неизвестна. При этом приходится делать предположение, что все
значения ВОП х равновероятны. В этом случае ММАВ совпадает с ММП и
приводит к таким же оценкам.
2.
Минимаксная
оценка


2,
минимизирующая
вероятность

максимальной возможной ошибки //   //

Целевые функции F имеет вид:


     min


3. Условное математическое ожидание


3 относительно измерений,
т.н. апостериорное среднее (применяется редко).
В общем случае оценки этих трех типов отличаются друг от друга. Для
нормально распределенных векторов х и измерений и линейной зависимости
измеряемого вектора от искомого вектора оценки
(см. также Жданюк с. 84, 86)
Рассмотрев эти 3 метода


1,


2,


3 – совпадают.
сделать вывод, что статистическая задача
оценивания ВС х в такой постановке сводится к получению таких оценок


,
которые оптимизируют (минимизируют или максимизируют) приведенные
выше целевые фeyrwии, т.е.




 arg min F  èëè
 arg max F   .




Лекция 8 (17.10.96)
Следующие лекции (около 4 – 5 лекций) будут посвящены 3 части
нашего с/курса, которая наз-ся
«Решение СЛАУ в идеальных
вычислительных условиях». Здесь мы рассмотрим теоретические основы
методов решения СЛАУ (алгоритмы реализации этих методов),
аботрагируясь от тех вычислительных устройств, с помощью которых
реализуются данные методы (авто ЭВМ, ПМК т.д.).
3 часть. Решение СЛАУ в идеальных вычислительных условиях.
3.1. Условия корректности решения СЛАУ.
Матричная запись СЛАУ общего вида такова
Amnxn1=fm1
x Rn, f
(8.1)
Rm,
Amn : Rn  Rm
Если А, х - известны то не представляет труда найти f, т.е. решить
прямую задачу. Если х –неизвестен, как в СЛАУ, то возникает ОЗ поиска
решения и как всякая ОЗ поиска решения и как всякая ОЗ, она д.б. корректно
поставлена.
(В то же время, выполнение условий корректности не всегда
обеспечивает эффективность (точность и быстродействие) вычислений).
Итак, рассмотрим применительно к СЛАУ (8.1) выполнение условий
корректности.
Первые два условия корректности предлагают существование и
единственность решения.
(1) Известно, что решение существует, если система совместна, т.е.
r(A)=r(AH). В противном случае решение не существует, т.е. система
несовместна.
(2) Совместная система может иметь единственное решение и
бесконечное мн-во решений (например, при m < n).
/*
Как мы уже говорили, на практике, как правило, не выполняются
условия корректности, например:
 при m>n ??? СЛАУ из-за ошибок измерений и моделей несовместна;
т.е. r(A)= r(A:f).
 при m<n ??? СЛАУ совместна, но имеет мн-во решений.
*/
Если СЛАУ несовместна или совместна, но имеет мн-во решений, то для
обеспечения названных 2-х условий корректности (существования и
единственности решения) можно обобщить понятие «решение» СЛАУ.
Определение. Обобщенным решением (псевдорешением) назовем
такой вектор х, что
Тогда классическое решение совместной системы хкл. есть частный
случай псевдорешения. В частности, псевдорешение (8.1) совпадает с
решением нормальной системы вида
Ат Ах=Атf
(8.3)
Эта система всегда совместна (поскольку вектор b=Aтf Im (AтA) =
ImAт), т.е. 1-ое условие корректности выполняется. 2-ое условие также
выполняется, если r(A тA)=r(A)=n<m, тогда
x-=(Aт A)-1 A f=A+f
(8.4)
Если r<n, то задача опять становится некорректной и опять требуется
обобщение, которое приводит к понятию нормального псевдорешения х+.
Определение. Нормальным псевдорешением называется вектор х+ ,
имеющий наименьшую норму среди всех псевдорешений:
ГПМ Мура-Пенроуза замечательна помимо всего прочего также и тем,
что она позволяет получить именно нормальное псевдорешение:
х+ =А+f
Имеет место следующая теорема.
Теорема.
Всякая СЛАУ имеет единственное нормальное псевдорешение.
Если r=n, то х+ совпадает с единственным х-, которое в свою очередь,
если система (8.1) совместна, совпадает с обычным решением хкл.
Примеры:
1. I1I
I1I
I1I x = I2I Система несовместна, r(A)=n=1 < r(A:f)=2=m
A x = f Норм. система 2х- =3  x3/2 x+=x2. х1 + х2=2  I 1 1 I Ix1I =2, r(A)=1; n=2 , m=1.
Ix2I
Т.к.. r<n, то система совместна и имеет мн-во решений. Норм. система
AтAx=Aтf=> x-= x1-любое
2-x1
I1 1I Ix1I =I2I x1+x2=2
I1 1I Ix2I= I2I x1+x2=2
Норм. псевдорешение:
3. ах=f,
a, f – числа.
Если a=0 r=n=m=1  x+ =x- =xкл =f/a
Норм. система (всегда совместна) a2x=af  x- =f/a.
Если а=0 – несовместность исходной системы. r=0<n=m=1.
Тогда х- - любое число  х+ =0.
3.2. Классификация решений различных видов СЛАУ
Итак, с точки зрения идеального ВП-са для решения СЛАУ важно знать
соотношение между числом уравнений m, числом неизвестных n и рангом r
м-цы СЛАУ. Различные варианты решений в зависимости от соотношения
между m, n ,r можно отобразить в виде следующей схемы:
Схема классификации решений различных видов СЛАУ.
Т.о., нормальное псевдорешение с ГПМ х+ =А+f подходит для всех 7
случаев, т.е. универсально.
Т.е., в идеальных вычислительных условиях первые 2 условия
корректности – сущ-е и ед-ть решения – обеспечиваются методом ПМ-цы
для всех видов СЛАУ. Однако этот метод не самый эффективный (потому
именно, что универсальный) и лучше применять различные более
экономичные методы «ad hoc» и некоторые из них мы рассмотрим в
следующем п.3.3.
Здесь же приведем еще один метод вычисления ПМ (мы ранее
рассматривали методы с использованием транспонированной м-цы (Ат А)-1
Ат, через СкР и СР….).
Выполним сначала – один из методов обращения м-цы в классическом
смысле.
Если А – регулярная (квадратная и невырожденная) м-цы m*m, то
обратная А-1 есть м-цы со столбцами хJ, являющ. решениями СЛАУ
AxJ=eJ
где eJ - j –й столбец единичной м-цы Emm.
Это Метод
(лекция 3)
неопределенных
коэффициентов
нахождения
ОМ
Аналогично: ГПМ для Аmn есть м-ца А+, состоящая из столбцов хJ –
нормальных псевдорешений СЛАУ вида.
AxJ=eJ
где eJ - j –й столбец единичной м-цы Emm.
Т.о., для получения ПМ (и обратной) нужно решить m систем линейных
уравнений….. Часто это бывает проще, чем непосредственно обращать м-цу.
(пример: 7х=21; х=7-1 * 21=0.142857*21=2.99997)
ЛЕКЦИЯ 9 (19.10.96)
3.3. Некоторые методы решения СЛАУ.
Методы решения СЛАУ подразделяются на две основные группы –
прямые методы и итерационные.
Прямые методы позволяют в идеальных вычислительных условиях (при
отсутствии погрешностей ИД и вычислительных) получить за конечное
число операций точное решение. Например, получив обратную м-цу, можно
найти решение системы Ах=f по ф-ле
х=A-1 f
(9.1)
Итерационные методы (ИМ) предназначены для получения
приближенного решения, но с заранее заданной точностью и если
сходимость (важное свойство итерационного метода) имеется, то
В геодезии наибольшее распространение получили прямые методы
решения СЛАУ, но надо иметь в виду, что в реальных вычислительных
условиях прямые методы не обеспечивают точного решения и должны быть
устойчивы по отношению к действующим ошибкам.
Пример: 7х=21; х=7-1 *21=0.142857*21=2.99997
Прямо (наиболее непосредственный метод): х=21/7=3
Рассмотрим некоторые прямые методы решения СЛАУ.
3.3.1. Метод Гаусса (МГ).
Это – один из старейших ЧМ ЛА, основанный на применении
процедуры последовательного исключения неизвестных (алгоритм
датируется = 250 г.до н.э., хотя и носит имя Гаусса).
Пример: 4х1
2x1
*-1/2
+
+х2=3
-x2=3
4x1 +x2=3
0x1 -3/2x2=3/2

4 1
2 -1

4 1 x1 = 3
0 -3/2 x2
3/2
х1
x2
= 3
3

обратная подстановка: х2=-1
4х1-1=3
х1=1
Т.о. при применении процедуры последовательного исключения
неизвестных появляется верхнетреугольная м-ца.
Если рассматривать МГ в матричной форме, то он заключается в
получении треугольного разложения м-цы системы и решения треугольных
систем.
Мы уже отмечали, что невырожденная м-ца А м.б. представлена
единственным образом в виде
А=LU
(9/3)
где L – нежнетреугольная м-ца с единицами на гл.диагонали,
U – верхнетреугольная м-ца.
Алгоритм Гаусса состоит из прямого и обратного кодов.
Прямой ход позволяет получить эквивалентную систему
Ax=f  Ux=L-1f=b
(9/4)
Основная операция прямого хода – преобразование элементов м-цы
такого типа:
Та же операция с правой частью: (по аналогии
)
Через m шагов А(m0 =U f(m) =b  Ux=b.
Если аkk=0, то производится перестановка строк и столбцов – выбор
ведущего элемента.
Обратный ход – это решение треугольной системы
Здесь также необходимо, чтобы диагональные (ведущие) элементы м-цы
U были отличны от нуля.
Анализ числа операций в МГ показывает, что оно имеет порядок n3/3
/* Существует модификация Краута этого метода, которая приводит к
тем же результатам, но через ск. произведение (возможно накопление).???
3.3.2. Метод Холецкого (МХ) (метод квадратных корней).
Большое количество геодезических задач связано с решением СНУ вида
Nx = b , где N=AтA b=Aт f
и м-ца N=Nт - симметрична и положительно определена.
Поэтому
(ввиду
симметрии),
можно
избежать
половины
вычислительных затрат по сравнению с решением систем с м-цами общего
вида. Треугольное Р (8.8) здесь упрощается:
N=LLт
Элементы нижнетреугольной м-цы L м.б. вычислены по схеме:
Второе название метода – метод квадратных корней. После получения L
решаются системы:
Ly=Lт b - прямой ход,
Lт x=y – обратный ход
Общее число операций (сложения и умножения) m3/6.
3.3.3. Метод ортогонального разложения (МОР).
В этом методе используется рассмотренное ранее QR –разложение вида
А=QR
где Q = Q –ортогональная м-ца,
R – верхнетреугольная м-ца.
-1
т
Для решения СЛАУ Ax=f умножим ее на м-цу Qт:
QTAx=QTf

Rx=b
T
T
где Q Q=Е b=Q f A=QR
и посредством обратного хода решается эта треугольная система.
Важное свойство ортогональной м-цы Q – неизвестность нормы
векторов при умножении на нее:
Т.о., погрешности в ИД – в столбцах А и в f – не увеличиваются при
умножении вида Qт А и Qтf
Поэтому не требуется применение таких мер, как выбор ведущих
элементов в МГ и т.п.
Основные способы ОР – плоские вращения и элементарные отражения
(отражения Хаусхолдера).
О методе вращений (Гивенса или Якоби) мы кратко говорили в п.1.9.
(лекция 4). Суть его – в проведении последовательных плоских вращений,
обнуляющих элементы м-цы
А, стоящие ниже главной диагонали.
Произведение плоских м-ц вращений даст Q.
Суть преобразований Хаусхолдера заключается в следующем. Вектор а
преобразуется умножением на м-цу элементарного отражения Хаусхолдера
Н в вектор, который с геометрической точки зрения является зеркальным
отражением вектора а относительно некоторой плоскости отражения.
плоскость отражения
Основная идея – в том, чтобы выбрать такую плоскость, что вектор а
отразился бы в координатный вектор е, т.е. На=бе, где б – скаляр
Iа 1 I
IбI
Iа 2 I
I0I
а=Iа 3 I
На=бе=I0I
I. I
I.I
Iа mI ,
I0I
Оказывается, м-ца Н имеет простой вид:
Н=Е-2ррт/ртр.
где р=а-бе - вектор отражения (V к плоскости отражения). Причем
 Н – ортогональная м-ца.
И действительно, непосредственно следует
НтН=( Е-2ррт/ртр)т (Е-2ррт/ртр) = Е-4ррт/ртр + 4ррт ррт /р т рр т р=Е.
Проверим равенство На=бе: На=( Е-2ррт/ртр) (р+бе) =
I р Тр= (а-бе)Т (а-бе) = а12 + б2-2а1б= 2б2- 2а1б= 2б (б-а1) I
= р-2р+бе-2р(а1-б)б/(2б(б-а1))=_р+бе-2б(а1-б)*р/2б(б-а1)=бе
Если а – первый столбец м-цы А=[а1, а2,…..,аn] , то
I***I
I0**I
НА=I0**I
I …I
I0**I
Аналогичная операция отражения применяется ко второму столбцу,
начиная со второго элемента, затем к третьему с 3-го и т.д. Произведение
элементарных отражений
Н 1 Н 2 . . . Нn =QT
даст искомую QT такую, что
Этот алгоритм численно устойчив, но требует примерно n3 операций,
т.е. втрое > МГ.
(см. также Малышев, Годунов, Лоудон)
(конец
9
лекции
16.10.96)
ЛЕКЦИЯ 11
3.3.5. Понятие об итерационных методах (ИМ) решения СЛАУ.
Мы уже говорили, что прямые методы позволяют в идеальных
вычислительных условиях получить точное решение за конечное число
шагов.
ИМ-ды специально созданы для получения приближенного решения с
заранее заданной точностью
. При этом обязательное условие –
сходимость метода, т.е.
В реальных вычислительных условиях ошибка решения сходящегося
ИМ м.б. значительно меньше, чем ошибка прямого метода, вызванная
влиянием погрешностей ИД и/или округления.
ИМ-ды иногда используют совместно с прямыми для уточнения
решения последних.
Рассмотрим, например, алгоритм итерационного уточнения решения,
полученного каким-либо прямым методом (в условиях реального
вычислительного процесса).
Пусть получено решение х(о) СЛАЙ Ах=f
Вычислим неявку решения v(o) =f-Ax(o)
Очевидно, что истинное решение хист удовлетворяет уравнению
Итак, решается система с той же м-цей
Тогда уточненное значение вектора
Вторая итерация:
и т.д.:
до тех пор, пока
В том случае, когда мы из решения СЛАУ получаем поправки к
приближенным значениям вектора неизвестных х(о), , то мы прибавляя
поправки принимаем это за новое приближение вектора неизвестных и
повторяем решение СЛАУ (перевычисляя А и f). И так до тех пор, пока
поправки не станут меньше требуемой точности решения. (Расписать это на
буквах).
(из Бронштейн с.493-495)
Метод интерации. Возможны разнообразные способы приведения
векторного ур-я Ах-f=0 к виду х=Мх+с путем выполнения подходящих
эквивалентных преобразований. В этой форме решение х определяется как
неподвижная точка линейного преобразования Тх=Мх+с, которую
определяют
методом
последовательных
приближений.
Векторная
последовательность
, определенная следующим образом:
х(m+1)=Mx(m)+c
m=0,1,……,
где х(0) - постоянный заданный начальный вектор, сходится к векторрешению х, если м-ца М не вырождена и удовлетворяет неравенству
где - (любая) норма м-цы М.
При этом определены оценки
1) Метод Якоби. Если A=L+D+Rс соответствующими м-цы
то в этом методе M=Mj=D-1(L+R)
и c=D-1f
Таким образом, Dx(m+1) = -(L+R)x(m)+f x(0) задано.
Метод сходится при D-1(L+R) < 1 достаточным условием для этого является
выполнение неравенства
Если в качестве нормы
выбрать суммарную норму строки
то получим важный результат: метод Якоби сходится в предположении, что
(условие доминирования диагонали)
2) Метод Гаусса – Зейделя:
M=MG= - (L+D)-1R
Формула итерации: (L+D)x(m+1) = - Rx(m) +f
Таким образом.
следовательно,
x(0) задано
Сходимость при
Достаточными условиями этого
являются, например:
а) А – симметрична и положительно определена
(т.е. СЛАУ нормальная полного ранга);
Многие ИМ-ды решения СЛАУ Ax=f м.б. представлены в виде схемы т.н.
метода простой итерации:
x(k+1) =Cx(k) + d
Т.е., исходная СЛАУ Ax=f приводится к эквивалентной форме x=Cx+d и
затем реализуется при к=0,1,…… Процесс при k будет сходящимся, если
Имеет место теорема: Для сходимости метода простой итерации
необходимо и достаточно, чтобы max (C) <1
Один из распространенных методов простой итерации – метод ГауссаЗайделя применительно к решению нормальной СЛАУ полного ранга.
Представим СЛАУ в виде:
что эквивалентно методу простой итерации.
Чтобы понять смысл метода, преобразуем промежуточное уравнение
в вид
или
или
Доказано, что метод Гаусса-Зейделя всегда сходится для нормальных
систем полного ранга (т.е. симметричных положительно определенных м-ц).
(Пояснение к (11.11).
Если вектор неизвестных х разбит на 2 группы х1 и х2, то итеративное
решение этим методом сводится к нахождению решения для 1-ой группы,
при этом х2 полагаются известными, а затем «замораживается» х1 и
находится х2 и т.д. до сходимости (ранг исх. м-цы д.б. полным при этом).
ЛЕКЦИЯ 12
4. Решение СЛАУ в реальных вычислительных условиях.
4.1. Реальный вычислительный процесс и условие устойчивости
решения СЛАУ.
В реальных вычислительных условиях (условиях действия ОО и ИД в
СЛАУ) мы имеем дело не с точной СЛАУ
Ах=f
а с приближенной
Ах=f
Проблема, которая возникает (в качестве основной) или решении СЛАУ
найти устойчивый алгоритм, который позволяет получить решение х по ИД
такое, что
при
Если точная задача Ах=f
корректно, т.е. решение существует,
единственно и устойчиво, то и приближенная задача при «малых»
отклонениях
также скорее всего будет поставлена корректно, ее решение не встретит
особых проблем и будет «мало» отличаться от решения точной задачи.
Если же точная задача неустойчива (например, м-ца, имеет нулевые или
очень малые СЧ-ла), то решение приближенной задачи может отличаться от
решения точной значительно.
Ранг такой системы является неустойчивым понятием по отношению к
малым изменениям элементов м-цы А и часто трудно судить, вырождена она
или нет
. Поэтому в реальных условиях практически
невозможно ответить на вопрос: удовлетворены ли условия корректности
или нет?
Пример:
Система совместна и имеет единственное решение, ранг – полный. Но
если A и f – результат округления точных A и f с погрешностью 0,05,
то среди мн-ва систем таких, что
находится система
ранг которой
, т.е. система имеет бесконечное мн-во
решений, которые, (естественно), существенно отличаются от решения
первоначальной системы.
Мы говорили, что обобщая понятие решения системы до нормального
решения, мы обеспечиваем выполнение 1-х двух условий корректности.
Но 3-е условие – устойчивости – может не выполняться и для
нормального решения. Т.е. нормальное решение м.б. неустойчивым (при
нулевых или близких к нулю СЧ-х, например).
Пример:
-всегда существует и единственно нормальное решение.
На практике ( в реальности) вместо а и f имеем а и f такие,
что
Если а – малое число и
, то х + определяется неустойчиво:
малым вариациям в
, могут соответствовать большие вариации
Пример (более общий):
Рассмотрим систему
где N – нормальная м-ца (симметричная, положительно определенная и
невырожденная).
Известно, что
где - диагональная м-ца СЗ-й.
И, т.о., приобретает вид
где
Если N- вырождена,
принимает вид
то
СЗ-й равны нулю и система
В реальных условиях вместо N и b имеют с N и b и вместо
имеют дело с
малым числами (так как СЗ-я м-цы являются
непрерывными ф-ми ее элементов в евклидовой метрике). Тогда компоненты
будут вычисляться неустойчиво.
С геометрической т. зрения, если некоторые
, то данная СЛАУ
не содержит сколько-нибудь значимой информации о проекциях искомого
решения на направления СВ-ов, соответствующих этим
Выводы:
1. Решение
некорректно
поставленной
задачи
в
реальных
вычислительных условиях стандартными методами дает бесполезные
результаты.
2. Если устойчивость имеет место, (т.е. задача корректна), то применимы
те же методы, что и для идеальных условий (стандартные методы), которые
дают разумные приемлемые результаты.
4.2. Возмущения матрицы А и вектора f произвольной СЛАУ вида Ax=f
Условимся понимать под возмущением матрицы (вектора) отклонение
действительных значений элементов матрицы (вектора) от точных.
Существует два основных класса возмущений, К первому классу
относятся возмущения, причиной которых являются погрешности исходных
данных. Рассмотрим их подробнее.
В общем случае нам неизвестна точная математическая модель какоголибо явления. В процессе исследований, на основе эмпирических данных
выдвигается гипотеза о возможной структуре модели, которая достаточно
хорошо может описывать явление, но не является его точной моделью. Это
одна из причин возмущения. Другая причина заключается в том, что
элементы матрицы А представляются в виде громоздких формул (или
разложений в бесконечные ряды), которые из различных соображений
заменяются с определенной погрешностью более простыми приближенными
формулами. Другими словами все это – погрешности теоретического
представления математической модели. Поскольку мы рассматриваем
измерительные задачи, то в элементах вектора f помимо ошибок
математической модели присутствуют ошибки измерений (ошибки
измерительных устройств, ошибки математической модели измерений (….
можно перечислить что именно для СНГС) и др.).
Ко второму классу относятся возмущения (причиной которых являются
особенности ЭВМ, используемой для практического решения задачи к таким
особенностям следует отнести погрешности представления чисел (ППЧ) в
ЭВМ и погрешности округлений при выполнении различных
арифметических операций (АО)
и в целом эти возмущения можно
охарактеризовать как «погрешности машинных округлений» (которые
являются неотъемлемой особенностью компьютерной арифметики).
Обозначим общее относительное возмущение м-цы А через
, общее
относительное возмущение вектора f - и общее относительное возмущение
вектора х - .
Причины первого класса возмущений (т.е. погрешности исходных
данных, их виды и разнообразие) Вам достаточно хорошо известны и мы еще
раз о них вспомнили.
Причины второго класса возмущений («погрешности машинных
округлений») Вам менее знакомы, поэтому мы остановимся на них
подробнее. И для начала вспомним некоторые сведения из теории ошибок.
Будем обозначать точное значение какой-либо величины просто буквой
(без черточек, волн, штрихов и т.п.)
- х абсолютную ошибку как
и относительную ошибку
4.2.1. Анализ погрешностей машинных округлений.
Знание особенностей компьютерной арифметики, причин возникновения
и законов распространения погрешностей машинных округлений
необходимо для правильного понимания реального вычислительного
процесса, умения грамотно составлять вычислительные алгоритмы, создавать
программы для ЭВМ и анализировать результаты выполнения этих
программ.
Существует два метода анализа погрешностей машинных округлений:
прямой и обратный. Мощный метод обратного анализа погрешностей при
решении задач ЛА основан на уверенности в том, что в процессе вычислений
по тому или иному алгоритму погрешности машинных округлений
сказываются как некоторые (небольшие) возмущения исходных данных
(ИД). Пользователь, решая свою задачу, получает приближенное решение,
которое оказывается точным решением задачи с возмущенными ИД-ми.
Тогда для нахождения оценки погрешности остается применить подходящую
теорию возмущения.
Обоснование применимости метода обратного анализа разбивается на
самостоятельные подзадачи. Первая из них – это проследить за
возникновением и распространением погрешностей на каждом крупном шаге
используемого алгоритма. Оценивая распространение погрешностей по
шагам, по сути дела, пользуются методом, называемым часто прямым (или
интервальным) анализом погрешностей.
Другая подзадача – анализ возникновения погрешностей при
выполнении самых мелких алгоритмических шагов – арифметических
операций. Здесь необходимо удачным образом представить эти неизбежные
погрешности. (Рассмотрению этих вопросов и посвящен наш дальнейший
материал….) (Годунов, 92г., с. 290).
4.2.1.1. Анализ погрешностей представления чисел и ЭВМ.
4.2.1.3. Анализ погрешностей матричных (векторных) операций на
ЭВМ.
см. 6 операций на листах.
4.2.1.4. Анализ погрешностей реализации некоторых ЧМ на ЭВМ.
Зависит от конкретного вычислительного алгоритма.
Т.о., мы рассмотрим особенности компьютерной арифметики – одну из
причин возмущения……. (см. с.22 дипл. работы)
Сюда вставить прямой и обратный анализ ошибок!!!
ЛЕКЦИЯ 13
4.3. Прямой и обратный анализ ошибок.
Как мы уже говорили, в процессе решения задач с применением ЭВМ
приходится иметь дело с двумя основными видами ошибок: ошибками в
исходной информации (ИД-х) и ошибками вычислений.
Ошибки ИД-х вызываются измерений или ошибками знания параметров
модели и т.п. и не зависят от метода вычислений и вычислительного
устройства.
Ошибки вычислений состоят из ошибок ЧМ-да решения и ОО-я
(которые зависят от применяемой ЭВМ).
Поясним на примере:
- на языке мат. анализа.
- влияние ошибок ИД-х.
- влияние ошибок ИД-х и аппроксимации на языке
чисел.анализа.
- влияние ошибок ИД-х, аппроксимации и ОО на языке
ЭВМ
Один из важнейших вопросов анализа вычислительных процессов –
вопрос с распространении ошибок в ходе вычислений. ЭВМ имеет дело с
элементарными арифметическими операциями (АО) (+, -, *. /) и накопление
ошибок зависит от ошибок каждой отдельной операции.
Каждый вычислительный процесс – цепочка элементарных операций.
Каждая операция – приближенная. В итоге ошибки накапливаются. Можно
проанализировать – от шага к шагу в процессе вычислений – как ведут себя
ошибки. Такой анализ наз-ся прямым анализом ошибок.
Пример:
Дана ф-ция
- точная
Пусть
Какова ошибка в
, т.е.
Прямой анализ:
При больших
величина оценки
может значительно
превзойти
. Но на практике такие оценки – прямые – обычно
завышены.
В общем виде вычислительный процесс м. представить как некий
алгоритм
получения результата
по данным , т.е.
При реализации этого алгоритма на ЭВМ из-за ОО и ИД решается
приближенная задача
( - алгоритм с «плавающими» АО).
Подход, связанный с оценкой
по
и есть
прямой анализ ошибок.
При сложных вычислениях (в частности, с матрицами), такой подход
очень трудоемок, а его результаты слишком пессимистичны (завышены)
(Фон-Нейман – анализ Гаусса до 100-го порядка).
Другой подход, называемый обратным анализом ошибок, основан на
интерпретации полученного приближенного решения
как точного
решения возмущенной задачи
При этом получают количественную оценку эквивалентного возмущения
Если это возмущение оказывается приемлемо (сравнимо с ошибками ИД-х),
то решение объявляется достаточно точным.
Пример:
СЛАУ:
. Получено х из-за ошибок ИД в А.f и ОО-я.
Тогда х можно интерпретировать как точное (истинное) решение
возмущенной системы вида
Геометрически (в виде рисунка)
Обратный анализ не дает какой-либо информации относительно ошибки
он информирует о приемлемости полученного
решения на основе сравнения эквивалентности возмущений и ошибок ИД-х.
Кроме того, он позволяет обращаться с системой (*), как с «точной» в
идеальных вычислительных условиях и, в частности, получать оценки типа
4.4. Обусловленность задач и вычислений.
Итак, в реальных условиях всякие вычисления сопровождаются
ошибками, возникающими из-за неточности ИД (// и //, например) или
ошибок вычислений (округления и т.п.).
4.2.11. Анализ погрешностей представления чисел в ЭВМ.
ИД, а также промежуточные и окончательные результаты располагаются
в т.н. памяти компьютера и представляются там неким стандартным образом.
Проанализируем сначала арифметику целых чисел (ЦЧ), ЦЧ,
представимые в ЭВМ – ЦмашинныеЧисла (ЦМЧ) – это все ЦЧ, которые
принадлежат интервалу
, где
- некоторое достаточно большое
положительное (большое по модулю отрицательное) ЦЧ. Для IBM PC,
например
АО с ЦМЧ выполняются на ЭВМ точно, если
результат операции принадлежит
В противном случае фиксируется
ошибочная ситуация.
С арифметикой действительных чисел (ДЧ) на ЭВМ ситуация
значительно сложнее. Много разных методов было предложено для
аппроксимации ДЧ посредством конечных машинных представлений. Метод,
принятый в настоящее время почти на всех машинах – это числа с
плавающей (ЧПТ).
Множество ДМашинныхЧ (ДМЧ) с ПТ характеризуется следующими
четырьмя целыми константами: основанием счисления
( >2, обычно 2,8
или 16), точностью t, нижней границей экспоненты е и верхней границей
экспоненты е+. Ненулевые ДМЧ имеют вид:
где ЦЧ d1, d2,……,d+ удовлетворяют
. Число е
наз-ся экспонентой (показателем или порядком) числа
, а ДЧ-ло
- мантиссой (или дробной частью) числа z.
Условие d1 =) принято наз-ть свойством нормализованности системы ДЧ
с ПТ, а число z, удовлетворяющее этому условию, - ДЧ с нормализованной
мантиссой.
Действительной машинный нуль представляется в ЭВМ специальным
образом. Обычно это число, у которого d1=d2=……=dt=0 либо е<е.
Константы t, e-, e+, даются в руководствах по архитектуре конкретных
ЭВМ (так, например, для IBM 360 и 370 эти константы могут быть
следующими
и относительная точность
арифметики
Т.о., ДМЧ образуют конечное дискретное подмножество ДЧчисел (т.н.
разрядную сетку) причем все ДМЧ рациональны. В этом подмножестве
ровно
чисел. Они расположены
неравномерно: равномерность расположения имеет место лишь при
фиксированном показателе. Покажем на рисунке 33-точечное множество
ДМЧ для небольшой иллюстративной системы с параметрами:
рис. Дискретное множество ДМЧ.
Для более подробного рассмотрения расположения ДМЧ-л заменим
константы
(которые вполне удовлетворительно
описывают устройство разрядной сетки, но неудобны для приложений)
следующим набором величин:
Эти параметры зависят
только от рассматриваемого компьютера и определяются следующим
образом:
Смысл этих параметров становится очевидным, если заметить, что
максимальное ДМЧ,
- минимальное положительное ДМЧ, а
равно
шагу разрядной сетки на интервале от 1 до . Следовательно на интервалах
вообще нет ДМЧ.
При попытках разместить в памяти ЭВМ ДЧ-ла, не являющееся
машинными, могут представиться различные ситуации:
1.
В этом случае возникает т.н. переполнение
(overflow), которое является ошибочной ситуацией. Такие числа не м.б.
размещены в памяти компьютера.
2.
В этом случае z заменяется на zмаш При этом
применяется тот или иной способ аппроксимации числа z. В качестве zмаш
м.б. взято одно из двух ближайших к z машинных чисел. От такой замены z
на zмаш возникает погрешность (z- zмаш), которая имеет различный характер в
зависимости от z.
При
погрешность оценивается величиной
. Для того чтобы
убедится в этом, заметим, что на интервале
разрядная сетка
равномерна с шагом
, поэтому при
наз-т
относительной погрешностью единицы, потому, что все числа вида 1+х из
интервала
ширины
могут быть заменены на машине числом
1 с относительной погрешностью не выше
. Константа
оценивает
относительную погрешность числа z в ЭВМ не только из интервала
но и из всего интервала
по формуле
3.Если
, то zмаш может принимать одно из двух
значений: 0 или
. Легко понять, что в обеих случаях
. По этой
причине
наз-т еще абсолютной погрешностью нуля.
Т.О., машинные константы
характеризуют аппроксимационные
свойства мн-ва ДМЧ, а именно:
а) числа
не приближаются никакими машинными числами
(переполнение (overflow));
б) числа
приближаются машинным нулем с абсолютной
погрешностью
(underflow);
в) числа
приближаются любыми из ближайших к ним
машинных чисел с относительной погрешностью
Если обозначить через zмаш машинные числа, приближающие ДЧ
, то предыдущие утверждения принимают форму
неравенств:
На этом можно закончить анализ погрешностей представления чисел
ЭВМ.
4.2.1.2. Анализ погрешностей арифметических операций на ЭВМ.
Проанализируем погрешности арифметических операций с ДМЧ. Пусть
а и b – два ДМЧ, а знак
обозначает одну из четырех бинарных АО (+, -, х,
/). Результат выполнения операции
с числами а и b на ЭВМ будем
обозначать через (а b) маш. Тогда:
1) если
, то фиксируется ошибочная ситуация;
2) если
, то (а b) маш.= 0
3) если
и (а b) – ДМЧ, то (а b) маш. =(а b).
4) если
и (а b) - является ДМЧ, то (а
одному из двух ближайших к (а b) ДМЧ.
b) маш. равно
В силу неравенства (13.3) при выполнении АО на ЭВМ с ДМЧ получаем
оценку погрешности
Величину (а
b) маш. =(а
b) наз-т ошибкой округления (00) при
выполнении АО на ЭВМ. Из (13.4) следует, что
Арифметика ДМЧчисел с ПТ не удовлетворяет фундаментальным
алгебраическим
законам
ассоциативности
и
дистрибутивности.
Действительно
Ввиду отсутствия ассоциативности и дистрибутивности машинных
операций, а также из-за ОО, анализ погрешностей в алгоритмах,
реализованных на ЭВМ, очень сложен.
Часто бывает полезна следующая лемма о моделировании погрешностей
АОпераций.
Лемма 1. Если при выполнении операции (а b) маш над машинными
числами а и b не возникает ошибочной ситуации (переполнения), то
где
. Доказательство легко выводится из (13.5)
Для операции извлечения квадратного корня из неотрицательного ДМЧ
z выполняется оценка
при применении некоторых специальных мер.
Дискретное множество ДМЧчисел естественно упорядочено, причем
так, что для каждого ДМЧ z, кроме
, определено непосредственно
следующее ДМЧ z+ (между числами z и z+ нет других ДМЧ). Аналогично
для всех
имеется непосредственно предыдущее ДМЧ z-. Эти свойства
позволяют ввести функции
и
. Отметим, что
в некоторых языках программирования эти ф-и и являются стандартными.
В некоторых вычислениях сформулированных выше свойств машинных
АО оказывается недостаточно. В частности, бывает удобно, например,
использовать т.н. операции с направленным округлением. Они отличаются
тем, что результат их выполнения лежит всегда по одну сторону от точного.
Обычно эти операции не входят в стандартное математическое обеспечение и
при необходимости должны быть специально реализованы. Наиболее просто
это сделать, используя суперпозицию обычной АО и функции
Т.о., имеем набор «завышенных» операций
и «заниженных» операций
Для каждой из введенных операций справедливы формулы
моделирования погрешностей вида (13.6) , но с ограничениями на параметры
Справедливости ради нужно отметить, что операции с
направленным округлением могут быть реализованы с точностью не хуже,
чем для обычных операций машинной арифметики.
В некоторых случаях набор машинных чисел оказывается весьма узким
– границы возможных значений порядков слишком тесны. Тогда может
оказаться полезной т.н. арифметика вынесенных порядков (АВП), в основу
которой положена простая идея раздельного хранения порядка числа и его
мантиссы. При этом порядок числа может принимать любые целые значения,
допустимые для данной ЭВМ, а мантисса хранится в виде вещественного
числа с ПТ с нулевым порядком.
Особо можно отметить. что формулы моделирования погрешностей в
АВП не содержат абсолютной погрешности.
ЛЕКЦИЯ 15
4.4. Обусловленность задач и вычислений.
Итак, в реальных условиях вычисления сопровождаются ошибками,
возникающими из-за неточности ИД (A и f , например) или ошибок
вычислений (округления и т.п.).
Вследствие этого возникает вопрос: если в коэффициентах А (или
свободных членах f) СЛАУ содержатся ошибки, то как сильно при этом
меняется решение. Т.е., если Ах=f, то как можно измерить чувствительность
х по отношению к изменениям в A и f?
Ответ на этот вопрос лежит в уточнении понятия «почти вырожденная»
матрица А. Если А – вырожденная матрица, то для некоторых f решение х не
существует, тогда как для других f оно будет неединственным. Т.о., если А
почти вырождена, то можно ожидать, что малые изменения в А и f вызовут
очень большие изменения в х. С другой стороны, если А – единичная
матрица, то f и x – один и тот же вектор. Следовательно, если А близка к
единичной матрице, то малые изменения в А и f должны влечь за собой
соответственно малые изменения в х.
Чтобы получить более точную и надежную меру близости к
вырожденности, воспользуемся аппаратом норм для матриц и векторов
(вспомним, что норма – это число, которое измеряет общий уровень
элементов вектора или матрицы).
Итак, умножение вектора х на матрицу А приводит к новому вектору
Ах, норма которого может очень отличаться от нормы вектора х. Это
изменение нормы прямо связано с той чувствительностью решения СЛАУ,
которую мы хотим измерить. Область возможных изменений степени
чувствительности может быть задача двумя числами:
Верхний предел
Нижний предел
М=max (II AxII/IIxII),
m=mix(II AxII/IIxII),
х
х
Максимум и минимум берутся по всем ненулевым векторам х
Мы рисовали графики для 2-мерного случая
Таким образом, max (II AxII/IIxII) =
Заметим, что если А – выражена, то
max,
max (II AxII/IIxII) =
mix,
Рассмотрим, зависимость решения системы Ах=f от возмущения правой
части для невырожденной м-цы А.
Итак, пусть правая часть f изменилась на величину f, тогда х изменится
на х:
Разность дает
и
Поскольку
тогда
или
где
- относительные погрешности решения и пр. части:
зависит от выбора
Если использовать спектральную норму то из СР следует
(поскольку умножение на ортогональные матрицы не изменяет нормы
исходной матрицы).
И тогда всегда (согласно определению) (А)>1
То же при любом выборе .
Часто используется более просто вычисляемая евклидова норма. Однако
спектральная норма
- наименьшая из всех и поэтому
Пример:
Итак, ф-ла
показывает, что ЧО играет роль множителя в
увеличении относительной ошибки: изменения в векторе правой части f
могут повлечь за собой изменения в решении х больше в (А) раз.
Оказывается, что то же утверждение справедливо и отношении изменений
(ошибок) в коэф-х м-цы А, в точнее (без вывода):
И совместное влияние
или с достаточной степенью точности
Пример: расчета (А) для м-цы Гильберта Аnn=[aij]=1/(i+j-1)
n
А
2
1.27
4
1.5
7
1.66
10
1.75
А-1
15.2
1*104
2.9*108
9*1012
(А)
19.3
1.5*104
4.8*108
1.6.*1013
ЧО является также мерой близости матрицы к вырожденности. Его
можно рассматривать как величину, обратную к относительному расстоянию
от данной матрицы до множества вырожденных матриц.
Некоторые из основных свойств ЧО выводятся просто. Ясно, что
и поэтому (А) > 1 . Если Р – матрица перестановок ЧО является также
критерием качества решения СЛАУ.
 Если
1 – ситуация благоприятна, задача хорошо обусловлена.
 Если
> 1
(103 : 10 4 и больше), то это, как правило, означает
плохую обусловленность задачи (и м-цы).
 Если м-цы вырождена, то
Т.о., между двумя крайностями
лежит бесконечные
количество хорошо и плохо обусловленных задач.
Следующий пример иллюстрирует понятие ЧО. Пусть
4.1. 2.8.
А=
4.1
х=
f=
9.7 6.6
1
9.7
0
Ясно что Ах=f и IfI= 13,8
IxI=1
/
Если заменить правую часть на f =4.11
9.70 , то
/
решением будет вектор х =0,34
тогда
Очень малое возмущение, внесенное нами в f совершенно изменило
решение х. Действительно, относительные изменения равны
Так как (А) характеризует максимально возможное увеличение, то
(А)>1.63 / 0,0007246 = 2249,4
На самом деле выбранные f и f/ как раз и дают максимум, так что для
этого примера (А) = 2249,4.
Хорошо
обусловленные
задачи
обычно
устойчивы,
плохо
обусловленные – неустойчивы.
Теория обусловленности представляет собой попытку изучения вопроса
о связи ИД-х и результатов (СЛАУ) в условиях реального вычислительного
процесса. Геометрически влияние неопределенности в ИД-х ({A*f}
вместо {A, f} ист) и вычислительных ошибок на получение решения (х
вместо хист) можно представить следующим образом:
{A, f} ист
. хист
.
.х
.
.х
.х
{A , f }
ИДданные
решения
Здесь х – вычисленное решение для точных данных;
х – вычисленное решение для приближенных данных;
Желательно оценить величину
по отношению к величине
Вообще, обусловленность является качественным свойствам, но с
помощью ЧО-ти (А) ее пытаются оценить количественно.
Может быть и такая ситуация: задача поставлена устойчиво, но алгоритм
ее реализации (т.е. ЧМ или программа) – неустойчив.
На практических занятиях мы будем приводить пример СЛАУ, плохая
обусловленность
которой
вызвана
вычислительными
причинами
(ограничение разрядной сетки ЭВМ), а не ее физическим смыслом. Т.Е. м.б.
плохо обусловленная задача, а м.б. и плохо обусловленные вычисления
(алгоритмы решения).
/* можно подробнее остановится на обусловленности вычислений! */
Схематически это выглядит так:
{A, f}
{A, f}
хист
х
х
х
х
{A, f}
хист
х
х
{A, f}
а) Хор. об. задача
Хор. об. вычисл.
{A, f}
{A, f}
в) Плохо об. задача
Хор. об. вычисл.
хист
х
х
х
б) Хор. об. задача
Плохо об вычисл.
{A, f}
хист
х
х
{A, f}
х
г) Плохо об. задача
Плохо об. вычисл.
ЛЕКЦИЯ 16
4.5. Регуляризация решений СЛАУ.
4.5.1. Устойчивое решение СЛАУ в реальных вычислительных
условиях. Принцип регуляризации.
Нормальное решение СЛАУ, которое обеспечивает существование и
единственность решения, в реальных вычислительных условиях может
оказаться неустойчивым (когда м-ца СЛАУ «близка» в определенном смысле
к вырожденной). Т.о., в реальных условиях задача получения нормального
решения СЛАУ м. оказаться некорректной или плохо обусловленной.
Количественная мера обусловленности м-цы СЛАУ (степени близости к
вырожденности) определяется ЧС-ти м-цы. Обратный анализ ошибок
позволяет выразить связь ЧС-ти с погрешностями решения (бх) и ИД-х (бА,
бf) (последние в этом случае содержат собственно ошибки ИД-х и
возмущения (бА э и бf Э), эквивалентные вычислительным (аппроксимации и
округления) погрешности).
Очередной этап рассмотрения проблем решения СЛАУ – анализ
возможностей устойчивого получения нормального решения СЛАУ в
реальных вычислительных условиях. В этом случае эта задача становится
корректно поставленной.
Теория и методы устойчивого решения некорректно поставленных задач
начали интенсивно разрабатываться после появления работы А.Н. Тихонова
в первой половине 40-х годов. В дальнейшем был развит принцип (метод)
регуляризации некорректно поставленных задач (нерегулярно поставленных
задач), благодаря которому решение задачи сводилось к решению корректно
поставленной задачи.
Суть же методики регуляризации сводится к построению
регуляризирующего алгоритма, применение которого позволяет получить
устойчивое п/решение СЛАУ, близкое к нормальному. Существенным
моментом принципа регуляризации является привлечение априорной
(дополнительной) информации, т.к. информации, содержащейся в исходной
СЛАУ
Ах=f
недостаточно для его устойчивого решения. Поэтому для регуляризации
привлекается априорная (или дополнительная) информация о точности ИД-х
(А, f), о решении (х) и т.п.
Например, задается предельная погрешность ИД-х
где
м-ца коэф-в и правая часть прибл. системы
И, т.о., МР Тихонова заключается в построении регуляризирующего
алгоритма нахождения приближенного решения, такого, что
при
на основе ИД-х
Очевидно, что существует мн-во {x} решений х, удовлетворяющих
системам
для всевозможных
Но нельзя в качестве искомого решения хб брать произвольный вектор из
мн-ва {x}, т.к. среди них есть неустойчивые к малым изменениям бАf
Необходим принцип отбора.
И он заключается в естественном для п/нормального решения
требовании брать в качестве хб из {x} такой вектор, для которого (например)
Функционал обычно наз-ся стабилизатором.
В теории регуляризации доказывается, что искомый вектор х б м.б.
найден путем минимизации сглаживающего функционала вида:
где
- некоторый параметр, наз-ый параметром регуляризации.
Это квадратичный функционал и, следовательно, существует
единственный минимум, зависящий от
Доказывается, что существуют такие ф-ии
что
при
, т.е.
Следовательно, алгоритм поиска
путем минимизации
сглаживающей ф-ии (16.6) является регуляризирующим.
Для минимизации (16.6) м. использовать какой-либо ЧМ безусловной
минимизации. Необходимое условие сущ-я минимума для ф-ии (16.6) дает:
т.е. получается система уравнений с невырожденной нормальной м-цией
и значит ее нормальное п/решение
. Сущ-ет всегда,
единственно и устойчиво (при достаточно больших
) сходится к
нормальному, т.е. решение регулярно (или корректно).
Возникает вопрос о виде ф-ции
4.5.2. О выборе параметра регуляризации
.
В теории регуляризации доказывается следующая теорема, являющаяся
достаточным условием регулярности решения
А именно
если
т.е.
есть величина, имеющая большой порядок малости, чем
предельная погрешность.
Один из практических методов выбора
- метод обобщенной невязки
Для последовательности
последовательность
и выч-ся последовательность
Вычисления невязок
нуля.
Т.о., отыскивается такое
, находится
выполняется, пока они не уменьшаться до
=
, что
Очевидно, что этот метод требует многократного решения задачи
минимизации сглаживающего функционала (16.6) или СЛАУ (16.10).
Существуют и др. методы выбора параметра
, например,
и т.д.
4.5.3. Два типа регуляризации
Рассмотренную в предыдущем параграфе методику регуляризации
будем для краткости наз-ть «непрерывной
-регуляризацией», в которой
параметр
принимает малые вещественные значения. Она м.б.сведена к
минимизации сглаживающего функционала (16.6), которая, в свою очередь,
сводится к решению СЛАУ вида:
Существует и другой вариант регуляризации, который назовем
«дискретной -регуляризацией», использующий СР м-цы СЛАУ.
Мы уже говорили, что в реальных вычислительных условиях малые
почти вырожденной (или вырожденной) м-цы будут зашумлены:
Идеальные выч. усл.
Реальные выч. усл.
Т.е., все числа
- искажены ошибками (
псевдоранг).
Поэтому, чтобы сделать устойчивым (по отношению к вычислительным
ошибкам, но не ошибкам ИД-х?!) нормальное решение
нужно отбросить (обнулить) все СЧ м-цы А, меньше некоторой границы
t, т.е. искать
где
где
Величина t – параметр регуляризации,
- псевдоранг А.
(Очевидно, что псевдоранг
) м. не совпадать с рангом
точной мцы А).
Т.о., алгоритм t – регуляризации заключается в:
1) СР м-цы А;
2) выборе параметра
3) отбрасывании всех
4) получении регуляризированного решения
Эта регуляризации м.б. названа «дискретной», поскольку ее параметр t
представляет собой, по сути дела, целое число обнуляемых СЧ-л м-цы А.
(Выбор t очевиден, если имеется существенный «зазор» между
значимыми и незначимыми СЧ-ми. Если же такого «зазора» нет, то
возможен, например, метод перебора различных для минимизации невязок
и т.п.)
Ниже будут использованы следующие известные соотношения между
СЧ-ми:
Т.о., при
-регуляризации все СЧ
увеличиваются на одинаковое
число
.
Также схожи механизмы действия 2-х типов регуляризации,
заключающиеся, по сути дела, в подавлении влияния на решение малых СЧл.
Если проекции вектора решения на правые сингулярные вектора,
соответствующие «малым» СЧ-м (т.е. проекции на ядро А) – «малы», то
регуляризированное решение будет «близко» к истинному (поск. норм.
близко истинному). В противном случае и та и другая методика
регуляризации не обеспечит близости к истинному решению без привлечения
дополнительной информации (измерительной или априорной).
Прежде всего, в реальных вычислительных условиях регуляризация
призвана получать устойчивое решение, сходящееся к нормальному при
убывании ошибок ИД-х и вычислений.
ЛЕКЦИЯ 17
4.5.4. Алгоритм решения произвольных СЛАУ.
Итак, требуется решить СЛАУ
заданного размера , для которой неизвестны точные значения м-цы А и
правой части t (ИД-х), а только их приближенные значения ( А, t) . Т.о., дана
приближенная СЛАУ
про которую неизвестно, совместна она или нет, хорошо обусловлена
или плохо, полного ранга или вырожденная.
В качестве априорной информации могут быть известны точностные
оценки ошибок ИД-х и вычислений типа
С помощью оценок могут быть получены оценки точности решения и
параметров, используемых процедурой
решения (например,
параметр регуляризации и т.п.).
ЛЕКЦИЯ 10.
3.3.4. Метод сингулярного разложения (МСР).
Один из наиболее выразительных, вариантов ОР – СР м-цы СЛАУ –
также м.б. использовано в качестве метода решения СЛАУ. итак, в системе
Аmn xn1=fm1
(10/1)
м-цу А заменим СР
(10.2)
и получим
(10.3)
или, умножая слева на Uт=u-1
(10.4)
Обозначим
z=Vтx (или х=Vz) и Uтf=g
Тогда (10.4) приобретает вид:
(10.5)
(10.6)
Рассмотрим эту систему более подробно. Геометрическая структура ее
такова:
(10.7)
Пусть, как это часто бывает в параметрическом методе уравнивания в
геодезии, m>n, т.е. А – м-ца вертикальной структуры. Система (10.7)
эквивалента исх. системе (10.1).
Будем искать обобщенное МНК – решение (псевдорешение) под
условием:
или (что эквивалентно)
Т.о.
При этом z ищется из уравнений
(10.8)
(10.9)
Как известно, умножение исходной м-цы А на ортогональные не
изменяет ее ранга, поэтому ранг r м-цы А равен числу ненулевых СЧ-л.
Пусть r=n  б1=0 для i=1,…,n.
и
- решение единственно
Пусть r<n  б1=0
б1=0
(10.10)
для i=1,…,r.
для i=r+1,…,n.
d=n-r - дефект ранга м-цы А.
Тогда z1=g1/б1 для I = 1……r.
z1 – любое для i=r+1,…..n. – мн-во решений
(поскольку в последнем случае решаются уравнения:
0*z1= 0  z1 - любое)
Т.о. СР позволяет найти решение в общем случае несовместности и
неполного ранга м-цы системы Ax=f
в виде общего (обобщенного)
псевдорешения:
g1/б, если i<r
Zr
z1 =
=
любое, если i>r
Zd
И далее
где х - нормальное п/решение (имеющее минимальную норму),
Cd – вектор произвольных чисел (свободных параметров) размера
d*1, который позволяет параметризовать пространство всех
возможных решений x.
Если r=n (полный ранг), то d=0,
и решение единственно
Если система Ax=f совместна, то
Итак, СР в идеальных вычислительных условиях позволяет определить
ранг r м-цы А, дефект d, установить факт совместности системы (g=0 или
нет) и найти обобщенные псевдорешения в виде d- параметрического мн-ва.
х = х + VdCd
со свободными параметрами Cd и найти нормальное п/решение
В реальных вычислительных условиях установить факт неполного ранга
не всегда возможно и речь может идти об определении псевдоранга r
(поскольку чисто нулевых СЧ не будет, а будут «малые» СЧ). Но подробнее
о реальных вычислительных процессах – позже.
Скачать