TopList Яндекс цитирования
Русский переплет
Портал | Содержание | О нас | Авторам | Новости | Первая десятка | Дискуссионный клуб | Чат Научный форум
Первая десятка "Русского переплета"
Темы дня:

Мир собирается объявить бесполётную зону в нашей Vselennoy! | Президенту Путину о создании Института Истории Русского Народа. |Нас посетило 40 млн. человек | Чем занимались русские 4000 лет назад? | Кому давать гранты или сколько в России молодых ученых?


Статьи Соросовского Образовательного журнала в текстовом формате


НЕКОТОРЫЕ ЧИСЛЕННЫЕ МЕТОДЫ РЕШЕНИЯ ЛИНЕЙНЫХ АЛГЕБРАИЧЕСКИХ УРАВНЕНИЙ (ДИКУСАР В.В. , 1998), МАТЕМАТИКА

Дается краткий обзор некоторых прямых и итеративных методов для решения хорошо обусловленных линейных задач. Особое внимание уделено некоторым некорректным системам. Приводятся примеры.

НЕКОТОРЫЕ ЧИСЛЕННЫЕ МЕТОДЫ РЕШЕНИЯ ЛИНЕЙНЫХ АЛГЕБРАИЧЕСКИХ УРАВНЕНИЙ

В. В. ДИКУСАР

Московский физико-технический институт,

Долгопрудный Московской обл.

ВВЕДЕНИЕ

Проблема численного решения линейных уравнений интересует математиков уже несколько столетий. Первые математические результаты появились в XVIII веке. В 1750 году Г. Крамер (1704-1752) опубликовал свои труды по детерминантам квадратных матриц и предложил алгоритм нахождения обратной матрицы, известный как правило Крамера. Гаусс в 1809 году опубликовал работу, посвященную движению небесных тел, в которой был изложен метод для решения линейных систем, известный как метод исключения.

В 40-х годах XX века с появлением компьютеров сильно возрос интерес к численным методам. Тогда же началось активное исследование существующих методов для их реализации на ЭВМ и предпринимались активные попытки увеличить их точность.

Вплоть до 80-х годов решение вычислительных задач было ограничено ресурсами ЭВМ, поэтому особое значение придавалось экономичности алгоритмов.

В настоящее время ограничения по оперативной памяти и быстродействию ЭВМ потеряли актуальность в связи с появлением относительно дешевых мини- и суперкомпьютеров.

Целью статьи является краткое изложение в идейном плане некоторых прямых и итерационных методов решения линейных систем. Для облегчения чтения статьи в приложении даются краткие сведения по векторному и матричному анализу, необходимые для понимания работы.

УРАВНЕНИЕ С ОДНИМ НЕИЗВЕСТНЫМ

Уравнение вида

ax - b = 0,

где a и b - выражения, зависящие только от параметров, а x - неизвестное, называется линейным относительно x. Это уравнение приводится к виду ax = = b и при a ? 0 имеет единственное решение x = b / a при допустимом множестве значений параметров.

При a = 0 и b = 0 имеем: x - любое число, x k R.

При b ? 0 и a = 0 решений нет, x k .

Пример. (k 2 - 1)x = 2k 2 + k - 3. Это уравнение линейно относительно x и имеет смысл при любых действительных значениях параметра k. Оно приводится к виду

(k - 1)(k + 1)x = (2k + 3)(k - 1).

При k = 1 его решением является любое действительное число, x k R. При k = -1 уравнение имеет вид 0 " x = - 2, то есть не имеет решений; x k .

Уравнение имеет единственное решение при k ? ? ?1:

ЛИНЕЙНЫЕ СИСТЕМЫ ДВУХ УРАВНЕНИЙ

С ДВУМЯ НЕИЗВЕСТНЫМИ

Линейной системой двух уравнений с двумя неизвестными называется система вида

Для решения таких систем применяются метод подстановки, метод линейного преобразования и правило Крамера [1-5].

Метод подстановки основан на равносильности систем уравнения

(Системы уравнений равносильны, если множества их решений совпадают.)

Пример 1. Решить систему уравнений

Данная система равносильна системе

Отсюда следует, что исходная система равносильна системе

После тождественных преобразований получаем x = 1, y = 2. Следовательно, исходная система имеет единственное решение (1; 2).

Метод линейного преобразования системы основан на утверждении о равносильности систем уравнений

Пример 2. Решить систему уравнений

Умножив первое уравнение на 2, получим систему

Складывая первое и второе уравнения, получим систему, равносильную исходной:

Отсюда получаем, что исходная система имеет единственное решение (1; 1).

Правило Крамера для нахождения решения системы (1) основано на вычислении соответствующих определителей [4]

Здесь предполагается, что D ? 0. В этом случае система (1) имеет единственное решение.

Пример 3. Решить систему уравнений

По правилу Крамера имеем

В общем случае при решении двух линейных уравнений (1) возможны три ситуации:

J система имеет единственное решение; это имеет место при

J система имеет бесконечно много решений. В этом случае

J система не имеет решений. Указанный случай имеет место при

Заметим, что приведенные пропорции имеют смысл и в том случае, когда некоторые из знаменателей равны 0.

Пример 4. Решить систему уравнений

Разделив второе уравнение на 3, получим систему, равносильную исходной:

Полученная система состоит из двух одинаковых уравнений. Положим x = p, где p k R. Тогда y = 3 - p. Следовательно, решениями исходной системы являются все пары чисел вида (p; 3 - p), p k R.

Пример 5. Решить систему уравнений

Равносильная система имеет вид

Эта система противоречива, то есть исходная система решений не имеет.

Ответ: x k , y k .

СИСТЕМА ЛИНЕЙНЫХ

АЛГЕБРАИЧЕСКИХ УРАВНЕНИЙ

Пусть дана система m линейных уравнений с n неизвестными

a11x1 + a12x2 +... + a1nxn = b1

a21x1 + a22x2 +... + a2nxn = b2

..........................................

am1x1 + am2x2 +...+ amnxn = bm

Систему (3) можно записать в матрично-векторной форме

А Х = В,

где А - матрица коэффициентов, содержащая m строк и n столбцов:

Здесь В - заданный m-компонентный вектор, Х - искомый n-компонентный вектор;

Формы записи (3), (4) определяют операцию умножения матрицы А (5) на вектор Х (6).

ФОРМУЛЫ КРАМЕРА

Пусть число неизвестных равно числу уравнений, то есть n = m. Далее предположим, что система (3) невырождена, то есть ее определитель (детерминант) отличен от нуля: D = detA ? 0. Тогда она имеет единственное решение, которое можно вычислить по формулам Крамера

Здесь Di = detAi , матрица Ai получается из матрицы A заменой i-го столбца столбцом правых частей B:

Хотя формулы Крамера дают решение системы (3) в явном виде, они неэффективны с вычислительной точки зрения [1], за исключением специальных случаев.

Пример. Если вычислять определитель непосредственно по его определению, то нужно выполнить (n - 1)n! умножений и n! сложений. Положим n = 15 и возьмем ЭВМ с производительностью 106 умножений в секунду. Тогда вычисление только одного определителя потребует 14 " 15! © 1,8 " 1013 умножений, в результате чего на вычисление решения уйдет около 10 лет непрерывной работы ЭВМ. Вместе с тем для решения такой системы аналогичной ЭВМ потребуется примерно 0,002 секунд с использованием метода Гаусса.

МЕТОД ГАУССА

Метод последовательного исключения неизвестных Гаусса является одним из наиболее универсальных и эффективных методов решения линейных систем. (Карл Фридрих Гаусс (1777-1855) - немецкий математик и физик, работы которого оказали большое влияние на дальнейшее развитие высшей алгебры, геометрии, теории чисел, теории электричества и магнетизма.) Этот метод известен в различных вариантах уже более 2000 лет. Он относится к числу прямых методов.

Процесс решения по методу Гаусса состоит из двух этапов, называемых прямым и обратным ходом. На первом этапе система (3) приводится к треугольному виду; на втором (обратный ход) идет последовательное определение неизвестных из указанной треугольной системы.

Для реализации метода Гаусса требуется примерно (2/3)n3 арифметических операций, причем основное число этих действий совершается на этапе прямого хода [1]. В качестве примера, иллюстрирующего метод Гаусса, рассмотрим следующую систему [6].

Пример 1.

1,2357x1 + 2,1742x2 - 5,4834x3 = - 2,0735,

6,0696x1 - 6,2163x2 - 4,6921x3 = - 4,8388,

3,4873x1 + 6,1365x2 - 4,7483x3 = 4,8755.

Все результаты расчетов представлены в виде чисел с плавающей запятой с пятью значащими цифрами.

Первый шаг гауссова исключения сводится сначала к умножению первого уравнения на (- 4,9119), а затем на (- 2,8221). Полученные уравнения складываются со вторым и третьим уравнениями системы (8). В результате получаем равносильную систему

1,2357x1 + 2,1742x2 - 5,4834x3 = - 2,0735,

-16,895x2 + 22,242x3 = 5,3462,

0,0007x2 + 10,727x3 = 10,727.

Чтобы сделать второй шаг, умножим второе уравнение на и сложим с третьим уравнением. С учетом этого получим систему треугольного вида

1,2357x1 + 2,1742x2 - 5,4834x3 = - 2,0735,

-16,895x2 + 22,242x3 = 5,3462,

10,728x3 = 10,727.

Решение указанной системы дает следующие значения неизвестных:

x1 = 0,99968, x2 = 0,99994, x3 = 0,9991.

Этот результат близок к точному решению системы (8)

x1 = x2 = x3 = 1.

Отметим, что первый этап метода Гаусса может быть использован для вычисления определителя системы (8). Действительно, прямой ход метода Гаусса основан на том, что многократно выполняется операция сложения одной из строк матрицы (5) с другой строкой, взятой с некоторым множителем. Известно [1, 4], что такая операция не меняет определителя. Определитель треугольной матрицы равен произведению ее диагональных элементов. В нашем случае для системы (8)

det R = 1,2357 "═(-16,895) " 10,728 = - 223,97,

где R - треугольная матрица системы (9).

Подчеркнем, что метод Гаусса также устанавливает факт отсутствия решения системы (3) (несовместность), а также неединственность.

Пример 2. Решить систему уравнений методом Гаусса:

x1 + x2 + x3 = 3,

2x1 + 3x2 + 4x3 = 9,

2x1 + 2x2 + 2x3 = 6.

В результате применения метода Гаусса к данной системе получаем следующий результат:

x1 + x2 + x3 = 3,

x2 + 2x3 = 3,

0 " x3 = 0.

Отсюда видно, что указанная система имеет неединственное решение.

Пример 3. Решить систему уравнений методом Гаусса:

x1 + x2 + x3 = 3,

2x1 + 3x2 + 4x3 = 9,

2x1 + 2x2 + 2x3 = 7.

Используя процедуру Гаусса, получаем следующую систему:

x1 + x2 + x3 = 3,

x2 + 2x3 = 3,

0 " x3 = 1.

Таким образом, данная система не имеет решений, то есть несовместна:

x1 , x2 , x3 k .

УМЕНЬШЕНИЕ ОШИБОК ОКРУГЛЕНИЯ

Поменяем местами в системе (8) второе и третье уравнения. Полученную систему решим методом Гаусса. В результате после исключения из третьего уравнения x2 получим систему треугольного вида

1,2357x1 + 2,1742x2 - 5,4834x3 = - 2,0735,

0,0007x2 + 10,727x3 = 10,727,

258 930x3 = 258 910.

Определяя из нее последовательно x3 , x2 , x1 , найдем решение

x1 = 2,9021, x2 = 1,4286, x3 = 0,9992.

При осуществлении идеального вычислительного процесса без ошибок округления ответы (10), (11) должны совпадать с точным решением. В одном случае получается вполне разумный ответ (10), в другом (11) в ответе возникает большая ошибка. Причина такого различия связана с малым значением коэффициента второго уравнения при x2 , что, в свою очередь, приводит к резкому увеличению коэффициента в третьем уравнении.

Чтобы избежать нежелательного роста элементов матрицы во время прямого хода, обычно на каждом шаге производят перестановку строк матрицы, выбирая максимальный первый коэффициент. Существуют и другие более сложные и надежные схемы исключения, однако мы не будем останавливаться на их описании.

Любая специальная схема для повышения точности требует дополнительных вычислительных ресурсов. Но в конечном счете это себя оправдывает благодаря уменьшению ошибок округления.

ИТЕРАЦИОННЫЕ МЕТОДЫ

Рассмотрим итерационные методы решения систем линейных уравнений. Вообще говоря, эти методы не дают возможности найти точное решение за конечное число итераций даже при отсутствии ошибок округления. Суть метода состоит в построении векторной последовательности {Xk }, такой, что

где X - точное решение.

Указанные методы широко применяются при численном решении дифференциальных уравнений с частными производными. Матрицы их дискретных аналогов имеют большое число нулевых элементов. Итерационные методы в отличие от прямых методов сохраняют структуру исходной матрицы (не увеличивают число ненулевых элементов). Эффективность итерационных методов определяется скоростью сходимости последовательных приближений Xk к решению X.

Первым шагом в итерационном методе является преобразование исходной системы (4) к виду

A1X = A2X + B1 .

Здесь матрицы A1 , A2 и вектор B1 определяются по матрице A и вектору B. Системы (4) и (12) эквивалентные, то есть их решения совпадают.

Вторым шагом является расстановка индексов или номеров приближений в формуле (12) и задание нулевого приближения. Например,

A1Xk + 1 = A2Xk + B1 , k = 0, 1, 2, _,

где X0 - заданный вектор (нулевое приближение).

Третьим шагом итерационного метода является обоснование сходимости последовательных приближений {Xk } (13) к точному решению X системы (4) и оценка погрешности k-го приближения

|| Xk - X || # e.

Оценка такого типа при заданном e (точность решения) позволяет закончить итерационный процесс (13).

Здесь также предполагается, что система (13) решается относительно Xk + 1 гораздо легче, чем исходная система (4) относительно X.

Разные итерационные методы различаются первыми двумя шагами, а выбор конкретного метода производится на основании оценки (14).

МЕТОД ЯКОБИ

Метод Якоби проиллюстрируем на следующей линейной системе (Карл Густав Якоб Якоби (1804-1851) - немецкий математик):

3x1 + 4x2 - x3 = 7,

2x1 + 6x2 + 3x3 = - 2,

- x1 + x2 + 4x3 = 4.

Перепишем указанную матрицу в виде

или в матрично-векторных обозначениях

X = A2X + B1 ,

где

Отсюда следует, что мы решили j-е уравнение явно относительно j-го неизвестного и перенесли все остальное в правую часть. Теперь метод Якоби состоит в определении начального X0 приближения и применении итерации типа (13)

Xk + 1 = A2Xk + B1 , k = 0, 1, 2, _

Этот метод зависит от нумерации уравнений и неизвестных.

Справедлива следующая

Теорема [4]. Пусть выполнено условие || A2 || < 1 для процесса (15). Тогда:

1) решение X системы (4) существует и единственно;

2) метод Якоби сходится при произвольном начальном приближении X0 и справедлива оценка погрешности

|| Xk - X || # || A2 ||k || X0 - X ||.

МЕТОД ГАУССА-ЗЕЙДЕЛЯ

Вторым старым итерационным методом является метод Гаусса-Зейделя (Людвиг Зейдель (1821-1896) - немецкий астроном и математик). Отметим, что этот метод не был известен Зейделю и презирался Гауссом как бесполезный; таковы капризы исторической точности в науке. Изложим идею метода для предыдущей системы. Для этой цели перепишем ее в виде

3x1 = 7 - 4x2 + x3 ,

2x1 + 6x2 = - 2 - 3x3 ,

- x1 + x2 + 4x3 = 4.

Здесь в j-м уравнении мы перенесли в правую часть все члены, содержащие xi , для i > j. Эта запись может быть представлена в виде

(L + D )X = -U X + B1 ,

где

В принятых обозначениях D означает диагональ матрицы A, U - ее верхнюю треугольную часть и L - ее нижнюю треугольную часть. Итеративный процесс в методе Гаусса-Зейделя строится по формуле

(L + D )Xk + 1 = -U Xk + B1 , k = 0, 1, 2, _,

после выбора соответствующего начального приближения X0 . Метод Гаусса-Зейделя можно рассматривать как модификацию метода Якоби. Основная идея модификации состоит в том, что новые значения Xi используются здесь сразу же по мере получения, в то время как в методе Якоби они не используются до следующей итерации. Приведем достаточное условие сходимости метода.

Теорема [1, 4]. Пусть || A2 || < 1, где A2 = -(L + + D )-1U, (L + D )-1 - матрица, обратная к (L + D ). Тогда при любом выборе начального приближения X0 метод Гаусса-Зейделя сходится со скоростью геометрической прогрессии, знаменатель которой q # || A2 ||, и верна оценка погрешности || Xk - X || # qk || X0 - X ||.

ОБУСЛОВЛЕННОСТЬ МАТРИЦ

Матрица A и правая часть B системы (4) во многих случаях задаются приближенно. Причины погрешностей могут быть самые разные - от ошибок округления при вводе чисел в ЭВМ до ошибок измерения, если система связана с обработкой экспериментальных данных. Ошибки вносит также процесс вычислений. Возникает вопрос, как все это влияет на точность получаемого решения. Для ответа следует познакомиться с особой характеристикой матриц, которую называют обусловленностью [6].

Рассмотрим уравнение y = Ax, где матрица A ставит в соответствие любому вектору x вектор y. Считая вектор x принадлежащим единичной сфере

подсчитаем длину вектора y = Ax:

Функция j(x) непрерывна на ограниченном замкнутом множестве (16) и поэтому достигает на нем своего максимума и минимума. Тогда

Заметим, что m $ 0 ; m = 0 тогда и только тогда, когда матрица A вырождена (det A = 0) и однородное уравнение Ax = 0 имеет нетривиальное решение (x ? 0).

Отношение называется обусловленностью матрицы A.

Из (18), (19) следует двойное неравенство

m # || Ax || # M, || x || = 1.

Для произвольного вектора x в силу линейности y = Ax неравенство (20) принимает вид

m || x || # || Ax || # M || x ||.

С помощью этого неравенства исследуем устойчивость решения системы (4) по отношению к малым изменениям входящих в нее величин. Для простейшего случая, когда матрица A задана точно, а правая часть - приблизительно, можно путем несложных вычислений получить оценку

Величина || DB || / || B || характеризует относительное возмущение правой части, а || Dx || / || x || - относительную ошибку в решении, вызванную этим возмущением. Обусловленность матрицы играет в (22) роль множителя, определяющего максимально возможное увеличение ошибки. Если m близко к единице, то система хорошо обусловлена: для такой системы относительная ошибка в решении сравнима с относительной погрешностью задания правой части. По мере увеличения чувствительность решения к погрешности в правой части возрастает - система становится плохо обусловленной.

Пример. Рассмотрим систему

x1 + 0 " x2 = 1, det A = 0,01 ? 0,

x1 + 0,01x2 = 1, x1 = 1, x2 = 0.

Изменим в системе (23) правую часть:

x1 + 0 " x2 = 1, x1 = 1, x2 = 1,

x1 + 0,01x2 = 1,01.

Видно, что небольшое возмущение правой части системы (23) привело к существенному изменению решения. Это означает, что матрица A системы (23) плохо обусловлена. Расчеты дают m(A ) © 200.

Разобранный пример показывает, какие трудности могут возникать при решении реальных систем с приближенно заданной правой частью при больших m.

АНАЛИЗ ОШИБОК

Основная цель анализа ошибок состоит в оценке || X - X* ||, где X - истинное решение, а X* - вычисленное решение. К сожалению, практические оценки || X - X* || получить очень трудно, а в большинстве случаев невозможно. Перечислим возможные вопросы при анализе влияния ошибок и неопределенных данных на ответ задачи.

1. Какова максимальная ошибка, которая может иметь место?

2. Какие ошибки на самом деле были?

3. Каких ошибок следует ожидать?

4. Насколько задача чувствительна к ошибкам?

5. Насколько близка фактически решенная задача к решаемой задаче?

Общий эффект ошибок обычно учитывают изучением воздействия ошибок входных данных, метода и округлений на получаемый результат X* и пытаются оценить некоторую меру близости X* к истинному решению X. Такой метод исследования называют прямым анализом ошибок. Особенно трудным является прямой анализ вычислительной погрешности. Отсюда следует вывод, что первые четыре вопроса либо не имеют ответов, либо ответы на них дают мало информации о действительной величине ошибки [1, 3, 5].

На пятый вопрос может быть дан удовлетворительный ответ с помощью обратного анализа ошибок. Согласно этому анализу, приближенное решение какой-либо задачи, например системы линейных уравнений (4), является точным решением некоторой близкой задачи, в нашем примере системы линейных уравнений с немного измененными коэффициентами. Вместо того чтобы оценивать отличие приближенного решения от точного, можно оценить отличие коэффициентов исходной и измененной системы. Обратный анализ ошибок округления реализуется намного проще, чем прямой.

Пример. Пусть коэффициенты системы линейных уравнений получены в результате физических измерений и известны с некоторой ошибкой. Если обратный анализ показывает, что влияние ошибок округления равносильно искажению коэффициентов, не превосходящему ошибок измерения, то можно считать, что вычисления проводятся с достаточной точностью. При этом не следует интересоваться отличием вычисленного решения от точного решения системы (4), которая сама определена недостаточно точно.

ПОЧТИ-ВЫРОЖДЕННЫЕ МАТРИЦЫ

Возмущение коэффициентов системы линейных уравнений может не просто немного исказить ее решение, а иметь более серьезные последствия. Например, система линейных уравнений [7]

x + 0,99y = 1,01,

x + 1,01y = 0,99

имеет единственное решение, но за счет изменения коэффициентов и свободных членов на 1% можно получить как противоречивую систему, так и систему, имеющую бесконечно много решений.

В приведенном примере детерминант матрицы системы мал по сравнению с ее коэффициентами. Однако можно привести пример матрицы, детерминант которой не мал, но обращается в нуль при малом возмущении элементов матрицы. Рассмотрим диагональную матрицу пятого порядка, у которой все элементы на диагонали равны 10, кроме последнего, равного 10- 4. Детерминант такой матрицы равен 1, но может обратиться в 0 изменением одного элемента на 10- 4. Следует отметить, что такая матрица является плохо обусловленной и ее число обусловленности m равно 104.

Сейчас важно подчеркнуть принципиальную сторону этого явления. Если числа не могут быть заданы точно, то стирается четкая грань между вырожденными и невырожденными матрицами. Появляется класс почти-вырожденных матриц, границы которого зависят от принятой меры точности в конкретном исследовании. В пределах заданной точности можно получить как вырожденную, так и невырожденную матрицу, изменяя ее элементы.

НОРМАЛЬНАЯ СИСТЕМА

В практических задачах часто бывает необходимо удовлетворить некоторому числу противоречивых требований. Если задача сводится к системе линейных уравнений, то такая система, вообще говоря, несовместна. В этом случае задачу можно решить путем выбора некоторого компромисса - все требования могут быть удовлетворены не полностью, а лишь до некоторой степени.

Рассмотрим систему (4) с матрицей A для произвольных размеров m i n, то есть никаких условий на m и n не накладывается.

Невязкой называется вектор, который дает значение вектора X при подстановке в систему (4)

R = B - A X.

Решение системы - это вектор X, дающий нулевую невязку.

Если система (4) несовместна, то обычно стараются найти такой X, который дает невязку с минимальной нормой. Под нормой вектора R понимается его евклидова норма

Если такой X существует, то его считают обобщенным решением системы (4). Очевидно, если система совместна, ее решение будет также и обобщенным решением.

Таким образом, рассматривается задача о минимуме нормы невязки

|| R ||2 = (B - A X)T(B - A X).

Решение указанной задачи приводит к уравнению

A TA X = A TB,

где значком Т отмечена транспонированная матрица.

Система линейных уравнений (24) называется нормальной системой по отношению к системе (4). Она является следствием системы (4) и всегда совместна независимо от совместности системы (4).

Справедливо следующее утверждение.

Предложение [7]. Нормальная система имеет единственное решение тогда и только тогда, когда система A Y = 0 имеет только нулевое решение, то есть столбцы (строки) матрицы линейно независимы.

Если решение нормальной системы неединственно, то выбирается решение с минимальной нормой.

Определение. Нормальным псевдорешением системы (24) называется вектор X0 с минимальной нормой среди всех векторов X, дающих минимальную по норме невязку при подстановке в эту систему.

Имеет место

Теорема [7]. Каждая система линейных уравнений имеет одно и только одно нормальное псевдорешение.

МЕТОДЫ РЕГУЛЯРИЗАЦИИ

Предыдущие рассмотрения указывают необходимость выделения класса задач, для которых малые возмущения данных задач приводят к малому изменению решения. Класс таких задач называется корректным.

Приведем понятие корректности задачи по Адамару (Жак Адамар (1865-1963) - французский математик).

Задача называется корректной, если выполнены следующие три требования:

1) ее решение существует при любых входных данных задачи;

2) это решение единственно;

3) решение устойчиво по отношению к малым возмущениям входных данных.

В том случае, когда хотя бы одно из этих требований не выполнено, задача называется некорректной. Идеи Адамара были развиты И.Г. Петровским (Иван Георгиевич Петровский (1901-1973) - российский математик).

Следует заметить, что класс корректных задач по Адамару оказался слишком узок. А.Н. Тихонов (Андрей Николаевич Тихонов (1906-1993) - российский математик) расширил понятие корректности задачи за счет сужения множества ее решений. Определение корректности по Тихонову полностью повторяет определение Адамара на заданном множестве M, которое считается множеством компактности решений. В конечномерном пространстве компактность означает ограниченность решения. Существуют и другие определения корректности задачи.

К настоящему времени разработана теория решения многих классов некорректных задач. Методы решения таких задач (методы регуляризации) довольно сложны. Для первого знакомства с ними можно рекомендовать учебное пособие [8].

В рамках линейных систем (4) метод регуляризации А.Н. Тихонова приводит к решению следующей линейной системы:

(A TA + dE )X = A TB, d > 0,

где d - параметр регуляризации, E - единичная матрица. Выбору параметра регуляризации посвящено большое число работ. Ясно, что, чем меньше d, тем ближе полученное решение к обобщенному решению системы (4), однако это ведет к большим трудностям в численном решении системы (25). Выбор больших d приводит к значительным отклонениям от реального решения. Выбор необходимого d зависит от заданной точности решения и требований устойчивости вычислительных алгоритмов.

Несмотря на расширение класса корректных систем по А.Н. Тихонову, можно указать примеры линейных систем, для которых метод (25) не приводит к успеху. Таковыми являются, например, матрица Гильберта [3] и задача Годунова [9]. К матрице Гильберта приводит задача полиномиальной регрессии. Приведем пример С.К. Годунова:

=

=

.....................................................

=

.....................................................

=

Для этой системы известно решение

Число обусловленности матрицы A для n = 25 равно 0,69 " 1011, то есть система является плохо обусловленной.

Наилучшие результаты по точности решения системы (26) дает метод Гаусса для n = 33. Метод Гаусса для систем (26), (25) решает исходную систему (26) для n = 10 с приемлемой точностью. Для n > 33 возникают большие проблемы в получении решения системы (26). Вопросы решения такого класса систем выходят за рамки данной статьи [9].

ЗАКЛЮЧЕНИЕ

Обилие литературы по методам линейной алгебры указывает на большое многообразие задач и большие трудности в их решении.

В настоящее время созданы пакеты прикладных программ для решения различных линейных задач. Однако рамки их применения ограничены хорошо обусловленными системами. До сих пор для плохо обусловленных систем не существует универсального надежного и эффективного математического обеспечения. Большой интерес представляет метод получения оценок решений в некорректном случае [9]. Продолжается также интенсивная работа по разработке универсальных алгоритмов для некорректных линейных задач.

ПРИЛОЖЕНИЕ

1. Вектор. Вектор a, состоящий из n компонент, является упорядоченной совокупностью чисел и записывается строкой (a1 , a2 , _, an). Выбор записи вектора в виде строки или столбца несуществен. Оба представления эквивалентны.

Умножение на скаляр. Произведение вектора на скаляр обозначается la и определяется как вектор la = (la1 , la2 , ..., lan).

Скалярное произведение. Скалярное произведение двух векторов a и b, состоящих из n компонент, определяется как скаляр

где верхний индекс Т означает транспонирование - замену строки столбцом.

Евклидова норма. Евклидовой нормой вектора называется скалярная величина

2. Матрицы. Матрица представляет собой прямоугольную таблицу чисел вида (5), расположенных строками и столбцами. При m = n матрица называется квадратной.

Матричное умножение. Произведением (m i n)-матрицы и (n i r)-матрицы (записывается: AB ) называется матрица С, элементы которой определяются по формуле

Произведение AB определено только в том случае, когда число столбцов матрицы A равно числу строк матрицы B.

Пример 1.

Заметим, что AB ? BA (если они имеют смысл), то есть произведение некоммутативно.

Транспонирование - замена строк в матрице столбцами.

Пример 2.

Умножение матрицы на вектор. Такое умножение является частным случаем умножения двух матриц, где вектор рассматривается как матрица размером 1 i n.

Пример 3.

Единичная матрица. Единичная матрица обозначается через Е. По определению,

где di j называется символом Кронекера.

Пример 4.

Обратная матрица. Для любого действительного числа a ? 0 существует число a-1 (называемое обратным для a), такое, что a-1a = aa-1 = 1. Обратная матрица В для A определяется соотношением АВ = ВА = = Е. Такая матрица В всегда существует и единственна для квадратной матрицы А и такой, что det A ? 0. Обозначается символом А -1, то есть В = А -1.

Пример 5.

Существуют несколько способов вычисления обратной матрицы. Соответствующие алгоритмы можно найти в литературе [1-5].

ЛИТЕРАТУРА

1. Амосов А.А., Дубинский Ю.А., Копченова Н.В. Вычислительные методы для инженеров. М.: Высш. шк., 1994. 544 с.

2. Калиткин Н.Н. Численные методы. М.: Наука, 1978. 512 с.

3. Райс Дж. Матричные вычисления и математическое обеспечение. М.: Мир, 1984. 264 с.

4. Демидович Б.П., Марон И.А. Основы вычислительной математики. М.: Наука, 1970. 664 с.

5. Воробьева Г.Н., Данилова А.Н. Практикум по численным методам. М.: Высш. шк., 1979. 184 с.

6. Тихонов А.Н., Костомаров Д.П. Вводные лекции по прикладной математике. М.: Наука, 1984. 190 с.

7. Беклемишев Д.В. Дополнительные главы линейной алгебры. М.: Наука, 1983. 335 с.

8. Тихонов А.Н., Арсенин В.Я. Методы решения некорректных задач. М.: Наука, 1986. 320 с.

9. Годунов С.К. Решение систем линейных уравнений. Новосибирск: Наука,1980.

* * *

Василий Васильевич Дикусар, доктор физико-математических наук, профессор кафедры высшей математики МФТИ, ведущий научный сотрудник Вычислительного центра Российской академии наук. Область научных интересов: теория управления, численные методы, финансовая математика. Автор более 80 научных статей, двух изобретений и трех монографий.


Rambler's Top100