куда А дано п × пнеособый матрица и k дано вектор столбца с п составные части. Разбиваем матрицу А в
(2)
куда B и C находятся п × п матрицы. Если для произвольного п × п матрица M, M имеет неотрицательные записи, мы пишем M ≥ 0. Если M имеет только положительные записи, мы пишем M > 0. Аналогично, если матрица M1 − M2 имеет неотрицательные записи, мы пишем M1 ≥ M2.
Определение: А = B − C это регулярное расщепление A если B−1 ≥ 0 и C ≥ 0.
Считаем, что матричные уравнения вида
(3)
куда грамм заданный вектор-столбец, может быть решен непосредственно для вектора Икс. Если (2) представляет собой регулярное расщепление А, то итерационный метод
(4)
куда Икс(0) - произвольный вектор, может быть выполнено. Эквивалентно пишем (4) в виде
(5)
Матрица D = B−1C имеет неотрицательные записи, если (2) представляет собой регулярное расщепление А.[2]
Если к тому же расщепление (2) выбирается так, чтобы матрица B это диагональная матрица (с диагональными элементами все ненулевые, так как B должно быть обратимый ), тогда B можно инвертировать за линейное время (см. Сложность времени ).
Матричные итерационные методы
Многие итерационные методы можно описать как разбиение матрицы. Если диагональные элементы матрицы А все ненулевые, и выразим матрицу А как матричная сумма
(6)
куда D это диагональная часть А, и U и L соответственно строго верхний и нижний треугольныйп × п матрицы, то имеем следующее.
В Метод Якоби можно представить в матричной форме как разбиение
Применим расщепление (7), который используется в методе Якоби: мы разбиваем А таким образом, что B состоит из все диагональных элементов А, и C состоит из все недиагональных элементов А, отрицается. (Конечно, это не единственный полезный способ разбить матрицу на две матрицы.) У нас есть
(11)
С B−1 ≥ 0 и C ≥ 0, расщепление (11) - регулярное расщепление. С А−1 > 0, спектральный радиус <1. (Приблизительный собственные значения из D находятся ) Следовательно, матрица D сходится и метод (5) обязательно сходится для задачи (10). Обратите внимание, что диагональные элементы А все больше нуля, недиагональные элементы А все меньше нуля и А является строго по диагонали.[11]
Метод (5) применительно к проблеме (10) тогда принимает вид
Первые несколько итераций для уравнения (12) перечислены в таблице ниже, начиная с Икс(0) = (0.0, 0.0, 0.0)Т. Из таблицы видно, что метод явно сходится к решению (13), хотя и довольно медленно.
0.0
0.0
0.0
0.83333
-3.0000
2.0000
0.83333
-1.7917
1.9000
1.1861
-1.8417
2.1417
1.2903
-1.6326
2.3433
1.4608
-1.5058
2.4477
1.5553
-1.4110
2.5753
1.6507
-1.3235
2.6510
1.7177
-1.2618
2.7257
1.7756
-1.2077
2.7783
1.8199
-1.1670
2.8238
Метод Якоби
Как указано выше, метод Якоби (7) совпадает с конкретным регулярным расщеплением (11) продемонстрировано выше.
Метод Гаусса-Зейделя
Поскольку диагональные элементы матрицы А в проблеме (10) все ненулевые, мы можем выразить матрицу А как расщепление (6), куда
(14)
Тогда у нас есть
Метод Гаусса-Зейделя (8) применительно к проблеме (10) принимает вид
(15)
Первые несколько итераций для уравнения (15) перечислены в таблице ниже, начиная с Икс(0) = (0.0, 0.0, 0.0)Т. Из таблицы видно, что метод явно сходится к решению (13), несколько быстрее, чем описанный выше метод Якоби.
0.0
0.0
0.0
0.8333
-2.7917
1.9417
0.8736
-1.8107
2.1620
1.3108
-1.5913
2.4682
1.5370
-1.3817
2.6459
1.6957
-1.2531
2.7668
1.7990
-1.1668
2.8461
1.8675
-1.1101
2.8985
1.9126
-1.0726
2.9330
1.9423
-1.0479
2.9558
1.9619
-1.0316
2.9708
Метод последовательного чрезмерного расслабления
Позволять ω = 1.1. Используя расщепление (14) матрицы А в проблеме (10) для метода последовательной сверхрелаксации имеем
Метод последовательной сверхрелаксации (9) применительно к проблеме (10) принимает вид
(16)
Первые несколько итераций для уравнения (16) перечислены в таблице ниже, начиная с Икс(0) = (0.0, 0.0, 0.0)Т. Из таблицы видно, что метод явно сходится к решению (13), немного быстрее, чем описанный выше метод Гаусса-Зейделя.
Варга, Ричард С. (1960). «Факторизация и нормализованные итерационные методы». В Лангере, Рудольф Э. (ред.). Краевые задачи в дифференциальных уравнениях.. Мэдисон: University of Wisconsin Press. С. 121–142. LCCN60-60003.