Skip to content

Instantly share code, notes, and snippets.

Show Gist options
  • Star 0 You must be signed in to star a gist
  • Fork 0 You must be signed in to fork a gist
  • Save anonymous/8c8c2d14cb41c9b069630a428accd207 to your computer and use it in GitHub Desktop.
Save anonymous/8c8c2d14cb41c9b069630a428accd207 to your computer and use it in GitHub Desktop.
Минимальное собственное значение

Минимальное собственное значение



В вычислительной математике одной из наиболее важных задач является создание эффективных и устойчивых алгоритмов нахождения собственных значений матрицы. Эти алгоритмы вычисления собственных значений могут также находить собственные векторы. Значение k всегда можно взять меньше либо равным n. Дальнейшие термины связаны с равенством. Таким образом, алгебраическая кратность является кратностью собственных значений как корней характеристического многочлена. Поскольку любой собственный вектор является корневым вектором, геометрическая кратность меньше либо равна алгебраической кратности. Сумма алгебраических кратностей равна n степени характеристического многочлена. Любой набор корневых векторов различных собственных значений линейно независим, так что базис для всего C n можно выбрать из набора корневых векторов. Таким образом, подобные матрицы имеют те же самые собственные значения. Квадратная матрица A называется нормальной , если она коммутирует с эрмитово-сопряжённой: Матрица называется эрмитовой , если она равна своей сопряжённой: Все эрмитовы матрицы нормальны. Если применить это к столбцам, сопряжённость можно использовать для определения канонического скалярного произведения в C n: Нормальные, эрмитовы и вещественные симметричные матрицы имеют ряд полезных свойств:. Возможно как для вещественных, так и для комплексных матриц иметь все собственные значения вещественными, не будучи при этом эрмитовой матрицей. Например, вещественная треугольная матрица имеет все свои собственные значения на диагонали, но, в общем случае, не симметрична. Число обусловленности описывает насколько возрастает ошибка во время вычислений. Десятичный логарифм этого числа говорит о количестве знаков, которые мы теряем по отношению к исходным данным. Число обусловленности относится к наилучшему сценарию, отражая нестабильность самой задачи, независимо от способа решения. Никакой алгоритм не может дать результат лучше, чем определённый числом обусловленности, разве что случайно. Однако плохо разработанный алгоритм может дать существенно более плохие результаты. Например, как будет упомянуто ниже, задача нахождения собственных значений нормальной матрицы всегда хорошо обусловлена, однако задача нахождения корней многочлена может быть очень плохо обусловлена [en]. Такие алгоритмы вычисления собственных значений, которые работают путём нахождения корней характеристического многочлена, могут оказаться плохо обусловленными, даже если сама задача хорошо обусловлена. В общем случае для матриц часто сложно вычислить операторную норму. По этой причине обычно используют другие нормы матрицы для оценки числа обусловленности. Таким образом, задача вычисления собственных значений нормальных матриц хорошо обусловлена. В частности, задача определения собственного подпространства для нормальных матриц хорошо обусловлена для изолированных собственных значений. Если собственные значения не изолированы, лучшее, на что мы можем рассчитывать, это определение подпространства всех собственных векторов близлежащих собственных значений. Теорема Абеля — Руффини показывает, что любой такой алгоритм для размерности большей 4 должен либо быть бесконечным, либо вовлекать функции более сложные, чем элементарные арифметические операции или дробные степени. По этой причине алгоритмы, вычисляющие точно собственные значения за конечное число шагов, существуют только для специальных классов матриц. В общем случае алгоритмы являются итеративными , дающими на каждой итерации очередное приближение к решению. Некоторые алгоритмы дают все собственные значения, другие дают несколько значений или даже всего одно, однако и эти алгоритмы можно использовать для вычисления всех собственных значений. Приведение обычно осуществляется сдвигом: Алгоритм вычисления собственных значений можно тогда применить к этой суженой матрице. Процесс можно продолжать пока не будут найдены все собственные значения. Поскольку собственными значениями треугольной матрицы являются диагональные элементы, в общем случае не существует конечного метода подобного исключениям Гаусса для приведения матрицы к треугольной форме, сохраняя при этом собственные значения, однако можно получить нечто близкое к треугольной матрице. Матрицы Хессенберга и трёхдиагональные матрицы являются исходными точками многих алгоритмов вычисления собственных значений, поскольку нулевые значения уменьшают сложность задачи. Существует несколько методов сведения матриц к матрицам Хессенберга с теми же собственными значениями. Если исходная матрица симметрична или эрмитова, то результирующая матрица будет трёхдиагональной. Если нужны только собственные значения, нет необходимости вычислять матрицу подобия, поскольку преобразованная матрица имеет те же собственные значения. Если также нужны и собственные векторы, матрица подобия необходима для преобразования собственных векторов матрицы Хессенберга к собственным векторам исходной матрицы. Итеративные алгоритмы решают задачу вычисления собственных значений путём построения последовательностей, сходящихся к собственным значениям. Некоторые алгоритмы дают также последовательности векторов, сходящихся к собственным векторам. Чаще всего последовательности собственных значений выражаются через последовательности подобных матриц, которые сходятся к треугольной или диагональной форме, что позволяет затем просто получить собственные значения. Последовательности собственных векторов выражаются через соответствующие матрицы подобия. Не существует простых алгоритмов прямого вычисления собственных значений для матриц в общем случае, но для многих специальных классов матриц собственные значения можно вычислить прямо. Если удаётся разложить многочлен p на множители, то собственные значения A находятся среди его корней. Таким образом, проектор имеет 0 и 1 в качестве собственных значений. Для размерностей от 2 до 4 существуют использующие радикалы формулы, которые можно использовать для вычисления собственных значений. Собственные значения можно найти как корни квадратного уравнения:. Отсюда следует, что вычисление хорошо обусловлено, если собственные значения изолированы. Предполагая, что ни одна из матриц не равна нулю, столбцы каждой матрицы должны содержать собственные векторы для другого собственного значения если же матрица нулевая, то A является произведением единичной матрицы на константу и любой ненулевой вектор является собственным. В обеих матрицах столбцы отличаются скалярными коэффициентами, так что можно выбирать любой столбец. Это уравнение можно решить с помощью методов Кардано или Лагранжа , но аффинное преобразование матрицы A существенно упрощает выражение и ведёт прямо к тригонометрическому решению. Если det B является комплексным числом или больше 2 по абсолютной величине, арккосинус для всех трёх величин k следует брать из одной и той же ветви. Проблема не возникает, если A вещественна и симметрична, приводя к простому алгоритму: Тогда столбцы произведения любых двух из этих матриц содержат собственные векторы третьего собственного значения. Векторы 2, 3, -1 и 6, 5, -3 являются корневыми векторами, соответствующими значению 1, любой из которых можно скомбинировать с -4, -4, 4 и 4, 2, -2 , образуя базис корневых векторов матрицы A. Материал из Википедии — свободной энциклопедии. Эрмитово-сопряжённая матрица , Нормальная матрица , Эрмитова матрица. Numerical Recipes in C. On the fastest convergence cases. Для улучшения этой статьи желательно: Проверить качество перевода с иностранного языка. Численные методы линейной алгебры Численные методы. Страницы, использующие волшебные ссылки ISBN Википедия: Навигация Персональные инструменты Вы не представились системе Обсуждение Вклад Создать учётную запись Войти. Пространства имён Статья Обсуждение. Просмотры Читать Править Править вики-текст История. Эта страница последний раз была отредактирована 15 мая в Текст доступен по лицензии Creative Commons Attribution-ShareAlike ; в отдельных случаях могут действовать дополнительные условия. Свяжитесь с нами Политика конфиденциальности Описание Википедии Отказ от ответственности Разработчики Соглашение о cookie Мобильная версия. Отражение каждого столбца относительно подпространства для обнуления нижних элементов столбца. Осуществляется плоское вращении для обнуления отдельных элементов. Вращения упорядочены так, что следующие вращения не затрагивают нулевые элементы. Алгоритм Ланцоша [en] [5]. Многократное умножение матрицы на произвольно выбранный начальный вектор с последующей нормализацией. Итерация отношения Рэлея [en]. Предобусловленная обратная итерация [6] или LOBPCG [en]. Обратная итерация с предобуславливанием приближённое обращение матрицы A. Метод деления пополам [7]. Использует метод бисекции для поиска корней характеристического многочлена и свойства последовательности Штурма. Использует метод Лагерра [en] вычисления корней характеристического многочлена и свойства последовательности Штурма. Алгоритм QR [en] [9]. Использует поворот Гивенса в попытке избавиться от недиагональных элементов. Попытка не удаётся, но усиливает диагональ. Разделяй и властвуй [en]. Матрица разбивается на подматрицы, которые диагонализируются, затем воссоединяются. O n 2 [10]. Метод спектральной свёртки [en].


Обоснование степенного метода
Цитаты из сериалов с переводом
Познакомиться с женщиной
Пеларгонии каталог украина
Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment