Valeurs propres et vecteurs propres

0

En algèbre linéaire , un vecteur propre ( / ˈ aɪ ɡ ə n ˌ v ɛ k t ər / ) ou vecteur caractéristique d’une transformation linéaire est un vecteur différent de zéro qui change au plus d’un facteur scalaire lorsque cette transformation linéaire lui est appliquée. La valeur propre correspondante , souvent désignée par λ {displaystylelambda} lambda , est le facteur par lequel le vecteur propre est mis à l’échelle.

Géométriquement , un vecteur propre, correspondant à une valeur propre réelle non nulle, pointe dans une direction dans laquelle il est étiré par la transformation et la valeur propre est le facteur par lequel il est étiré. Si la valeur propre est négative, le sens est inversé. [1] En gros, dans un espace vectoriel multidimensionnel , le vecteur propre n’est pas tourné.

Définition formelle

Si T est une transformation linéaire d’un espace vectoriel V sur un corps F en lui-même et v est un vecteur non nul dans V , alors v est un vecteur propre de T si T ( v ) est un multiple scalaire de v . Ceci peut être écrit comme

T ( v ) = λ v , {displaystyle T(mathbf {v} )=lambda mathbf {v} ,} {displaystyle T(mathbf {v} )=lambda mathbf {v} ,} {displaystyle T(mathbf {v} )=lambda mathbf {v} ,}

λ est un scalaire dans F , appelé valeur propre , valeur caractéristique ou racine caractéristique associée à v .

Il existe une correspondance directe entre les matrices carrées n sur n et les transformations linéaires d’un espace vectoriel à n dimensions en lui-même, quelle que soit la base de l’espace vectoriel. Ainsi, dans un espace vectoriel de dimension finie, il est équivalent de définir des valeurs propres et des vecteurs propres en utilisant soit le langage des matrices , soit le langage des transformations linéaires. [2] [3]

Si V est de dimension finie, l’équation ci-dessus est équivalente à [4]

A u = λ u . {displaystyle Amathbf {u} =lambda mathbf {u} .} {displaystyle Amathbf {u} =lambda mathbf {u} .} {displaystyle Amathbf {u} =lambda mathbf {u} .}

A est la représentation matricielle de T et u est le vecteur de coordonnées de v .

Aperçu

Les valeurs propres et les vecteurs propres figurent en bonne place dans l’analyse des transformations linéaires. Le préfixe eigen- est adopté du mot allemand eigen ( apparenté au mot anglais propre ) pour “propre”, “caractéristique”, “propre”. [5] [6] Utilisés à l’origine pour étudier les axes principaux du mouvement de rotation des corps rigides , les valeurs propres et les vecteurs propres ont un large éventail d’applications, par exemple dans l’analyse de la stabilité , l’analyse des vibrations , les orbitales atomiques , la reconnaissance faciale etdiagonalisation matricielle .

En substance, un vecteur propre v d’une transformation linéaire T est un vecteur non nul qui, lorsque T lui est appliqué, ne change pas de direction. L’application de T au vecteur propre ne fait que mettre à l’échelle le vecteur propre par la valeur scalaire λ , appelée valeur propre. Cette condition peut s’écrire sous la forme de l’équation

T ( v ) = λ v , {displaystyle T(mathbf {v} )=lambda mathbf {v} ,} {displaystyle T(mathbf {v} )=lambda mathbf {v} ,} {displaystyle T(mathbf {v} )=lambda mathbf {v} ,}

appelée équation aux valeurs propres ou équation propre . En général, λ peut être n’importe quel scalaire . Par exemple, λ peut être négatif, auquel cas le vecteur propre inverse la direction dans le cadre de la mise à l’échelle, ou il peut être nul ou complexe .

Dans cette cartographie de cisaillement, la flèche rouge change de direction, mais pas la flèche bleue. La flèche bleue est un vecteur propre de cette cartographie de cisaillement car elle ne change pas de direction, et puisque sa longueur est inchangée, sa valeur propre est 1. Une matrice 2×2 réelle et symétrique représentant un étirement et un cisaillement du plan. Les vecteurs propres de la matrice (lignes rouges) sont les deux directions spéciales telles que chaque point sur eux glissera simplement dessus.

L’ exemple de Mona Lisa illustré ici fournit une illustration simple. Chaque point du tableau peut être représenté par un vecteur pointant du centre du tableau vers ce point. La transformation linéaire dans cet exemple est appelée une cartographie de cisaillement . Les points de la moitié supérieure sont déplacés vers la droite et les points de la moitié inférieure sont déplacés vers la gauche, proportionnellement à leur distance par rapport à l’axe horizontal qui passe par le milieu du tableau. Les vecteurs pointant vers chaque point de l’image d’origine sont donc inclinés à droite ou à gauche, et rallongés ou raccourcis par la transformation. Points le longl’axe horizontal ne bouge pas du tout lorsque cette transformation est appliquée. Par conséquent, tout vecteur qui pointe directement vers la droite ou la gauche sans composante verticale est un vecteur propre de cette transformation, car le mappage ne change pas de direction. De plus, ces vecteurs propres ont tous une valeur propre égale à un, car la cartographie ne change pas non plus leur longueur.

Les transformations linéaires peuvent prendre de nombreuses formes différentes, mappant des vecteurs dans une variété d’espaces vectoriels, de sorte que les vecteurs propres peuvent également prendre de nombreuses formes. Par exemple, la transformation linéaire pourrait être un opérateur différentiel comme d d x {displaystyle {tfrac {d}{dx}}} {tfrac {d}{dx}} {tfrac {d}{dx}}, auquel cas les vecteurs propres sont des fonctions appelées fonctions propres qui sont mises à l’échelle par cet opérateur différentiel, comme

d d x e λ x = λ e λ x . {displaystyle {frac {d}{dx}}e^{lambda x}=lambda e^{lambda x}.} {displaystyle {frac {d}{dx}}e^{lambda x}=lambda e^{lambda x}.} {displaystyle {frac {d}{dx}}e^{lambda x}=lambda e^{lambda x}.}

Alternativement, la transformation linéaire pourrait prendre la forme d’une matrice n par n , auquel cas les vecteurs propres sont des matrices n par 1. Si la transformation linéaire est exprimée sous la forme d’une matrice n par n A , alors l’équation aux valeurs propres pour une transformation linéaire ci-dessus peut être réécrite comme la multiplication matricielle

A v = λ v , {displaystyle Amathbf {v} =lambda mathbf {v} ,} {displaystyle Amathbf {v} =lambda mathbf {v} ,}

où le vecteur propre v est une matrice n par 1. Pour une matrice, les valeurs propres et les vecteurs propres peuvent être utilisés pour décomposer la matrice, par exemple en la diagonalisant .

Les valeurs propres et les vecteurs propres donnent lieu à de nombreux concepts mathématiques étroitement liés, et le préfixe eigen- est appliqué généreusement pour les nommer:

  • L’ensemble de tous les vecteurs propres d’une transformation linéaire, chacun associé à sa valeur propre correspondante, est appelé le système propre de cette transformation. [7] [8]
  • L’ensemble de tous les vecteurs propres de T correspondant à la même valeur propre, ainsi que le vecteur zéro, est appelé un espace propre , ou l’ espace caractéristique de T associé à cette valeur propre. [9]
  • Si un ensemble de vecteurs propres de T forme une base du domaine de T , alors cette base est appelée une base propre .

Histoire

Les valeurs propres sont souvent introduites dans le contexte de l’algèbre linéaire ou de la théorie des matrices . Historiquement, cependant, ils sont apparus dans l’étude des formes quadratiques et des équations différentielles .

Au XVIIIe siècle, Leonhard Euler étudie le mouvement de rotation d’un corps rigide et découvre l’importance des axes principaux . [a] Joseph-Louis Lagrange s’est rendu compte que les axes principaux sont les vecteurs propres de la matrice d’inertie. [dix]

Au début du XIXe siècle, Augustin-Louis Cauchy a vu comment leur travail pouvait être utilisé pour classer les surfaces quadriques et l’a généralisé à des dimensions arbitraires. [11] Cauchy a également inventé le terme racine caractéristique (racine caractéristique), pour ce qu’on appelle maintenant la valeur propre ; son terme survit dans l’ équation caractéristique . [c]

Plus tard, Joseph Fourier a utilisé les travaux de Lagrange et Pierre-Simon Laplace pour résoudre l’ équation de la chaleur par séparation de variables dans son célèbre livre de 1822 Théorie analytique de la chaleur . [12] Charles-François Sturm a développé les idées de Fourier plus loin et les a portées à l’attention de Cauchy, qui les a combinées avec ses propres idées et est arrivée au fait que les vraies matrices symétriques ont de vraies valeurs propres. [11] Cela a été étendu par Charles Hermite en 1855 à ce qu’on appelle maintenant les matrices hermitiennes . [13]

À peu près à la même époque, Francesco Brioschi a prouvé que les valeurs propres des matrices orthogonales se situent sur le cercle unitaire , [11] et Alfred Clebsch a trouvé le résultat correspondant pour les matrices asymétriques . [13] Enfin, Karl Weierstrass a clarifié un aspect important de la théorie de la stabilité initiée par Laplace, en réalisant que des matrices défectueuses peuvent provoquer une instabilité. [11]

Entre-temps, Joseph Liouville a étudié des problèmes aux valeurs propres similaires à ceux de Sturm ; la discipline qui est née de leur travail s’appelle maintenant la théorie de Sturm-Liouville . [14] Schwarz a étudié la première valeur propre de l’équation de Laplace sur des domaines généraux vers la fin du XIXe siècle, tandis que Poincaré a étudié l’équation de Poisson quelques années plus tard. [15]

Au début du XXe siècle, David Hilbert a étudié les valeurs propres des opérateurs intégraux en considérant les opérateurs comme des matrices infinies. [16] Il a été le premier à utiliser le mot allemand eigen , qui signifie “propre”, [6] pour désigner les valeurs propres et les vecteurs propres en 1904, [c] bien qu’il ait pu suivre un usage connexe par Hermann von Helmholtz . Pendant un certain temps, le terme standard en anglais était “valeur propre”, mais le terme plus distinctif “valeur propre” est la norme aujourd’hui. [17]

Le premier algorithme numérique de calcul des valeurs propres et des vecteurs propres est apparu en 1929, lorsque Richard von Mises a publié la méthode de la puissance . L’une des méthodes les plus populaires aujourd’hui, l’ algorithme QR , a été proposée indépendamment par John GF Francis [18] et Vera Kublanovskaya [19] en 1961. [20] [21]

Valeurs propres et vecteurs propres des matrices

Les valeurs propres et les vecteurs propres sont souvent présentés aux étudiants dans le cadre de cours d’algèbre linéaire axés sur les matrices. [22] [23] En outre, les transformations linéaires sur un espace vectoriel de dimension finie peuvent être représentées en utilisant des matrices, [2] [3] ce qui est particulièrement courant dans les applications numériques et informatiques. [24]

La matrice A agit en étirant le vecteur x , sans changer sa direction, donc x est un vecteur propre de A .

Considérez des vecteurs à n dimensions qui sont formés comme une liste de n scalaires, tels que les vecteurs à trois dimensions

x = [ 1 − 3 4 ] and y = [ − 20 60 − 80 ] . {displaystyle mathbf {x} ={begin{bmatrix}1\-3\4end{bmatrix}}quad {mbox{and}}quad mathbf {y} ={begin{ bmatrice}-20\60\-80end{bmatrice}}.} {displaystyle mathbf {x} ={begin{bmatrix}1\-3\4end{bmatrix}}quad {mbox{and}}quad mathbf {y} ={begin{bmatrix}-20\60\-80end{bmatrix}}.} {displaystyle mathbf {x} ={begin{bmatrix}1\-3\4end{bmatrix}}quad {mbox{and}}quad mathbf {y} ={begin{bmatrix}-20\60\-80end{bmatrix}}.}

Ces vecteurs sont dits multiples scalaires les uns des autres, ou parallèles ou colinéaires , s’il existe un scalaire λ tel que

x = λ y . {displaystyle mathbf {x} =lambda mathbf {y} .} {displaystyle mathbf {x} =lambda mathbf {y} .} {displaystyle mathbf {x} =lambda mathbf {y} .}

Dans ce cas λ = − 1 20 {displaystyle lambda =-{frac {1}{20}}} {displaystyle lambda =-{frac {1}{20}}} {displaystyle lambda =-{frac {1}{20}}}.

Considérons maintenant la transformation linéaire de vecteurs à n dimensions définis par une matrice n par n A ,

A v = w , {displaystyle Amathbf {v} =mathbf {w} ,} {displaystyle Amathbf {v} =mathbf {w} ,} {displaystyle Amathbf {v} =mathbf {w} ,}

ou alors

[ A 11 A 12 ⋯ A 1 n A 21 A 22 ⋯ A 2 n ⋮ ⋮ ⋱ ⋮ A n 1 A n 2 ⋯ A n n ] [ v 1 v 2 ⋮ v n ] = [ w 1 w 2 ⋮ w n ] {displaystyle {begin{bmatrix}A_{11}&A_{12}&cdots &A_{1n}\A_{21}&A_{22}&cdots &A_{2n}\vdots &vdots & ddots &vdots \A_{n1}&A_{n2}&cdots &A_{nn}\end{bmatrix}}{begin{bmatrix}v_{1}\v_{2}\vdots v_{n}end{bmatrix}}={begin{bmatrix}w_{1}\w_{2}\vdots \w_{n}end{bmatrix}}} {displaystyle {begin{bmatrix}A_{11}&A_{12}&cdots &A_{1n}\A_{21}&A_{22}&cdots &A_{2n}\vdots &vdots &ddots &vdots \A_{n1}&A_{n2}&cdots &A_{nn}\end{bmatrix}}{begin{bmatrix}v_{1}\v_{2}\vdots \v_{n}end{bmatrix}}={begin{bmatrix}w_{1}\w_{2}\vdots \w_{n}end{bmatrix}}} {displaystyle {begin{bmatrix}A_{11}&A_{12}&cdots &A_{1n}\A_{21}&A_{22}&cdots &A_{2n}\vdots &vdots &ddots &vdots \A_{n1}&A_{n2}&cdots &A_{nn}\end{bmatrix}}{begin{bmatrix}v_{1}\v_{2}\vdots \v_{n}end{bmatrix}}={begin{bmatrix}w_{1}\w_{2}\vdots \w_{n}end{bmatrix}}}

où, pour chaque ligne,

w i = A i 1 v 1 + A i 2 v 2 + ⋯ + A i n v n = ∑ j = 1 n A i j v j . {displaystyle w_{i}=A_{i1}v_{1}+A_{i2}v_{2}+cdots +A_{in}v_{n}=sum _{j=1}^{n} A_{ij}v_{j}.} {displaystyle w_{i}=A_{i1}v_{1}+A_{i2}v_{2}+cdots +A_{in}v_{n}=sum _{j=1}^{n}A_{ij}v_{j}.} {displaystyle w_{i}=A_{i1}v_{1}+A_{i2}v_{2}+cdots +A_{in}v_{n}=sum _{j=1}^{n}A_{ij}v_{j}.}

S’il arrive que v et w soient des multiples scalaires, c’est-à-dire si

A v = w = λ v , {displaystyle Amathbf {v} =mathbf {w} =lambda mathbf {v} ,} {displaystyle Amathbf {v} =mathbf {w} =lambda mathbf {v} ,} {displaystyle Amathbf {v} =mathbf {w} =lambda mathbf {v} ,}

( 1 )

alors v est un vecteur propre de la transformation linéaire A et le facteur d’échelle λ est la valeur propre correspondant à ce vecteur propre. L’ équation ( 1 ) est l’ équation aux valeurs propres de la matrice A.

L’équation ( 1 ) peut être énoncée de manière équivalente comme

( A − λ I ) v = 0 , {displaystyle left(A-lambda Iright)mathbf {v} =mathbf {0} ,} {displaystyle left(A-lambda Iright)mathbf {v} =mathbf {0} ,}

( 2 )

I est la matrice d’identité n par n et 0 est le vecteur zéro.

Valeurs propres et polynôme caractéristique

L’équation ( 2 ) admet une solution v non nulle si et seulement si le déterminant de la matrice ( AλI ) est nul. Par conséquent, les valeurs propres de A sont des valeurs de λ qui satisfont l’équation

| A − λ I | = 0 {displaystyle |A-lambda I|=0} {displaystyle |A-lambda I|=0} {displaystyle |A-lambda I|=0}

( 3 )

En utilisant la règle de Leibniz pour le déterminant, le côté gauche de l’équation ( 3 ) est une fonction polynomiale de la variable λ et le degré de ce polynôme est n , l’ordre de la matrice A . Ses coefficients dépendent des entrées de A , sauf que son terme de degré n est toujours (−1) n λ n . Ce polynôme est appelé le polynôme caractéristique de A . L’ équation ( 3 ) est appelée équation caractéristique ouéquation séculaire de A .

Le théorème fondamental de l’algèbre implique que le polynôme caractéristique d’une matrice n -par- n A , étant un polynôme de degré n , peut être factorisé dans le produit de n termes linéaires,

| A − λ I | = ( λ 1 − λ ) ( λ 2 − λ ) ⋯ ( λ n − λ ) , {displaystyle |A-lambda I|=(lambda _{1}-lambda )(lambda _{2}-lambda )cdots (lambda _{n}-lambda ),} {displaystyle |A-lambda I|=(lambda _{1}-lambda )(lambda _{2}-lambda )cdots (lambda _{n}-lambda ),} {displaystyle |A-lambda I|=(lambda _{1}-lambda )(lambda _{2}-lambda )cdots (lambda _{n}-lambda ),}

( 4 )

où chaque λ i peut être réel mais est en général un nombre complexe. Les nombres λ 1 , λ 2 , …, λ n , qui peuvent ne pas tous avoir des valeurs distinctes, sont racines du polynôme et sont les valeurs propres de A .

Comme bref exemple, qui est décrit plus en détail dans la section des exemples plus loin, considérons la matrice

A = [ 2 1 1 2 ] . {displaystyle A={begin{bmatrix}2&1\1&2end{bmatrix}}.} {displaystyle A={begin{bmatrix}2&1\1&2end{bmatrix}}.} {displaystyle A={begin{bmatrix}2&1\1&2end{bmatrix}}.}

En prenant le déterminant de ( AλI ) , le polynôme caractéristique de A est

| A − λ I | = | 2 − λ 1 1 2 − λ | = 3 − 4 λ + λ 2 . {displaystyle |A-lambda I|={begin{vmatrix}2-lambda &1\1&2-lambda end{vmatrix}}=3-4lambda +lambda ^{2}.} {displaystyle |A-lambda I|={begin{vmatrix}2-lambda &1\1&2-lambda end{vmatrix}}=3-4lambda +lambda ^{2}.} {displaystyle |A-lambda I|={begin{vmatrix}2-lambda &1\1&2-lambda end{vmatrix}}=3-4lambda +lambda ^{2}.}

En fixant le polynôme caractéristique égal à zéro, il a pour racines λ=1 et λ=3 , qui sont les deux valeurs propres de A . Les vecteurs propres correspondant à chaque valeur propre peuvent être trouvés en résolvant les composantes de v dans l’équation ( A − λ I ) v = 0 {displaystyle left(A-lambda Iright)mathbf {v} =mathbf {0} } {displaystyle left(A-lambda Iright)mathbf {v} =mathbf {0} } {displaystyle left(A-lambda Iright)mathbf {v} =mathbf {0} }. Dans cet exemple, les vecteurs propres sont des multiples scalaires non nuls de

v λ = 1 = [ 1 − 1 ] , v λ = 3 = [ 1 1 ] . {displaystyle mathbf {v} _{lambda =1}={begin{bmatrix}1\-1end{bmatrix}},quad mathbf {v} _{lambda =3}={ begin{bmatrice}1\1end{bmatrice}}.} {displaystyle mathbf {v} _{lambda =1}={begin{bmatrix}1\-1end{bmatrix}},quad mathbf {v} _{lambda =3}={begin{bmatrix}1\1end{bmatrix}}.} {displaystyle mathbf {v} _{lambda =1}={begin{bmatrix}1\-1end{bmatrix}},quad mathbf {v} _{lambda =3}={begin{bmatrix}1\1end{bmatrix}}.}

Si les entrées de la matrice A sont toutes des nombres réels, alors les coefficients du polynôme caractéristique seront également des nombres réels, mais les valeurs propres peuvent toujours avoir des parties imaginaires non nulles. Les entrées des vecteurs propres correspondants peuvent donc également avoir des parties imaginaires non nulles. De même, les valeurs propres peuvent être des nombres irrationnels même si toutes les entrées de A sont des nombres rationnels ou même si elles sont toutes des nombres entiers. Cependant, si les entrées de A sont toutes des nombres algébriques , qui incluent les rationnels, les valeurs propres sont des nombres algébriques complexes.

Les racines non réelles d’un polynôme réel à coefficients réels peuvent être regroupées en paires de conjugués complexes , c’est-à-dire avec les deux membres de chaque paire ayant des parties imaginaires qui ne diffèrent que par le signe et la même partie réelle. Si le degré est impair, alors par le théorème des valeurs intermédiaires au moins une des racines est réelle. Par conséquent, toute matrice réelle d’ordre impair a au moins une valeur propre réelle, alors qu’une matrice réelle d’ordre pair peut ne pas avoir de valeurs propres réelles. Les vecteurs propres associés à ces valeurs propres complexes sont également complexes et apparaissent également dans des paires conjuguées complexes.

Multiplicité algébrique

Soit λ i une valeur propre d’une matrice n par n A . La multiplicité algébrique μ A ( λ i ) de la valeur propre est sa multiplicité en tant que racine du polynôme caractéristique, c’est-à-dire le plus grand entier k tel que ( λλ i ) k divise uniformément ce polynôme. [9] [25] [26]

Supposons qu’une matrice A ait une dimension n et dn valeurs propres distinctes. Alors que l’équation ( 4 ) factorise le polynôme caractéristique de A dans le produit de n termes linéaires avec certains termes potentiellement répétitifs, le polynôme caractéristique peut plutôt être écrit comme le produit de d termes correspondant chacun à une valeur propre distincte et élevé à la puissance de la multiplicité algébrique,

| A − λ I | = ( λ 1 − λ ) μ A ( λ 1 ) ( λ 2 − λ ) μ A ( λ 2 ) ⋯ ( λ d − λ ) μ A ( λ d ) . {displaystyle |A-lambda I|=(lambda _{1}-lambda )^{mu _{A}(lambda _{1})}(lambda _{2}-lambda) ^{mu _{A}(lambda _{2})}cdots (lambda _{d}-lambda )^{mu _{A}(lambda _{d})}.} {displaystyle |A-lambda I|=(lambda _{1}-lambda )^{mu _{A}(lambda _{1})}(lambda _{2}-lambda )^{mu _{A}(lambda _{2})}cdots (lambda _{d}-lambda )^{mu _{A}(lambda _{d})}.} {displaystyle |A-lambda I|=(lambda _{1}-lambda )^{mu _{A}(lambda _{1})}(lambda _{2}-lambda )^{mu _{A}(lambda _{2})}cdots (lambda _{d}-lambda )^{mu _{A}(lambda _{d})}.}

Si d = n alors le membre de droite est le produit de n termes linéaires et c’est la même chose que l’équation ( 4 ). La taille de la multiplicité algébrique de chaque valeur propre est liée à la dimension n comme

1 ≤ μ A ( λ i ) ≤ n , μ A = ∑ i = 1 d μ A ( λ i ) = n . {displaystyle {begin{aligned}1&leq mu _{A}(lambda _{i})leq n,\mu _{A}&=sum _{i=1}^{ d}mu _{A}left(lambda _{i}right)=n.end{aligned}}} {displaystyle {begin{aligned}1&leq mu _{A}(lambda _{i})leq n,\mu _{A}&=sum _{i=1}^{d}mu _{A}left(lambda _{i}right)=n.end{aligned}}} {displaystyle {begin{aligned}1&leq mu _{A}(lambda _{i})leq n,\mu _{A}&=sum _{i=1}^{d}mu _{A}left(lambda _{i}right)=n.end{aligned}}}

Si μ A ( λ i ) = 1, on dit que λ i est une valeur propre simple . [26] Si μ A ( λ i ) est égal à la multiplicité géométrique de λ i , γ A ( λ i ), définie dans la section suivante, on dit que λ i est une valeur propre semi -simple .

Espaces propres, multiplicité géométrique et base propre des matrices

Étant donné une valeur propre particulière λ de la matrice n par n A , définissez l’ ensemble E comme étant tous les vecteurs v qui satisfont l’équation ( 2 ),

E = { v : ( A − λ I ) v = 0 } . {displaystyle E=left{mathbf {v} :left(A-lambda Iright)mathbf {v} =mathbf {0} right}.} {displaystyle E=left{mathbf {v} :left(A-lambda Iright)mathbf {v} =mathbf {0} right}.} {displaystyle E=left{mathbf {v} :left(A-lambda Iright)mathbf {v} =mathbf {0} right}.}

D’une part, cet ensemble est précisément le noyau ou espace nul de la matrice ( AλI ). Par contre, par définition, tout vecteur non nul qui satisfait à cette condition est un vecteur propre de A associé à λ . Ainsi, l’ensemble E est l’ union du vecteur zéro avec l’ensemble de tous les vecteurs propres de A associés à λ , et E est égal à l’espace nul de ( AλI ). E est appelé espace propre ou espace caractéristique de A associé àλ . [27] [9] En général λ est un nombre complexe et les vecteurs propres sont complexes n par 1 matrices. Une propriété de l’espace nul est qu’il s’agit d’un sous- espace linéaire , donc E est un sous-espace linéaire de C n .

Parce que l’espace propre E est un sous-espace linéaire, il est fermé par addition. Autrement dit, si deux vecteurs u et v appartiennent à l’ensemble E , noté u , vE , alors ( u + v ) ∈ E ou de manière équivalente A ( u + v ) = λ ( u + v ) . Ceci peut être vérifié en utilisant la propriété distributive de la multiplication matricielle. De même, parce que Eest un sous-espace linéaire, il est fermé par multiplication scalaire. Autrement dit, si vE et α est un nombre complexe, ( α v ) ∈ E ou de manière équivalente A ( α v ) = λ ( α v ) . Ceci peut être vérifié en notant que la multiplication de matrices complexes par des nombres complexes est commutative . Tant que u + v et α v ne sont pas nuls, ce sont aussi des vecteurs propres de A associés à λ .

La dimension de l’espace propre E associé à λ , ou de manière équivalente le nombre maximal de vecteurs propres linéairement indépendants associés à λ , est appelée multiplicité géométrique de la valeur propre γ A ( λ ). Comme E est aussi l’espace nul de ( AλI ), la multiplicité géométrique de λ est la dimension de l’espace nul de ( AλI ), aussi appelée nullité de ( AλI ), qui se rapporte à la dimension et au rang de ( UNEλI ) comme

γ A ( λ ) = n − rank ⁡ ( A − λ I ) . {displaystyle gamma _{A}(lambda )=n-operatorname {rang} (A-lambda I).} {displaystyle gamma _{A}(lambda )=n-operatorname {rank} (A-lambda I).} {displaystyle gamma _{A}(lambda )=n-operatorname {rank} (A-lambda I).}

En raison de la définition des valeurs propres et des vecteurs propres, la multiplicité géométrique d’une valeur propre doit être d’au moins un, c’est-à-dire que chaque valeur propre a au moins un vecteur propre associé. De plus, la multiplicité géométrique d’une valeur propre ne peut excéder sa multiplicité algébrique. De plus, rappelez-vous que la multiplicité algébrique d’une valeur propre ne peut pas dépasser n .

1 ≤ γ A ( λ ) ≤ μ A ( λ ) ≤ n {displaystyle 1leq gamma _{A}(lambda )leq mu _{A}(lambda )leq n} {displaystyle 1leq gamma _{A}(lambda )leq mu _{A}(lambda )leq n} {displaystyle 1leq gamma _{A}(lambda )leq mu _{A}(lambda )leq n}

Pour prouver l’inégalité γ A ( λ ) ≤ μ A ( λ ) {displaystyle gamma _{A}(lambda )leq mu _{A}(lambda )} {displaystyle gamma _{A}(lambda )leq mu _{A}(lambda )} {displaystyle gamma _{A}(lambda )leq mu _{A}(lambda )}, considérons comment la définition de la multiplicité géométrique implique l’existence de γ A ( λ ) {displaystyle gamma _{A}(lambda)} {displaystyle gamma _{A}(lambda )} {displaystyle gamma _{A}(lambda )} vecteurs propres orthonormés v 1 , … , v γ A ( λ ) {displaystyle {boldsymbol {v}}_{1},,ldots ,,{boldsymbol {v}}_{gamma _{A}(lambda)}} {displaystyle {boldsymbol {v}}_{1},,ldots ,,{boldsymbol {v}}_{gamma _{A}(lambda )}} {displaystyle {boldsymbol {v}}_{1},,ldots ,,{boldsymbol {v}}_{gamma _{A}(lambda )}}, tel que A v k = λ v k {displaystyle A{boldsymbol {v}}_{k}=lambda {boldsymbol {v}}_{k}} {displaystyle A{boldsymbol {v}}_{k}=lambda {boldsymbol {v}}_{k}} {displaystyle A{boldsymbol {v}}_{k}=lambda {boldsymbol {v}}_{k}}. On peut donc trouver une matrice (unitaire) V {displaystyle V} V Vdont le premier γ A ( λ ) {displaystyle gamma _{A}(lambda)} {displaystyle gamma _{A}(lambda )} {displaystyle gamma _{A}(lambda )}les colonnes sont ces vecteurs propres, et dont les colonnes restantes peuvent être n’importe quel ensemble orthonormé de n − γ A ( λ ) {displaystyle n-gamma _{A}(lambda )} {displaystyle n-gamma _{A}(lambda )} {displaystyle n-gamma _{A}(lambda )}vecteurs orthogonaux à ces vecteurs propres de A {displaystyle A} A A. Puis V {displaystyle V} V Va un rang plein et est donc inversible, et A V = V D {displaystyle AV=VD} AV=VD AV=VDavec D {displaystyle D} D Dune matrice dont le bloc supérieur gauche est la matrice diagonale λ I γ A ( λ ) {displaystyle lambda I_{gamma _{A}(lambda )}} {displaystyle lambda I_{gamma _{A}(lambda )}} {displaystyle lambda I_{gamma _{A}(lambda )}}. Cela implique que ( A − ξ I ) V = V ( D − ξ I ) {displaystyle (A-xi I)V=V(D-xi I)} {displaystyle (A-xi I)V=V(D-xi I)} {displaystyle (A-xi I)V=V(D-xi I)}. En d’autres termes, A − ξ I {displaystyle A-xi I} {displaystyle A-xi I} {displaystyle A-xi I}est similaire à D − ξ I {displaystyle D-xi I} {displaystyle D-xi I} {displaystyle D-xi I}, ce qui implique que det ( A − ξ I ) = det ( D − ξ I ) {displaystyle det(A-xi I)=det(D-xi I)} {displaystyle det(A-xi I)=det(D-xi I)} {displaystyle det(A-xi I)=det(D-xi I)}. Mais d’après la définition de D {displaystyle D} D Dnous savons que det ( D − ξ I ) {displaystyle det(D-xi I)} {displaystyle det(D-xi I)} {displaystyle det(D-xi I)}contient un facteur ( ξ − λ ) γ A ( λ ) {displaystyle (xi -lambda )^{gamma _{A}(lambda )}} {displaystyle (xi -lambda )^{gamma _{A}(lambda )}} {displaystyle (xi -lambda )^{gamma _{A}(lambda )}}, ce qui signifie que la multiplicité algébrique de λ {displaystylelambda} lambda lambda doit satisfaire μ A ( λ ) ≥ γ A ( λ ) {displaystyle mu _{A}(lambda )geq gamma _{A}(lambda )} {displaystyle mu _{A}(lambda )geq gamma _{A}(lambda )} {displaystyle mu _{A}(lambda )geq gamma _{A}(lambda )}.

Supposer A {displaystyle A} A Apossède d ≤ n {displaystyle dleq n} {displaystyle dleq n} {displaystyle dleq n}valeurs propres distinctes λ 1 , … , λ d {displaystyle lambda _{1},ldots ,lambda _{d}} {displaystyle lambda _{1},ldots ,lambda _{d}} {displaystyle lambda _{1},ldots ,lambda _{d}}, où la multiplicité géométrique de λ i {displaystyle lambda _{i}} lambda _{i} lambda _{i}est γ A ( λ i ) {displaystyle gamma _{A}(lambda _{i})} {displaystyle gamma _{A}(lambda _{i})} {displaystyle gamma _{A}(lambda _{i})}. La multiplicité géométrique totale de A {displaystyle A} A A,

γ A = ∑ i = 1 d γ A ( λ i ) , d ≤ γ A ≤ n , {displaystyle {begin{aligned}gamma _{A}&=sum _{i=1}^{d}gamma _{A}(lambda _{i}),\d&leq gamma _{A}leq n,end{aligné}}} {displaystyle {begin{aligned}gamma _{A}&=sum _{i=1}^{d}gamma _{A}(lambda _{i}),\d&leq gamma _{A}leq n,end{aligned}}}

est la dimension de la somme de tous les espaces propres de A {displaystyle A} A les valeurs propres de , ou de manière équivalente le nombre maximal de vecteurs propres linéairement indépendants de A {displaystyle A} A A. Si γ A = n {displaystyle gamma _{A}=n} {displaystyle gamma _{A}=n} {displaystyle gamma _{A}=n}, alors

  • La somme directe des espaces propres de tous A {displaystyle A} A Ales valeurs propres de sont l’ensemble de l’espace vectoriel C n {displaystyle mathbb{C} ^{n}} mathbb {C} ^{n} mathbb {C} ^{n}.
  • Une base de C n {displaystyle mathbb{C} ^{n}} mathbb {C} ^{n} mathbb {C} ^{n}peut être formé à partir n {displaystyle n} n nvecteurs propres linéairement indépendants de A {displaystyle A} A A; une telle base s’appelle une base propre
  • Tout vecteur dans C n {displaystyle mathbb{C} ^{n}} mathbb {C} ^{n} mathbb {C} ^{n}peut être écrit comme une combinaison linéaire de vecteurs propres de A {displaystyle A} A A.

Propriétés supplémentaires des valeurs propres

Laisser A {displaystyle A} A Aêtre un arbitraire n × n {displaystyle nfois n} ntimes n ntimes nmatrice de nombres complexes à valeurs propres λ 1 , … , λ n {displaystyle lambda _{1},ldots ,lambda _{n}} lambda _{1},ldots ,lambda _{n} lambda _{1},ldots ,lambda _{n}. Chaque valeur propre apparaît μ A ( λ i ) {displaystyle mu _{A}(lambda _{i})} mu _{A}(lambda _{i}) mu _{A}(lambda _{i})fois dans cette liste, où μ A ( λ i ) {displaystyle mu _{A}(lambda _{i})} mu _{A}(lambda _{i}) mu _{A}(lambda _{i})est la multiplicité algébrique de la valeur propre. Voici les propriétés de cette matrice et ses valeurs propres :

  • La trace de A {displaystyle A} A A, défini comme la somme de ses éléments diagonaux, est aussi la somme de toutes les valeurs propres, [28] [29] [30] tr ⁡ ( A ) = ∑ i = 1 n a i i = ∑ i = 1 n λ i = λ 1 + λ 2 + ⋯ + λ n . {displaystyle operatorname {tr} (A)=sum _{i=1}^{n}a_{ii}=sum _{i=1}^{n}lambda _{i}=lambda _{1}+lambda _{2}+cdots +lambda _{n}.} {displaystyle operatorname {tr} (A)=sum _{i=1}^{n}a_{ii}=sum _{i=1}^{n}lambda _{i}=lambda _{1}+lambda _{2}+cdots +lambda _{n}.} {displaystyle operatorname {tr} (A)=sum _{i=1}^{n}a_{ii}=sum _{i=1}^{n}lambda _{i}=lambda _{1}+lambda _{2}+cdots +lambda _{n}.}
  • Le déterminant de A {displaystyle A} A Aest le produit de toutes ses valeurs propres, [28] [31] [32] det ( A ) = ∏ i = 1 n λ i = λ 1 λ 2 ⋯ λ n . {displaystyle det(A)=prod _{i=1}^{n}lambda _{i}=lambda _{1}lambda _{2}cdots lambda _{n}.} {displaystyle det(A)=prod _{i=1}^{n}lambda _{i}=lambda _{1}lambda _{2}cdots lambda _{n}.} {displaystyle det(A)=prod _{i=1}^{n}lambda _{i}=lambda _{1}lambda _{2}cdots lambda _{n}.}
  • Les valeurs propres des k {displaystyle k} k kème puissance de A {displaystyle A} A A; c’est-à-dire les valeurs propres de A k {displaystyle A^{k}} A^{k} A^{k}, pour tout entier positif k {displaystyle k} k k, sont λ 1 k , … , λ n k {displaystyle lambda _{1}^{k},ldots ,lambda _{n}^{k}} {displaystyle lambda _{1}^{k},ldots ,lambda _{n}^{k}} {displaystyle lambda _{1}^{k},ldots ,lambda _{n}^{k}}.
  • La matrice A {displaystyle A} A Aest inversible si et seulement si chaque valeur propre est non nulle.
  • Si A {displaystyle A} A Aest inversible, alors les valeurs propres de A − 1 {displaystyle A^{-1}} A^{-1} A^{-1}sont 1 λ 1 , … , 1 λ n {textstyle {frac {1}{lambda _{1}}},ldots ,{frac {1}{lambda _{n}}}} {textstyle {frac {1}{lambda _{1}}},ldots ,{frac {1}{lambda _{n}}}} {textstyle {frac {1}{lambda _{1}}},ldots ,{frac {1}{lambda _{n}}}}et la multiplicité géométrique de chaque valeur propre coïncide. De plus, puisque le polynôme caractéristique de l’inverse est le polynôme réciproque de l’original, les valeurs propres partagent la même multiplicité algébrique.
  • Si A {displaystyle A} A Aest égal à sa transposée conjuguée A ∗ {displaystyle A^{*}} A^{*} A^{*}, ou de manière équivalente si A {displaystyle A} A Aest hermitienne , alors toute valeur propre est réelle. Il en va de même pour toute matrice réelle symétrique .
  • Si A {displaystyle A} A n’est pas seulement hermitienne mais aussi positive-définie , positive-semi-définie, négative-définie ou négative-semi-définie, alors chaque valeur propre est respectivement positive, non négative, négative ou non positive.
  • Si A {displaystyle A} A Aest unitaire , chaque valeur propre a une valeur absolue | λ i | = 1 {displaystyle |lambda _{i}|=1} {displaystyle |lambda _{i}|=1} {displaystyle |lambda _{i}|=1}.
  • si A {displaystyle A} A Aest un n × n {displaystyle nfois n} ntimes n ntimes nmatrice et { λ 1 , … , λ k } {displaystyle {lambda _{1},ldots ,lambda _{k}}} {displaystyle {lambda _{1},ldots ,lambda _{k}}} {displaystyle {lambda _{1},ldots ,lambda _{k}}}sont ses valeurs propres, alors les valeurs propres de matrice I + A {displaystyle I+A} {displaystyle I+A} {displaystyle I+A}(où I {displaystyle I} I Iest la matrice identité) sont { λ 1 + 1 , … , λ k + 1 } {displaystyle {lambda _{1}+1,ldots ,lambda _{k}+1}} {displaystyle {lambda _{1}+1,ldots ,lambda _{k}+1}} {displaystyle {lambda _{1}+1,ldots ,lambda _{k}+1}}. De plus, si α ∈ C {displaystyle alpha in mathbb {C} } {displaystyle alpha in mathbb {C} } {displaystyle alpha in mathbb {C} }, les valeurs propres de α I + A {displaystyle alpha I+A} {displaystyle alpha I+A} {displaystyle alpha I+A}sont { λ 1 + α , … , λ k + α } {displaystyle {lambda _{1}+alpha ,ldots ,lambda _{k}+alpha }} {displaystyle {lambda _{1}+alpha ,ldots ,lambda _{k}+alpha }} {displaystyle {lambda _{1}+alpha ,ldots ,lambda _{k}+alpha }}. Plus généralement, pour un polynôme P {displaystyle P} P Ples valeurs propres de matrice P ( A ) {displaystyle P(A)} P(A) P(A)sont { P ( λ 1 ) , … , P ( λ k ) } {displaystyle {P(lambda _{1}),ldots ,P(lambda _{k})}} {displaystyle {P(lambda _{1}),ldots ,P(lambda _{k})}} {displaystyle {P(lambda _{1}),ldots ,P(lambda _{k})}}.

vecteurs propres gauche et droite

De nombreuses disciplines représentent traditionnellement les vecteurs comme des matrices à une seule colonne plutôt que comme des matrices à une seule ligne. Pour cette raison, le mot “vecteur propre” dans le contexte des matrices fait presque toujours référence à un vecteur propre droit , à savoir un vecteur colonne qui multiplie à droite le n × n {displaystyle nfois n} ntimes n ntimes nmatrice A {displaystyle A} A Adans l’équation de définition, l’équation ( 1 ),

A v = λ v . {displaystyle Amathbf {v} =lambda mathbf {v} .} {displaystyle Amathbf {v} =lambda mathbf {v} .} {displaystyle Amathbf {v} =lambda mathbf {v} .}

Le problème des valeurs propres et des vecteurs propres peut également être défini pour les vecteurs de ligne qui ont laissé la matrice de multiplication A {displaystyle A} A A. Dans cette formulation, l’équation de définition est

u A = κ u , {displaystyle mathbf {u} A=kappa mathbf {u} ,} {displaystyle mathbf {u} A=kappa mathbf {u} ,} {displaystyle mathbf {u} A=kappa mathbf {u} ,}

où κ {displaystylekappa} kappa kappa est un scalaire et u {displaystyle u} u uest un 1 × n {displaystyle 1fois n} {displaystyle 1times n} {displaystyle 1times n}matrice. Tout vecteur ligne u {displaystyle u} u usatisfaisant cette équation est appelé un vecteur propre gauche de A {displaystyle A} A Aet κ {displaystylekappa} kappa kappa est sa valeur propre associée. En prenant la transposée de cette équation,

A T u T = κ u T . {displaystyle A^{textsf {T}}mathbf {u} ^{textsf {T}}=kappa mathbf {u} ^{textsf {T}}.} {displaystyle A^{textsf {T}}mathbf {u} ^{textsf {T}}=kappa mathbf {u} ^{textsf {T}}.} {displaystyle A^{textsf {T}}mathbf {u} ^{textsf {T}}=kappa mathbf {u} ^{textsf {T}}.}

En comparant cette équation à l’équation ( 1 ), il s’ensuit immédiatement qu’un vecteur propre gauche de A {displaystyle A} A Aest identique à la transposée d’un vecteur propre à droite de A T {displaystyle A^{textsf {T}}} {displaystyle A^{textsf {T}}} {displaystyle A^{textsf {T}}}, avec la même valeur propre. De plus, puisque le polynôme caractéristique de A T {displaystyle A^{textsf {T}}} {displaystyle A^{textsf {T}}} {displaystyle A^{textsf {T}}}est le même que le polynôme caractéristique de A {displaystyle A} A A, les valeurs propres des vecteurs propres gauches de A {displaystyle A} A Asont les mêmes que les valeurs propres des vecteurs propres droits de A T {displaystyle A^{textsf {T}}} {displaystyle A^{textsf {T}}} {displaystyle A^{textsf {T}}}.

Diagonalisation et décomposition propre

Supposons que les vecteurs propres de A forment une base, ou de manière équivalente A a n vecteurs propres linéairement indépendants v 1 , v 2 , …, v n avec des valeurs propres associées λ 1 , λ 2 , …, λ n . Les valeurs propres n’ont pas besoin d’être distinctes. Définissons une matrice carrée Q dont les colonnes sont les n vecteurs propres linéairement indépendants de A ,

Q = [ v 1 v 2 ⋯ v n ] . {displaystyle Q={begin{bmatrix}mathbf {v} _{1}&mathbf {v} _{2}&cdots &mathbf {v} _{n}end{bmatrix}}. } {displaystyle Q={begin{bmatrix}mathbf {v} _{1}&mathbf {v} _{2}&cdots &mathbf {v} _{n}end{bmatrix}}.} {displaystyle Q={begin{bmatrix}mathbf {v} _{1}&mathbf {v} _{2}&cdots &mathbf {v} _{n}end{bmatrix}}.}

Puisque chaque colonne de Q est un vecteur propre de A , la multiplication à droite de A par Q met à l’échelle chaque colonne de Q par sa valeur propre associée,

A Q = [ λ 1 v 1 λ 2 v 2 ⋯ λ n v n ] . {displaystyle AQ={begin{bmatrix}lambda _{1}mathbf {v} _{1}&lambda _{2}mathbf {v} _{2}&cdots &lambda _{ n}mathbf {v} _{n}end{bmatrice}}.} {displaystyle AQ={begin{bmatrix}lambda _{1}mathbf {v} _{1}&lambda _{2}mathbf {v} _{2}&cdots &lambda _{n}mathbf {v} _{n}end{bmatrix}}.} {displaystyle AQ={begin{bmatrix}lambda _{1}mathbf {v} _{1}&lambda _{2}mathbf {v} _{2}&cdots &lambda _{n}mathbf {v} _{n}end{bmatrix}}.}

Dans cet esprit, définissons une matrice diagonale Λ où chaque élément diagonal Λ ii est la valeur propre associée à la i ème colonne de Q . Puis

A Q = Q Λ . {displaystyle AQ=QLambda .} {displaystyle AQ=QLambda .} {displaystyle AQ=QLambda .}

Comme les colonnes de Q sont linéairement indépendantes, Q est inversible. Multipliant à droite les deux membres de l’équation par Q −1 ,

A = Q Λ Q − 1 , {displaystyle A=QLambda Q^{-1},} {displaystyle A=QLambda Q^{-1},} {displaystyle A=QLambda Q^{-1},}

ou en multipliant plutôt à gauche les deux côtés par Q −1 ,

Q − 1 A Q = Λ . {displaystyle Q^{-1}AQ=Lambda .} {displaystyle Q^{-1}AQ=Lambda .} {displaystyle Q^{-1}AQ=Lambda .}

A peut donc être décomposé en une matrice composée de ses vecteurs propres, une matrice diagonale avec ses valeurs propres le long de la diagonale, et l’inverse de la matrice des vecteurs propres. C’est ce qu’on appelle la décomposition propre et c’est une transformation de similarité . Une telle matrice A est dite semblable à la matrice diagonale Λ ou diagonalisable . La matrice Q est la matrice de changement de base de la transformation de similarité. Essentiellement, les matrices A et Λ représentent la même transformation linéaire exprimée dans deux bases différentes. Les vecteurs propres sont utilisés comme base lors de la représentation de la transformation linéaire en tant que Λ.

Inversement, supposons qu’une matrice A soit diagonalisable. Soit P une matrice carrée non singulière telle que P −1 AP est une matrice diagonale D . En multipliant à gauche les deux par P , AP = PD . Chaque colonne de P doit donc être un vecteur propre de A dont la valeur propre est l’élément diagonal correspondant de D . Puisque les colonnes de P doivent être linéairement indépendantes pour que P soit inversible, il existe n vecteurs propres linéairement indépendants de A forment une base si et seulement si A A . Il s’ensuit que les vecteurs propres deest diagonalisable.

Une matrice non diagonalisable est dite défectueuse . Pour les matrices défectueuses, la notion de vecteurs propres se généralise aux vecteurs propres généralisés et la matrice diagonale des valeurs propres se généralise à la forme normale de Jordan . Sur un corps algébriquement clos, toute matrice A a une forme normale de Jordan et admet donc une base de vecteurs propres généralisés et une décomposition en espaces propres généralisés .

Caractérisation variationnelle

Dans le cas hermitien , les valeurs propres peuvent recevoir une caractérisation variationnelle. La plus grande valeur propre de H {displaystyle H} H Hest la valeur maximale de la forme quadratique x T H x / x T x {displaystyle mathbf {x} ^{textsf {T}}Hmathbf {x} /mathbf {x} ^{textsf {T}}mathbf {x} } {displaystyle mathbf {x} ^{textsf {T}}Hmathbf {x} /mathbf {x} ^{textsf {T}}mathbf {x} } {displaystyle mathbf {x} ^{textsf {T}}Hmathbf {x} /mathbf {x} ^{textsf {T}}mathbf {x} }. Une valeur de x {displaystyle mathbf {x} } mathbf {x} mathbf {x} qui réalise ce maximum, est un vecteur propre.

Exemples de matrice

Exemple de matrice bidimensionnelle La matrice de transformation A = [ 2 1 1 2 ] {displaystyle left[{begin{smallmatrix}2&1\1&2end{smallmatrix}}right]} {displaystyle left[{begin{smallmatrix}2&1\1&2end{smallmatrix}}right]} {displaystyle left[{begin{smallmatrix}2&1\1&2end{smallmatrix}}right]}conserve la direction des vecteurs violets parallèles à v λ =1 = [1 −1] T et des vecteurs bleus parallèles à v λ =3 = [1 1] T . Les vecteurs rouges ne sont parallèles à aucun vecteur propre, donc leurs directions sont modifiées par la transformation. Les longueurs des vecteurs violets sont inchangées après la transformation (en raison de leur valeur propre de 1), tandis que les vecteurs bleus sont trois fois la longueur de l’original (en raison de leur valeur propre de 3). Voir aussi : Une version étendue, montrant les quatre quadrants .

Considérez la matrice

A = [ 2 1 1 2 ] . {displaystyle A={begin{bmatrix}2&1\1&2end{bmatrix}}.} {displaystyle A={begin{bmatrix}2&1\1&2end{bmatrix}}.} {displaystyle A={begin{bmatrix}2&1\1&2end{bmatrix}}.}

La figure de droite montre l’effet de cette transformation sur les coordonnées des points dans le plan. Les vecteurs propres v de cette transformation satisfont l’équation ( 1 ), et les valeurs de λ pour lesquelles le déterminant de la matrice ( AλI ) vaut zéro sont les valeurs propres.

En prenant le déterminant pour trouver le polynôme caractéristique de A ,

| A − λ I | = | [ 2 1 1 2 ] − λ [ 1 0 0 1 ] | = | 2 − λ 1 1 2 − λ | = 3 − 4 λ + λ 2 = ( λ − 3 ) ( λ − 1 ) . {displaystyle {begin{aligned}|A-lambda I|&=left|{begin{bmatrix}2&1\1&2end{bmatrix}}-lambda {begin{bmatrix}1&0\0&1 end{bmatrix}}right|={begin{vmatrix}2-lambda &1\1&2-lambda end{vmatrix}}\[6pt]&=3-4lambda +lambda ^{ 2}\[6pt]&=(lambda -3)(lambda -1).end{aligné}}} {displaystyle {begin{aligned}|A-lambda I|&=left|{begin{bmatrix}2&1\1&2end{bmatrix}}-lambda {begin{bmatrix}1&0\0&1end{bmatrix}}right|={begin{vmatrix}2-lambda &1\1&2-lambda end{vmatrix}}\[6pt]&=3-4lambda +lambda ^{2}\[6pt]&=(lambda -3)(lambda -1).end{aligned}}} {displaystyle {begin{aligned}|A-lambda I|&=left|{begin{bmatrix}2&1\1&2end{bmatrix}}-lambda {begin{bmatrix}1&0\0&1end{bmatrix}}right|={begin{vmatrix}2-lambda &1\1&2-lambda end{vmatrix}}\[6pt]&=3-4lambda +lambda ^{2}\[6pt]&=(lambda -3)(lambda -1).end{aligned}}}

En fixant le polynôme caractéristique égal à zéro, il a pour racines λ =1 et λ =3 , qui sont les deux valeurs propres de A .

Pour λ =1 , l’équation ( 2 ) devient,

( A − I ) v λ = 1 = [ 1 1 1 1 ] [ v 1 v 2 ] = [ 0 0 ] {displaystyle (AI)mathbf {v} _{lambda =1}={begin{bmatrix}1&1\1&1end{bmatrix}}{begin{bmatrix}v_{1}\v_{2 }end{bmatrix}}={begin{bmatrix}0\0end{bmatrix}}} {displaystyle (A-I)mathbf {v} _{lambda =1}={begin{bmatrix}1&1\1&1end{bmatrix}}{begin{bmatrix}v_{1}\v_{2}end{bmatrix}}={begin{bmatrix}0\0end{bmatrix}}} {displaystyle (A-I)mathbf {v} _{lambda =1}={begin{bmatrix}1&1\1&1end{bmatrix}}{begin{bmatrix}v_{1}\v_{2}end{bmatrix}}={begin{bmatrix}0\0end{bmatrix}}} 1 v 1 + 1 v 2 = 0 {displaystyle 1v_{1}+1v_{2}=0} {displaystyle 1v_{1}+1v_{2}=0} {displaystyle 1v_{1}+1v_{2}=0} ; 1 v 1 + 1 v 2 = 0 {displaystyle 1v_{1}+1v_{2}=0} {displaystyle 1v_{1}+1v_{2}=0} {displaystyle 1v_{1}+1v_{2}=0}

Tout vecteur non nul avec v 1 = − v 2 résout cette équation. Donc,

v λ = 1 = [ v 1 − v 1 ] = [ 1 − 1 ] {displaystyle mathbf {v} _{lambda =1}={begin{bmatrix}v_{1}\-v_{1}end{bmatrix}}={begin{bmatrix}1\- 1end{bmatrice}}} {displaystyle mathbf {v} _{lambda =1}={begin{bmatrix}v_{1}\-v_{1}end{bmatrix}}={begin{bmatrix}1\-1end{bmatrix}}} {displaystyle mathbf {v} _{lambda =1}={begin{bmatrix}v_{1}\-v_{1}end{bmatrix}}={begin{bmatrix}1\-1end{bmatrix}}}

est un vecteur propre de A correspondant à λ = 1, comme l’est tout multiple scalaire de ce vecteur.

Pour λ =3 , l’équation ( 2 ) devient

( A − 3 I ) v λ = 3 = [ − 1 1 1 − 1 ] [ v 1 v 2 ] = [ 0 0 ] − 1 v 1 + 1 v 2 = 0 ; 1 v 1 − 1 v 2 = 0 {displaystyle {begin{aligned}(A-3I)mathbf {v} _{lambda =3}&={begin{bmatrix}-1&1\1&-1end{bmatrix}}{begin {bmatrix}v_{1}\v_{2}end{bmatrix}}={begin{bmatrix}0\0end{bmatrix}}\-1v_{1}+1v_{2}&= 0;\1v_{1}-1v_{2}&=0end{aligné}}} {displaystyle {begin{aligned}(A-3I)mathbf {v} _{lambda =3}&={begin{bmatrix}-1&1\1&-1end{bmatrix}}{begin{bmatrix}v_{1}\v_{2}end{bmatrix}}={begin{bmatrix}0\0end{bmatrix}}\-1v_{1}+1v_{2}&=0;\1v_{1}-1v_{2}&=0end{aligned}}} {displaystyle {begin{aligned}(A-3I)mathbf {v} _{lambda =3}&={begin{bmatrix}-1&1\1&-1end{bmatrix}}{begin{bmatrix}v_{1}\v_{2}end{bmatrix}}={begin{bmatrix}0\0end{bmatrix}}\-1v_{1}+1v_{2}&=0;\1v_{1}-1v_{2}&=0end{aligned}}}

Tout vecteur non nul avec v 1 = v 2 résout cette équation. Donc,

v λ = 3 = [ v 1 v 1 ] = [ 1 1 ] {displaystyle mathbf {v} _{lambda =3}={begin{bmatrix}v_{1}\v_{1}end{bmatrix}}={begin{bmatrix}1\1 fin{bmatrice}}} {displaystyle mathbf {v} _{lambda =3}={begin{bmatrix}v_{1}\v_{1}end{bmatrix}}={begin{bmatrix}1\1end{bmatrix}}}

est un vecteur propre de A correspondant à λ = 3, comme l’est tout multiple scalaire de ce vecteur.

Ainsi, les vecteurs v λ =1 et v λ =3 sont des vecteurs propres de A associés respectivement aux valeurs propres λ =1 et λ =3 .

Formule générale des valeurs propres d’une matrice bidimensionnelle

Les valeurs propres de la matrice réelle A = [ a b c d ] {displaystyle A={begin{bmatrix}a&b\c&dend{bmatrix}}} {displaystyle A={begin{bmatrix}a&b\c&dend{bmatrix}}} {displaystyle A={begin{bmatrix}a&b\c&dend{bmatrix}}}sont [d]

λ = 1 2 ( a + d ) ± ( 1 2 ( a − d ) ) 2 + b c = 1 2 ( tr ⁡ ( A ) ± ( tr ⁡ ( A ) ) 2 − 4 det ( A ) ) . {displaystyle lambda ={frac {1}{2}}(a+d)pm {sqrt {left({frac {1}{2}}(ad)right)^{2} +bc}}={frac {1}{2}}left(operatorname {tr} (A)pm {sqrt {left(operatorname {tr} (A)right)^{2} -4det(A)}}right).} {displaystyle lambda ={frac {1}{2}}(a+d)pm {sqrt {left({frac {1}{2}}(a-d)right)^{2}+bc}}={frac {1}{2}}left(operatorname {tr} (A)pm {sqrt {left(operatorname {tr} (A)right)^{2}-4det(A)}}right).} {displaystyle lambda ={frac {1}{2}}(a+d)pm {sqrt {left({frac {1}{2}}(a-d)right)^{2}+bc}}={frac {1}{2}}left(operatorname {tr} (A)pm {sqrt {left(operatorname {tr} (A)right)^{2}-4det(A)}}right).}

Une autre représentation est : λ = 1 2 tr ⁡ ( A ) ± ( 1 2 tr ⁡ ( A ) ) 2 − det ( A ) . {displaystyle lambda ={frac {1}{2}}operatorname {tr} (A)pm {sqrt {left({frac {1}{2}}operatorname {tr} (A )right)^{2}-det(A)}}.} {displaystyle lambda ={frac {1}{2}}operatorname {tr} (A)pm {sqrt {left({frac {1}{2}}operatorname {tr} (A)right)^{2}-det(A)}}.} {displaystyle lambda ={frac {1}{2}}operatorname {tr} (A)pm {sqrt {left({frac {1}{2}}operatorname {tr} (A)right)^{2}-det(A)}}.}

Notez que les valeurs propres sont toujours réelles si b et c ont le même signe, car la quantité sous le radical doit être positive.

Exemple de matrice tridimensionnelle

Considérez la matrice

A = [ 2 0 0 0 3 4 0 4 9 ] . {displaystyle A={begin{bmatrix}2&0&0\0&3&4\0&4&9end{bmatrix}}.} {displaystyle A={begin{bmatrix}2&0&0\0&3&4\0&4&9end{bmatrix}}.} {displaystyle A={begin{bmatrix}2&0&0\0&3&4\0&4&9end{bmatrix}}.}

Le polynôme caractéristique de A est

| A − λ I | = | [ 2 0 0 0 3 4 0 4 9 ] − λ [ 1 0 0 0 1 0 0 0 1 ] | = | 2 − λ 0 0 0 3 − λ 4 0 4 9 − λ | , = ( 2 − λ ) [ ( 3 − λ ) ( 9 − λ ) − 16 ] = − λ 3 + 14 λ 2 − 35 λ + 22. {displaystyle {begin{aligned}|A-lambda I|&=left|{begin{bmatrix}2&0&0\0&3&4\0&4&9end{bmatrix}}-lambda {begin{bmatrix}1&0&0 \0&1&0\0&0&1end{bmatrix}}right|={begin{vmatrix}2-lambda &0&0\0&3-lambda &4\0&4&9-lambda end{vmatrix}},\[ 6pt]&=(2-lambda ){bigl [}(3-lambda )(9-lambda )-16{bigr ]}=-lambda ^{3}+14lambda ^{2} -35lambda +22.end{aligné}}} {displaystyle {begin{aligned}|A-lambda I|&=left|{begin{bmatrix}2&0&0\0&3&4\0&4&9end{bmatrix}}-lambda {begin{bmatrix}1&0&0\0&1&0\0&0&1end{bmatrix}}right|={begin{vmatrix}2-lambda &0&0\0&3-lambda &4\0&4&9-lambda end{vmatrix}},\[6pt]&=(2-lambda ){bigl [}(3-lambda )(9-lambda )-16{bigr ]}=-lambda ^{3}+14lambda ^{2}-35lambda +22.end{aligned}}} {displaystyle {begin{aligned}|A-lambda I|&=left|{begin{bmatrix}2&0&0\0&3&4\0&4&9end{bmatrix}}-lambda {begin{bmatrix}1&0&0\0&1&0\0&0&1end{bmatrix}}right|={begin{vmatrix}2-lambda &0&0\0&3-lambda &4\0&4&9-lambda end{vmatrix}},\[6pt]&=(2-lambda ){bigl [}(3-lambda )(9-lambda )-16{bigr ]}=-lambda ^{3}+14lambda ^{2}-35lambda +22.end{aligned}}}

Les racines du polynôme caractéristique sont 2, 1 et 11, qui sont les trois seules valeurs propres de A . Ces valeurs propres correspondent aux vecteurs propres [ 1 0 0 ] T {displaystyle {begin{bmatrix}1&0&0end{bmatrix}}^{textsf {T}}} {displaystyle {begin{bmatrix}1&0&0end{bmatrix}}^{textsf {T}}} {displaystyle {begin{bmatrix}1&0&0end{bmatrix}}^{textsf {T}}}, [ 0 − 2 1 ] T {displaystyle {begin{bmatrix}0&-2&1end{bmatrix}}^{textsf {T}}} {displaystyle {begin{bmatrix}0&-2&1end{bmatrix}}^{textsf {T}}} {displaystyle {begin{bmatrix}0&-2&1end{bmatrix}}^{textsf {T}}}, et [ 0 1 2 ] T {displaystyle {begin{bmatrix}0&1&2end{bmatrix}}^{textsf {T}}} {displaystyle {begin{bmatrix}0&1&2end{bmatrix}}^{textsf {T}}} {displaystyle {begin{bmatrix}0&1&2end{bmatrix}}^{textsf {T}}}, ou tout multiple non nul de celui-ci.

Exemple de matrice tridimensionnelle avec des valeurs propres complexes

Considérons la matrice de permutation cyclique

A = [ 0 1 0 0 0 1 1 0 0 ] . {displaystyle A={begin{bmatrix}0&1&0\0&0&1\1&0&0end{bmatrix}}.} {displaystyle A={begin{bmatrix}0&1&0\0&0&1\1&0&0end{bmatrix}}.} {displaystyle A={begin{bmatrix}0&1&0\0&0&1\1&0&0end{bmatrix}}.}

Cette matrice décale les coordonnées du vecteur d’une position vers le haut et déplace la première coordonnée vers le bas. Son polynôme caractéristique est 1 − λ 3 , dont les racines sont

λ 1 = 1 λ 2 = − 1 2 + i 3 2 λ 3 = λ 2 ∗ = − 1 2 − i 3 2 {displaystyle {begin{aligned}lambda _{1}&=1\lambda _{2}&=-{frac {1}{2}}+i{frac {sqrt {3} }{2}}\lambda _{3}&=lambda _{2}^{*}=-{frac {1}{2}}-i{frac {sqrt {3}}{ 2}}end{aligné}}} {displaystyle {begin{aligned}lambda _{1}&=1\lambda _{2}&=-{frac {1}{2}}+i{frac {sqrt {3}}{2}}\lambda _{3}&=lambda _{2}^{*}=-{frac {1}{2}}-i{frac {sqrt {3}}{2}}end{aligned}}} {displaystyle {begin{aligned}lambda _{1}&=1\lambda _{2}&=-{frac {1}{2}}+i{frac {sqrt {3}}{2}}\lambda _{3}&=lambda _{2}^{*}=-{frac {1}{2}}-i{frac {sqrt {3}}{2}}end{aligned}}}

où i {displaystyle i} i iest une unité imaginaire avec i 2 = − 1 {displaystyle i^{2}=-1} i^{2}=-1 i^{2}=-1.

Pour la valeur propre réelle λ 1 = 1, tout vecteur avec trois entrées égales non nulles est un vecteur propre. Par example,

A [ 5 5 5 ] = [ 5 5 5 ] = 1 ⋅ [ 5 5 5 ] . {displaystyle A{begin{bmatrix}5\5\5end{bmatrix}}={begin{bmatrix}5\5\5end{bmatrix}}=1cdot {begin {bmatrice}5\5\5end{bmatrice}}.} {displaystyle A{begin{bmatrix}5\5\5end{bmatrix}}={begin{bmatrix}5\5\5end{bmatrix}}=1cdot {begin{bmatrix}5\5\5end{bmatrix}}.} {displaystyle A{begin{bmatrix}5\5\5end{bmatrix}}={begin{bmatrix}5\5\5end{bmatrix}}=1cdot {begin{bmatrix}5\5\5end{bmatrix}}.}

Pour la paire conjuguée complexe de valeurs propres imaginaires,

λ 2 λ 3 = 1 , λ 2 2 = λ 3 , λ 3 2 = λ 2 . {displaystyle lambda _{2}lambda _{3}=1,quad lambda _{2}^{2}=lambda _{3},quad lambda _{3}^{2} =lambda _{2}.} {displaystyle lambda _{2}lambda _{3}=1,quad lambda _{2}^{2}=lambda _{3},quad lambda _{3}^{2}=lambda _{2}.} {displaystyle lambda _{2}lambda _{3}=1,quad lambda _{2}^{2}=lambda _{3},quad lambda _{3}^{2}=lambda _{2}.}

Puis

A [ 1 λ 2 λ 3 ] = [ λ 2 λ 3 1 ] = λ 2 ⋅ [ 1 λ 2 λ 3 ] , {displaystyle A{begin{bmatrix}1\lambda _{2}\lambda _{3}end{bmatrix}}={begin{bmatrix}lambda _{2}\lambda _{3}\1end{bmatrix}}=lambda _{2}cdot {begin{bmatrix}1\lambda _{2}\lambda _{3}end{bmatrix} },} {displaystyle A{begin{bmatrix}1\lambda _{2}\lambda _{3}end{bmatrix}}={begin{bmatrix}lambda _{2}\lambda _{3}\1end{bmatrix}}=lambda _{2}cdot {begin{bmatrix}1\lambda _{2}\lambda _{3}end{bmatrix}},} {displaystyle A{begin{bmatrix}1\lambda _{2}\lambda _{3}end{bmatrix}}={begin{bmatrix}lambda _{2}\lambda _{3}\1end{bmatrix}}=lambda _{2}cdot {begin{bmatrix}1\lambda _{2}\lambda _{3}end{bmatrix}},}

et

A [ 1 λ 3 λ 2 ] = [ λ 3 λ 2 1 ] = λ 3 ⋅ [ 1 λ 3 λ 2 ] . {displaystyle A{begin{bmatrix}1\lambda _{3}\lambda _{2}end{bmatrix}}={begin{bmatrix}lambda _{3}\lambda _{2}\1end{bmatrix}}=lambda _{3}cdot {begin{bmatrix}1\lambda _{3}\lambda _{2}end{bmatrix} }.} {displaystyle A{begin{bmatrix}1\lambda _{3}\lambda _{2}end{bmatrix}}={begin{bmatrix}lambda _{3}\lambda _{2}\1end{bmatrix}}=lambda _{3}cdot {begin{bmatrix}1\lambda _{3}\lambda _{2}end{bmatrix}}.} {displaystyle A{begin{bmatrix}1\lambda _{3}\lambda _{2}end{bmatrix}}={begin{bmatrix}lambda _{3}\lambda _{2}\1end{bmatrix}}=lambda _{3}cdot {begin{bmatrix}1\lambda _{3}\lambda _{2}end{bmatrix}}.}

Par conséquent, les deux autres vecteurs propres de A sont complexes et sont v λ 2 = [ 1 λ 2 λ 3 ] T {displaystyle mathbf {v} _{lambda _{2}}={begin{bmatrix}1&lambda _{2}&lambda _{3}end{bmatrix}}^{textsf {T }}} {displaystyle mathbf {v} _{lambda _{2}}={begin{bmatrix}1&lambda _{2}&lambda _{3}end{bmatrix}}^{textsf {T}}} et v λ 3 = [ 1 λ 3 λ 2 ] T {displaystyle mathbf {v} _{lambda _{3}}={begin{bmatrix}1&lambda _{3}&lambda _{2}end{bmatrix}}^{textsf {T }}} {displaystyle mathbf {v} _{lambda _{3}}={begin{bmatrix}1&lambda _{3}&lambda _{2}end{bmatrix}}^{textsf {T}}} de valeurs propres λ 2 et λ 3 , respectivement. Les deux vecteurs propres complexes apparaissent également dans une paire conjuguée complexe,

v λ 2 = v λ 3 ∗ . {displaystyle mathbf {v} _{lambda _{2}}=mathbf {v} _{lambda _{3}}^{*}.} {displaystyle mathbf {v} _{lambda _{2}}=mathbf {v} _{lambda _{3}}^{*}.} {displaystyle mathbf {v} _{lambda _{2}}=mathbf {v} _{lambda _{3}}^{*}.} Exemple de matrice diagonale

Les matrices avec des entrées uniquement le long de la diagonale principale sont appelées matrices diagonales . Les valeurs propres d’une matrice diagonale sont les éléments diagonaux eux-mêmes. Considérez la matrice

A = [ 1 0 0 0 2 0 0 0 3 ] . {displaystyle A={begin{bmatrix}1&0&0\0&2&0\0&0&3end{bmatrix}}.} {displaystyle A={begin{bmatrix}1&0&0\0&2&0\0&0&3end{bmatrix}}.} {displaystyle A={begin{bmatrix}1&0&0\0&2&0\0&0&3end{bmatrix}}.}

Le polynôme caractéristique de A est

| A − λ I | = ( 1 − λ ) ( 2 − λ ) ( 3 − λ ) , {displaystyle |A-lambda I|=(1-lambda )(2-lambda )(3-lambda ),} {displaystyle |A-lambda I|=(1-lambda )(2-lambda )(3-lambda ),} {displaystyle |A-lambda I|=(1-lambda )(2-lambda )(3-lambda ),}

qui a pour racines λ 1 = 1 , λ 2 = 2 et λ 3 = 3 . Ces racines sont les éléments diagonaux ainsi que les valeurs propres de A .

Chaque élément diagonal correspond à un vecteur propre dont la seule composante non nulle est dans la même ligne que cet élément diagonal. Dans l’exemple, les valeurs propres correspondent aux vecteurs propres,

v λ 1 = [ 1 0 0 ] , v λ 2 = [ 0 1 0 ] , v λ 3 = [ 0 0 1 ] , {displaystyle mathbf {v} _{lambda _{1}}={begin{bmatrix}1\0\0end{bmatrix}},quad mathbf {v} _{lambda _ {2}}={begin{bmatrix}0\1\0end{bmatrix}},quad mathbf {v} _{lambda _{3}}={begin{bmatrix}0 \1end{bmatrice}},} {displaystyle mathbf {v} _{lambda _{1}}={begin{bmatrix}1\0\0end{bmatrix}},quad mathbf {v} _{lambda _{2}}={begin{bmatrix}0\1\0end{bmatrix}},quad mathbf {v} _{lambda _{3}}={begin{bmatrix}0\0\1end{bmatrix}},} {displaystyle mathbf {v} _{lambda _{1}}={begin{bmatrix}1\0\0end{bmatrix}},quad mathbf {v} _{lambda _{2}}={begin{bmatrix}0\1\0end{bmatrix}},quad mathbf {v} _{lambda _{3}}={begin{bmatrix}0\0\1end{bmatrix}},}

respectivement, ainsi que des multiples scalaires de ces vecteurs.

Exemple de matrice triangulaire

Une matrice dont les éléments au-dessus de la diagonale principale sont tous nuls est appelée matrice triangulaire inférieure , tandis qu’une matrice dont les éléments au-dessous de la diagonale principale sont tous nuls est appelée matrice triangulaire supérieure. . Comme pour les matrices diagonales, les valeurs propres des matrices triangulaires sont les éléments de la diagonale principale.

Considérons la matrice triangulaire inférieure,

A = [ 1 0 0 1 2 0 2 3 3 ] . {displaystyle A={begin{bmatrix}1&0&0\1&2&0\2&3&3end{bmatrix}}.} {displaystyle A={begin{bmatrix}1&0&0\1&2&0\2&3&3end{bmatrix}}.} {displaystyle A={begin{bmatrix}1&0&0\1&2&0\2&3&3end{bmatrix}}.}

Le polynôme caractéristique de A est

| A − λ I | = ( 1 − λ ) ( 2 − λ ) ( 3 − λ ) , {displaystyle |A-lambda I|=(1-lambda )(2-lambda )(3-lambda ),} {displaystyle |A-lambda I|=(1-lambda )(2-lambda )(3-lambda ),} {displaystyle |A-lambda I|=(1-lambda )(2-lambda )(3-lambda ),}

qui a pour racines λ 1 = 1 , λ 2 = 2 et λ 3 = 3 . Ces racines sont les éléments diagonaux ainsi que les valeurs propres de A .

Ces valeurs propres correspondent aux vecteurs propres,

v λ 1 = [ 1 − 1 1 2 ] , v λ 2 = [ 0 1 − 3 ] , v λ 3 = [ 0 0 1 ] , {displaystyle mathbf {v} _{lambda _{1}}={begin{bmatrix}1\-1\{frac {1}{2}}end{bmatrix}},quad mathbf {v} _{lambda _{2}}={begin{bmatrix}0\1\-3end{bmatrix}},quad mathbf {v} _{lambda _{3 }}={begin{bmatrice}0\0\1end{bmatrice}},} {displaystyle mathbf {v} _{lambda _{1}}={begin{bmatrix}1\-1\{frac {1}{2}}end{bmatrix}},quad mathbf {v} _{lambda _{2}}={begin{bmatrix}0\1\-3end{bmatrix}},quad mathbf {v} _{lambda _{3}}={begin{bmatrix}0\0\1end{bmatrix}},} {displaystyle mathbf {v} _{lambda _{1}}={begin{bmatrix}1\-1\{frac {1}{2}}end{bmatrix}},quad mathbf {v} _{lambda _{2}}={begin{bmatrix}0\1\-3end{bmatrix}},quad mathbf {v} _{lambda _{3}}={begin{bmatrix}0\0\1end{bmatrix}},}

respectivement, ainsi que des multiples scalaires de ces vecteurs.

Exemple de matrice avec valeurs propres répétées

Comme dans l’exemple précédent, la matrice triangulaire inférieure

A = [ 2 0 0 0 1 2 0 0 0 1 3 0 0 0 1 3 ] , {displaystyle A={begin{bmatrix}2&0&0&0\1&2&0&0\0&1&3&0\0&0&1&3end{bmatrix}},} {displaystyle A={begin{bmatrix}2&0&0&0\1&2&0&0\0&1&3&0\0&0&1&3end{bmatrix}},} {displaystyle A={begin{bmatrix}2&0&0&0\1&2&0&0\0&1&3&0\0&0&1&3end{bmatrix}},}

a un polynôme caractéristique qui est le produit de ses éléments diagonaux,

| A − λ I | = | 2 − λ 0 0 0 1 2 − λ 0 0 0 1 3 − λ 0 0 0 1 3 − λ | = ( 2 − λ ) 2 ( 3 − λ ) 2 . {displaystyle |A-lambda I|={begin{vmatrix}2-lambda &0&0&0\1&2-lambda &0&0\0&1&3-lambda &0\0&0&1&3-lambda end{vmatrix}}=( 2-lambda )^{2}(3-lambda )^{2}.} {displaystyle |A-lambda I|={begin{vmatrix}2-lambda &0&0&0\1&2-lambda &0&0\0&1&3-lambda &0\0&0&1&3-lambda end{vmatrix}}=(2-lambda )^{2}(3-lambda )^{2}.} {displaystyle |A-lambda I|={begin{vmatrix}2-lambda &0&0&0\1&2-lambda &0&0\0&1&3-lambda &0\0&0&1&3-lambda end{vmatrix}}=(2-lambda )^{2}(3-lambda )^{2}.}

Les racines de ce polynôme, et donc les valeurs propres, sont 2 et 3. La multiplicité algébrique de chaque valeur propre est 2 ; en d’autres termes, ce sont toutes deux des racines doubles. La somme des multiplicités algébriques de toutes les valeurs propres distinctes est μ A = 4 = n , l’ordre du polynôme caractéristique et la dimension de A .

D’autre part, la multiplicité géométrique de la valeur propre 2 n’est que de 1, car son espace propre est couvert par un seul vecteur [ 0 1 − 1 1 ] T {displaystyle {begin{bmatrix}0&1&-1&1end{bmatrix}}^{textsf {T}}} {displaystyle {begin{bmatrix}0&1&-1&1end{bmatrix}}^{textsf {T}}} {displaystyle {begin{bmatrix}0&1&-1&1end{bmatrix}}^{textsf {T}}}et est donc unidimensionnel. De même, la multiplicité géométrique de la valeur propre 3 est 1 car son espace propre est couvert par un seul vecteur [ 0 0 0 1 ] T {displaystyle {begin{bmatrix}0&0&0&1end{bmatrix}}^{textsf {T}}} {displaystyle {begin{bmatrix}0&0&0&1end{bmatrix}}^{textsf {T}}} {displaystyle {begin{bmatrix}0&0&0&1end{bmatrix}}^{textsf {T}}}. La multiplicité géométrique totale γ A est de 2, ce qui est la plus petite possible pour une matrice à deux valeurs propres distinctes. Les multiplicités géométriques sont définies dans une section ultérieure.

Identité vecteur propre-valeur propre

Pour une matrice hermitienne , la norme au carré de la j ème composante d’ un vecteur propre normalisé peut être calculée en utilisant uniquement les valeurs propres de la matrice et les valeurs propres de la matrice mineure correspondante ,

| v i , j | 2 = ∏ k ( λ i − λ k ( M j ) ) ∏ k ≠ i ( λ i − λ k ) , {displaystyle |v_{i,j}|^{2}={frac {prod _{k}{(lambda _{i}-lambda _{k}(M_{j}))}} {prod _{kneq i}{(lambda _{i}-lambda _{k})}}},} {displaystyle |v_{i,j}|^{2}={frac {prod _{k}{(lambda _{i}-lambda _{k}(M_{j}))}}{prod _{kneq i}{(lambda _{i}-lambda _{k})}}},} {displaystyle |v_{i,j}|^{2}={frac {prod _{k}{(lambda _{i}-lambda _{k}(M_{j}))}}{prod _{kneq i}{(lambda _{i}-lambda _{k})}}},} où M j {textstyle M_{j}} {textstyle M_{j}} {textstyle M_{j}}est la sous- matrice formée en supprimant la jème ligne et colonne de la matrice d’origine. [33] [34] [35] Cette identité s’étend aussi aux matrices diagonalisables et a été redécouverte plusieurs fois dans la littérature. [34]

Valeurs propres et fonctions propres des opérateurs différentiels

Les définitions de valeur propre et de vecteurs propres d’une transformation linéaire T restent valables même si l’espace vectoriel sous-jacent est un espace de Hilbert ou de Banach de dimension infinie . Une classe largement utilisée de transformations linéaires agissant sur des espaces de dimension infinie sont les opérateurs différentiels sur les espaces fonctionnels . Soit D un opérateur différentiel linéaire sur l’espace C des fonctions réelles infiniment différentiables d’un argument réel t . L’équation aux valeurs propres pour D est l’ équation différentielle

D f ( t ) = λ f ( t ) {displaystyle Df(t)=lambda f(t)} {displaystyle Df(t)=lambda f(t)} {displaystyle Df(t)=lambda f(t)}

Les fonctions qui satisfont cette équation sont des vecteurs propres de D et sont communément appelées fonctions propres .

Exemple d’opérateur dérivé

Considérez l’opérateur dérivé d d t {displaystyle {tfrac {d}{dt}}} {displaystyle {tfrac {d}{dt}}} {displaystyle {tfrac {d}{dt}}}avec équation aux valeurs propres

d d t f ( t ) = λ f ( t ) . {displaystyle {frac {d}{dt}}f(t)=lambda f(t).} {displaystyle {frac {d}{dt}}f(t)=lambda f(t).} {displaystyle {frac {d}{dt}}f(t)=lambda f(t).}

Cette équation différentielle peut être résolue en multipliant les deux côtés par dt / f ( t ) et en intégrant. Sa solution, la fonction exponentielle

f ( t ) = f ( 0 ) e λ t , {displaystyle f(t)=f(0)e^{lambda t},} {displaystyle f(t)=f(0)e^{lambda t},} {displaystyle f(t)=f(0)e^{lambda t},}

est la fonction propre de l’opérateur dérivé. Dans ce cas, la fonction propre est elle-même fonction de sa valeur propre associée. En particulier, pour λ = 0 la fonction propre f ( t ) est une constante.

L’article principal sur les fonctions propres donne d’autres exemples.

Définition générale

Le concept de valeurs propres et de vecteurs propres s’étend naturellement aux transformations linéaires arbitraires sur des espaces vectoriels arbitraires. Soit V un espace vectoriel quelconque sur un corps K de scalaires , et soit T une transformation linéaire appliquant V dans V ,

T : V → V . {displaystyle T:Và V.} {displaystyle T:Vto V.} {displaystyle T:Vto V.}

On dit qu’un vecteur non nul vV est un vecteur propre de T si et seulement s’il existe un scalaire λK tel que

T ( v ) = λ v . {displaystyle T(mathbf {v} )=lambda mathbf {v} .} {displaystyle T(mathbf {v} )=lambda mathbf {v} .} {displaystyle T(mathbf {v} )=lambda mathbf {v} .}

( 5 )

Cette équation est appelée équation aux valeurs propres pour T , et le scalaire λ est la valeur propre de T correspondant au vecteur propre v . T ( v ) est le résultat de l’application de la transformation T au vecteur v , tandis que λ v est le produit du scalaire λ avec v . [36] [37]

Espaces propres, multiplicité géométrique et base propre

Étant donné une valeur propre λ , considérons l’ensemble

E = { v : T ( v ) = λ v } , {displaystyle E=left{mathbf {v} :T(mathbf {v} )=lambda mathbf {v} right},} {displaystyle E=left{mathbf {v} :T(mathbf {v} )=lambda mathbf {v} right},} {displaystyle E=left{mathbf {v} :T(mathbf {v} )=lambda mathbf {v} right},}

qui est l’union du vecteur nul avec l’ensemble de tous les vecteurs propres associés à λ . E est appelé espace propre ou espace caractéristique de T associé à λ .

Par définition d’une transformation linéaire,

T ( x + y ) = T ( x ) + T ( y ) , T ( α x ) = α T ( x ) , {displaystyle {begin{aligned}T(mathbf {x} +mathbf {y} )&=T(mathbf {x} )+T(mathbf {y} ),\T(alpha mathbf {x} )&=alpha T(mathbf {x} ),end{aligné}}} {displaystyle {begin{aligned}T(mathbf {x} +mathbf {y} )&=T(mathbf {x} )+T(mathbf {y} ),\T(alpha mathbf {x} )&=alpha T(mathbf {x} ),end{aligned}}}

pour x , yV et αK . Donc, si u et v sont des vecteurs propres de T associés à la valeur propre λ , soit u , vE , alors

T ( u + v ) = λ ( u + v ) , T ( α v ) = λ ( α v ) . {displaystyle {begin{aligned}T(mathbf {u} +mathbf {v} )&=lambda (mathbf {u} +mathbf {v} ),\T(alpha mathbf { v} )&=lambda (alpha mathbf {v} ).end{aligné}}} {displaystyle {begin{aligned}T(mathbf {u} +mathbf {v} )&=lambda (mathbf {u} +mathbf {v} ),\T(alpha mathbf {v} )&=lambda (alpha mathbf {v} ).end{aligned}}} {displaystyle {begin{aligned}T(mathbf {u} +mathbf {v} )&=lambda (mathbf {u} +mathbf {v} ),\T(alpha mathbf {v} )&=lambda (alpha mathbf {v} ).end{aligned}}}

Ainsi, u + v et α v sont soit nuls, soit des vecteurs propres de T associés à λ , à savoir u + v , α vE , et E est fermé par addition et multiplication scalaire. L’espace propre E associé à λ est donc un sous-espace linéaire de V . [38] Si ce sous-espace a la dimension 1, on l’appelle parfois une ligne propre . [39]

La multiplicité géométrique γ T ( λ ) d’une valeur propre λ est la dimension de l’espace propre associé à λ , c’est-à-dire le nombre maximum de vecteurs propres linéairement indépendants associés à cette valeur propre. [9] [26] Selon la définition des valeurs propres et des vecteurs propres, γ T ( λ ) ≥ 1 car chaque valeur propre a au moins un vecteur propre.

Les espaces propres de T forment toujours une somme directe . Par conséquent, les vecteurs propres de différentes valeurs propres sont toujours linéairement indépendants. Par conséquent, la somme des dimensions des espaces propres ne peut pas dépasser la dimension n de l’espace vectoriel sur lequel T opère, et il ne peut y avoir plus de n valeurs propres distinctes. [e]

Tout sous-espace couvert par des vecteurs propres de T est un sous- espace invariant de T , et la restriction de T à un tel sous-espace est diagonalisable. De plus, si l’ensemble de l’espace vectoriel V peut être couvert par les vecteurs propres de T , ou de manière équivalente si la somme directe des espaces propres associés à toutes les valeurs propres de T est l’ensemble de l’espace vectoriel V , alors une base de V appelée base propre peut être formé de vecteurs propres linéairement indépendants de T . Lorsque T admet une base propre, T est diagonalisable.

Théorie spectrale

Si λ est une valeur propre de T , alors l’opérateur ( TλI ) n’est pas univoque, et donc son inverse ( TλI ) −1 n’existe pas. L’inverse est vrai pour les espaces vectoriels de dimension finie, mais pas pour les espaces vectoriels de dimension infinie. En général, l’opérateur ( TλI ) peut ne pas avoir d’inverse même si λ n’est pas une valeur propre.

Pour cette raison, dans l’analyse fonctionnelle, les valeurs propres peuvent être généralisées au spectre d’un opérateur linéaire T comme l’ensemble de tous les scalaires λ pour lesquels l’opérateur ( TλI ) n’a pas d’ inverse borné . Le spectre d’un opérateur contient toujours toutes ses valeurs propres mais n’est pas limité à elles.

Algèbres associatives et théorie des représentations

On peut généraliser l’objet algébrique qui agit sur l’espace vectoriel, en remplaçant un seul opérateur agissant sur un espace vectoriel par une représentation algébrique – une algèbre associative agissant sur un module . L’étude de telles actions est du domaine de la théorie des représentations .

Le concept théorique de représentation du poids est un analogue des valeurs propres, tandis que les vecteurs de poids et les espaces de poids sont les analogues des vecteurs propres et des espaces propres, respectivement.

Équations dynamiques

Les équations aux différences les plus simples ont la forme

x t = a 1 x t − 1 + a 2 x t − 2 + ⋯ + a k x t − k . {displaystyle x_{t}=a_{1}x_{t-1}+a_{2}x_{t-2}+cdots +a_{k}x_{tk}.} {displaystyle x_{t}=a_{1}x_{t-1}+a_{2}x_{t-2}+cdots +a_{k}x_{t-k}.} {displaystyle x_{t}=a_{1}x_{t-1}+a_{2}x_{t-2}+cdots +a_{k}x_{t-k}.}

La solution de cette équation pour x en fonction de t est trouvée en utilisant son équation caractéristique

λ k − a 1 λ k − 1 − a 2 λ k − 2 − ⋯ − a k − 1 λ − a k = 0 , {displaystyle lambda ^{k}-a_{1}lambda ^{k-1}-a_{2}lambda ^{k-2}-cdots -a_{k-1}lambda -a_{ k}=0,} {displaystyle lambda ^{k}-a_{1}lambda ^{k-1}-a_{2}lambda ^{k-2}-cdots -a_{k-1}lambda -a_{k}=0,} {displaystyle lambda ^{k}-a_{1}lambda ^{k-1}-a_{2}lambda ^{k-2}-cdots -a_{k-1}lambda -a_{k}=0,}

qui peuvent être trouvés en empilant dans une matrice un ensemble d’équations composé de l’équation de différence ci-dessus et des k – 1 équations x t − 1 = x t − 1 , … , x t − k + 1 = x t − k + 1 , {displaystyle x_{t-1}=x_{t-1}, dots , x_{t-k+1}=x_{t-k+1},} {displaystyle x_{t-1}=x_{t-1}, dots , x_{t-k+1}=x_{t-k+1},} {displaystyle x_{t-1}=x_{t-1}, dots , x_{t-k+1}=x_{t-k+1},}donnant un système k -dimensionnel du premier ordre dans le vecteur variable empilé [ x t ⋯ x t − k + 1 ] {displaystyle {begin{bmatrix}x_{t}&cdots &x_{t-k+1}end{bmatrix}}} {displaystyle {begin{bmatrix}x_{t}&cdots &x_{t-k+1}end{bmatrix}}} {displaystyle {begin{bmatrix}x_{t}&cdots &x_{t-k+1}end{bmatrix}}}en termes de sa valeur une fois retardée, et en prenant l’équation caractéristique de la matrice de ce système. Cette équation donne k racines caractéristiques λ 1 , … , λ k , {displaystyle lambda _{1},,ldots ,,lambda _{k},} {displaystyle lambda _{1},,ldots ,,lambda _{k},} {displaystyle lambda _{1},,ldots ,,lambda _{k},}à utiliser dans l’équation de solution

x t = c 1 λ 1 t + ⋯ + c k λ k t . {displaystyle x_{t}=c_{1}lambda _{1}^{t}+cdots +c_{k}lambda _{k}^{t}.} {displaystyle x_{t}=c_{1}lambda _{1}^{t}+cdots +c_{k}lambda _{k}^{t}.} {displaystyle x_{t}=c_{1}lambda _{1}^{t}+cdots +c_{k}lambda _{k}^{t}.}

Une procédure similaire est utilisée pour résoudre une équation différentielle de la forme

d k x d t k + a k − 1 d k − 1 x d t k − 1 + ⋯ + a 1 d x d t + a 0 x = 0. {displaystyle {frac {d^{k}x}{dt^{k}}}+a_{k-1}{frac {d^{k-1}x}{dt^{k-1} }}+cdots +a_{1}{frac {dx}{dt}}+a_{0}x=0.} {displaystyle {frac {d^{k}x}{dt^{k}}}+a_{k-1}{frac {d^{k-1}x}{dt^{k-1}}}+cdots +a_{1}{frac {dx}{dt}}+a_{0}x=0.} {displaystyle {frac {d^{k}x}{dt^{k}}}+a_{k-1}{frac {d^{k-1}x}{dt^{k-1}}}+cdots +a_{1}{frac {dx}{dt}}+a_{0}x=0.}

Calcul

The calculation of eigenvalues and eigenvectors is a topic where theory, as presented in elementary linear algebra textbooks, is often very far from practice.

Classical method

The classical method is to first find the eigenvalues, and then calculate the eigenvectors for each eigenvalue. It is in several ways poorly suited for non-exact arithmetics such as Floating-point.

Eigenvalues

The eigenvalues of a matrix A {displaystyle A} A A can be determined by finding the roots of the characteristic polynomial. This is easy for 2 × 2 {displaystyle 2times 2} {displaystyle 2times 2} {displaystyle 2times 2} matrices, but the difficulty increases rapidly with the size of the matrix.

In theory, the coefficients of the characteristic polynomial can be computed exactly, since they are sums of products of matrix elements; and there are algorithms that can find all the roots of a polynomial of arbitrary degree to any required Accuracy.[40] However, this approach is not viable in practice because the coefficients would be contaminated by unavoidable round-off errors, and the roots of a polynomial can be an extremely sensitive function of the coefficients (as exemplified by Wilkinson’s polynomial).[40] Even for matrices whose elements are integers the calculation becomes nontrivial, because the sums are very long; the constant term is the determinant, which for an n × n {displaystyle ntimes n} ntimes n ntimes n is a sum of n ! {displaystyle n!} {displaystyle n!} {displaystyle n!} different products.[f]

Explicit algebraic formulas for the roots of a polynomial exist only if the degree n {displaystyle n} n n is 4 or less. According to the Abel–Ruffini theorem there is no general, explicit and exact algebraic formula for the roots of a polynomial with degree 5 or more. (Generality matters because any polynomial with degree n {displaystyle n} n is the characteristic polynomial of some companion matrix of order n {displaystyle n} n .) Therefore, for matrices of order 5 or more, the eigenvalues and eigenvectors cannot be obtained by an explicit algebraic formula, and must therefore be computed by approximate numerical methods. Even the exact formula for the roots of a degree 3 polynomial is numerically impractical.

Eigenvectors

Once the (exact) value of an eigenvalue is known, the corresponding eigenvectors can be found by finding nonzero solutions of the eigenvalue equation, that becomes a system of linear equations with known coefficients. For example, once it is known that 6 is an eigenvalue of the matrix

A = [ 4 1 6 3 ] {displaystyle A={begin{bmatrix}4&1\6&3end{bmatrix}}} {displaystyle A={begin{bmatrix}4&1\6&3end{bmatrix}}} {displaystyle A={begin{bmatrix}4&1\6&3end{bmatrix}}}

we can find its eigenvectors by solving the equation A v = 6 v {displaystyle Av=6v} Av=6v Av=6v, that is

[ 4 1 6 3 ] [ x y ] = 6 ⋅ [ x y ] {displaystyle {begin{bmatrix}4&1\6&3end{bmatrix}}{begin{bmatrix}x\yend{bmatrix}}=6cdot {begin{bmatrix}x\yend{bmatrix}}} {displaystyle {begin{bmatrix}4&1\6&3end{bmatrix}}{begin{bmatrix}x\yend{bmatrix}}=6cdot {begin{bmatrix}x\yend{bmatrix}}} {displaystyle {begin{bmatrix}4&1\6&3end{bmatrix}}{begin{bmatrix}x\yend{bmatrix}}=6cdot {begin{bmatrix}x\yend{bmatrix}}}

This matrix equation is equivalent to two linear equations

{ 4 x + y = 6 x 6 x + 3 y = 6 y {displaystyle left{{begin{aligned}4x+y&=6x\6x+3y&=6yend{aligned}}right.} {displaystyle left{{begin{aligned}4x+y&=6x\6x+3y&=6yend{aligned}}right.} {displaystyle left{{begin{aligned}4x+y&=6x\6x+3y&=6yend{aligned}}right.} that is { − 2 x + y = 0 6 x − 3 y = 0 {displaystyle left{{begin{aligned}-2x+y&=0\6x-3y&=0end{aligned}}right.} {displaystyle left{{begin{aligned}-2x+y&=0\6x-3y&=0end{aligned}}right.} {displaystyle left{{begin{aligned}-2x+y&=0\6x-3y&=0end{aligned}}right.}

Both equations reduce to the single linear equation y = 2 x {displaystyle y=2x} y=2x y=2x. Therefore, any vector of the form [ a 2 a ] T {displaystyle {begin{bmatrix}a&2aend{bmatrix}}^{textsf {T}}} {displaystyle {begin{bmatrix}a&2aend{bmatrix}}^{textsf {T}}} {displaystyle {begin{bmatrix}a&2aend{bmatrix}}^{textsf {T}}}, for any nonzero real number a {displaystyle a} a a, is an eigenvector of A {displaystyle A} A A with eigenvalue λ = 6 {displaystyle lambda =6} lambda =6 lambda =6.

The matrix A {displaystyle A} A A above has another eigenvalue λ = 1 {displaystyle lambda =1} lambda =1 lambda =1. A similar calculation shows that the corresponding eigenvectors are the nonzero solutions of 3 x + y = 0 {displaystyle 3x+y=0} 3x+y=0 3x+y=0, that is, any vector of the form [ b − 3 b ] T {displaystyle {begin{bmatrix}b&-3bend{bmatrix}}^{textsf {T}}} {displaystyle {begin{bmatrix}b&-3bend{bmatrix}}^{textsf {T}}} {displaystyle {begin{bmatrix}b&-3bend{bmatrix}}^{textsf {T}}}, for any nonzero real number b {displaystyle b} b b.

Simple iterative methods

The converse approach, of first seeking the eigenvectors and then determining each eigenvalue from its eigenvector, turns out to be far more tractable for computers. The easiest algorithm here consists of picking an arbitrary starting vector and then repeatedly multiplying it with the matrix (optionally normalizing the vector to keep its elements of reasonable size); this makes the vector converge towards an eigenvector. A variation is to instead multiply the vector by ( A − μ I ) − 1 {displaystyle (A-mu I)^{-1}} (A-mu I)^{{-1}} (A-mu I)^{{-1}}; this causes it to converge to an eigenvector of the eigenvalue closest to μ ∈ C {displaystyle mu in mathbb {C} } {displaystyle mu in mathbb {C} } {displaystyle mu in mathbb {C} }.

If v {displaystyle mathbf {v} } mathbf {v} mathbf {v} is (a good approximation of) an eigenvector of A {displaystyle A} A A, then the corresponding eigenvalue can be computed as

λ = v ∗ A v v ∗ v {displaystyle lambda ={frac {mathbf {v} ^{*}Amathbf {v} }{mathbf {v} ^{*}mathbf {v} }}} {displaystyle lambda ={frac {mathbf {v} ^{*}Amathbf {v} }{mathbf {v} ^{*}mathbf {v} }}} {displaystyle lambda ={frac {mathbf {v} ^{*}Amathbf {v} }{mathbf {v} ^{*}mathbf {v} }}}

where v ∗ {displaystyle mathbf {v} ^{*}} {displaystyle mathbf {v} ^{*}} {displaystyle mathbf {v} ^{*}} denotes the conjugate transpose of v {displaystyle mathbf {v} } mathbf {v} mathbf {v} .

Modern methods

Efficient, accurate methods to compute eigenvalues and eigenvectors of arbitrary matrices were not known until the QR algorithm was designed in 1961.[40] Combining the Householder transformation with the LU decomposition results in an algorithm with better convergence than the QR algorithm.[citation needed] For large Hermitian sparse matrices, the Lanczos algorithm is one example of an efficient iterative method to compute eigenvalues and eigenvectors, among several other possibilities.[40]

Most numeric methods that compute the eigenvalues of a matrix also determine a set of corresponding eigenvectors as a by-product of the computation, although sometimes implementors choose to discard the eigenvector information as soon as it is no longer needed.

Applications

Eigenvalues of geometric transformations

The following table presents some example transformations in the plane along with their 2×2 matrices, eigenvalues, and eigenvectors.

Eigenvalues of geometric transformations

Scaling Unequal scaling Rotation Horizontal shear Hyperbolic rotation
Illustration Equal scaling (homothety) Equal scaling (homothety) Vertical shrink and horizontal stretch of a unit square. Vertical shrink and horizontal stretch of a unit square. Rotation by 50 degrees Rotation by 50 degrees Horizontal shear mapping Horizontal shear mapping Squeeze r=1.5.svg
Matrix [ k 0 0 k ] {displaystyle {begin{bmatrix}k&0\0&kend{bmatrix}}} {displaystyle {begin{bmatrix}k&0\0&kend{bmatrix}}} {displaystyle {begin{bmatrix}k&0\0&kend{bmatrix}}} [ k 1 0 0 k 2 ] {displaystyle {begin{bmatrix}k_{1}&0\0&k_{2}end{bmatrix}}} {displaystyle {begin{bmatrix}k_{1}&0\0&k_{2}end{bmatrix}}} {displaystyle {begin{bmatrix}k_{1}&0\0&k_{2}end{bmatrix}}} [ cos ⁡ θ − sin ⁡ θ sin ⁡ θ cos ⁡ θ ] {displaystyle {begin{bmatrix}cos theta &-sin theta \sin theta &cos theta end{bmatrix}}} {displaystyle {begin{bmatrix}cos theta &-sin theta \sin theta &cos theta end{bmatrix}}} {displaystyle {begin{bmatrix}cos theta &-sin theta \sin theta &cos theta end{bmatrix}}} [ 1 k 0 1 ] {displaystyle {begin{bmatrix}1&k\0&1end{bmatrix}}} {displaystyle {begin{bmatrix}1&k\0&1end{bmatrix}}} {displaystyle {begin{bmatrix}1&k\0&1end{bmatrix}}} [ cosh ⁡ φ sinh ⁡ φ sinh ⁡ φ cosh ⁡ φ ] {displaystyle {begin{bmatrix}cosh varphi &sinh varphi \sinh varphi &cosh varphi end{bmatrix}}} {displaystyle {begin{bmatrix}cosh varphi &sinh varphi \sinh varphi &cosh varphi end{bmatrix}}} {displaystyle {begin{bmatrix}cosh varphi &sinh varphi \sinh varphi &cosh varphi end{bmatrix}}}
Characteristic
polynomial
( λ − k ) 2 {displaystyle (lambda -k)^{2}}  (lambda -k)^{2}  (lambda -k)^{2} ( λ − k 1 ) ( λ − k 2 ) {displaystyle (lambda -k_{1})(lambda -k_{2})} (lambda -k_{1})(lambda -k_{2}) (lambda -k_{1})(lambda -k_{2}) λ 2 − 2 cos ⁡ ( θ ) λ + 1 {displaystyle lambda ^{2}-2cos(theta )lambda +1} {displaystyle lambda ^{2}-2cos(theta )lambda +1} {displaystyle lambda ^{2}-2cos(theta )lambda +1} ( λ − 1 ) 2 {displaystyle (lambda -1)^{2}}  (lambda -1)^{2}  (lambda -1)^{2} λ 2 − 2 cosh ⁡ ( φ ) λ + 1 {displaystyle lambda ^{2}-2cosh(varphi )lambda +1} {displaystyle lambda ^{2}-2cosh(varphi )lambda +1} {displaystyle lambda ^{2}-2cosh(varphi )lambda +1}
Eigenvalues, λ i {displaystyle lambda _{i}} lambda _{i} lambda _{i} λ 1 = λ 2 = k {displaystyle lambda _{1}=lambda _{2}=k} lambda _{1}=lambda _{2}=k lambda _{1}=lambda _{2}=k λ 1 = k 1 λ 2 = k 2 {displaystyle {begin{aligned}lambda _{1}&=k_{1}\lambda _{2}&=k_{2}end{aligned}}} {displaystyle {begin{aligned}lambda _{1}&=k_{1}\lambda _{2}&=k_{2}end{aligned}}} {displaystyle {begin{aligned}lambda _{1}&=k_{1}\lambda _{2}&=k_{2}end{aligned}}} λ 1 = e i θ = cos ⁡ θ + i sin ⁡ θ λ 2 = e − i θ = cos ⁡ θ − i sin ⁡ θ {displaystyle {begin{aligned}lambda _{1}&=e^{itheta }\&=cos theta +isin theta \lambda _{2}&=e^{-itheta }\&=cos theta -isin theta end{aligned}}} {displaystyle {begin{aligned}lambda _{1}&=e^{itheta }\&=cos theta +isin theta \lambda _{2}&=e^{-itheta }\&=cos theta -isin theta end{aligned}}} {displaystyle {begin{aligned}lambda _{1}&=e^{itheta }\&=cos theta +isin theta \lambda _{2}&=e^{-itheta }\&=cos theta -isin theta end{aligned}}} λ 1 = λ 2 = 1 {displaystyle lambda _{1}=lambda _{2}=1} lambda _{1}=lambda _{2}=1 lambda _{1}=lambda _{2}=1 λ 1 = e φ = cosh ⁡ φ + sinh ⁡ φ λ 2 = e − φ = cosh ⁡ φ − sinh ⁡ φ {displaystyle {begin{aligned}lambda _{1}&=e^{varphi }\&=cosh varphi +sinh varphi \lambda _{2}&=e^{-varphi }\&=cosh varphi -sinh varphi end{aligned}}} {displaystyle {begin{aligned}lambda _{1}&=e^{varphi }\&=cosh varphi +sinh varphi \lambda _{2}&=e^{-varphi }\&=cosh varphi -sinh varphi end{aligned}}} {displaystyle {begin{aligned}lambda _{1}&=e^{varphi }\&=cosh varphi +sinh varphi \lambda _{2}&=e^{-varphi }\&=cosh varphi -sinh varphi end{aligned}}}
Algebraic mult.,
μ i = μ ( λ i ) {displaystyle mu _{i}=mu (lambda _{i})} {displaystyle mu _{i}=mu (lambda _{i})} {displaystyle mu _{i}=mu (lambda _{i})}
μ 1 = 2 {displaystyle mu _{1}=2} mu _{1}=2 mu _{1}=2 μ 1 = 1 μ 2 = 1 {displaystyle {begin{aligned}mu _{1}&=1\mu _{2}&=1end{aligned}}} {displaystyle {begin{aligned}mu _{1}&=1\mu _{2}&=1end{aligned}}} {displaystyle {begin{aligned}mu _{1}&=1\mu _{2}&=1end{aligned}}} μ 1 = 1 μ 2 = 1 {displaystyle {begin{aligned}mu _{1}&=1\mu _{2}&=1end{aligned}}} {displaystyle {begin{aligned}mu _{1}&=1\mu _{2}&=1end{aligned}}} {displaystyle {begin{aligned}mu _{1}&=1\mu _{2}&=1end{aligned}}} μ 1 = 2 {displaystyle mu _{1}=2} mu _{1}=2 mu _{1}=2 μ 1 = 1 μ 2 = 1 {displaystyle {begin{aligned}mu _{1}&=1\mu _{2}&=1end{aligned}}} {displaystyle {begin{aligned}mu _{1}&=1\mu _{2}&=1end{aligned}}}
Geometric mult.,
γ i = γ ( λ i ) {displaystyle gamma _{i}=gamma (lambda _{i})} gamma _{i}=gamma (lambda _{i}) gamma _{i}=gamma (lambda _{i})
γ 1 = 2 {displaystyle gamma _{1}=2} gamma _{1}=2 gamma _{1}=2 γ 1 = 1 γ 2 = 1 {displaystyle {begin{aligned}gamma _{1}&=1\gamma _{2}&=1end{aligned}}} {displaystyle {begin{aligned}gamma _{1}&=1\gamma _{2}&=1end{aligned}}} {displaystyle {begin{aligned}gamma _{1}&=1\gamma _{2}&=1end{aligned}}} γ 1 = 1 γ 2 = 1 {displaystyle {begin{aligned}gamma _{1}&=1\gamma _{2}&=1end{aligned}}} {displaystyle {begin{aligned}gamma _{1}&=1\gamma _{2}&=1end{aligned}}} {displaystyle {begin{aligned}gamma _{1}&=1\gamma _{2}&=1end{aligned}}} γ 1 = 1 {displaystyle gamma _{1}=1} gamma _{1}=1 gamma _{1}=1 γ 1 = 1 γ 2 = 1 {displaystyle {begin{aligned}gamma _{1}&=1\gamma _{2}&=1end{aligned}}} {displaystyle {begin{aligned}gamma _{1}&=1\gamma _{2}&=1end{aligned}}}
Eigenvectors All nonzero vectors u 1 = [ 1 0 ] u 2 = [ 0 1 ] {displaystyle {begin{aligned}mathbf {u} _{1}&={begin{bmatrix}1\0end{bmatrix}}\mathbf {u} _{2}&={begin{bmatrix}0\1end{bmatrix}}end{aligned}}} {displaystyle {begin{aligned}mathbf {u} _{1}&={begin{bmatrix}1\0end{bmatrix}}\mathbf {u} _{2}&={begin{bmatrix}0\1end{bmatrix}}end{aligned}}} {displaystyle {begin{aligned}mathbf {u} _{1}&={begin{bmatrix}1\0end{bmatrix}}\mathbf {u} _{2}&={begin{bmatrix}0\1end{bmatrix}}end{aligned}}} u 1 = [ 1 − i ] u 2 = [ 1 + i ] {displaystyle {begin{aligned}mathbf {u} _{1}&={begin{bmatrix}1\-iend{bmatrix}}\mathbf {u} _{2}&={begin{bmatrix}1\+iend{bmatrix}}end{aligned}}} {displaystyle {begin{aligned}mathbf {u} _{1}&={begin{bmatrix}1\-iend{bmatrix}}\mathbf {u} _{2}&={begin{bmatrix}1\+iend{bmatrix}}end{aligned}}} {displaystyle {begin{aligned}mathbf {u} _{1}&={begin{bmatrix}1\-iend{bmatrix}}\mathbf {u} _{2}&={begin{bmatrix}1\+iend{bmatrix}}end{aligned}}} u 1 = [ 1 0 ] {displaystyle mathbf {u} _{1}={begin{bmatrix}1\0end{bmatrix}}} {displaystyle mathbf {u} _{1}={begin{bmatrix}1\0end{bmatrix}}} {displaystyle mathbf {u} _{1}={begin{bmatrix}1\0end{bmatrix}}} u 1 = [ 1 1 ] u 2 = [ 1 − 1 ] {displaystyle {begin{aligned}mathbf {u} _{1}&={begin{bmatrix}1\1end{bmatrix}}\mathbf {u} _{2}&={begin{bmatrix}1\-1end{bmatrix}}end{aligned}}} {displaystyle {begin{aligned}mathbf {u} _{1}&={begin{bmatrix}1\1end{bmatrix}}\mathbf {u} _{2}&={begin{bmatrix}1\-1end{bmatrix}}end{aligned}}}

The characteristic equation for a rotation is a quadratic equation with discriminant D = − 4 ( sin ⁡ θ ) 2 {displaystyle D=-4(sin theta )^{2}} D=-4(sin theta )^{2} D=-4(sin theta )^{2}, which is a negative number whenever θ is not an integer multiple of 180°. Therefore, except for these special cases, the two eigenvalues are complex numbers, cos ⁡ θ ± i sin ⁡ θ {displaystyle cos theta pm isin theta } {displaystyle cos theta pm isin theta } {displaystyle cos theta pm isin theta }; and all eigenvectors have non-real entries. Indeed, except for those special cases, a rotation changes the direction of every nonzero vector in the plane.

A linear transformation that takes a square to a rectangle of the same area (a squeeze mapping) has reciprocal eigenvalues.

Schrödinger equation

The wavefunctions associated with the bound states of an electron in a hydrogen atom can be seen as the eigenvectors of the hydrogen atom Hamiltonian as well as of the angular momentum operator. They are associated with eigenvalues interpreted as their energies (increasing downward: n = 1 , 2 , 3 , … {displaystyle n=1,,2,,3,,ldots } {displaystyle n=1,,2,,3,,ldots } {displaystyle n=1,,2,,3,,ldots }) and angular momentum (increasing across: s, p, d, …). The illustration shows the square of the absolute value of the wavefunctions. Brighter areas correspond to higher probability density for a position measurement. The center of each figure is the atomic nucleus, a proton.

An example of an eigenvalue equation where the transformation T {displaystyle T} T T is represented in terms of a differential operator is the time-independent Schrödinger equation in quantum mechanics:

H ψ E = E ψ E {displaystyle Hpsi _{E}=Epsi _{E},} Hpsi _{E}=Epsi _{E}, Hpsi _{E}=Epsi _{E},

where H {displaystyle H} H H, the Hamiltonian, is a second-order differential operator and ψ E {displaystyle psi _{E}} psi _{E} psi _{E}, the wavefunction, is one of its eigenfunctions corresponding to the eigenvalue E {displaystyle E} E E, interpreted as its energy.

However, in the case where one is interested only in the bound state solutions of the Schrödinger equation, one looks for ψ E {displaystyle psi _{E}} psi _{E} psi _{E} within the space of square integrable functions. Since this space is a Hilbert space with a well-defined scalar product, one can introduce a basis set in which ψ E {displaystyle psi _{E}} psi _{E} psi _{E} and H {displaystyle H} H H can be represented as a one-dimensional array (i.e., a vector) and a matrix respectively. This allows one to represent the Schrödinger equation in a matrix form.

The bra–ket notation is often used in this context. A vector, which represents a state of the system, in the Hilbert space of square integrable functions is represented by | Ψ E ⟩ {displaystyle |Psi _{E}rangle } |Psi _{E}rangle |Psi _{E}rangle . In this notation, the Schrödinger equation is:

H | Ψ E ⟩ = E | Ψ E ⟩ {displaystyle H|Psi _{E}rangle =E|Psi _{E}rangle } H|Psi _{E}rangle =E|Psi _{E}rangle H|Psi _{E}rangle =E|Psi _{E}rangle

where | Ψ E ⟩ {displaystyle |Psi _{E}rangle } |Psi _{E}rangle |Psi _{E}rangle is an eigenstate of H {displaystyle H} H H and E {displaystyle E} E E represents the eigenvalue. H {displaystyle H} H H is an observable self-adjoint operator, the infinite-dimensional analog of Hermitian matrices. As in the matrix case, in the equation above H | Ψ E ⟩ {displaystyle H|Psi _{E}rangle } H|Psi _{E}rangle H|Psi _{E}rangle is understood to be the vector obtained by application of the transformation H {displaystyle H} H H to | Ψ E ⟩ {displaystyle |Psi _{E}rangle } |Psi _{E}rangle |Psi _{E}rangle .

Wave transport

Light, acoustic waves, and microwaves are randomly scattered numerous times when traversing a static disordered system. Even though multiple scattering repeatedly randomizes the waves, ultimately coherent wave transport through the system is a deterministic process which can be described by a field transmission matrix t {displaystyle mathbf {t} } mathbf {t} mathbf {t} .[41][42] The eigenvectors of the transmission operator t † t {displaystyle mathbf {t} ^{dagger }mathbf {t} } {displaystyle mathbf {t} ^{dagger }mathbf {t} } {displaystyle mathbf {t} ^{dagger }mathbf {t} } form a set of disorder-specific input wavefronts which enable waves to couple into the disordered system’s eigenchannels: the independent pathways waves can travel through the system. The eigenvalues, τ {displaystyle tau } tau tau , of t † t {displaystyle mathbf {t} ^{dagger }mathbf {t} } {displaystyle mathbf {t} ^{dagger }mathbf {t} } {displaystyle mathbf {t} ^{dagger }mathbf {t} } correspond to the intensity transmittance associated with each eigenchannel. One of the remarkable properties of the transmission operator of diffusive systems is their bimodal eigenvalue distribution with τ max = 1 {displaystyle tau _{max }=1} {displaystyle tau _{max }=1} {displaystyle tau _{max }=1} and τ min = 0 {displaystyle tau _{min }=0} {displaystyle tau _{min }=0} {displaystyle tau _{min }=0}.[42] Furthermore, one of the striking properties of open eigenchannels, beyond the perfect transmittance, is the statistically robust spatial profile of the eigenchannels.[43]

Molecular orbitals

In quantum mechanics, and in particular in atomic and molecular physics, within the Hartree–Fock theory, the atomic and molecular orbitals can be defined by the eigenvectors of the Fock operator. The corresponding eigenvalues are interpreted as ionization potentials via Koopmans’ theorem. In this case, the term eigenvector is used in a somewhat more general meaning, since the Fock operator is explicitly dependent on the orbitals and their eigenvalues. Thus, if one wants to underline this aspect, one speaks of nonlinear eigenvalue problems. Such equations are usually solved by an iteration procedure, called in this case self-consistent field method. In quantum chemistry, one often represents the Hartree–Fock equation in a non-orthogonal basis set. This particular representation is a generalized eigenvalue problem called Roothaan equations.

Geology and glaciology

In geology, especially in the study of glacial till, eigenvectors and eigenvalues are used as a method by which a mass of information of a clast fabric’s constituents’ orientation and dip can be summarized in a 3-D space by six numbers. In the field, a geologist may collect such data for hundreds or thousands of clasts in a soil sample, which can only be compared graphically such as in a Tri-Plot (Sneed and Folk) diagram,[44][45] or as a Stereonet on a Wulff Net.[46]

The output for the orientation tensor is in the three orthogonal (perpendicular) axes of space. The three eigenvectors are ordered v 1 , v 2 , v 3 {displaystyle mathbf {v} _{1},mathbf {v} _{2},mathbf {v} _{3}} {displaystyle mathbf {v} _{1},mathbf {v} _{2},mathbf {v} _{3}} by their eigenvalues E 1 ≥ E 2 ≥ E 3 {displaystyle E_{1}geq E_{2}geq E_{3}} E_{1}geq E_{2}geq E_{3} ;[47] v 1 {displaystyle mathbf {v} _{1}} {displaystyle mathbf {v} _{1}} then is the primary orientation/dip of clast, v 2 {displaystyle mathbf {v} _{2}} {displaystyle mathbf {v} _{2}} is the secondary and v 3 {displaystyle mathbf {v} _{3}} {displaystyle mathbf {v} _{3}} is the tertiary, in terms of strength. The clast orientation is defined as the direction of the eigenvector, on a compass rose of 360°. Dip is measured as the eigenvalue, the modulus of the tensor: this is valued from 0° (no dip) to 90° (vertical). The relative values of E 1 {displaystyle E_{1}} E_{1} E_{1}, E 2 {displaystyle E_{2}} E_{2} E_{2}, and E 3 {displaystyle E_{3}} E_{3} E_{3} are dictated by the nature of the sediment’s fabric. If E 1 = E 2 = E 3 {displaystyle E_{1}=E_{2}=E_{3}} E_{1}=E_{2}=E_{3} E_{1}=E_{2}=E_{3}, the fabric is said to be isotropic. If E 1 = E 2 > E 3 {displaystyle E_{1}=E_{2}>E_{3}} E_{1}=E_{2}>E_{3} E_{1}=E_{2}>E_{3}, the fabric is said to be planar. If E 1 > E 2 > E 3 {displaystyle E_{1}>E_{2}>E_{3}} E_{1}>E_{2}>E_{3} E_{1}>E_{2}>E_{3}, the fabric is said to be linear.[48]

Principal component analysis

PCA of the multivariate Gaussian distribution centered at ( 1 , 3 ) {displaystyle (1,3)} {displaystyle (1,3)} {displaystyle (1,3)} with a standard deviation of 3 in roughly the ( 0.878 , 0.478 ) {displaystyle (0.878,0.478)} {displaystyle (0.878,0.478)} {displaystyle (0.878,0.478)} direction and of 1 in the orthogonal direction. The vectors shown are unit eigenvectors of the (symmetric, positive-semidefinite) covariance matrix scaled by the square root of the corresponding eigenvalue. Just as in the one-dimensional case, the square root is taken because the standard deviation is more readily visualized than the variance.

The eigendecomposition of a symmetric positive semidefinite (PSD) matrix yields an orthogonal basis of eigenvectors, each of which has a nonnegative eigenvalue. The orthogonal decomposition of a PSD matrix is used in multivariate analysis, where the sample covariance matrices are PSD. This orthogonal decomposition is called principal component analysis (PCA) in statistics. PCA studies linear relations among variables. PCA is performed on the covariance matrix or the correlation matrix (in which each variable is scaled to have its sample variance equal to one). For the covariance or correlation matrix, the eigenvectors correspond to principal components and the eigenvalues to the variance explained by the principal components. Principal component analysis of the correlation matrix provides an orthogonal basis for the space of the observed data: In this basis, the largest eigenvalues correspond to the principal components that are associated with most of the covariability among a number of observed data.

Principal component analysis is used as a means of dimensionality reduction in the study of large data sets, such as those encountered in bioinformatics. In Q methodology, the eigenvalues of the correlation matrix determine the Q-methodologist’s judgment of practical significance (which differs from the statistical significance of hypothesis testing; cf. criteria for determining the number of factors). More generally, principal component analysis can be used as a method of factor analysis in structural equation modeling.

Vibration analysis

Mode shape of a tuning fork at eigenfrequency 440.09 Hz

Eigenvalue problems occur naturally in the Vibration analysis of mechanical structures with many degrees of freedom. The eigenvalues are the natural frequencies (or eigenfrequencies) of vibration, and the eigenvectors are the shapes of these vibrational modes. In particular, undamped vibration is governed by

m x ̈ + k x = 0 {displaystyle m{ddot {x}}+kx=0} {displaystyle m{ddot {x}}+kx=0} {displaystyle m{ddot {x}}+kx=0}

or

m x ̈ = − k x {displaystyle m{ddot {x}}=-kx} {displaystyle m{ddot {x}}=-kx} {displaystyle m{ddot {x}}=-kx}

that is, acceleration is proportional to position (i.e., we expect x {displaystyle x} x x to be sinusoidal in time).

In n {displaystyle n} n n dimensions, m {displaystyle m} m m becomes a mass matrix and k {displaystyle k} k k a stiffness matrix. Admissible solutions are then a linear combination of solutions to the generalized eigenvalue problem

k x = ω 2 m x {displaystyle kx=omega ^{2}mx} {displaystyle kx=omega ^{2}mx} {displaystyle kx=omega ^{2}mx}

where ω 2 {displaystyle omega ^{2}} omega ^{2} omega ^{2} is the eigenvalue and ω {displaystyle omega } omega omega is the (imaginary) angular frequency. The principal vibration modes are different from the principal compliance modes, which are the eigenvectors of k {displaystyle k} k k alone. Furthermore, damped vibration, governed by

m x ̈ + c x ̇ + k x = 0 {displaystyle m{ddot {x}}+c{dot {x}}+kx=0} {displaystyle m{ddot {x}}+c{dot {x}}+kx=0} {displaystyle m{ddot {x}}+c{dot {x}}+kx=0}

leads to a so-called quadratic eigenvalue problem,

( ω 2 m + ω c + k ) x = 0. {displaystyle left(omega ^{2}m+omega c+kright)x=0.} {displaystyle left(omega ^{2}m+omega c+kright)x=0.} {displaystyle left(omega ^{2}m+omega c+kright)x=0.}

This can be reduced to a generalized eigenvalue problem by algebraic manipulation at the cost of solving a larger system.

The orthogonality properties of the eigenvectors allows decoupling of the differential equations so that the system can be represented as linear summation of the eigenvectors. The eigenvalue problem of complex structures is often solved using finite element analysis, but neatly generalize the solution to scalar-valued vibration problems.

Eigenfaces

Eigenfaces as examples of eigenvectors

In image processing, processed images of faces can be seen as vectors whose components are the brightnesses of each pixel.[49] The dimension of this vector space is the number of pixels. The eigenvectors of the covariance matrix associated with a large set of normalized pictures of faces are called eigenfaces; this is an example of principal component analysis. They are very useful for expressing any face image as a linear combination of some of them. In the facial recognition branch of biometrics, eigenfaces provide a means of applying data compression to faces for identification purposes. Research related to eigen vision systems determining hand gestures has also been made.

Similar to this concept, eigenvoices represent the general direction of variability in human pronunciations of a particular utterance, such as a word in a language. Based on a linear combination of such eigenvoices, a new voice pronunciation of the word can be constructed. These concepts have been found useful in automatic speech recognition systems for speaker adaptation.

Tensor of moment of inertia

In mechanics, the eigenvectors of the moment of inertia tensor define the principal axes of a rigid body. The tensor of moment of inertia is a key quantity required to determine the rotation of a rigid body around its center of mass.

Stress tensor

In solid mechanics, the stress tensor is symmetric and so can be decomposed into a diagonal tensor with the eigenvalues on the diagonal and eigenvectors as a basis. Because it is diagonal, in this orientation, the stress tensor has no shear components; the components it does have are the principal components.

Graphs

In spectral graph theory, an eigenvalue of a graph is defined as an eigenvalue of the graph’s adjacency matrix A {displaystyle A} A A, or (increasingly) of the graph’s Laplacian matrix due to its discrete Laplace operator, which is either D − A {displaystyle D-A} {displaystyle D-A} {displaystyle D-A} (sometimes called the combinatorial Laplacian) or I − D − 1 / 2 A D − 1 / 2 {displaystyle I-D^{-1/2}AD^{-1/2}} {displaystyle I-D^{-1/2}AD^{-1/2}} {displaystyle I-D^{-1/2}AD^{-1/2}} (sometimes called the normalized Laplacian), where D {displaystyle D} D D is a diagonal matrix with D i i {displaystyle D_{ii}} {displaystyle D_{ii}} {displaystyle D_{ii}} equal to the degree of vertex v i {displaystyle v_{i}} v_{i} v_{i}, and in D − 1 / 2 {displaystyle D^{-1/2}} D^{-1/2} D^{-1/2}, the i {displaystyle i} i ith diagonal entry is 1 / deg ⁡ ( v i ) {textstyle 1/{sqrt {deg(v_{i})}}} {textstyle 1/{sqrt {deg(v_{i})}}} {textstyle 1/{sqrt {deg(v_{i})}}}. The k {displaystyle k} k kth principal eigenvector of a graph is defined as either the eigenvector corresponding to the k {displaystyle k} k kth largest or k {displaystyle k} k kth smallest eigenvalue of the Laplacian. The first principal eigenvector of the graph is also referred to merely as the principal eigenvector.

The principal eigenvector is used to measure the centrality of its vertices. An example is Google’s PageRank algorithm. The principal eigenvector of a modified adjacency matrix of the World Wide Web graph gives the page ranks as its components. This vector corresponds to the stationary distribution of the Markov chain represented by the row-normalized adjacency matrix; however, the adjacency matrix must first be modified to ensure a stationary distribution exists. The second smallest eigenvector can be used to partition the graph into clusters, via spectral clustering. Other methods are also available for clustering.

Basic reproduction number

The basic reproduction number ( R 0 {displaystyle R_{0}} R_{0} R_{0}) is a fundamental number in the study of how infectious diseases spread. If one infectious person is put into a population of completely susceptible people, then R 0 {displaystyle R_{0}} R_{0} R_{0} is the average number of people that one typical infectious person will infect. The generation time of an infection is the time, t G {displaystyle t_{G}} t_{G} t_{G}, from one person becoming infected to the next person becoming infected. In a heterogeneous population, the next generation matrix defines how many people in the population will become infected after time t G {displaystyle t_{G}} t_{G} t_{G} has passed. R 0 {displaystyle R_{0}} R_{0} R_{0} is then the largest eigenvalue of the next generation matrix.[50][51]

See also

  • Antieigenvalue theory
  • Eigenoperator
  • Eigenplane
  • Eigenvalue algorithm
  • Introduction to eigenstates
  • Jordan normal form
  • List of numerical-analysis software
  • Nonlinear eigenproblem
  • Normal eigenvalue
  • Quadratic eigenvalue problem
  • Singular value
  • Spectrum of a matrix

Notes

  1. ^ Note:
    • In 1751, Leonhard Euler proved that any body has a principal axis of rotation: Leonhard Euler (presented: October 1751; published: 1760) “Du mouvement d’un corps solide quelconque lorsqu’il tourne autour d’un axe mobile” (On the movement of any solid body while it rotates around a moving axis), Histoire de l’Académie royale des sciences et des belles lettres de Berlin, pp. 176–227. On p. 212, Euler proves that any body contains a principal axis of rotation: “Théorem. 44. De quelque figure que soit le corps, on y peut toujours assigner un tel axe, qui passe par son centre de gravité, autour duquel le corps peut tourner librement & d’un mouvement uniforme.” (Theorem. 44. Whatever be the shape of the body, one can always assign to it such an axis, which passes through its center of gravity, around which it can rotate freely and with a uniform motion.)
    • In 1755, Johann Andreas Segner proved that any body has three principal axes of rotation: Johann Andreas Segner, Specimen theoriae turbinum [Essay on the theory of tops (i.e., rotating bodies)] ( Halle (“Halae”), (Germany): Gebauer, 1755). (https://books.google.com/books?id=29 p. xxviiii [29]), Segner derives a third-degree equation in t, which proves that a body has three principal axes of rotation. He then states (on the same page): “Non autem repugnat tres esse eiusmodi positiones plani HM, quia in aequatione cubica radices tres esse possunt, et tres tangentis t valores.” (However, it is not inconsistent [that there] be three such positions of the plane HM, because in cubic equations, [there] can be three roots, and three values of the tangent t.)
    • The relevant passage of Segner’s work was discussed briefly by Arthur Cayley. See: A. Cayley (1862) “Report on the progress of the solution of certain special problems of dynamics,” Report of the Thirty-second meeting of the British Association for the Advancement of Science; held at Cambridge in October 1862, 32: 184–252; see especially pp. 225–226.
  2. ^ Kline 1972, pp. 807–808 Augustin Cauchy (1839) “Mémoire sur l’intégration des équations linéaires” (Memoir on the integration of linear equations), Comptes rendus, 8: 827–830, 845–865, 889–907, 931–937. From p. 827: “On sait d’ailleurs qu’en suivant la méthode de Lagrange, on obtient pour valeur générale de la variable prinicipale une fonction dans laquelle entrent avec la variable principale les racines d’une certaine équation que j’appellerai l’équation caractéristique, le degré de cette équation étant précisément l’order de l’équation différentielle qu’il s’agit d’intégrer.” (One knows, moreover, that by following Lagrange’s method, one obtains for the general value of the principal variable a function in which there appear, together with the principal variable, the roots of a certain equation that I will call the “characteristic equation”, the degree of this equation being precisely the order of the differential equation that must be integrated.)
  3. ^ See:
    • David Hilbert (1904) “Grundzüge einer allgemeinen Theorie der linearen Integralgleichungen. (Erste Mitteilung)” (Fundamentals of a general theory of linear integral equations. (First report)), Nachrichten von der Gesellschaft der Wissenschaften zu Göttingen, Mathematisch-Physikalische Klasse (News of the Philosophical Society at Göttingen, mathematical-physical section), pp. 49–91. From p. 51: “Insbesondere in dieser ersten Mitteilung gelange ich zu Formeln, die die Entwickelung einer willkürlichen Funktion nach gewissen ausgezeichneten Funktionen, die ich ‘Eigenfunktionen’ nenne, liefern: …” (In particular, in this first report I arrive at formulas that provide the [series] development of an arbitrary function in terms of some distinctive functions, which I call eigenfunctions: … ) Later on the same page: “Dieser Erfolg ist wesentlich durch den Umstand bedingt, daß ich nicht, wie es bisher geschah, in erster Linie auf den Beweis für die Existenz der Eigenwerte ausgehe, … “ (This success is mainly attributable to the fact that I do not, as it has happened until now, first of all aim at a proof of the existence of eigenvalues, … )
    • For the origin and evolution of the terms eigenvalue, characteristic value, etc., see: Earliest Known Uses of Some of the Words of Mathematics (E)
  4. ^ Determine the characteristic polynomial of A: | A − λ I | = | a − λ b c d − λ | = ( a − λ ) ( d − λ ) − b c = a d − a λ − d λ + λ 2 − b c = λ 2 − ( a + d ) λ + ( a d − b c ) {displaystyle {begin{aligned}|A-lambda I|&={begin{vmatrix}a-lambda &b\c&d-lambda end{vmatrix}}\&=(a-lambda )(d-lambda )-bc\&=ad-alambda -dlambda +lambda ^{2}-bc\&=lambda ^{2}-(a+d)lambda +(ad-bc)\end{aligned}}} {displaystyle {begin{aligned}|A-lambda I|&={begin{vmatrix}a-lambda &b\c&d-lambda end{vmatrix}}\&=(a-lambda )(d-lambda )-bc\&=ad-alambda -dlambda +lambda ^{2}-bc\&=lambda ^{2}-(a+d)lambda +(ad-bc)\end{aligned}}} {displaystyle {begin{aligned}|A-lambda I|&={begin{vmatrix}a-lambda &b\c&d-lambda end{vmatrix}}\&=(a-lambda )(d-lambda )-bc\&=ad-alambda -dlambda +lambda ^{2}-bc\&=lambda ^{2}-(a+d)lambda +(ad-bc)\end{aligned}}} Use the quadratic formula to find the values of λ: λ = ( a + d ) ± ( a + d ) 2 − 4 ( a d − b c ) 2 = a + d 2 ± ( a + d ) 2 − 4 ( a d − b c ) 2 {displaystyle {begin{aligned}lambda &={frac {(a+d)pm {sqrt {(a+d)^{2}-4(ad-bc)}}}{2}}\&={frac {a+d}{2}}pm {frac {sqrt {(a+d)^{2}-4(ad-bc)}}{2}}end{aligned}}} {displaystyle {begin{aligned}lambda &={frac {(a+d)pm {sqrt {(a+d)^{2}-4(ad-bc)}}}{2}}\&={frac {a+d}{2}}pm {frac {sqrt {(a+d)^{2}-4(ad-bc)}}{2}}end{aligned}}} {displaystyle {begin{aligned}lambda &={frac {(a+d)pm {sqrt {(a+d)^{2}-4(ad-bc)}}}{2}}\&={frac {a+d}{2}}pm {frac {sqrt {(a+d)^{2}-4(ad-bc)}}{2}}end{aligned}}} Simplify radicand: ( a + d ) 2 − 4 ( a d − b c ) = a 2 + 2 a d + d 2 − 4 a d + 4 b c = a 2 − 2 a d + d 2 + 4 b c = ( a − d ) 2 + 4 b c {displaystyle {begin{aligned}&(a+d)^{2}-4(ad-bc)\={}&a^{2}+2ad+d^{2}-4ad+4bc\={}&a^{2}-2ad+d^{2}+4bc\={}&(a-d)^{2}+4bcend{aligned}}} {displaystyle {begin{aligned}&(a+d)^{2}-4(ad-bc)\={}&a^{2}+2ad+d^{2}-4ad+4bc\={}&a^{2}-2ad+d^{2}+4bc\={}&(a-d)^{2}+4bcend{aligned}}} {displaystyle {begin{aligned}&(a+d)^{2}-4(ad-bc)\={}&a^{2}+2ad+d^{2}-4ad+4bc\={}&a^{2}-2ad+d^{2}+4bc\={}&(a-d)^{2}+4bcend{aligned}}} Bring denominator into the square root: λ = a + d 2 ± ( a − d ) 2 + 4 b c 4 = a + d 2 ± 1 4 ( a − d ) 2 + b c {displaystyle {begin{aligned}lambda &={frac {a+d}{2}}pm {sqrt {frac {(a-d)^{2}+4bc}{4}}}\&={frac {a+d}{2}}pm {sqrt {{frac {1}{4}}(a-d)^{2}+bc}}end{aligned}}} {displaystyle {begin{aligned}lambda &={frac {a+d}{2}}pm {sqrt {frac {(a-d)^{2}+4bc}{4}}}\&={frac {a+d}{2}}pm {sqrt {{frac {1}{4}}(a-d)^{2}+bc}}end{aligned}}} {displaystyle {begin{aligned}lambda &={frac {a+d}{2}}pm {sqrt {frac {(a-d)^{2}+4bc}{4}}}\&={frac {a+d}{2}}pm {sqrt {{frac {1}{4}}(a-d)^{2}+bc}}end{aligned}}}
  5. ^ For a proof of this lemma, see Roman 2008, Theorem 8.2 on p. 186; Shilov 1977, p. 109; Hefferon 2001, p. 364; Beezer 2006, Theorem EDELI on p. 469; and Lemma for linear independence of eigenvectors
  6. ^ By doing Gaussian elimination over formal power series truncated to n {displaystyle n} n n terms it is possible to get away with O ( n 4 ) {displaystyle O(n^{4})} O(n^{4}) O(n^{4}) operations, but that does not take combinatorial explosion into account.

Citations

  1. ^ Burden & Faires 1993, p. 401.
  2. ^ a b Herstein 1964, pp. 228, 229.
  3. ^ a b Nering 1970, p. 38.
  4. ^ Weisstein, Eric W. “Eigenvalue”. mathworld.wolfram.com. Retrieved 19 August 2020.
  5. ^ Betteridge 1965.
  6. ^ a b “Eigenvector and Eigenvalue”. www.mathsisfun.com. Retrieved 19 August 2020.
  7. ^ Press et al. 2007, p. 536.
  8. ^ Wolfram.com: Eigenvector.
  9. ^ a b c d Nering 1970, p. 107.
  10. ^ Hawkins 1975, §2.
  11. ^ a b c d Hawkins 1975, §3.
  12. ^ Kline 1972, p. 673.
  13. ^ a b Kline 1972, pp. 807–808.
  14. ^ Kline 1972, pp. 715–716.
  15. ^ Kline 1972, pp. 706–707.
  16. ^ Kline 1972, p. 1063, p..
  17. ^ Aldrich 2006.
  18. ^ Francis 1961, pp. 265–271.
  19. ^ Kublanovskaya 1962.
  20. ^ Golub & Van Loan 1996, §7.3.
  21. ^ Meyer 2000, §7.3.
  22. ^ Cornell University Department of Mathematics (2016) Lower-Level Courses for Freshmen and Sophomores. Accessed on 2016-03-27.
  23. ^ University of Michigan Mathematics (2016) Math Course Catalogue Archived 2015-11-01 at the Wayback Machine. Accessed on 2016-03-27.
  24. ^ Press et al. 2007, p. 38.
  25. ^ Fraleigh 1976, p. 358.
  26. ^ a b c Golub & Van Loan 1996, p. 316.
  27. ^ Anton 1987, pp. 305, 307.
  28. ^ a b Beauregard & Fraleigh 1973, p. 307.
  29. ^ Herstein 1964, p. 272.
  30. ^ Nering 1970, pp. 115–116.
  31. ^ Herstein 1964, p. 290.
  32. ^ Nering 1970, p. 116.
  33. ^ Wolchover 2019.
  34. ^ a b Denton et al. 2022.
  35. ^ Van Mieghem 2014.
  36. ^ Korn & Korn 2000, Section 14.3.5a.
  37. ^ Friedberg, Insel & Spence 1989, p. 217.
  38. ^ Nering 1970, p. 107; Shilov 1977, p. 109 Lemma for the eigenspace
  39. ^ Lipschutz & Lipson 2002, p. 111.
  40. ^ a b c d Trefethen & Bau 1997.
  41. ^ Vellekoop, I. M.; Mosk, A. P. (15 August 2007). “Focusing coherent light through opaque strongly scattering media”. Optics Letters. 32 (16): 2309–2311. Bibcode:2007OptL…32.2309V. doi:10.1364/OL.32.002309. ISSN 1539-4794. PMID 17700768.
  42. ^ a b Rotter, Stefan; Gigan, Sylvain (2 March 2017). “Light fields in complex media: Mesoscopic scattering meets wave control”. Reviews of Modern Physics. 89 (1): 015005. arXiv:1702.05395. Bibcode:2017RvMP…89a5005R. doi:10.1103/RevModPhys.89.015005. S2CID 119330480.
  43. ^ Bender, Nicholas; Yamilov, Alexey; Yılmaz, Hasan; Cao, Hui (14 October 2020). “Fluctuations and Correlations of Transmission Eigenchannels in Diffusive Media”. Physical Review Letters. 125 (16): 165901. arXiv:2004.12167. Bibcode:2020PhRvL.125p5901B. doi:10.1103/physrevlett.125.165901. ISSN 0031-9007. PMID 33124845. S2CID 216553547.
  44. ^ Graham & Midgley 2000, pp. 1473–1477.
  45. ^ Sneed & Folk 1958, pp. 114–150.
  46. ^ Knox-Robinson & Gardoll 1998, p. 243.
  47. ^ Busche, Christian; Schiller, Beate. “Endogene Geologie – Ruhr-Universität Bochum”. www.ruhr-uni-bochum.de.
  48. ^ Benn & Evans 2004, pp. 103–107.
  49. ^ Xirouhakis, Votsis & Delopoulus 2004.
  50. ^ Journal of Mathematical Biology 1990, pp. 365–382.
  51. ^ Heesterbeek & Diekmann 2000.

Sources

  • Aldrich, John (2006), “Eigenvalue, eigenfunction, eigenvector, and related terms”, in Miller, Jeff (ed.), Earliest Known Uses of Some of the Words of Mathematics
  • Anton, Howard (1987), Elementary Linear Algebra (5th ed.), New York: Wiley, ISBN 0-471-84819-0
  • Beauregard, Raymond A.; Fraleigh, John B. (1973), A First Course In Linear Algebra: with Optional Introduction to Groups, Rings, and Fields, Boston: Houghton Mifflin Co., ISBN 0-395-14017-X
  • Beezer, Robert A. (2006), A first course in linear algebra, Free online book under GNU licence, University of Puget Sound
  • Benn, D.; Evans, D. (2004), A Practical Guide to the study of Glacial Sediments, London: Arnold, pp. 103–107
  • Betteridge, Harold T. (1965), The New Cassell’s German Dictionary, New York: Funk & Wagnall, LCCN 58-7924
  • Burden, Richard L.; Faires, J. Douglas (1993), Numerical Analysis (5th ed.), Boston: Prindle, Weber and Schmidt, ISBN 0-534-93219-3
  • Denton, Peter B.; Parke, Stephen J.; Tao, Terence; Zhang, Xining (January 2022). “Eigenvectors from Eigenvalues: A Survey of a Basic Identity in Linear Algebra” (PDF). Bulletin of the American Mathematical Society. 59 (1): 31–58. arXiv:1908.03795. doi:10.1090/bull/1722. S2CID 213918682. Archived (PDF) from the original on 19 January 2022.
  • Diekmann O, Heesterbeek JA, Metz JA (1990), “On the definition and the computation of the basic reproduction ratio R0 in models for infectious diseases in heterogeneous populations”, Journal of Mathematical Biology, 28 (4): 365–382, doi:10.1007/BF00178324, hdl:1874/8051, PMID 2117040, S2CID 22275430
  • Fraleigh, John B. (1976), A First Course In Abstract Algebra (2nd ed.), Reading: Addison-Wesley, ISBN 0-201-01984-1
  • Francis, J. G. F. (1961), “The QR Transformation, I (part 1)”, The Computer Journal, 4 (3): 265–271, doi:10.1093/comjnl/4.3.265
  • Francis, J. G. F. (1962), “The QR Transformation, II (part 2)”, The Computer Journal, 4 (4): 332–345, doi:10.1093/comjnl/4.4.332
  • Friedberg, Stephen H.; Insel, Arnold J.; Spence, Lawrence E. (1989), Linear algebra (2nd ed.), Englewood Cliffs, NJ: Prentice Hall, ISBN 0-13-537102-3
  • Golub, Gene H.; Van Loan, Charles F. (1996), Matrix computations (3rd ed.), Baltimore, MD: Johns Hopkins University Press, ISBN 978-0-8018-5414-9
  • Graham, D.; Midgley, N. (2000), “Graphical representation of particle shape using triangular diagrams: an Excel spreadsheet method”, Earth Surface Processes and Landforms, 25 (13): 1473–1477, Bibcode:2000ESPL…25.1473G, doi:10.1002/1096-9837(200012)25:13<1473::AID-ESP158>3.0.CO;2-C, S2CID 128825838
  • Hawkins, T. (1975), “Cauchy and the spectral theory of matrices”, Historia Mathematica, 2: 1–29, doi:10.1016/0315-0860(75)90032-4
  • Heesterbeek, J. A. P.; Diekmann, Odo (2000), Mathematical epidemiology of infectious diseases, Wiley series in mathematical and computational biology, West Sussex, England: John Wiley & Sons
  • Hefferon, Jim (2001), Linear Algebra, Colchester, VT: Online book, St Michael’s College
  • Herstein, I. N. (1964), Topics In Algebra, Waltham: Blaisdell Publishing Company, ISBN 978-1114541016
  • Kline, Morris (1972), Mathematical thought from ancient to modern times, Oxford University Press, ISBN 0-19-501496-0
  • Knox-Robinson, C.; Gardoll, Stephen J. (1998), “GIS-stereoplot: an interactive stereonet plotting module for ArcView 3.0 geographic information system”, Computers & Geosciences, 24 (3): 243, Bibcode:1998CG…..24..243K, doi:10.1016/S0098-3004(97)00122-2
  • Korn, Granino A.; Korn, Theresa M. (2000), “Mathematical Handbook for Scientists and Engineers: Definitions, Theorems, and Formulas for Reference and Review”, New York: McGraw-Hill (2nd Revised ed.), Bibcode:1968mhse.book…..K, ISBN 0-486-41147-8
  • Kublanovskaya, Vera N. (1962), “On some algorithms for the solution of the complete eigenvalue problem”, USSR Computational Mathematics and Mathematical Physics, 1 (3): 637–657, doi:10.1016/0041-5553(63)90168-X
  • Lipschutz, Seymour; Lipson, Marc (12 August 2002). Schaum’s Easy Outline of Linear Algebra. McGraw Hill Professional. p. 111. ISBN 978-007139880-0.
  • Meyer, Carl D. (2000), Matrix analysis and applied linear algebra, Philadelphia: Society for Industrial and Applied Mathematics (SIAM), ISBN 978-0-89871-454-8
  • Nering, Evar D. (1970), Linear Algebra and Matrix Theory (2nd ed.), New York: Wiley, LCCN 76091646
  • Press, William H.; Teukolsky, Saul A.; Vetterling, William T.; Flannery, Brian P. (2007), Numerical Recipes: The Art of Scientific Computing (3rd ed.), ISBN 978-0521880688
  • Roman, Steven (2008), Advanced linear algebra (3rd ed.), New York: Springer Science + Business Media, ISBN 978-0-387-72828-5
  • Shilov, Georgi E. (1977), Linear algebra, Translated and edited by Richard A. Silverman, New York: Dover Publications, ISBN 0-486-63518-X
  • Sneed, E. D.; Folk, R. L. (1958), “Pebbles in the lower Colorado River, Texas, a study of particle morphogenesis”, Journal of Geology, 66 (2): 114–150, Bibcode:1958JG…..66..114S, doi:10.1086/626490, S2CID 129658242
  • Trefethen, Lloyd N.; Bau, David (1997), Numerical Linear Algebra, SIAM
  • Van Mieghem, Piet (18 January 2014). “Graph eigenvectors, fundamental weights and centrality metrics for nodes in networks”. arXiv:1401.4580 [math.SP].
  • Weisstein, Eric W. “Eigenvector”. mathworld.wolfram.com. Retrieved 4 August 2019.
  • Wolchover, Natalie (13 November 2019). “Neutrinos Lead to Unexpected Discovery in Basic Math”. Quanta Magazine. Retrieved 27 November 2019.
  • Xirouhakis, A.; Votsis, G.; Delopoulus, A. (2004), Estimation of 3D motion and structure of human faces (PDF), National Technical University of Athens

Further reading

  • Golub, Gene F.; van der Vorst, Henk A. (2000), “Eigenvalue Computation in the 20th Century” (PDF), Journal of Computational and Applied Mathematics, 123 (1–2): 35–65, Bibcode:2000JCoAM.123…35G, doi:10.1016/S0377-0427(00)00413-1, hdl:1874/2663
  • Hill, Roger (2009). “λ – Eigenvalues”. Sixty Symbols. Brady Haran for the University of Nottingham.
  • Kuttler, Kenneth (2017), An introduction to linear algebra (PDF), Brigham Young University
  • Strang, Gilbert (1993), Introduction to linear algebra, Wellesley, MA: Wellesley-Cambridge Press, ISBN 0-9614088-5-5
  • Strang, Gilbert (2006), Linear algebra and its applications, Belmont, CA: Thomson, Brooks/Cole, ISBN 0-03-010567-6

External links

Learn more This article’s use of external links may not follow Wikipedia’s policies or guidelines. Please improve this article by removing excessive or inappropriate external links, and converting useful links where appropriate into footnote references. (December 2019) (Learn how and when to remove this template message)
The Wikibook Linear Algebra has a page on the topic of: Eigenvalues and Eigenvectors
  • What are Eigen Values? – non-technical introduction from PhysLink.com’s “Ask the Experts”
  • Eigen Values and Eigen Vectors Numerical Examples – Tutorial and Interactive Program from Revoledu.
  • Introduction to Eigen Vectors and Eigen Values – lecture from Khan Academy
  • Eigenvectors and eigenvalues | Essence of linear algebra, chapter 10 – A visual explanation with 3Blue1Brown
  • Matrix Eigenvectors Calculator from Symbolab (Click on the bottom right button of the 2×12 grid to select a matrix size. Select an n × n {displaystyle ntimes n} ntimes n ntimes n size (for a square matrix), then fill out the entries numerically and click on the Go button. It can accept complex numbers as well.)

Theory

  • Computation of Eigenvalues
  • Numerical solution of eigenvalue problems Edited by Zhaojun Bai, James Demmel, Jack Dongarra, Axel Ruhe, and Henk van der Vorst
You might also like
Leave A Reply

Your email address will not be published.

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More