Trouver les valeurs propres de l'opérateur données par la matrice. Vecteurs propres et valeurs propres d'un opérateur linéaire

Les matrices diagonales ont la structure la plus simple. La question se pose de savoir s'il est possible de trouver une base dans laquelle la matrice de l'opérateur linéaire aurait une forme diagonale. Une telle base existe.
Donnons-nous un espace linéaire R n et un opérateur linéaire A agissant dans celui-ci ; dans ce cas, l'opérateur A prend R n en lui-même, c'est-à-dire A:R n → R n .

Définition. Un vecteur x non nul est appelé vecteur propre de l'opérateur A si l'opérateur A transforme x en un vecteur colinéaire, c'est-à-dire. Le nombre λ est appelé valeur propre ou valeur propre de l'opérateur A, correspondant au vecteur propre x.
Notons quelques propriétés des valeurs propres et des vecteurs propres.
1. Toute combinaison linéaire de vecteurs propres l'opérateur A correspondant à la même valeur propre λ est un vecteur propre de même valeur propre.
2. Vecteurs propres l'opérateur A avec des valeurs propres deux à deux différentes λ 1 , λ 2 , …, λ m sont linéairement indépendants.
3. Si les valeurs propres λ 1 =λ 2 = λ m = λ, alors la valeur propre λ ne correspond pas à plus de m vecteurs propres linéairement indépendants.

Donc, s’il existe n vecteurs propres linéairement indépendants , correspondant à différentes valeurs propres λ 1, λ 2, ..., λ n, alors elles sont linéairement indépendantes, elles peuvent donc être prises comme base de l'espace R n. Retrouvons la forme de la matrice de l'opérateur linéaire A à base de ses vecteurs propres, pour laquelle nous agirons avec l'opérateur A à base de vecteurs : Alors .
Ainsi, la matrice de l'opérateur linéaire A sur la base de ses vecteurs propres a une forme diagonale, et les valeurs propres de l'opérateur A sont le long de la diagonale.
Existe-t-il une autre base dans laquelle la matrice a une forme diagonale ? La réponse à cette question est donnée par le théorème suivant.

Théorème. La matrice d'un opérateur linéaire A dans la base (i = 1..n) a une forme diagonale si et seulement si tous les vecteurs de la base sont des vecteurs propres de l'opérateur A.

Règle pour trouver les valeurs propres et les vecteurs propres

Soit un vecteur , où x 1 , x 2 , …, x n sont les coordonnées du vecteur x par rapport à la base et x est le vecteur propre de l'opérateur linéaire A correspondant à la valeur propre λ, c'est-à-dire. Cette relation peut s'écrire sous forme matricielle

. (*)


L'équation (*) peut être considérée comme une équation pour trouver x, et , c'est-à-dire que nous nous intéressons aux solutions non triviales, puisque le vecteur propre ne peut pas être nul. On sait que les solutions non triviales d'un système homogène équations linéaires existe si et seulement si det(A - λE) = 0. Ainsi, pour que λ soit une valeur propre de l'opérateur A il faut et suffisant que det(A - λE) = 0.
Si l'équation (*) est écrite en détail sous forme de coordonnées, alors nous obtenons un système de équations homogènes:

(1)
- matrice d'opérateur linéaire.

Le système (1) a une solution non nulle si son déterminant D est égal à zéro


Nous avons reçu une équation pour trouver les valeurs propres.
Cette équation est appelée équation caractéristique, et son côté gauche est appelé polynôme caractéristique de la matrice (opérateur) A. Si le polynôme caractéristique n'a pas de racines réelles, alors la matrice A n'a pas de vecteurs propres et ne peut pas être réduite à une forme diagonale.
Soit λ 1, λ 2, …, λ n les racines réelles de l'équation caractéristique, et parmi elles il peut y avoir des multiples. En substituant ces valeurs tour à tour dans le système (1), on trouve les vecteurs propres.

Exemple 12. L'opérateur linéaire A agit dans R 3 selon la loi, où x 1, x 2, .., x n sont les coordonnées du vecteur dans la base , , . Trouvez les valeurs propres et les vecteurs propres de cet opérateur.
Solution. On construit la matrice de cet opérateur :
.
Nous créons un système pour déterminer les coordonnées des vecteurs propres :

Nous composons une équation caractéristique et la résolvons :

.
λ 1,2 = -1, λ 3 = 3.
En substituant λ = -1 dans le système, nous avons :
ou
Parce que , alors il y a deux variables dépendantes et une variable libre.
Soit x 1 une inconnue libre, alors Nous résolvons ce système de quelque manière que ce soit et trouvons décision commune de ce système : Le système fondamental de solutions est constitué d'une seule solution, puisque n - r = 3 - 2 = 1.
L'ensemble des vecteurs propres correspondant à la valeur propre λ = -1 a la forme : , où x 1 est tout nombre autre que zéro. Choisissons un vecteur dans cet ensemble, par exemple en mettant x 1 = 1 : .
En raisonnant de la même manière, on trouve le vecteur propre correspondant à la valeur propre λ = 3 : .
Dans l'espace R 3, la base est constituée de trois vecteurs linéairement indépendants, mais nous n'avons reçu que deux vecteurs propres linéairement indépendants, à partir desquels la base dans R 3 ne peut pas être composée. Par conséquent, on ne peut pas réduire la matrice A d’un opérateur linéaire à une forme diagonale.

Exemple 13. Étant donné une matrice .
1. Prouver que le vecteur est un vecteur propre de la matrice A. Trouver la valeur propre correspondant à ce vecteur propre.
2. Trouvez une base dans laquelle la matrice A a une forme diagonale.
Solution.
1. Si , alors x est un vecteur propre

.
Le vecteur (1, 8, -1) est un vecteur propre. Valeur propre λ = -1.
La matrice a une forme diagonale dans une base constituée de vecteurs propres. L'un d'eux est célèbre. Trouvons le reste.
Nous recherchons les vecteurs propres du système :

Équation caractéristique : ;
(3 + λ)[-2(2-λ)(2+λ)+3] = 0; (3+λ)(λ 2 - 1) = 0
λ 1 = -3, λ 2 = 1, λ 3 = -1.
Trouvons le vecteur propre correspondant à la valeur propre λ = -3 :

Le rang de la matrice de ce système est deux et égal au nombre d'inconnues, donc ce système n'a qu'une solution nulle x 1 = x 3 = 0. x 2 ici peut être autre chose que zéro, par exemple, x 2 = 1. Ainsi, le vecteur (0 ,1,0) est un vecteur propre correspondant à λ = -3. Allons vérifier:
.
Si λ = 1, alors on obtient le système
Le rang de la matrice est deux. Nous biffons la dernière équation.
Soit x 3 une inconnue libre. Alors x 1 = -3x 3, 4x 2 = 10x 1 - 6x 3 = -30x 3 - 6x 3, x 2 = -9x 3.
En supposant x 3 = 1, nous avons (-3,-9,1) - un vecteur propre correspondant à la valeur propre λ = 1. Vérifiez :

.
Puisque les valeurs propres sont réelles et distinctes, les vecteurs qui leur correspondent sont linéairement indépendants, ils peuvent donc être pris comme base dans R 3 . Ainsi, sur la base , , la matrice A a la forme :
.
Toutes les matrices d'un opérateur linéaire A:R n → R n ne peuvent pas être réduites à une forme diagonale, car pour certains opérateurs linéaires, il peut y avoir moins de n vecteurs propres indépendants linéaires. Cependant, si la matrice est symétrique, alors la racine de l'équation caractéristique de multiplicité m correspond exactement à m vecteurs linéairement indépendants.

Définition. Une matrice symétrique s'appelle Matrice Carrée, dans lequel les éléments symétriques par rapport à la diagonale principale sont égaux, c'est-à-dire dans lequel .
Remarques. 1. Toutes les valeurs propres d'une matrice symétrique sont réelles.
2. Les vecteurs propres d'une matrice symétrique correspondant à des valeurs propres deux à deux différentes sont orthogonaux.
Comme l'une des nombreuses applications de l'appareil étudié, nous considérons le problème de la détermination du type d'une courbe du second ordre.

Définition: Soit L une donnée n- espace linéaire dimensionnel. Un vecteur L non nul est appelé vecteur propre transformation linéaire A, s'il existe un nombre tel que l'égalité soit vraie :

UN
(7.1)

Dans ce cas, le nombre  est appelé valeur propre (numéro caractéristique) transformation linéaire A correspondant au vecteur .

Déplacer le côté droit de (7.1) vers la gauche et prendre en compte la relation
, on réécrit (7.1) sous la forme

(7.2)

L'équation (7.2) est équivalente à un système d'équations linéaires homogènes :

(7.3)

Pour l'existence d'une solution non nulle du système d'équations linéaires homogènes (7.3), il faut et suffisant que le déterminant des coefficients de ce système soit égal à zéro, c'est-à-dire

|A-λE|=
(7.4)

Ce déterminant est un polynôme du nième degré par rapport à λ et est appelé polynôme caractéristique transformation linéaire A, et équation (7.4) - équation caractéristique matrice A.

Définition: Si une transformation linéaire A dans une certaine base ,,…,a la matrice A =
, alors les valeurs propres de la transformation linéaire A peuvent être trouvées comme les racines  1 ,  2 , … ,  n de l'équation caractéristique :

Considérons cas particulier . Soit A une transformation linéaire du plan dont la matrice est égale à
. Alors la transformation A peut être donnée par les formules :


;

sur une certaine base
.

Si une transformation A a un vecteur propre de valeur propre , alors A
.

ou

Parce que vecteur propre non nul, alors x 1 et x 2 ne sont pas égaux à zéro en même temps. Parce que Si ce système est homogène, alors pour qu'il ait une solution non triviale, le déterminant du système doit être égal à zéro. Sinon, selon la règle de Cramer, le système a une solution unique : zéro, ce qui est impossible.

L'équation résultante est équation caractéristique de la transformation linéaire A.

Ainsi, on peut trouver le vecteur propre (x 1, x 2) transformation linéaire A avec une valeur propre, où est la racine de l'équation caractéristique, et x 1 et x 2 sont les racines du système d'équations lorsque la valeur y est substituée.

Il est clair que si l’équation caractéristique n’a pas de racines réelles, alors la transformation linéaire A n’a pas de vecteurs propres.

Il convient de noter que si est le vecteur propre de la transformation A, alors tout vecteur colinéaire à celui-ci est également un vecteur propre de même valeur propre.

Vraiment,. Si l'on tient compte du fait que les vecteurs ont la même origine, alors ces vecteurs forment ce qu'on appelle propre direction ou propre ligne.

Parce que l'équation caractéristique peut avoir deux racines réelles différentes  1 et  2, alors dans ce cas, en les substituant dans le système d'équations, on obtient un nombre infini de solutions. (Parce que les équations sont linéairement dépendantes). Cet ensemble de solutions détermine deux propres lignes.

Si l'équation caractéristique a deux racines égales 1 = 2 =, alors soit il n'y a qu'une seule droite propre, soit si, lorsqu'elle est substituée dans le système, elle se transforme en un système de la forme :
. Ce système satisfait toutes les valeurs de x 1 et x 2. Alors tous les vecteurs seront des vecteurs propres, et une telle transformation est appelée transformation de similarité.

Exemple.
.

Exemple. Trouver les nombres caractéristiques et les vecteurs propres d'une transformation linéaire avec la matrice A =
.

Écrivons la transformation linéaire sous la forme :

Créons une équation caractéristique :

 2 - 4+ 4 = 0;

Racines de l'équation caractéristique :  1 = 2 = 2 ;

On a:

Le système produit une dépendance : X 1 X 2 = 0. Les vecteurs propres de la première racine de l'équation caractéristique ont les coordonnées : ( t ; t ) t- paramètre.

Le vecteur propre peut s'écrire :
.

Considérons-en un autre cas particulier. Si est le vecteur propre d'une transformation linéaire A spécifiée dans un espace linéaire tridimensionnel, et x 1, x 2, x 3 sont les composantes de ce vecteur dans une certaine base
, Que

où  est la valeur propre (numéro caractéristique) de la transformation A.

Si la matrice de transformation linéaire A a la forme :

, Que

Équation caractéristique :

En développant le déterminant, nous obtenons une équation cubique pour . Toute équation cubique à coefficients réels possède une ou trois racines réelles.

Alors toute transformation linéaire dans l’espace tridimensionnel a des vecteurs propres.

Exemple. Trouver les nombres caractéristiques et les vecteurs propres de la transformation linéaire A, matrice de transformation linéaire A = .

Exemple. Trouver les nombres caractéristiques et les vecteurs propres de la transformation linéaire A, matrice de transformation linéaire A =
.

Créons une équation caractéristique :

-(3 + )((1 -)(2 -) – 2) + 2(4 - 2- 2) - 4(2 - 1 +) = 0

-(3 + )(2 -- 2+ 2 - 2) + 2(2 - 2) - 4(1 +) = 0

-(3 + )( 2 - 3) + 4 - 4- 4 - 4= 0

3 2 + 9- 3 + 3 2 - 8= 0

 1 = 0; 2 = 1; 3 = -1;

Pour  1 = 0 :

Si on prend x 3 = 1, on obtient x 1 = 0, x 2 = -2

Vecteurs propres
t, où t est un paramètre.

De même, vous pouvez trouver Et pour  2 et  3 .

Le vecteur X ≠ 0 est appelé vecteur propre opérateur linéaire de matrice A, s'il existe un nombre tel que AX =X.

Dans ce cas, le numéro  est appelé valeur propre opérateur (matrice A) correspondant au vecteur x.

En d'autres termes, un vecteur propre est un vecteur qui, sous l'action d'un opérateur linéaire, se transforme en vecteur colinéaire, c'est-à-dire multipliez simplement par un certain nombre. En revanche, les vecteurs impropres sont plus complexes à transformer.

Écrivons la définition d'un vecteur propre sous la forme d'un système d'équations :

Déplaçons tous les termes vers la gauche :

Ce dernier système peut s’écrire sous forme matricielle comme suit :

(UNE - E)X = O

Le système résultant a toujours une solution nulle X = O. De tels systèmes dans lesquels tous les termes libres sont égaux à zéro sont appelés homogène. Si la matrice d’un tel système est carrée et que son déterminant n’est pas égal à zéro, alors en utilisant les formules de Cramer, nous obtiendrons toujours une solution unique – zéro. On peut prouver qu'un système a des solutions non nulles si et seulement si le déterminant de cette matrice est égal à zéro, c'est-à-dire

|A - E| = = 0

Cette équation à inconnue s’appelle équation caractéristique(polynôme caractéristique) matrice A (opérateur linéaire).

On peut prouver que le polynôme caractéristique d'un opérateur linéaire ne dépend pas du choix de la base.

Par exemple, trouvons les valeurs propres et les vecteurs propres de l'opérateur linéaire défini par la matrice A = .

Pour ce faire, créons une équation caractéristique |A - E| = = (1 -) 2 – 36 = 1 – 2+ 2 - 36 = 2 – 2- 35 ; D = 4 + 140 = 144 ; valeurs propres 1 = (2 - 12)/2 = -5 ; 2 = (2 + 12)/2 = 7.

Pour trouver les vecteurs propres, nous résolvons deux systèmes d'équations

(A + 5E)X = O

(UNE - 7E)X = O

Pour le premier d’entre eux, la matrice développée prend la forme

,

d'où x 2 = c, x 1 + (2/3)c = 0 ; x 1 = -(2/3)s, c'est-à-dire X (1) = (-(2/3)s;s).

Pour le second d’entre eux, la matrice développée prend la forme

,

d'où x 2 = c 1, x 1 - (2/3)c 1 = 0 ; x 1 = (2/3)s 1, c'est-à-dire X (2) = ((2/3)s 1; s 1).

Ainsi, les vecteurs propres de cet opérateur linéaire sont tous les vecteurs de la forme (-(2/3)с; с) de valeur propre (-5) et tous les vecteurs de la forme ((2/3)с 1 ; с 1) de valeur propre 7 .

On peut prouver que la matrice de l'opérateur A dans la base constituée de ses vecteurs propres est diagonale et a la forme :

,

où  i sont les valeurs propres de cette matrice.

L'inverse est également vrai : si la matrice A dans une base est diagonale, alors tous les vecteurs de cette base seront des vecteurs propres de cette matrice.

On peut également prouver que si un opérateur linéaire a n valeurs propres distinctes deux à deux, alors les vecteurs propres correspondants sont linéairement indépendants et la matrice de cet opérateur dans la base correspondante a une forme diagonale.

Valeurs propres (nombres) et vecteurs propres.
Exemples de solutions

Sois toi-même


Des deux équations, il résulte que .

Disons-le alors : .

Par conséquent: – deuxième vecteur propre.

Répétons les points importants solutions:

– le système résultant a certainement une solution générale (les équations sont linéairement dépendantes) ;

– on sélectionne le « y » de telle sorte qu’il soit entier et que la première coordonnée « x » soit entière, positive et la plus petite possible.

– on vérifie que la solution particulière satisfait chaque équation du système.

Répondre .

Il y avait assez de « points de contrôle » intermédiaires, donc vérifier l’égalité est, en principe, inutile.

Dans diverses sources d'information, les coordonnées des vecteurs propres sont souvent écrites non pas en colonnes, mais en lignes, par exemple : (et, pour être honnête, j'ai moi-même l'habitude de les écrire en lignes). Cette option est acceptable, mais à la lumière du sujet transformations linéaires techniquement plus pratique à utiliser vecteurs de colonne.

Peut-être que la solution vous a semblé très longue, mais c'est uniquement parce que j'ai commenté le premier exemple de manière très détaillée.

Exemple 2

Matrices

Entraîneons-nous seuls ! Un exemple approximatif d'une tâche finale à la fin de la leçon.

Parfois, vous devez effectuer une tâche supplémentaire, à savoir :

écrire la décomposition matricielle canonique

Ce que c'est?

Si les vecteurs propres de la matrice forment base, alors il peut être représenté comme suit :

Où est une matrice composée de coordonnées de vecteurs propres, – diagonale matrice avec les valeurs propres correspondantes.

Cette décomposition matricielle est appelée canonique ou diagonale.

Regardons la matrice du premier exemple. Ses vecteurs propres linéairement indépendant(non colinéaires) et forment une base. Créons une matrice de leurs coordonnées :

Sur diagonale principale matrices dans l'ordre approprié les valeurs propres sont localisées, et les éléments restants sont égaux à zéro :
– J'insiste encore une fois sur l'importance de l'ordre : « deux » correspond au 1er vecteur et se situe donc dans la 1ère colonne, « trois » – au 2ème vecteur.

Utiliser l'algorithme habituel pour trouver matrice inverse ou Méthode Gauss-Jordan nous trouvons . Non, ce n'est pas une faute de frappe ! - devant toi c'est rare, comme éclipse solaire un événement où l'inverse coïncide avec la matrice d'origine.

Il reste à écrire la décomposition canonique de la matrice :

Le système peut être résolu à l'aide de transformations élémentaires et dans les exemples suivants nous recourrons à cette méthode. Mais ici, la méthode « scolaire » fonctionne beaucoup plus rapidement. A partir de la 3ème équation on exprime : – substituer dans la deuxième équation :

Puisque la première coordonnée est zéro, nous obtenons un système, de chaque équation dont il résulte que .

Et encore faites attention à la présence obligatoire d'une relation linéaire. Si seulement une solution triviale est obtenue , alors soit la valeur propre a été trouvée incorrectement, soit le système a été compilé/résolu avec une erreur.

Les coordonnées compactes donnent la valeur

Vecteur propre :

Et encore une fois, on vérifie que la solution trouvée satisfait toutes les équations du système. Dans les paragraphes suivants et dans les tâches ultérieures, je recommande de prendre ce souhait comme règle impérative.

2) Pour la valeur propre, en utilisant le même principe, on obtient le système suivant :

A partir de la 2ème équation du système on exprime : – substituer dans la troisième équation :

Puisque la coordonnée « zêta » est égale à zéro, on obtient un système à partir de chaque équation dont découle une dépendance linéaire.

Laisser

Vérifier que la solution satisfait toutes les équations du système.

Ainsi, le vecteur propre est : .

3) Et enfin, le système correspond à la valeur propre :

La deuxième équation semble la plus simple, alors exprimons-la et substituons-la dans les 1ère et 3ème équations :

Tout va bien - une relation linéaire est apparue, que nous substituons dans l'expression :

En conséquence, « x » et « y » étaient exprimés par « z » : . En pratique, il n'est pas nécessaire d'établir précisément de telles relations ; dans certains cas, il est plus pratique d'exprimer à la fois à travers ou et à travers . Ou même « entraîner » - par exemple, « X » à « I » et « I » à « Z »

Disons-le alors :

On vérifie que la solution trouvée satisfait chaque équation du système et écrit le troisième vecteur propre

Répondre: vecteurs propres :

Géométriquement, ces vecteurs définissent trois directions spatiales différentes ("Et retour à nouveau"), selon lequel transformation linéaire transforme les vecteurs non nuls (vecteurs propres) en vecteurs colinéaires.

Si la condition nécessitait de trouver la décomposition canonique, alors cela est possible ici, car différentes valeurs propres correspondent à différents vecteurs propres linéairement indépendants. Faire une matrice à partir de leurs coordonnées, une matrice diagonale depuis pertinent valeurs propres et trouver matrice inverse .

Si, par condition, vous devez écrire matrice de transformation linéaire à base de vecteurs propres, puis nous donnons la réponse sous la forme . Il y a une différence, et la différence est significative ! Car cette matrice est la matrice « de ».

Un problème avec des calculs plus simples pour décision indépendante:

Exemple 5

Trouver les vecteurs propres d'une transformation linéaire donnée par une matrice

Lorsque vous trouvez vos propres nombres, essayez de ne pas aller jusqu'au polynôme du 3ème degré. De plus, vos solutions système peuvent différer de mes solutions - il n'y a aucune certitude ici ; et les vecteurs que vous trouvez peuvent différer des vecteurs échantillons jusqu'à la proportionnalité de leurs coordonnées respectives. Par exemple, et. Il est plus esthétique de présenter la réponse sous la forme, mais ce n'est pas grave si vous vous arrêtez à la deuxième option. Cependant, il y a des limites raisonnables à tout ; la version n'a plus l'air très bonne.

Un échantillon final approximatif du devoir à la fin de la leçon.

Comment résoudre le problème dans le cas de valeurs propres multiples ?

Algorithme général reste le même, mais il a ses propres caractéristiques, et il est conseillé de conserver certaines parties de la solution dans un style académique plus strict :

Exemple 6

Trouver les valeurs propres et les vecteurs propres

Solution

Bien sûr, mettons en majuscule la fabuleuse première colonne :

Et, après factorisation du trinôme quadratique :

En conséquence, des valeurs propres sont obtenues, dont deux multiples.

Trouvons les vecteurs propres :

1) Traitons un soldat seul selon un schéma « simplifié » :

A partir des deux dernières équations, l'égalité est clairement visible, qui, évidemment, doit être substituée dans la 1ère équation du système :

Meilleure combinaison impossible de trouver :
Vecteur propre :

2-3) Maintenant, nous supprimons quelques sentinelles. Dans ce cas, il peut s'avérer soit deux, soit un vecteur propre. Quelle que soit la multiplicité des racines, on substitue la valeur au déterminant ce qui nous amène au prochain système homogène d'équations linéaires:

Les vecteurs propres sont exactement des vecteurs
système fondamental de solutions

En fait, pendant toute la leçon, nous n’avons fait que trouver les vecteurs du système fondamental. C’est juste que pour le moment, ce terme n’était pas particulièrement demandé. Au fait, ces étudiants intelligents qui ont raté le sujet en tenue de camouflage équations homogènes, sera obligé de le fumer maintenant.


La seule action consistait à supprimer les lignes supplémentaires. Le résultat est une matrice un par trois avec une « étape » formelle au milieu.
– variable de base, – variables libres. Il y a deux variables libres, donc il existe aussi deux vecteurs du système fondamental.

Exprimons la variable de base en termes de variables libres : . Le multiplicateur zéro devant le « X » lui permet de prendre absolument n'importe quelle valeur (ce qui est clairement visible depuis le système d'équations).

Dans le contexte de ce problème, il est plus pratique d'écrire la solution générale non pas dans une ligne, mais dans une colonne :

Le couple correspond à un vecteur propre :
Le couple correspond à un vecteur propre :

Note : les lecteurs avertis peuvent sélectionner ces vecteurs oralement - simplement en analysant le système , mais quelques connaissances sont nécessaires ici : il y a trois variables, rang de la matrice du système- un, ce qui signifie système de décision fondamental se compose de 3 – 1 = 2 vecteurs. Cependant, les vecteurs trouvés sont clairement visibles même sans cette connaissance, à un niveau purement intuitif. Dans ce cas, le troisième vecteur s'écrira encore plus « joliment » : . Cependant, je vous préviens que dans un autre exemple, une simple sélection pourrait ne pas être possible, c'est pourquoi la clause s'adresse à des personnes expérimentées. De plus, pourquoi ne pas prendre, disons, comme troisième vecteur ? Après tout, ses coordonnées satisfont également chaque équation du système, et les vecteurs linéairement indépendant. Cette option, en principe, est appropriée, mais « tordue », puisque « l'autre » vecteur est une combinaison linéaire de vecteurs du système fondamental.

Répondre: valeurs propres : , vecteurs propres :

Un exemple similaire pour une solution indépendante :

Exemple 7

Trouver les valeurs propres et les vecteurs propres

Un échantillon approximatif de la conception finale à la fin de la leçon.

Il convient de noter que dans les 6ème et 7ème exemples, un triplet de vecteurs propres linéairement indépendants est obtenu, et donc la matrice originale est représentable dans la décomposition canonique. Mais de telles framboises n'arrivent pas dans tous les cas :

Exemple 8


Solution: Créons et résolvons l’équation caractéristique :

Développons le déterminant dans la première colonne :

Nous procédons à des simplifications supplémentaires selon la méthode considérée, en évitant le polynôme du troisième degré :

– les valeurs propres.

Trouvons les vecteurs propres :

1) Il n'y a aucune difficulté avec la racine :

Ne soyez pas surpris, en plus du kit, des variables sont également utilisées - il n'y a pas de différence ici.

À partir de la 3ème équation, nous l'exprimons et la substituons dans les 1ère et 2ème équations :

Des deux équations il résulte :

Soit alors :

2-3) Pour plusieurs valeurs on obtient le système .

Écrivons la matrice du système et, à l'aide de transformations élémentaires, mettons-la sous une forme pas à pas :

L'opérateur linéaire le plus simple est la multiplication d'un vecteur par un nombre \(\lambda\). Cet opérateur étend simplement tous les vecteurs de \(\lambda \) fois. Sa forme matricielle dans n'importe quelle base est \(diag(\lambda ,\lambda ,...,\lambda)\). Pour plus de précision, nous fixons la base \(\(e\)\) dans l'espace vectoriel \(\mathit(L)\) et considérons un opérateur linéaire avec une forme matricielle diagonale dans cette base, \(\alpha = diag( \lambda _1,\lambda _2,...,\lambda _n)\). Cet opérateur, selon la définition de la forme matricielle, étend \(e_k\) de \(\lambda _k\) fois, c'est-à-dire \(Ae_k=\lambda _ke_k\) pour tout \(k=1,2,...,n\). Il est pratique de travailler avec des matrices diagonales ; le calcul fonctionnel est simple à construire pour elles : pour toute fonction \(f(x)\) on peut mettre \(f(diag(\lambda _1,\lambda _2,..., \lambda _n))= diag(f(\lambda _1),f(\lambda _2),...,f(\lambda _n))\). Ainsi se pose question naturelle: qu'il y ait un opérateur linéaire \(A\), est-il possible de choisir une base dans l'espace vectoriel telle que la forme matricielle de l'opérateur \(A\) soit diagonale dans cette base ? Cette question conduit à la définition de valeurs propres et de vecteurs propres.

Définition. Soit pour l'opérateur linéaire \(A\) il existe vecteur non nul\(u\) et un nombre \(\lambda \) tel que \[ Au=\lambda \cdot u. \quad \quad(59) \] Alors le vecteur \(u\) est appelé vecteur propre opérateur \(A\), et le nombre \(\lambda \) - le correspondant valeur propre opérateur \(A\). L'ensemble de toutes les valeurs propres s'appelle spectre de l'opérateur linéaire \(UN\).

Un problème naturel se pose : trouver pour un opérateur linéaire donné ses valeurs propres et les vecteurs propres correspondants. Ce problème est appelé problème du spectre d’un opérateur linéaire.

Équation aux valeurs propres

Pour plus de précision, nous fixons la base dans l'espace vectoriel, c'est-à-dire Nous supposerons qu'il est donné une fois pour toutes. Ensuite, comme indiqué ci-dessus, la considération des opérateurs linéaires peut être réduite à la considération des matrices - formes matricielles des opérateurs linéaires. On réécrit l'équation (59) sous la forme \[ (\alpha -\lambda E)u=0. \] Ici \(E\) est la matrice d'identité, et \(\alpha\) est la forme matricielle de notre opérateur linéaire \(A\). Cette relation peut être interprétée comme un système d'équations linéaires \(n\) pour des inconnues \(n\) - les coordonnées du vecteur \(u\). Et ça système homogèneéquations, et nous devrions le trouver non trivial solution. Auparavant, une condition pour l'existence d'une telle solution était posée - pour cela il est nécessaire et suffisant que le rang du système soit moins de nombre inconnu. Cela implique l'équation pour les valeurs propres : \[ det(\alpha -\lambda E)=0. \quad \quad(60) \]

Définition. L'équation (60) est appelée équation caractéristique pour l'opérateur linéaire \(A\).

Décrivons les propriétés de cette équation et ses solutions. Si nous l'écrivons explicitement, nous obtenons une équation de la forme \[ (-1)^n\lambda ^n+...+det(A)=0. \quad \quad(61) \] Sur le côté gauche il y a un polynôme dans la variable \(\lambda \). De telles équations sont appelées algébriques de degré \(n\). Donne moi information nécessaire sur ces équations.

Aide sur les équations algébriques.

Théorème. Soit toutes les valeurs propres de l'opérateur linéaire \(A\) premières. Ensuite, l'ensemble des vecteurs propres correspondant à ces valeurs propres constitue la base de l'espace vectoriel.

Des conditions du théorème, il s'ensuit que toutes les valeurs propres de l'opérateur \(A\) sont différentes. Supposons que l'ensemble des vecteurs propres soit linéairement dépendant, de sorte qu'il existe des constantes \(c_1,c_2,...,c_n\), qui ne sont pas toutes nulles, satisfaisant la condition : \[ \sum_(k=1)^ nc_ku_k=0. \quad \quad(62) \]

Parmi ces formules, considérons-en une qui inclut le nombre minimum de termes et agissons sur elle avec l'opérateur \(A\). De par sa linéarité, on obtient : \[ A\left (\sum_(k=1)^nc_ku_k \right)=\sum_(k=1)^nc_kAu_k=\sum_(k=1)^nc_k\lambda _ku_k= 0. \quad \quad(63) \]

Soit, pour être précis, \(c_1 \neq 0\). En multipliant (62) par \(\lambda _1\) et en soustrayant de (63), on obtient une relation de la forme (62), mais contenant un terme de moins. La contradiction prouve le théorème.

Ainsi, dans les conditions du théorème, une base apparaît associée à un opérateur linéaire donné - la base de ses vecteurs propres. Considérons la forme matricielle de l'opérateur dans une telle base. Comme mentionné ci-dessus, la \(k\)ième colonne de cette matrice est la décomposition du vecteur \(Au_k\) par rapport à la base. Or, par définition, \(Au_k=\lambda _ku_k\), donc ce développement (ce qui est écrit à droite) ne contient qu'un seul terme et la matrice construite s'avère être diagonale. En conséquence, on trouve que dans les conditions du théorème, la forme matricielle de l'opérateur en fonction de ses vecteurs propres est égale à \(diag(\lambda _1,\lambda _2,...,\lambda _n)\ ). Par conséquent, s’il est nécessaire de développer le calcul fonctionnel pour un opérateur linéaire, il est raisonnable de travailler sur la base de ses vecteurs propres.

Si parmi les valeurs propres d'un opérateur linéaire il y a des multiples, la description de la situation devient plus compliquée et peut inclure ce qu'on appelle les cellules de Jordan. Nous renvoyons le lecteur à des tutoriels plus avancés pour des situations pertinentes.