>[!shitpost] >![[Pasted image 20240325095048.png]] # 1. L'ensemble des matrices >[!definition] >Une matrice c'est un tableau de nombre: >$\begin{pmatrix}a_{1}&\dots&a_{n} \\ \dots&\dots&\dots \\ z_{1}&\dots&z_{n}\end{pmatrix}$ > On aura $M_{ij}$ avec les $i$ pour les lignes et $j$ pour les colonnes. >Et l'ensemble $\mathcal{M}_{np}(\mathbb{R})$ qui décrit les matrices de taille $n,p$ à coefficient réel. >[!exemple] >$\begin{align*} M_{1,p}(\mathbb{R})&= \begin{pmatrix}a&b&c&\dots\end{pmatrix}\\ M_{n,1}(\mathbb{R})&= \begin{pmatrix}a\\ b\\ c\\\dots\end{pmatrix} \end{align*}$ >[!definition] > On aura une matrice diagonale: > $\begin{pmatrix}1&0&0&0 \\ 0&4&0&0 \\ 0&0&-1&0 \\ 0&0&0&10\end{pmatrix}$ >[!definition] >une matrice triangulaire supérieure: > $\begin{pmatrix}1&555&1&420 \\ 0&4&1&5 \\ 0&0&3&-3 \\ 0&0&0&10\end{pmatrix}$ Et inférieure évident. >[!definition] >Une matrice identité est une matrice diagonale avec uniquement des $1$ sur la diagonale. ---- >[!remarque] >Pour une application linéaire, il faut faire __attention à la base__ on aura alors: >$\phi E (\mathcal{B_{E}}) \to F(\mathcal{B_{F}})$ >On aura: $[\phi]_{\mathcal{B_{E}},\mathcal{B_{F}}}\begin{pmatrix}\phi((e_{1})_{B_{E}})& \phi(e_{2})_{B_{E}}&\dots&\phi(e_{n})_{B_{E}}\end{pmatrix}$ ## II Opérations sur les matrices >[!remarque] >Comme en math experte voili voilou ---- >[!propriete] >$ \begin{align*} 1&: A(BC)=(AB)C\\ 2&: A(B+C)=AB+AC \text{ et } (A+B)C=AC+BC\\ 3&: \lambda (A \times B) = \lambda A \times B \\ 4&: AI_{n}=I_{n}A=A\\ 5&: [0]_{?}A=A[0]_{?}=[0]_{?} \end{align*} $ >[!demonstration] >En gros le prof a la flemme car c'est évident. >[!remarque] >$AB\neq BA$ >$AB = 0 \text{ n'implique pas que: } A=0 \text{ ou } B=0$ >[!exemple] >$[\phi]_{Bc,B_{f}} \times [U]_{Bc}=\begin{pmatrix}2&0 \\ 1&1 \\ 0&-1\end{pmatrix} \times \begin{pmatrix}x\\ y\end{pmatrix} = \begin{pmatrix}2x \\ x+y \\ -y\end{pmatrix} = [\phi(u)]_{Bf}$ >[!propriete] >Soient$E$, $F$ et $G$ respectivement dans les bases $B_{E}$,$B_{F}$, $B_{G}$, >$\psi \circ \phi \implies E \to^{\phi} F \to^{\psi} G$ >On aura alors la multiplication des deux matrices comme application finale: >$\psi \circ \phi = [\psi] \times [\phi]$ ## 4] Matrices carrées >[!definition] >Comme en math experte, c'est le même nombre de lignes que de colonnes >[!definition] >__Matrice diagonale__: >$\begin{pmatrix}a&0&0\\0&b&0\\0&0&c\end{pmatrix}$ >[!propriete] >L'ensemble des matrices diagonales est un sev de $\mathcal{M}_{n}(\mathbb{K})$ et est stable par produit matriciel. Somme etc... >[!remarque] >Même bitin pour triangulaire supérieure et inférieure ## Matrice inversible >[!definition] >Soit $A \in M_{n}(\mathbb{K})$ , on dit que $A$ est inversible s'il existe $B \in \mathcal{M}_{n}(\mathbb{K})$ telle que: >$AB=BA=I_{n}$ >Si une telle matrice $B$ existe, elle est unique et on la note $A^{-1}$ >[!demonstration] >Démonstration unique matrice inversible: >$\begin{align*} AB=BA&=I_{n}\\ AC=CA&=I_{n}\\ C(AB)=C(I_{n})&= C\\ (CA)B=(I_{n})B&= B\\ \implies B &= C \end{align*}$ ---- >[!propriete] >Soit: $A,B \in M_{n}(\mathbb{K})$. Si $AB=I_{n}$ >Alors $A$ et $B$ sont inversibles, et $A^{-1}=B$ et $B^{-1}=A$ >[!demonstration] >__Commutativité__: >Il "suffit" de manière "triviale", "facile", et "évidente" de prouver que $AB=I_{n}$ et $BA = I_{n}$. >Réservée pour les personnes qui sortent pas de chez eux, et qui sont fan de math. --- >[!propriete] >Soient $A$ et $B$ dans $\mathcal{M}_{n}(\mathbb{K})$ si $A$ et $B$ inversibles alors $AB$ et $BA$ inversibles et $(AB)^{-1}$ et c'est: $B^{-1}A^{-1}$ >[!warning] >Attention ! $(AB)^{-1}\neq A^{-1}B^{-1}$ >Mais on aura: $(AB)^{-1} = B^{-1}A^{-1}$ >[!demonstration] >$\begin{align*} &= A * B * B^{-1} * A^{-1} = I_{n}\\ &= [A*B] * [B^{-1} * A^{-1}] = I_{n} \\ \end{align*}$ > Ainsi, l'inverse de $A*B$ est $B^{-1}*A^{-1}$ ---- >[!exemple] >Comment calculer $A^{-1}$ ? C'est résoudre un système. Par exemple: >$\begin{align*} A &= \begin{pmatrix}3&1\\2&1\end{pmatrix}\\ AX=X'\\ \begin{pmatrix}3&1\\2&1\end{pmatrix} \times \begin{pmatrix}x\\ y\end{pmatrix} &= \begin{pmatrix}x'\\ y' \end{pmatrix}\\ \Leftrightarrow &\begin{cases} 3x+y &= x' \\ 2x+y &= y' \end{cases}\\&\begin{cases} x=x'-y' \\ y=-2x'+3y' \end{cases}\\ \implies A^{-1} &= \begin{pmatrix}1&-1\\-2&3\end{pmatrix} \end{align*}$ >[!remarque] >En taille 2: >$\begin{pmatrix}a&b\\ c&d\end{pmatrix}$ >On aura: >$A^{-1}= \frac{1}{ad-bc}\begin{pmatrix}d&-b\\ -c & a\end{pmatrix}$ >[!propriete] >Soit $f \in \mathcal{L}(E)$, on suppose $f$ binjective. >Soit $B$ une base de $E$: >$[F]_{B}^{-1}=[F^{-1}]_{B}$ >[!remarque] >Dans 99% des cas on aura des cas simple, sauf que vue que l'on est a l'INSA on aura le 1% dans l'IE ## Puissance ~~des~~ de matrices >[!remarque] >Les puissances ne sont pas ce que l'on penses ! >$(AB)^{2}= ABAB \neq A^{2}B^{2}$ ### Binome de newton >[!remarque] >On __suppose que__: $AB=BA$ On aura: $ \begin{align*} (A+B)^{2}&= (A+B)(A+B)\\ &= A^{2}+AB+BA+B^{2} \end{align*} $ ---- >[!definition] >On a une matrice __nilpotente__ si $\exists p \in \mathbb{N}^{*}, A^{p}=0_{n}$ >Le premier $p$ qui vérifie cette condition est appelé l'ordre (ou l'indice) de nilpotence de $A$. >Et $\forall k \geq p$, $A^{k}=0_{n}$ >[!propriete] >Si $P$ est inversible et que $B=P^{-1}AP$, alors $\forall k \in \mathbb{N}, B^{k}$ >$\begin{align*} B^{0}=I_{n}\\ B^{1}=P^{-1}AP\\ B^{2}=P^{-1}A^{2}P\\ B^{n}=P^{-1}A^{n}P \end{align*}$ # Système de Cramer >[!definition] >On dit qu'un système linéaire à $n$ inconnues et $n$ équations est de Cramer s'il est de rang $n$. >Autrement dit si sa matrice associée $A$ est inversible. ---- >[!theoreme] >Soit: >$E\to^{(f)} F $ >On aura $B_{E}\to B_{E}'$ et $B_{F}\to B_{F'}$. >Alors la matrice: $A=[f]_{B_{E},B_{F}}$ et $A'=[f]_{B'_{E},B_{F}'}$ on aura: >$A'=Q^{-1}AP$ Avec un endomorphisme: >[!theoreme] >$ \begin{align*}f&: &E&&\to& &E\\\\ & &B_{E}&&A={[F]_{B_{E}}}&&B_{E}\\ & &\downarrow&&&&\downarrow \\ & &B_{E}'&&A'={[F]_{B_{E}'}}&&B_{E}'\end{align*}$ Donc: $A'=P^{-1}AP$ ## Matrices semblables >[!definition] >On dit que deux matrices $A$ et $B$ sont semblables s'il existe $P$ inversible, telle que $B$ = $P^{-1}AP$. >[!propriete] >$A$ et $B$ sont semblables si et seulement si $A$ et $B$sont des matrices d'un même endomorphisme écrit dans deux bases. >[!demonstration] >"C'est évident et compliqué" # Complément ## Transposée >[!definition] >Soit $A$ on aura $A^{T}$ la transposée, on aura: >$^{t}A = A_{j,i}$ > ![[Matrix_transpose.gif]] >[!propriete] >On prend deux matrice tout bien tout mignon, on aura: >$(\alpha A + B)^{T}=\alpha A^{T}+ B^{T}$ >$(AB)^{T}= A^{T}B^{T}$ >$A \text{(inversible)} \Leftrightarrow A^{T} \text{(inversible)}$ ## Trace >[!definition] >Soit $A \in M_{n}(\mathbb{K})$