>[!shitpost]
>![[Pasted image 20240325095048.png]]
# 1. L'ensemble des matrices
>[!definition]
>Une matrice c'est un tableau de nombre:
>$\begin{pmatrix}a_{1}&\dots&a_{n} \\
\dots&\dots&\dots \\
z_{1}&\dots&z_{n}\end{pmatrix}$
> On aura $M_{ij}$ avec les $i$ pour les lignes et $j$ pour les colonnes.
>Et l'ensemble $\mathcal{M}_{np}(\mathbb{R})$ qui décrit les matrices de taille $n,p$ à coefficient réel.
>[!exemple]
>$\begin{align*}
M_{1,p}(\mathbb{R})&= \begin{pmatrix}a&b&c&\dots\end{pmatrix}\\
M_{n,1}(\mathbb{R})&= \begin{pmatrix}a\\ b\\ c\\\dots\end{pmatrix}
\end{align*}$
>[!definition]
> On aura une matrice diagonale:
> $\begin{pmatrix}1&0&0&0 \\
0&4&0&0 \\
0&0&-1&0 \\
0&0&0&10\end{pmatrix}$
>[!definition]
>une matrice triangulaire supérieure:
> $\begin{pmatrix}1&555&1&420 \\
0&4&1&5 \\
0&0&3&-3 \\
0&0&0&10\end{pmatrix}$
Et inférieure évident.
>[!definition]
>Une matrice identité est une matrice diagonale avec uniquement des $1$ sur la diagonale.
----
>[!remarque]
>Pour une application linéaire, il faut faire __attention à la base__ on aura alors:
>$\phi E (\mathcal{B_{E}}) \to F(\mathcal{B_{F}})$
>On aura: $[\phi]_{\mathcal{B_{E}},\mathcal{B_{F}}}\begin{pmatrix}\phi((e_{1})_{B_{E}})& \phi(e_{2})_{B_{E}}&\dots&\phi(e_{n})_{B_{E}}\end{pmatrix}$
## II Opérations sur les matrices
>[!remarque]
>Comme en math experte voili voilou
----
>[!propriete]
>$
\begin{align*}
1&: A(BC)=(AB)C\\
2&: A(B+C)=AB+AC \text{ et } (A+B)C=AC+BC\\
3&: \lambda (A \times B) = \lambda A \times B \\
4&: AI_{n}=I_{n}A=A\\
5&: [0]_{?}A=A[0]_{?}=[0]_{?}
\end{align*}
$
>[!demonstration]
>En gros le prof a la flemme car c'est évident.
>[!remarque]
>$AB\neq BA$
>$AB = 0 \text{ n'implique pas que: } A=0 \text{ ou } B=0$
>[!exemple]
>$[\phi]_{Bc,B_{f}} \times [U]_{Bc}=\begin{pmatrix}2&0 \\ 1&1 \\ 0&-1\end{pmatrix} \times \begin{pmatrix}x\\ y\end{pmatrix} = \begin{pmatrix}2x \\ x+y \\ -y\end{pmatrix} = [\phi(u)]_{Bf}$
>[!propriete]
>Soient$E$, $F$ et $G$ respectivement dans les bases $B_{E}$,$B_{F}$, $B_{G}$,
>$\psi \circ \phi \implies E \to^{\phi} F \to^{\psi} G$
>On aura alors la multiplication des deux matrices comme application finale:
>$\psi \circ \phi = [\psi] \times [\phi]$
## 4] Matrices carrées
>[!definition]
>Comme en math experte, c'est le même nombre de lignes que de colonnes
>[!definition]
>__Matrice diagonale__:
>$\begin{pmatrix}a&0&0\\0&b&0\\0&0&c\end{pmatrix}$
>[!propriete]
>L'ensemble des matrices diagonales est un sev de $\mathcal{M}_{n}(\mathbb{K})$ et est stable par produit matriciel. Somme etc...
>[!remarque]
>Même bitin pour triangulaire supérieure et inférieure
## Matrice inversible
>[!definition]
>Soit $A \in M_{n}(\mathbb{K})$ , on dit que $A$ est inversible s'il existe $B \in \mathcal{M}_{n}(\mathbb{K})$ telle que:
>$AB=BA=I_{n}$
>Si une telle matrice $B$ existe, elle est unique et on la note $A^{-1}$
>[!demonstration]
>Démonstration unique matrice inversible:
>$\begin{align*}
AB=BA&=I_{n}\\
AC=CA&=I_{n}\\
C(AB)=C(I_{n})&= C\\
(CA)B=(I_{n})B&= B\\
\implies B &= C
\end{align*}$
----
>[!propriete]
>Soit: $A,B \in M_{n}(\mathbb{K})$. Si $AB=I_{n}$
>Alors $A$ et $B$ sont inversibles, et $A^{-1}=B$ et $B^{-1}=A$
>[!demonstration]
>__Commutativité__:
>Il "suffit" de manière "triviale", "facile", et "évidente" de prouver que $AB=I_{n}$ et $BA = I_{n}$.
>Réservée pour les personnes qui sortent pas de chez eux, et qui sont fan de math.
---
>[!propriete]
>Soient $A$ et $B$ dans $\mathcal{M}_{n}(\mathbb{K})$ si $A$ et $B$ inversibles alors $AB$ et $BA$ inversibles et $(AB)^{-1}$ et c'est: $B^{-1}A^{-1}$
>[!warning]
>Attention ! $(AB)^{-1}\neq A^{-1}B^{-1}$
>Mais on aura: $(AB)^{-1} = B^{-1}A^{-1}$
>[!demonstration]
>$\begin{align*}
&= A * B * B^{-1} * A^{-1} = I_{n}\\
&= [A*B] * [B^{-1} * A^{-1}] = I_{n} \\
\end{align*}$
> Ainsi, l'inverse de $A*B$ est $B^{-1}*A^{-1}$
----
>[!exemple]
>Comment calculer $A^{-1}$ ? C'est résoudre un système. Par exemple:
>$\begin{align*}
A &= \begin{pmatrix}3&1\\2&1\end{pmatrix}\\
AX=X'\\
\begin{pmatrix}3&1\\2&1\end{pmatrix} \times \begin{pmatrix}x\\ y\end{pmatrix} &= \begin{pmatrix}x'\\ y' \end{pmatrix}\\
\Leftrightarrow &\begin{cases}
3x+y &= x' \\
2x+y &= y'
\end{cases}\\&\begin{cases}
x=x'-y' \\
y=-2x'+3y'
\end{cases}\\
\implies A^{-1} &= \begin{pmatrix}1&-1\\-2&3\end{pmatrix}
\end{align*}$
>[!remarque]
>En taille 2:
>$\begin{pmatrix}a&b\\ c&d\end{pmatrix}$
>On aura:
>$A^{-1}= \frac{1}{ad-bc}\begin{pmatrix}d&-b\\ -c & a\end{pmatrix}$
>[!propriete]
>Soit $f \in \mathcal{L}(E)$, on suppose $f$ binjective.
>Soit $B$ une base de $E$:
>$[F]_{B}^{-1}=[F^{-1}]_{B}$
>[!remarque]
>Dans 99% des cas on aura des cas simple, sauf que vue que l'on est a l'INSA on aura le 1% dans l'IE
## Puissance ~~des~~ de matrices
>[!remarque]
>Les puissances ne sont pas ce que l'on penses !
>$(AB)^{2}= ABAB \neq A^{2}B^{2}$
### Binome de newton
>[!remarque]
>On __suppose que__: $AB=BA$
On aura:
$
\begin{align*}
(A+B)^{2}&= (A+B)(A+B)\\
&= A^{2}+AB+BA+B^{2}
\end{align*}
$
----
>[!definition]
>On a une matrice __nilpotente__ si $\exists p \in \mathbb{N}^{*}, A^{p}=0_{n}$
>Le premier $p$ qui vérifie cette condition est appelé l'ordre (ou l'indice) de nilpotence de $A$.
>Et $\forall k \geq p$, $A^{k}=0_{n}$
>[!propriete]
>Si $P$ est inversible et que $B=P^{-1}AP$, alors $\forall k \in \mathbb{N}, B^{k}$
>$\begin{align*}
B^{0}=I_{n}\\
B^{1}=P^{-1}AP\\
B^{2}=P^{-1}A^{2}P\\
B^{n}=P^{-1}A^{n}P
\end{align*}$
# Système de Cramer
>[!definition]
>On dit qu'un système linéaire à $n$ inconnues et $n$ équations est de Cramer s'il est de rang $n$.
>Autrement dit si sa matrice associée $A$ est inversible.
----
>[!theoreme]
>Soit:
>$E\to^{(f)} F $
>On aura $B_{E}\to B_{E}'$ et $B_{F}\to B_{F'}$.
>Alors la matrice: $A=[f]_{B_{E},B_{F}}$ et $A'=[f]_{B'_{E},B_{F}'}$ on aura:
>$A'=Q^{-1}AP$
Avec un endomorphisme:
>[!theoreme]
>$
\begin{align*}f&: &E&&\to& &E\\\\
& &B_{E}&&A={[F]_{B_{E}}}&&B_{E}\\
& &\downarrow&&&&\downarrow \\
& &B_{E}'&&A'={[F]_{B_{E}'}}&&B_{E}'\end{align*}$
Donc:
$A'=P^{-1}AP$
## Matrices semblables
>[!definition]
>On dit que deux matrices $A$ et $B$ sont semblables s'il existe $P$ inversible, telle que $B$ = $P^{-1}AP$.
>[!propriete]
>$A$ et $B$ sont semblables si et seulement si $A$ et $B$sont des matrices d'un même endomorphisme écrit dans deux bases.
>[!demonstration]
>"C'est évident et compliqué"
# Complément
## Transposée
>[!definition]
>Soit $A$ on aura $A^{T}$ la transposée, on aura:
>$^{t}A = A_{j,i}$
>
![[Matrix_transpose.gif]]
>[!propriete]
>On prend deux matrice tout bien tout mignon, on aura:
>$(\alpha A + B)^{T}=\alpha A^{T}+ B^{T}$
>$(AB)^{T}= A^{T}B^{T}$
>$A \text{(inversible)} \Leftrightarrow A^{T} \text{(inversible)}$
## Trace
>[!definition]
>Soit $A \in M_{n}(\mathbb{K})$