Hello visiteur mon site utilise des cookies pour les statistiques de fréquentation!

Page sur les différentes matrice mathématique

Théorème de flux-divergence

En analyse vectorielle, le théorème de flux-divergence, appelé aussi théorème de Green-Ostrogradski, affirme l'égalité entre l'intégrale de la divergence d'un champ vectoriel sur un volume dans ℜ³ et le flux de ce champ à travers la frontière du volume qui est une intégrale de surface.
L'égalité est la suivante
Détail
v : est le volume
∂v : est la frontière de v
dS : est le vecteur normal à la surface, dirigé vers l'extérieur et de longueur égale à l'élément de surface qu'il représente
F : est continument dérivable en tout point de V
Ce théorème découle du théorème de Stokes qui, lui-même, généralise le Théorème fondamental de l'analyse.
Interprétation physique
C'est un résultat important en physique mathématique, en particulier en électrostatique et en dynamique des fluides, où ce théorème reflète uneloi de conservation. Selon son signe, la divergence exprime la dispersion ou la concentration d'une grandeur telle une masse par exemple et le théorème précédent indique qu'une dispersion au sein d'un volume s'accompagne nécessairement d'un flux total équivalent sortant de sa frontière.
Ce théorème permet notamment de retrouver la version intégrale du théorème de Gauss en électromagnétisme à partir de l'équation de Maxwell-Gauss : div E = ρ / ε0
Autres relations
Ce théorème permet de déduire certaines formules utiles du calcul vectoriel
Dans les expressions ci-dessous






Théorème de Gauss

En électromagnétisme, le théorème de Gauss permet de calculer le flux d'un champ électrique à travers une surface compte tenu de la répartition des charges. Il est dû à Carl Friedrich Gauss.
Le flux du champ électrique à travers une surface S fermée est égal à la somme des charges contenues dans le volume V délimité par cette surface divisée par ε0, la permittivité du vide.
Cette équation est la forme intégrale de l'équation de Maxwell-Gauss :
Détail
L'intégrale du flux est largement simplifiée si l'on prend une surface de Gauss adéquate. Celle-ci dépend de la symétrie de la répartition des charges. Il existe trois symétries très utilisées.
Distribution sphérique
Distribution cylindrique
Distribution plane
C'est une propriété générale en physique provenant du principe de Curie : les effets ont, au moins, les mêmes symétries que les causes.

Théorème de Stokes

En mathématiques et plus particulièrement en géométrie différentielle, le théorème de Stokes est un résultat central sur l'intégration des formes différentielles, qui généralise le théorème fondamental de l'intégration, ainsi que de nombreux théorèmes d'analyse vectorielle. Il possède de multiples applications, fournissant ainsi un formulaire qu'utilisent volontiers physiciens et ingénieurs, particulièrement en mécanique des fluides.
Le théorème est attribué à Sir George Gabriel Stokes, mais le premier à découvrir ce résultat est en réalité Lord Kelvin. Le mathématicien et le physicien entretiennent à ce sujet une correspondance active durant cinq ans, de 1847 à 1853. La forme initialement découverte par Kelvin et souvent appelée théorème de Kelvin-Stokes, ou parfois simplement théorème de Stokes, est le cas particulier du théorème concernant la circulation du rotationnel, qu'on trouvera décrite dans le paragraphe concernant le sens physique du théorème.
Enoncé et démonstration
Théorème de Stokes, soit M une variété différentielle orientée de dimension n et ω une (n-1)-forme différentielle à support compact sur M de classe C1.
Alors, on a

où d désigne la dérivée extérieure
∂M le bord de M, muni de l'orientation sortante et
i : ∂M → M est l'injection canonique.
La démonstration actuelle demande de disposer d'une bonne définition de l'intégration, son apparente simplicité est trompeuse. L'idée est d'utiliser une partition de l'unité adaptée au problème dans la définition de l'intégrale d'une forme différentielle et de se ramener à un cas presque évident.
Soit {Ui}I un recouvrement localement fini de M par des domaines de cartes locales

telles que

introduisons Xi une partition de l'unité subordonnée à {Ui}
Comme le support de ω est fermé, la forme différentielle ω s'écrit

où la sommation est à support fini
posons

forme différentielle à support compact de M' = ℜ+ * ℜn-1
la restriction est un difféomorphisme sur son image préservant les orientations sortantes
on a donc

comme Φ commute avec l'opérateur de différentiation d, on a

Par sommation, le théorème de Stokes est démontré une fois établi le cas particulier M' = ℜ+ * ℜn-1
une (n-1)-forme ω sur M' = ℜ+ * ℜn-1
s'écrit

où le chapeau désigne une omission. On trouve alors

Transformée de Dirac

La distribution de Dirac, aussi appelée par abus de langage fonction δ de Dirac, introduite par Paul Dirac, peut être informellement considérée comme une fonction δ qui prend une valeur infinie en 0 et la valeur zéro partout ailleurs et dont l'intégrale sur ℜ est égale à 1. La représentation graphique de la fonction δ peut être assimilée à l'axe des abscisses en entier et le demi axe des ordonnées positives. D'autre part, δ correspond à la dérivée de la fonction de Heaviside. Mais cette fonction de Dirac n'est pas une fonction, elle étend la notion de fonction.
La fonction δ de Dirac est très utile comme approximation de fonctions dont la représentation graphique a la forme d'une grande pointe étroite. C'est le même type d'abstraction qui représente une charge ponctuelle, une masse ponctuelle ou un électron ponctuel. Par exemple, pour calculer la vitesse d'une balle de tennis, frappée par une raquette, nous pouvons assimiler la force de la raquette frappant la balle à une fonction δ. De cette manière, nous simplifions non seulement les équations, mais nous pouvons également calculer le mouvement de la balle en considérant seulement toute l'impulsion de la raquette contre la balle, plutôt que d'exiger la connaissance des détails de la façon dont la raquette a transféré l'énergie à la balle.
Par extension, l'expression un Dirac est donc souvent utilisée par les physiciens pour désigner une fonction ou une courbe piquée en une valeur donnée.
Introduction formelle
On se place dans ℜn.
La fonction δ de Dirac est la mesure borélienne qui ne charge que le singleton

et

si Q est un volume qui ne contient pas 0.
Soit A un borélien. Un calcul direct établit que δ (A) = 1 i.e ∫ 1Adδ = 1 est bien une mesure de Borel, la seule vérifiant:
Si A contient 0 :


Sinon :

Comme toute fonction mesurable ƒ est limite simple de fonctions étagées, on a :

Du point de vue des mesures de Radon, on donne :

Soit K un compact : La restriction d'une telle forme linéaire sur CK (ℜn) est clairement continue (δ est donc bien une mesure de Radon), de norme 1.
En effet :
Nous pouvons alors voir δ comme une distribution d'ordre 0 :

est une forme linéaire telle que :

(Rappelons que ||.||0 note la norme ||.||∞ dans le contexte des distributions)
Appliquons la définition du support d'une distribution :

est compact. Par suite, δ est tempérée
Autres présentations (sur ℜ) :
Tout élément ƒde

c'est-à-dire localement intégrable au sens de Lebesgue) s'identifie à une forme linéaire

Par analogie, on définit δ par l'égalité suivante :
Le seul être mathématique δ qui vérifie rigoureusement cette équation est une mesure.
C'est pourquoi l'existence de δ a un sens dans le cadre mathématique des distributions.
En définissant les fonctions δn par :

pour

et

partout ailleurs, nous avons :

La suite δn converge au sens faible vers δ.
Ainsi, par abus de langage, on dit que la fonction δ de Dirac est nulle partout sauf en 0, où sa valeur infinie correspond à une masse de 1, c'est-à-dire qu'elle correspond à une mesure qui à un sous-ensemble de R associe 0 si 0 n'est pas dans le sous-ensemble et 1 sinon.
Cette distribution peut aussi être vue comme la dérivée, au sens des distributions, de la fonction de Heaviside.
Donnons

Alors

δ est l'élément neutre de la convolution :

D'où :
Cette propriété est abondamment utilisée en traitement du signal. On dit qu'un signal correspondant à une distribution de Dirac a un spectre blanc. C'est-à-dire que chaque fréquence est présente avec une intensité identique. Cette propriété permet d'analyser la réponse fréquentielle d'un système sans avoir à balayer toutes les fréquences.

Transformée de Fourier

La transformée de Fourier de la fonction δ de Dirac s'identifie à la fonction constante 1 :

Conséquence :

ainsi δ est le Fourier de 1.
Dérivée
La dérivée de la fonction δ de Dirac est la distribution δ' définie par :
pour toute fonction de test

Plus généralement, on a la dérivée n-ième de δ, δ (n) :

Les dérivées de δ de Dirac sont importantes parce qu'elles apparaissent dans la transformation de Fourier des polynômes.
Une identité utile est

sont les racines (supposées simples) de la fonction g(x). Elle est équivalente à la forme intégrale :
Représentations de la fonction
Généralités
La fonction δ peut être regardée comme limite d'une famille (δa) de fonctions

Certains appellent de telles fonctions δa des fonctions naissantes de δ.
Celles-ci peuvent être utiles dans des applications spécifiques. Mais si la limite est employée de manière trop imprécise, des non-sens peuvent en résulter, comme d'ailleurs dans n'importe quelle branche de l'analyse en mathématique.
La notion d'approximation de l'unité a une signification particulière en analyse harmonique, en rapport avec la limite d'une famille ayant pour limite un élément neutre pour l'opération de convolution. Ici l'hypothèse est faite que la limite est celle d'une famille de fonctions positives.
Probabilités
Une densité de probabilité, par exemple celle de la loi normale, est représentée par une courbe qui enferme une aire égale à 1. Si on fait tendre sa variance vers 0, on obtient à la limite un delta qui représente la densité de probabilité d'une variable certaine avec la probabilité 1. Il s'agit là d'une curiosité qui présente un intérêt pratique limité mais elle se généralise d'une manière intéressante.
La manière la plus simple pour décrire une variable discrète qui prend des valeurs appartenant à un ensemble dénombrable consiste à utiliser sa fonction de probabilité qui associe une probabilité à chacune des valeurs. On peut aussi considérer une pseudo-densité de probabilité constituée par une somme de fonctions de Dirac associées à chacune des valeurs avec un poids égal à leurs probabilités. Dans ces conditions, les formules intégrales qui calculent les espérances des variables continues s'appliquent aux variables discrètes en tenant compte de l'équation rappelée ci-dessus.
Analyse des enregistrements
Pour déterminer le contenu de l'enregistrement d'un phénomène physique en fonction du temps, on utilise généralement la transformation de Fourier.

On peut noter la transformée de Fourier de la fonction de Dirac :
De nos jours, les enregistrements analogiques continus de phénomènes physiques ont cédé la place à des enregistrements numériques échantillonnés avec un certain pas de temps. On utilise dans ce domaine la transformée de Fourier discrète qui est une approximation sur une certaine durée d'échantillonnage.
La multiplication d'une fonction continue par un peigne de Dirac, somme de deltas équidistants, a une transformée de Fourier égale à l'approximation de celle de la fonction d'origine par la méthode des rectangles. En utilisant un développement en série de Fourier du peigne, on montre que le résultat donne la somme de la transformée vraie et de toutes ses translatées par la fréquence d'échantillonnage. Si celles-ci empiètent sur la transformée vraie, c'est-à-dire si le signal contient des fréquences supérieures à la moitié de la fréquence d'échantillonnage, le spectre est replié. Dans le cas contraire il est possible de reconstituer exactement le signal par la formule de Shannon.

Transformée de Laplace

En mathématiques, la transformation de Laplace est une transformation intégrale, c'est-à-dire une opération associant à une fonction à valeur dans Rn ou dans Cn,ƒ (t) une nouvelle fonction dite transformée de ƒ (t), notée traditionnellement F(p), via une intégrale. La tranformation de Laplace est bijective et par usage de tables il est possible d'inverser la transformation. Le grand avantage de la transformation de Laplace est que la plupart des opérations courantes sur la fonction originale ƒ (t), telle que la dérivation, ou un décalage sur la variable t, ont une traduction plus simple sur la transformée F(p).Ainsi la transformée de Laplace de la dérivée ƒ' (t) est simplement pF (p) - ƒ (0-) et la transformée de la fonction décalée ƒ (t - τ) est simplement e-pτ F (p). Cette transformation fut introduite pour la première fois sur une forme proche de celle utilisée par Laplace en 1774, dans le cadre de la théorie des probabilités
La transformée de Laplace est proche de la transformée de Fourier qui est également utilisée pour résoudre les équations différentielles, mais contrairement à cette dernière elle tient compte des conditions initiales et peut ainsi être utilisée en théorie des vibrations mécaniques ou en électricité dans l'étude des régimes forcés sans négliger le régime transitoire. Dans ce type d'analyse, la transformée de Laplace est souvent interprétée comme un passage du domaine temps, dans lequel les entrées et sorties sont des fonctions du temps, dans le domaine des fréquences, dans lequel les mêmes entrées et sorties sont des fonctions de la fréquence p. Ainsi il est possible d'analyser simplement l'effet du système sur l'entrée pour donner la sortie en terme d'opérations algébriques simples, théorie des fonctions de transfert en électronique ou en mécanique).
Définition
En mathématiques et en particulier en analyse fonctionnelle, la transformée de Laplace monolatérale d'une fonction ƒ éventuellement généralisée, telle que la fonction de Dirac d'une variable réelle t, à support positif, est la fonction F de la variable complexe p, définie par :
Plus précisément, cette formule est valide lorsque ℜ (p) > α où α,-∞ ≤ α ≤ + ∞, est l'abscisse de convergence et ƒ est un germe ƒ de distributions définies dans un voisinage ouvert et borné inférieurement de l'intervalle I = [0,+ ∞] dont la restriction au complémentaire de I dans ce voisinage est une fonction indéfiniment dérivable. C'est un tel germe que nous appelons ici, par abus de langage, une fonction généralisée à support positif et la transformation de Laplace est injective appliquée à ces fonctions généralisées. L'abscisse de convergence α se définit comme suit : soit, pour un réel β ƒβ : t → eβtƒ (t). Alors α est la borne inférieure de l'ensemble B des β pour lesquels ƒβ est une distribution tempérée si B est non vide et α = +∞ sinon.
La fonction de Dirac est de cette nature. Sa transformée de Laplace vaut 1 avec une abscisse de convergence de -∞.
Les propriétés de cette transformation lui confèrent une grande utilité dans l'analyse des systèmes dynamiques linéaires. La plus intéressante de ces propriétés est que l'intégration et la dérivation sont transformées en division et multiplication par p, de la même manière que le logarithme transforme la multiplication en addition. Elle permet ainsi de ramener la résolution des équations différentielles linéaires à coefficients constants à la résolution d'équations affines dont les solutions sont des fonctions rationnelles de p.
La transformation de Laplace est très utilisée par les ingénieurs pour résoudre des équations différentielles et déterminer la fonction de transfert d'un système linéaire. Par exemple, en électronique, contrairement à la décomposition de Fourier qui est utilisée pour la détermination du spectre d'un signal périodique ou même quelconque, elle tient compte de l'existence d'un régime transitoire précédant le régime permanent.
Il suffit en effet de transposer l'équation différentielle dans le domaine de Laplace pour obtenir une équation beaucoup plus simple à manipuler.

Transformée inverse de Laplace.

L'inversion de la transformation de Laplace s'effectue par le biais d'une intégrale dans le plan complexe. à l'aide du théorème des résidus, on démontre la formule de Bromwich Mellin :
où Υ est choisi de sorte que l'intégrale soit convergente, ce qui implique que Υ soit supérieur à la partie réelle de toute singularité de F (p) et qu'à l'infini, |F (p)| tende vers 0 au moins aussi rapidement que 1/|p|². Lorsque cette dernière condition n'est pas satisfaite, la formule ci-dessus est encore utilisable s'il existe un entier n tel que |pn F (p)|tende vers 0 aussi rapidement que 1/|p|², c'est-à-dire lorsque, pour |P| tendant vers l'infini, |F (p)| est majorée par un polynôme en |P|. En remplaçant F (p) par p-n F, dans l'intégrale ci-dessus, on trouve dans le membre de gauche de l'égalité une fonction généralisée à support positif dont la dérivée d'ordre n au sens des distributions est la fonction généralisée elle aussi à support positif cherchée.
En pratique néanmoins, la formule de Bromwich-Mellin est peu utilisée et on calcule les inverses des transformées de Laplace à partir des tables de transformées de Laplace.
utilisation de la transformée de Laplace en électricité
On considère un circuit dit R,C, constituée d'une résistance électrique de valeur R et d'un condensateur de capacité électrique C, placés en série. Dans tout les cas on considère que le circuit n'est placé aux bornes d'un générateur idéal de tension délivrant une tension en général variable u (t) qu'à un instant choisi pour origine des dates et que le condensateur est initialement déchargé. On a ainsi respectivement pour la charge q (t) du condensateur et l'intensité dans le circuit i (t) = dq / dt les conditions initiales suivantes : q (0-) = 0,i (0-) = 0.
Charge d'un condensateur par un échelon de tension
On applique la tension u (t) suivante :

et l'équation différentielle reliant la réponse q(t) à l'entrée u (t) est en appliquant les lois usuelles de l'électricité :

soit encore en posant τ ≡ RC cette quantité à la dimension d'une durée

On prend la transformée de Laplace membre à membre de cette dernière équation
en notant Q (p) la transformée de q (t)
il vient en prenant en compte le fait que q(0-) = 0) :

ce qui peut aussi s'écrire sous la forme :

fonction de transfert du système R,C

transformée de Laplace de l'entrée, on peut aussitôt inverser cette équation en

L'interprétation physique de cette solution est très simple : il y a superposition d'un régime transitoire

qui décrit la charge progressive du condensateur, la quantité Τ≡RC donnant l'échelle de temps, à un régime permanent

qui correspond à l'état du condensateur complètement chargé sous la tension continue U0
On montre aisément que le condensateur est à 90% chargé (q = 0.90Qm) au bout de la durée

Le terme (1 - e-t / Τ) est la fonction de transfert du système dans le domaine temporel

Transformée bilatérale de Laplace

En analyse, la transformée bilatérale de Laplace est la forme la plus générale de la transformée de Laplace, dans laquelle l'intégration se fait à partir de moins l'infini plutôt qu'à partir de zéro.
Définition
La transformée bilatérale de Laplace d'une fonction ƒ de la variable réelle est la fonction F de la variable complexe définie par :

cette intégrale converge pour
C'est-à-dire pour P appartenant à une bande de convergence dans le plan complexe au lieu de ℜ (p) > α, α désignant alors l'abscisse de convergence, dans le cas de la transformée monolatérale). De façon précise, dans le cadre de la théorie des distributions, cette transformée "converge" pour toutes les valeurs les valeurs de P pour lesquelles t → e-ℜ(p)tƒ (t) en notation abusive est une distribution tempérée et admet donc une transformée de Fourier.
Ambiguïtés à éviter
Il est essentiel, quand on utilise la transformée bilatérale de Laplace, de préciser la bande de convergence. Soit par exemple F (p) = 1/p.
Si la bande de convergence est ℜ (p) > 0, l'antécédent de cette transformée de Lapace est la fonction de Heaviside Υ. En revanche, si la bande de convergence est ℜ (p) < 0, cet antécédent est t → - Υ (-t).
Convolution et dérivation
Soit T et S deux distributions convolables, par exemple ayant chacune un support limité à gauche, ou l'une d'entre elles étant à support compact.

En particulier

et

donc

Transformées de Laplace des hyperfonctions

On peut étendre la transformée de Laplace au cas des hyperfonctions. Pour une hyperfonction définie par une distribution, on retrouve la théorie qui précède. Mais par exemple

Bien que n'étant pas une distribution car elle est d'ordre infini localement, à savoir en 0, est une hyperfonction dont le support est {0} et qui admet pour transformée de Laplace

J1 désigne la fonction de Bessel de première espèce habituelle, à savoir la fonction entière

On obtient en effet en substituant cette expression dans la précédente

Ce qui est bien cohérent avec la définition de ƒ (t) puisque
Relation entre la transformée bilatérale et la transformée monolatérale
Théorie élémentaire
Soit ƒ une fonction définie dans un voisinage ouvert de I = [0,+∞[, continue en 0 et admettant une transformée de Laplace bilatérale ζ (ƒ).
Sa transformée monolatérale de Laplace, que nous noterons ici

est donnée par

où Υ est la fonction de Heaviside

par conséquent

d'où la formule classique
Généralisation
Soit T une distribution à support positif, g une fonction indéfiniment dérivable dans un intervalle ouvert contenant I =

et

En posant

est une distribution à support positif, dont la transformée de Laplace est en notation abusive

où α est l'abscisse de convergence. Les distributions ƒ et g ont même restriction à tout intervalle ouvert de la forme ] - ε,0[ dès que ε > 0 est suffisamment petit.
On peut donc écrire

pour tout entier i ≥ 0.
D'autre part

avec

et, d'après la théorie élémentaire ci-dessus

Finalement
Définissons maintenant la relation d'équivalence suivante : ƒ1 et ƒ2 désignant deux distributions telles que ci-dessus, nous écrirons ƒ1 ∼ ƒ2 si ƒ1 et ƒ2 ont même restriction à l'intervalle ] -ε,+ ∞[ dès que ε > 0 est suffisamment petit. Alors ζ+1) ne dépend que de la classe d'équivalence ƒ de ƒ1 et qui est appelée un germe de fonction généralisée définie dans un voisinage de [0,+ ∞[ et par abus de langage, une fonction généralisée à support positif.
On écrira

Notons enfin que ζ+ (ƒ) = 0 si et seulement si ƒ = 0.
Applications
La transformée de Laplace bilatérale est utilisée notamment pour la conception de filtres analogiques classiques, le filtre optimal de Wiener, en statistiques où elle définit la fonction génératrice des moments d'une distribution, elle joue un rôle essentiel dans la formulation à temps continu de la factorisation spectrale causale directe et inverse, elle est très utilisée enfin pour résoudre les équations intégrales.
Généralisation au cas de plusieurs variables
La transformée bilatérale de Laplace se généralise au cas de fonctions ou de distributions à plusieurs variables et Laurent Schwartz en a fait la théorie complète. Soit T une distribution définie sur ℜn.
L'ensemble des p appartenant à Cn pour lesquels

en notation abusive est une distribution tempérée sur ℜn est cette fois un cylindre de la forme

est un sous-ensemble convexe de ℜn dans le cas d'une variable, Γ n'est autre que la bande de convergence évoquée plus haut).
Soit alors pour ξ dans Γ la distribution

de nouveau en notation abusive.
Cette distribution est tempérée.
Notons

sa transformée de Fourier.
La fonction

est appelée la transformée de Laplace de T.
Avec

est notée

Transformation de Mellin

En mathématiques, la transformation de Mellin est une transformation intégrale qui peut être considérée comme la version multiplicative de la transformation de Laplace bilatérale. Cette transformation intégrale est fortement reliée à la théorie des séries de Dirichlet et est souvent utilisée en théorie des nombres et dans la théorie des développements asymptotiques, elle est également fortement reliée à la transformation de Laplace, à la transformation de Fourier, à la théorie de la fonction gamma et aux fonctions spéciales.
La transformation de Mellin d'une fonction ƒ est :

La transformation inverse est
La notation suppose que c'est une intégrale curviligne s'appliquant sur une droite verticale dans le plan complexe. Les conditions sous lesquelles cette inversion est valide sont données dans le théorème d'inversion de Mellin.
La transformation a été nommée ainsi en l'honneur du mathématicien finlandais Hjalmar Mellin.
Relations avec les autres transformations
La transformation de Laplace bilatérale peut être définie en termes de transformation de Mellin par

et inversement, nous pouvons obtenir la transformation de Mellin à partir de la transformation de Laplace bilatérale par


La transformation de Mellin peut être vue comme une intégration utilisant un noyau xs qui respecte la mesure de Haar multiplicative, dx / x, qui est invariante sous la dilatation x → αx
c'est-à-dire

la transformation de Laplace bilatérale intègre en respectant la mesure de Haar additive dx, qui est un invariant de translation, c'est-à-dire d (x + α) = dx
Nous pouvons aussi définir la transformation de Fourier en termes de transformation de Mellin et vice-versa
si nous définissons la transformation de Fourier comme ci-dessus, alors

Nous pouvons aussi inverser le processus et obtenir
La transformation de Mellin est aussi reliée aux séries de Newton ou aux transformations binomiales avec la fonction génératrice de la loi de Poisson, au moyen du cycle de Poisson-Mellin-Newton.
Intégrale de Cahen-Mellin
Pour

sur la branche principale, on a

où ⌈ (s) est la fonction gamma d'Euler. Cette intégrale est connue sous le nom d'intégrale de Cahen-Mellin.

Transformation des systèmes triphasés

La diagonalisation de la matrice flux / courants : on cherche une base de vecteurs dans laquelle les équations décrivant le fonctionnement d'une machine électrique soient découplées, c'est à dire que les grandeurs relatives à une phase ne dépendent pas des autres phases, les matrices liant les différentes grandeurs sont alors diagonales. La base répondant à ces préoccupations étant trouvée, la difficulté est ensuite d'interpréter physiquement les grandeurs qui la composent
L'extension du théorème de BLONDEL qui permet de remplacer un système triphasé par un système diphasé équivalent. En effet, entre deux enroulements dont les axes présentent un écart angulaire de 90°, les flux mutuels sont nuls, d'où disparition des termes hors diagonale de la matrice flux/courants :



Transformée de concordia

A la différence de la transformée de Clarke qui n'est pas unitaire, la transformée de Concordia conserve la puissance. Les puissances actives et réactives calculées dans le nouveau système ont donc les mêmes valeurs que dans le système initial.
La matrice de Concordia vaut :

La matrice inverse de Concordia est égale à la transposée de la matrice Concordia :

Si les puissances sont conservées, les amplitudes des grandeurs initiales ne le sont pas. Dans le détail :

Transformation de Fortescue

Tout système de grandeurs triphasées déséquilibré peut se mettre sous la forme de la somme de trois systèmes équilibrés ou symétrique :
Détail
un système équilibré direct noté Gd
un système équilibré inverse noté Gi
un système de tension homopolaire noté G0
Systèmes triphasés homopolaires
Détail
g0 = G0 sin (ωt + φ0)
g0 = G0 sin (ωt + φ0)
g0 = G0 sin (ωt + φ0)
L'intérêt de ce faux système triphasé est de faciliter l'écriture matricielle de la transformation de Fortescue.
Matrice de transformation
Le but est de trouver les valeurs de Gd, Gi et G0 à partir de G1, G2 et G3.
Calcul de G0
Comme la somme des trois grandeurs d'un système équilibré est nulle, on a forcément :
Opérateur de rotation : a
C'est un nombre complexe de module 1 et d'argument ⅔ π :
Le résultat de sa multiplication par le nombre complexe associé à une grandeur correspond à une autre grandeur de même amplitude et déphasée de ⅔ π par rapport à la grandeur initiale. Il correspond à une rotation de ⅔ π dans le plan de Fresnel.
Il vérifie les propriétés suivantes :
a³ = 1
1 + a + a² = 0
Matrice de Fortescue

Matrice inverse de Fortescue

Transformation de Clarke

Edith Clarke a proposé la transformation en 19511. Soit a, b et c le repère initial d'un système triphasé. α, β et o est le repère d'arrivée.
La matrice de Clarke vaut :

La matrice inverse est :

L'axe 0β est indirect par rapport à l'axe 0α
Considérons un système de trois courants triphasés équilibrés:

Où I est la valeur effective du courant et θ(t) l'angle. On pourrait tout aussi bien remplacer θ(t) par ω(t) t sans perte de généralité. En appliquant la transformation de Clarke, on obtient :

io est nul dans le cas d'un système triphasé équilibré. Les problèmes de dimension trois se réduisent donc ô des problèmes de dimension deux. L'amplitude des courants iα et iβ est la même que celles des courants ia, ib et ic
io étant nul dans le cas d'un système triphasé équilibré, une forme simplifiée de la transformée dans ce cas est :

La matrice inverse vaut alors :

Géométriquement la transformation de Clarke est une combinaison de rotations. En partant d'un espace en trois dimensions ayant pour axes orthogonaux a, b, c

Une rotation d'axe a d'angle -45° est effectuée. La matrice de rotation est la suivante :

Soit

On obtient donc le nouveau repère suivant :

Une rotation d'axe b et d'angle 35.26° () est ensuite effectué :

Soit


La composition de ces deux rotations a pour matrice :

Cette matrice est appelée matrice de Clarke

Les axes sont renommés α, β, z. Ce dernier axe est à égales distances des trois axes initiaux a, b, c. Si le système initial est équilibré, la composante en z est donc nulle. Le système en est donc simplifié.

Transformation Miss Emily Clarke

On obtient, de cette façon, la transformation de Miss Emily Clarke :
Cette transformation diagonalise bien la matrice L (flux / courants) (elle l'a construite pour ça, entre autres) et on obtient dans le système (α,β,0) :


avec :

Transformation de park

La transformée de Park, souvent confondu avec la transformée dqo, est un outil mathématique utilisé en électrotechnique et en particulier pour la commande vectorielle, afin de modéliser un système triphasé grâce à un modèle diphasé. Il s'agit d'un changement de repère. Les deux premiers axes dans la nouvelle base sont traditionnellement nommés d, q. Les grandeurs transformées sont généralement des courants, des tensions ou des flux.
Dans le cas d'une machine tournante, le repère de Park est fixé au rotor. Dans le repère de Park, les courants d'une machine synchrone ont la propriété remarquable d'être continus.
Soit a, b, c le repère initial d'un système triphasé. p, q, o est le repère d'arrivée. A titre d'exemple, la transformation est réalisée sur un courant, mais on peut l'utiliser pour transformer des tensions et des flux.
La matrice de changement de repère est la suivante :

La matrice inverse

La transformée de Park n'est pas unitaire.
La puissance calculée dans le nouveau système n'est pas égale à celle dans le système initial.

Transformée dqo

La transformée dqo est très similaire à la transformée de Park et est souvent confondu dans la littérature. Dqo veut dire direct–quadrature–zero. A la différence de la transformée de Park, elle conserve les valeurs des puissances invariées.
La matrice de changement de repère est la suivante :

La matrice inverse
La transformée dqo donne une composante homopolaire, io égale à celle de Park multipliée par un facteur √3.
La transformée dqo permet dans un système triphasé équilibré de transformer trois quantités alternatives en deux quantités continues. Cela simplifie considérablement la résolution d'équations. Une fois la solution calculée, la transformation inverse est utilisée pour retrouver les grandeurs triphasées correspondantes.

Transformation de KU

Transformation des grandeurs électriques par la transformation de Monsieur KU.
Si on baptise les coordonnées issues de cette dernière transformation par (xb, xf, x0)
On a, par exemple, pour un courant :

On a alors :

On s'aperçoit, que les composantes(b, f, 0) sont apparentées aux composantes symétriques (d, i, 0) issues de la transformation de Monsieur Fortescue :
Résumé
passage du système (1, 2, 3) au système (direct, inverse, homopolaire) = (d, i, 0)

passage de (1, 2, 3) à (a, b, 0)

passage de (1, 2, 3) à (direct, quadrature, homopolaire) = (d, q, 0)

passage de (1, 2, 3) à (b, f, 0)

Matrice mathématique

Ci après ,différentes matrices mathématique pouvant etre utilisé dans la recherche et le calcul scientifique en éléctricité et en éléctronique.

Point critique mathématiques
En analyse à plusieurs variables, un point critique d'une fonction de plusieurs variables, à valeurs numériques, est un point d'annulation de son gradient. Les points critiques servent d'intermédiaire pour la recherche des extrêmes d'une telle fonction.
Plus généralement, on peut définir la notion de point critique d'une application différentiable entre deux variétés différentielles, il s'agit des points où la différentielle n'est pas de rang maximal.
En gros, il faut trouver tous les a tels que : ∇ ƒ (α) = 0.
Points critiques et points d'extrêmes d'une fonction numérique

Un point-selle ou point-col est un point critique.
Soit ƒ une fonction de n variables x1,...,xn, à valeurs réelles, différentiable sur un ouvert U.On dit qu'elle admet un point critique en un point u de U quand son gradient est nul en ce point.
Notamment, si u est un point d'extrême local de ƒ c'est un point critique. La réciproque est fausse : une fois qu'on a déterminé les points critiques d'une fonction, il faut examiner leur nature, par exemple en effectuant le calcul de la matrice hessienne de ƒ.
Points et valeurs critiques pour une application entre variétés
Soit ƒ une application différentiable entre deux variétés M et N. On dit que ƒ présente un point critique au point m de M si l'application linéaire tangente à ƒ en m est non surjective c'est-à-dire ƒ n'est pas une submersion).
On appelle valeurs critiques les images des points critiques par ƒ. Le théorème de Sard assure que pour une fonction indéfiniment différentiable, l'ensemble des valeurs critiques est de mesure nulle.

Matrice hessienne

En mathématiques, la matrice hessienne (ou simplement la hessienne) d'une fonction numérique f est la matrice carrée, notée H(f), de ses dérivées partielles secondes.
Détail
Plus précisément, étant donnée une fonction f à valeurs réelles
f(x1, x2, xn)
En supposant que toutes les dérivées partielles secondes de f existent, le coefficient d'indice i,j de la matrice hessienne de f vaut

ou en d'autres termes
On appelle hessien (ou discriminant hessien) le déterminant de cette matrice.
Le terme hessien a été introduit par James Joseph Sylvester, en hommage au mathématicien allemand Ludwig Otto Hesse.
Soit notamment f une fonction de classe C² définie sur un ouvert U de l'espace E, à valeurs réelles. Sa matrice hessienne est bien définie et en vertu du théorème de Schwarz, elle est symétrique.
Application à l'étude des points critiques
On suppose f fonction de classe C² sur un ouvert U. La matrice hessienne permet, dans de nombreux cas, de déterminer la nature des points critiques de la fonction f, c'est-à-dire des points d'annulation du gradient.
Condition nécessaire d'extrême local
Détail
si a est un point de minimum local de f, alors c'est un point critique et la hessienne en a est positive
si a est un point de maximum local de f, alors c'est un point critique et la hessienne en a est négative
En particulier, si la hessienne en un point critique admet au moins une valeur propre strictement positive et une valeur propre strictement négative, le point critique est un point col.
Condition suffisante d'extrême local
Précisément, un point critique de f est dit dégénéré lorsque le discriminant hessien s'annule, autrement dit lorsque 0 est valeur propre de la hessienne. En un point critique non dégénéré, le signe des valeurs propres (toutes non nulles) détermine la nature de ce point (point d'extrême local ou point col):
Détail
si la hessienne est définie positive, la fonction atteint un minimum local au point critique
si la hessienne est définie négative, la fonction atteint un maximum local au point critique
s'il y a des valeurs propres de chaque signe, le point critique est un point col
Dans ce dernier cas, on définit l'indice du point critique comme le nombre de valeurs propres négatives.
En dimension deux notamment, le discriminant hessien étant le produit des valeurs propres, son signe suffit à déterminer la nature d'un point critique non dégénéré.
Enfin pour un point critique dégénéré, aucune de ces implications n'est vraie.
Courbe hessienne
Si C est la courbe algébrique d'équation projective (homogène) ƒ (x,y,z) = 0, on appelle courbe hessienne (ou simplement hessienne) de C la courbe dont l'équation projective est H (ƒ) | (x,y,z) = 0, où H (ƒ) est le hessien (le déterminant de la matrice hessienne) de f. La hessienne de C a pour intersection avec C les points critiques et les points d'inflexion de C. Si C est de degré d, sa hessienne est de degré 3(d-2),d'après le théorème de Bézout, le nombre des points d'inflexion d'une courbe régulière de degré d est donc 3d(d-2), ce qui est un cas particulier d'une des formules de Plücker.
Extension au cadre des variétés
Lorsque M est une variété différentielle et f une fonction numérique indéfiniment différentiable sur M, il est possible de définir la différentielle de f en tout point, mais pas la matrice hessienne, comme on le voit en écrivant une formule de changement de cartes.
Cependant, lorsque m est un point critique pour la fonction f, la matrice hessienne de f en m peut effectivement être définie. On peut donc parler de point critique dégénéré ou non et prolonger les résultats du paragraphe précédent.
Lemme de Morse
Le lemme de Morse montre que le comportement d'une fonction régulière au voisinage d'un point critique non dégénéré est entièrement déterminé par la connaissance de l'indice du point critique.
Lemme de Morse,Soit f une fonction C sur une variété différentielle de dimension n. On considère un point critique non dégénéré m de la fonction f et on note k son indice. Alors il existe un système de coordonnées locales x1,.....,xn ,centré en m et tel que l'expression correspondante de f est
On qualifie un tel système de coordonnées de Morse.
Il résulte notamment du lemme que les points critiques non dégénérés sont isolés.
Le lemme de Morse se généralise aux espaces de Hilbert sous le nom de lemme de Morse-Palais.
Théorie de Morse
Une fonction dont tous les points critiques sont non dégénérés est qualifiée de fonction de Morse. La théorie de Morse a pour objectif de relier l'étude de la topologie de la variété à celle des points critiques des fonctions qui peuvent y être définies.

La matrice jacobienne

En analyse vectorielle, la matrice jacobienne est une matrice associée à une fonction vectorielle en un point donné. Son nom vient du mathématicien Charles Jacobi. Le déterminant de cette matrice, appelé jacobien, joue un rôle important dans la résolution de problèmes non linéaires.
La matrice jacobienne est la matrice des dérivées partielles du premier ordre d'une fonction vectorielle.
Soit ƒ une fonction d'un ouvert de ℜn à valeurs dans ℜm.
Une telle fonction est définie par ses m fonctions composantes à valeurs réelles :

Les dérivées partielles de ces fonctions en un point m, si elles existent, peuvent être rangées dans une matrice à m lignes et n colonnes, appelée matrice jacobienne de ƒ :

Cette matrice est notée :
Pour i = 1...,m, la ie ligne de cette matrice est la transposée du vecteur gradient au point m de la fonction ƒi, lorsque celui-ci existe. La matrice jacobienne est également la matrice de la différentielle de la fonction, lorsque celle-ci existe. On démontre que la fonction ƒ est de classe C1 si et seulement si ses dérivées partielles existent et sont continues.
La matrice jacobienne de la fonction ƒ de ℜ3 dans ℜ4 définie par :

est

Propriétés
La composée ƒ R G de fonctions différentiables est différentiable et sa matrice jacobienne s'obtient par la formule :
Déterminant jacobien
Si m = n, alors la matrice jacobienne de ƒ est une matrice carrée. Nous pouvons alors définir son déterminant det Jƒ, appelé le déterminant jacobien, ou jacobien. Dire que le jacobien est non nul revient donc à dire que la matrice jacobienne est inversible.
Une fonction ƒ de classe C1 est inversible au voisinage de m avec une réciproque ƒ-1 de classe C1 si et seulement si son jacobien en m est non nul.
De plus, la matrice jacobienne de ƒ-1 se déduit de l'inverse de la matrice jacobienne de ƒ au moyen de la formule.
Le théorème de changement de variables dans les intégrales multiples fait intervenir la valeur absolue du jacobien.
Il n'est pas nécessaire de supposer que V est ouvert, ni que ƒ est un homéomorphisme de U sur V : cela résulte des hypothèses, d'après le théorème de l'invariance du domaine.
On démontre d'abord ce théorème si ƒ est un difféomorphisme,ce qui d'après le théorème d'inversion locale, revient simplement à rajouter l'hypothèse que le jacobien de ƒ ne s'annule en aucun point de U, puis on s'affranchit de cette hypothèse grâce au théorème de Sard.

Matrice de newton

En analyse numérique, la méthode de Newton ou méthode de Newton-Raphson est, dans son application la plus simple, un algorithme efficace pour trouver numériquement une approximation précise d'un zéro (ou racine) d'une fonction réelle d'une variable réelle.
Présentation
Sous sa forme moderne, l'algorithme peut être présenté comme : à chaque itération, la fonction dont on cherche un zéro est linéarisée en l'itéré courant et l'itéré suivant est pris égal au zéro de la fonction linéarisée. Cette description sommaire indique qu'au moins deux conditions sont requises pour la bonne marche de l'algorithme : la fonction doit être différentiable aux points visités s'ajoute à ces conditions la contrainte forte de devoir prendre le premier itéré assez proche d'un zéro régulier de la fonction, pour que la convergence du processus soit assurée.
L'intérêt principal de l'algorithme de Newton est sa convergence quadratique locale. En termes imagés mais peu précis, cela signifie que le nombre de chiffres significatifs corrects des itérés double à chaque itération, asymptotiquement. En effet, si l'itéré initial n'est pas pris suffisamment proche d'un zéro, la suite des itérés générée par l'algorithme a un comportement erratique, dont la convergence éventuelle ne peut être que le fruit du hasard .
Appliqué à la dérivée d'une fonction réelle, cet algorithme permet d'obtenir des points critiques. Cette observation est à l'origine de son utilisation en optimisation sans ou avec contraintes.
En prenant comme itéré initial le point x1 = 2, qui diffère de moins de 10% de la vraie valeur d'une racine. Il écrit alors x = 2 + d1, où d1 est donc l'accroissement à donner à 2 pour obtenir la racine x. Il remplace x par x = 2 + d1, dans l'équation, qui devient

et dont il faut trouver la racine pour l'ajouter à 2. Il néglige

à cause de sa petitesse on suppose que

si bien qu'il reste

ce qui donne comme nouvelle approximation de la racine

Il écrit ensuite

où d2 est donc l'accroissement à donner à d1 pour obtenir la racine du polynôme précédent.
Il remplace donc d1 par 0,1 + d2 dans le polynôme précédent pour obtenir
On obtiendrait la même équation en remplaçant x par 2,1 + d2 dans le polynôme initial. Négligeant les deux premiers termes, il reste 11,23 d2 + 0,061 = 0 ou d2 ≈ - 0,0054 à peu près, ce qui donne comme nouvelle approximation de la racine x3 = x2 + d2 ≈ 2,0946.On peut poursuivre les opérations aussi longtemps qu'il convient.
Fonction réelle d'une variable réelle
L'algorithme,on va donc chercher à construire une bonne approximation d'un zéro de la fonction d'une variable réelle ƒ (x) en se basant sur son développement de Taylor au premier ordre. Pour cela, partant d'un point x0 que l'on choisit de préférence proche du zéro à trouver (en faisant des estimations grossières par exemple), on approche la fonction au premier ordre, autrement dit, on la considère à peu près égale à sa tangente en ce point :

Partant de là, pour trouver un zéro de cette fonction d'approximation, il suffit de calculer l'intersection de la droite tangente avec l'axe des abscisses
c'est-à-dire résoudre l'équation affine :
On obtient alors un point x1 qui en général a de bonnes chances d'être plus proche du vrai zéro de ƒ que le point x0 précédent. Par cette opération, on peut donc espérer améliorer l'approximation par itérations successives : on approche à nouveau la fonction par sa tangente en x1 pour obtenir un nouveau point x2.

Illustration de la méthode de Newton
Cette méthode requiert que la fonction possède une tangente en chacun des points de la suite que l'on construit par itération, par exemple il suffit que ƒ soit dérivable.
Formellement, on part d'un point x0 appartenant à l'ensemble de définition de la fonction et on construit par récurrence la suite :


ƒ' désigne la dérivée de la fonction ƒ.
Le point xk+1 est bien la solution de l'équation affine
Il se peut que la récurrence doive se terminer, si à l'étape k, xk n'appartient pas au domaine de définition ou si la dérivée ƒ' (xk) est nulle ,dans ces cas, la méthode échoue.
Si le zéro inconnu α est isolé, alors il existe un voisinage de α tel que pour toutes les valeurs de départ x0 dans ce voisinage, la suite xk va converger vers α. De plus, si ƒ (α) est non nul, alors la convergence est quadratique, ce qui signifie intuitivement que le nombre de chiffres corrects est approximativement doublé à chaque étape.
Bien que la méthode soit très efficace, certains aspects pratiques doivent être pris en compte. Avant tout, la méthode de Newton nécessite que la dérivée soit effectivement calculée. Dans les cas où la dérivée est seulement estimée en prenant la pente entre deux points de la fonction, la méthode prend le nom de méthode de la sécante, moins efficace d'ordre 1,618 qui est le nombre d'or et inférieure à d'autres algorithmes. Par ailleurs, si la valeur de départ est trop éloignée du vrai zéro, la méthode de Newton peut entrer en boucle infinie sans produire d'approximation améliorée. à cause de cela, toute mise en oeuvre de la méthode de Newton doit inclure un code de contrôle du nombre d'itérations.
Convergence
La vitesse de convergence d'une suite xn obtenue par la méthode de Newton peut être obtenue comme application de la formule de Taylor-Lagrange. Il s'agit d'évaluer une majoration de log | xn - α.
ƒ est une fonction définie au voisinage de α et deux fois continument différentiable. On suppose que α se trouve être un zéro de ƒ qu'on essaie d'approcher par la méthode de Newton. On fait l'hypothèse que α est un zéro d'ordre 1, autrement dit que ƒ'(α) est non nul.
La formule de Taylor-Lagrange s'écrit :

Partant de l'approximation x, la méthode de Newton fournit au bout d'une itération :

Pour un intervalle compact I contenant x et α et inclus dans le domaine de définition de ƒ, on pose : m1 = minx∈I | ƒ' (x) |
ainsi que M2 = maxx∈I | ƒ" (x) |.
Alors, pour tout x∈I :

par récurrence immédiate, il vient :



En passant au logarithme :

La convergence de xn vers α est donc quadratique, à condition que | x0 - α |< 1 / K.
Critère d'arrêt
Des critères d'arrêt possibles, déterminés relativement à une grandeur numériquement négligeable, sont :

ε12 ξR+
representent des erreurs d'approximations caractérisant la qualité de la solution numérique.
Dans tous les cas, il se peut que le critère d'arrêt soit vérifié en des points ne correspondant pas à des solutions de l'équation à résoudre.
Racine carrée
Un cas particulier de la méthode de Newton est l'algorithme de Babylone, aussi connu sous le nom de méthode de Héron :
il s'agit, pour calculer la racine carrée de a, d'appliquer la méthode de Newton à la résolution de

On obtient alors, en utilisant la formule de la dérivée

une méthode d'approximation de la solution √α donnée par la formule itérative suivante :

Cette méthode converge pour tout α ≥ 0 et tout point de départ x0 > 0 .
On peut l'étendre au calcul de toute racine nième d'un nombre a avec la formule :
La convergence de la suite (xk) se démontre par récurrence : pour k donné, on peut montrer que si 0 ≤ √ α ≤ xk alors 0 ≤ √ α ≤ xk + 1 ≤ xk. De plus, si 0 < xk ≤ √ α, alors √ α ≤ xk + 1.La suite est donc décroissante au moins à partir du second terme. Elle est également bornée, donc elle converge. Reste à montrer que cette limite 1 est bien égale à √ α : on obtient ce résultat en montrant qu'il est nécessaire que ∫ = √ α pour que xk + 1 - 1 tende vers 0 lorsque k tend vers + ∞.
Intersection de graphes
On peut déterminer une intersection des graphes de deux fonctions réelles dérivables ƒ et g, c'est-à-dire un point x tel que ƒ (x) = g (x), en appliquant la méthode de Newton à la fonctionƒ - g.
Fonction complexe
La méthode de Newton appliquée au polynôme z1 3 - 1 à variable complexe z converge à partir de tous les points du plan (des nombres complexes) colorés en rouge, vert ou bleu vers l'une des trois racines de ce polynôme, chacune des couleurs correspondant à une racine différente. Les points restants, se trouvant sur la structure plus claire ,appelée fractale de Newton sont les points de départ pour lesquels la méthode ne converge pas.
Détail
La méthode peut aussi être appliquée pour trouver des zéros de fonctions complexes
convergence vers un zéro
limite infinie
la suite admet un cycle limite autrement dit, la suite peut être découpée en p sous-suites disjointes de la forme z (n0 + kp) k qui chacune convergent vers des points distincts (qui ne sont pas des zéros de ƒ formant un cycle périodique pour la fonction z - ƒ (z) / ƒ' (z)
la suite se rapproche de l'ensemble des zéros de la fonction sans qu'il n'y ait toutefois de cycle limite et à chaque étape de l'itération, on se retrouve proche d'un zéro différent des précédents
la suite a un comportement chaotique
Généralisations / variantes
Systèmes d'équations à plusieurs variables
On peut aussi utiliser la méthode de Newton pour résoudre un système de n équations (non linéaires) à n inconnues x = x1,....,xn, ce qui revient à trouver un zéro d'une fonction ƒ de Rn dans R^n, qui devra être différentiable. Dans la formulation donnée ci-dessus, il faut multiplier par l'inverse de la matrice jacobienne ƒ (xk) au lieu de diviser par ƒ' (xk).
En l'inconnue xk + 1 - xk.Encore une fois, cette méthode ne fonctionne que pour une valeur initiale x0suffisamment proche d'un zéro de F

Matrice symétrique

En algèbre linéaire et bilinéaire, une matrice symétrique est une matrice carrée qui est égale à sa propre transposée, c'est-à-dire telle que ai,j = aj,i pour tous i et j compris entre 1 et n, où les ai,j sont les coefficients de la matrice et n est son ordre.
Propriétés
Une matrice représentant une forme bilinéaire est symétrique si et seulement si cette dernière est symétrique.
L'ensemble des matrices symétriques d'ordre n à coefficients dans un corps commutatif est un sous-espace vectoriel de dimension n(n+1) / 2 de l'espace vectoriel des matrices carrées d'ordre n, et si la caractéristique du corps est différente de 2, un sous-espace supplémentaire est celui des matrices antisymétriques.
Matrices symétriques réelles
Dans un espace euclidien, une matrice représentant un endomorphisme dans une ase orthonormée est symétrique si et seulement si l'endomorphisme est autoadjoint. Le théorème spectral en dimension finie en déduit que toute matrice symétrique à coefficients réels est diagonalisable à l'aide d'une matrice de passage orthogonale, car les valeurs propres d'un endomorphisme autoadjoint sont réelles et ses sous-espaces propres sont orthogonaux.
Numériquement, le procédé de diagonalisation s'applique à toute matrice symétrique A et il consiste à la décomposer sous la forme

où O est une matrice orthogonale et où D est une matrice diagonale dont les coefficients sont précisément les valeurs propres de A.
Inégalité de trace de Ky Fan
Notons Sn l'espace vectoriel des matrices réelles symétriques d'ordre n et


les n valeurs propres de

que l'on range par ordre décroissant :

On introduit l'application
Matrices symétriques positives
Une matrice S symétrique réelle d'ordre n est dite :
positive si la forme bilinéaire symétrique associée est positive, c'est-à-dire si

définie positive si la forme associée est définie et positive, c'est-à-dire si

Haut de page