MathJax Minimal
CPGE: Lycée Mohamed V Casablanca
Professeur: Y.Hdach
Filière: MPSI
Mail: yassinhdach@gmail.com
DM: Dualité
Problème: dualité en dimension finie
Partie I – Base duale
  1. Soient \(x, y \in E\) et \(\lambda \in \mathbb{K}\). Par définition des formes linéaires coordonnées, on a :
    \[ x+\lambda y=\sum_{i=1}^{n} e_{i}^{*}(x+\lambda y) e_{i} \tag{*} \]
    et :
    \[ x+\lambda y=\sum_{i=1}^{n} e_{i}^{*}(x) e_{i}+\lambda \sum_{i=1}^{n} e_{i}^{*}(y) e_{i}=\sum_{i=1}^{n}\left(e_{i}^{*}(x)+\lambda e_{i}^{*}(y)\right) e_{i} \tag{**} \]
    Par unicité des coordonnées du vecteur \(x+\lambda y\) dans la base \(\mathcal{B}=\left(e_{1}, \ldots, e_{n}\right)\) de \(E\), on a :
    \[ \forall i \in \llbracket 1, n \rrbracket, \quad e_{i}^{*}(x+\lambda y)=e_{i}^{*}(x)+\lambda e_{i}^{*}(y) \]
    De plus, pour tout \(i \in \llbracket 1, n \rrbracket\), l’application \(e_{i}^{*}\) est bien à valeurs dans \(\mathbb{K}\) donc :
    \[ \forall i \in \llbracket 1, n \rrbracket, \quad e_{i}^{*} \in E^{*} \]
  2. Soient \(i, j \in \llbracket 1, n \rrbracket\). On distingue deux cas.
    \(\star\) Premier cas : \(i=j\)
    La décomposition du vecteur \(e_{j}\) dans la base \(\mathcal{B}\) de \(E\) est \(e_{j}=1 \cdot e_{j}+\sum_{\substack{k=1 \\ k \neq j}}^{n} 0 \cdot e_{k}\) donc, par définition de \(e_{j}^{*}\left(e_{j}\right)\), on a \(e_{j}^{*}\left(e_{j}\right)=1\).
    \(\star\) Deuxième cas : \(i \neq j\)
    On a ici \(e_{j}=1 \cdot e_{j}+0 \cdot e_{i}+\sum_{\substack{k=1 \\ k \notin\{i, j\}}}^{n} 0 \cdot e_{k}\) donc \(e_{i}^{*}\left(e_{j}\right)=0\).
    Finalement:
    \[ \forall i, j \in \llbracket 1, n \rrbracket, \quad e_{i}^{*}\left(e_{j}\right)=\delta_{i, j} \]
Partie II – Base antéduale
      1. On a \(\operatorname{Card}(\mathscr{U})=\dim(E)=n\) donc, pour montrer que \(\mathscr{U}\) est une base de \(E\), il suffit de montrer que cette famille est libre. Soient \(\alpha_{1}, \ldots, \alpha_{n} \in \mathbb{K}\). On suppose que \(\sum_{j=1}^{n} \alpha_{j} u_{j}=0_{E}\). Montrons que :
        \[ \forall i \in \llbracket 1, n \rrbracket, \quad \alpha_{i}=0 \]
        Soit \(i \in \llbracket 1, n \rrbracket\). On a d’une part :
        \[ \varphi_{i}\left(\sum_{j=1}^{n} \alpha_{j} u_{j}\right)=\varphi_{i}\left(0_{E}\right)=0 \quad\left(\operatorname{car} \varphi_{i} \text{ est linéaire }\right) \]
        et d’autre part :
        \[ \varphi_{i}\left(\sum_{j=1}^{n} \alpha_{j} u_{j}\right)=\sum_{j=1}^{n} \alpha_{j} \underbrace{\varphi_{i}\left(u_{j}\right)}_{=\delta_{i, j}}=\alpha_{i} \]
        Ainsi, \(\alpha_{i}=0\). Finalement, la famille \(\mathscr{U}\) est libre donc :
        \[ \text{la famille } \mathscr{U} \text{ est une base de } E \]
        Soit \(x \in E\). Comme \(\mathscr{U}\) est une base de \(E\), il existe \(\alpha_{1}, \ldots, \alpha_{n} \in \mathbb{K}\) tels que \(x=\sum_{j=1}^{n} \alpha_{j} u_{j}\). Soit \(i \in \llbracket 1, n \rrbracket\). Par linéarité de \(\varphi_{i}\), on a :
        \[ \varphi_{i}(x)=\varphi_{i}\left(\sum_{j=1}^{n} \alpha_{j} u_{j}\right)=\sum_{j=1}^{n} \alpha_{j} \underbrace{\varphi_{i}\left(u_{j}\right)}_{=\delta_{i, j}}=\alpha_{i} \]
        Ainsi :
        \[ \text{la famille des coordonnées de } x \text{ dans la base } \mathscr{U} \text{ de } E \text{ est }\left(\varphi_{1}(x), \ldots, \varphi_{n}(x)\right) \]
      2. On sait que \(\mathscr{U}\) est une base de \(E\). De plus, pour tout \(i \in \llbracket 1, n \rrbracket\), on a \(\varphi_{i} \in E^{*}\) et, d’après la question précédente,
        \[ \forall x \in E, \quad x=\sum_{i=1}^{n} \varphi_{i}(x) u_{i} \]
        Par définition des formes linéaires \(u_{1}^{*}, \ldots, u_{n}^{*}\), on a l’égalité \(\varphi_{i}=u_{i}^{*}\) pour tout \(i \in \llbracket 1, n \rrbracket\). Ainsi :
        \[ \Phi=\left(u_{1}^{*}, \ldots, u_{n}^{*}\right)=\mathscr{U}^{*} \text{ est la base duale de } \mathscr{U} \]
      1. Soit \(j \in \llbracket 0, n \rrbracket\). On veut trouver un polynôme \(L_{j} \in \mathbb{K}_{n}[X]\) vérifiant les deux propriétés suivantes :
        \((\star) L_{j}\left(a_{j}\right)=1\);
        \((\star \star) \forall i \in \llbracket 0, n \rrbracket \backslash\{j\}, L_{j}\left(a_{i}\right)=0\).
        En posant \(L_{j}=C \prod_{\substack{k=0 \\ k \neq j}}^{n}\left(X-a_{k}\right)\), où \(C \in \mathbb{K}^{*}\), alors \(L_{j}\) vérifie la propriété \((\star \star)\). De plus :
        \[ L_{j}\left(a_{j}\right)=1 \Longleftrightarrow C \prod_{\substack{k=0 \\ k \neq j}}^{n}\left(a_{j}-a_{k}\right)=1 \Longleftrightarrow C=\left(\prod_{\substack{k=0 \\ k \neq j}}^{n}\left(a_{j}-a_{k}\right)\right)^{-1} \]
        Bien définie car les scalaires \(a_{0}, \ldots, a_{n}\) sont deux à deux distincts. Il suffit donc de poser :
        \[ \forall j \in \llbracket 0, n \rrbracket, \quad L_{j}=\prod_{\substack{k=0 \\ k \neq j}}^{n} \frac{X-a_{k}}{a_{j}-a_{k}} \quad \text{(polynômes de Lagrange)} \]
        Les polynômes \(L_{0}, \ldots, L_{n}\) sont de degrés \(n\) (produits de \(n\) polynômes de degrés 1) donc appartiennent à \(E\).
      2. D’après la question 6.(a) :
        \[ \text{la famille } \left(L_{0}, \ldots, L_{n}\right) \text{ est une base de } \mathbb{K}_{n}[X] \]
        et, pour tout \(P \in \mathbb{K}_{n}[X]\), on a :
        \[ P=\sum_{i=0}^{n} \varphi_{i}(P) L_{i}=\sum_{i=0}^{n} P\left(a_{i}\right) L_{i} \]
    1. Soient \(i, j \in \llbracket 1, n \rrbracket\). Par définition de \(\varphi_{i}\), on a \(\varphi_{i}\left(x_{j}\right)=\sum_{k=1}^{n} b_{k, i} e_{k}^{*}\left(x_{j}\right)\) et comme \(x_{j}=\sum_{\ell=1}^{n} a_{\ell, j} e_{\ell}\), on a \(e_{k}^{*}\left(x_{j}\right)=a_{k, j}\) pour tout \(k \in \llbracket 1, n \rrbracket\). Ainsi, \(\varphi_{i}\left(x_{j}\right)=\sum_{k=1}^{n} b_{k, i} a_{k, j}\). Finalement :
      \[ \forall i, j \in \llbracket 1, n \rrbracket, \quad \varphi_{i}\left(x_{j}\right)=\sum_{k=1}^{n} a_{k, j} b_{k, i} \]
    2. \[ \forall i, j \in \llbracket 1, n \rrbracket, \quad\left(B^{\mathrm{T}} A\right)_{i, j}=\sum_{k=1}^{n}\left(B^{\mathrm{T}}\right)_{i, k} a_{k, j}=\sum_{k=1}^{n} b_{k, i} a_{k, j} \]
      Comme \(I_{n}=\left(\delta_{i, j}\right)_{1 \leqslant i, j \leqslant n}\), il vient :
      \[ \begin{aligned} B^{\mathrm{T}} A=I_{n} & \Longleftrightarrow\left(\forall i, j \in \llbracket 1, n \rrbracket,\left(B^{\mathrm{T}} A\right)_{i, j}=\delta_{i, j}\right) \\ & \Longleftrightarrow\left(\forall i, j \in \llbracket 1, n \rrbracket, \sum_{k=1}^{n} a_{k, j} b_{k, i}=\delta_{i, j}\right) \end{aligned} \]
      soit encore, d’après la question précédente :
      \[ B^{\mathrm{T}} A=I_{n} \Longleftrightarrow\left(\forall i, j \in \llbracket 1, n \rrbracket, \varphi_{i}\left(x_{j}\right)=\delta_{i, j}\right) \]
      1. Par définition de la matrice \(B\) (introduite au début de la question 7.), on a :
        \[ B=\begin{pmatrix} 0 & 1 & 1 \\ 1 & 0 & 1 \\ 1 & 1 & 0 \end{pmatrix} \]
      2. La matrice \(B\) est symétrique \(\left(B^{\mathrm{T}}=B\right)\); on cherche la matrice \(A \in \mathscr{M}_{3}(\mathbb{K})\) telle que \(B A=I_{3}\). On sait qu’il s’agit de l’inverse de la matrice \(B\). On obtient :
        \[ A=B^{-1}=\frac{1}{2}\begin{pmatrix} -1 & 1 & 1 \\ 1 & -1 & 1 \\ 1 & 1 & -1 \end{pmatrix} \]
      3. La base antéduale de la famille \(\left(\varphi_{1}, \varphi_{2}, \varphi_{3}\right)\) est la famille \(\left(x_{1}, x_{2}, x_{3}\right)\) où :
        \[ x_{1}=a_{1,1} e_{1}+a_{2,1} e_{2}+a_{3,1} e_{3}=\frac{1}{2}\left(-e_{1}+e_{2}+e_{3}\right), \quad x_{2}=\frac{1}{2}\left(e_{1}-e_{2}+e_{3}\right) \]
        et \(x_{3}=\frac{1}{2}\left(e_{1}+e_{2}-e_{3}\right)\). Ainsi :
        \[ \text{la base antéduale cherchée est } \left(\frac{1}{2}(-1,1,1), \frac{1}{2}(1,-1,1), \frac{1}{2}(1,1,-1)\right) \]