XENS MP Maths A 2024

OShine
Modifié (26 Apr) dans Algèbre
Bonjour,

Je souhaite traiter ce sujet (peut-être qu'une partie, je ne connais pas la difficulté), le début de la première partie correspond au genre de calcul que j'aime faire.
1.a) $\chi_{M_0}= \det(XI_n+M_0)$.
On remarque que $\chi_{M_0} (1)=0$ donc $1$ est valeur propre. En effet, la matrice composée de 1 partout est de déterminant nul car elle est de rang $1$.
$E_{1}=\ker(-M_0-I_n )= \{ (x_1, \cdots, x_n) \in \R^n \ | \ x_1+ \cdots +x_n =0 \}=H$ c'est un hyperplan vectoriel donc il est de dimension $n-1$.
Mais $Tr(-M_0)=0$ donc la deuxième valeur propre est $1-n$.
Un calcul rapide donne : $E_{1-n}= \ker ( -M_0 +(n-1) I_n) = Vect( (1, \cdots, 1))$.
Donc $sp(-M_0)= \{ 1, 1-n \}$.
$\dim E_1 + \dim E_{1-n} =n-1+1=n$ donc $-M_0$ est diagonalisable.





Mots clés:
«134

Réponses

  • Héhéhé
    Modifié (25 Apr)
    Tu ferais mieux d'utiliser le fait que la matrice est symétrique réelle donc diagonalisable et le fait que les espaces propres sont orthogonaux ce qui te donne directement les vecteurs propres sans calcul.
  • Sinon, on peut voir que $M_x = (x-1)I_n + J_n$, où $J_n$ est la matrice de $\mathcal{M}_n(\R)$ qui ne comporte que des $1$ et qui est facile à diagonaliser.
  • salut

    ouais et même de façon naïve en notant M la matrice $M_0$

    puisque pour tout vecteur $(-M)v = M(-v)$ il suffit d'étudier M et alors M et -M ont des valeurs propres opposées et les mêmes sous-espaces propres.

    si $(e_k)$ est la base "canonique" alors posons $f = \sum e_k$

    il vient alors immédiatement que $M(e_k) = f - e_k $ donc que $Mf = (n - 1)f$ et donc f est vecteur propre de valeur propre n - 1

    enfin pour deux indices i et j distincts $M(e_i - e_j) = f - e_i - (f - e_j) = -(e_i - e_j) $ donc les vecteurs $f_k = e_k - e_{k + 1}$ avec $k \le n - 1$ sont n - 1 vecteurs propres indépendantss associées à la valeur propre -1

    Ce ne sont pas les signes, les symboles qui constituent la science ; le seul principe qui y domine, c’est l’esprit de sagacité auquel les objets soumis servent d’auxiliaire.                BHASCARA

  • OShine
    Modifié (25 Apr)
    @Héhéhé
    Il y a des erreurs dans ton message, 0 n'est pas valeur propre...

    @guego
    Intéressant aussi.
    On a $M_x = (x-1) I_n + J_n$.
    $J_n$ est symétrique réelle donc diagonalisable ainsi $M_x$ aussi.
    Donc $-M_0 = I_n -J_n$.
    La matrice $J_n$ est de rang $1$, donc $\ker(J_n)$ est de dimension $n-1$.
    $Sp(J_n)= \{0, n \}$
    $Sp(I_n) = \{ 1 \}$
    $Sp(-M_0)= \{ 1,1-n \}$.
    On en déduit facilement que le sous-espace propre $E_{1}$ de $-M_0$ est de dimension $n-1$.
    Et donc $E_{1-n}$ est de dimension $1$.
  • Héhéhé
    Modifié (25 Apr)
    J'ai corrigé j'avais mal lu la question. J'insiste sur le fait qu'il n'y a (presque) aucun calcul à faire dans cette question.
  • OShine
    Modifié (25 Apr)
    Oui @Guego a donné une solution astucieuse qui fonctionne sans calcul.

    Je vais écrire une rédaction plus précise et plus rigoureuse.
  • Milas
    Modifié (25 Apr)
    Bonjour
    La matrice Jn est symetrique reelle donc diagonalisable et elle est de rang 1 d'ou 0 est une valeur propre de d'ordre n-1 la formule de trace donne que le denier valeur propre de catte matrice est n. On en deduit que les valeurs propres de la matrice Mx sont x-1 d'ordre n-1 et x-1+n de rang 1 et on conclue en faisant le produit des valeurs propres de Mx

  • OShine
    Modifié (25 Apr)
    Voici ma rédaction détaillée à la question. 
    Q1.a) 
    On $M_x= (x-1) I_n+ J_n$.
    Donc $-M_0 = I_n -J_n$.
    $J_n$ est symétrique réelle donc diagonalisable.
    $rg(J_n)=1$ donc $\ker(J_n)$ est un hyperplan d'après le théorème du rang et $\dim \ker (J_n)=n-1$.
    Ainsi $0$ est valeur propre de multiplicité $n-1$.
    Soit $\lambda$ une autre valeur propre de $J_n$. Comme $Tr(J_n)=n$, on a $(n-1) \times 0 + \lambda =n$ ainsi $\lambda =n$.
    Ainsi $sp(J_n)= \{ 0,n \}$.
    $J_n$ est semblable à $diag(0, \cdots, 0,n)$ donc $-M_0$ est semblable à la matrice $diag(1, \cdots , 1,1-n)$.
    Ainsi $\boxed{sp(-M_0)= \{1,1-n \}}$.
    Or $E_{1}$ le sous-espace propre de $-M_0$ associé à la valeur propre $1$ est de dimension $n-1$, c'est un hyperplan vectoriel. 
    $\boxed{E_1 = \{ X= (x_1, \cdots, x_n)^T  \ | \ x_1+ \cdots +x_n =0 \} }$.
    Et $E_{1-n}$ est de dimension $1$, c'est une droite vectorielle car la somme des dimensions des sous-espaces propres est égale à $n$.
    Mais $(1, \cdots, 1)^T \in \ker (-M_0 +(n-1) I_n)$ donc $\boxed{E_{1-n}= Vect ( (1, \cdots, 1)^T )}$.

    PS : coquille corrigée et rédaction améliorée suite à la remarque de @bisam


  • Il manque une, voire deux étapes entre la ligne "$\ker(J_n)$ est un hyperplan" et la ligne "mais $\text{tr}(J_n)=n$ donc $n$ est également valeur propre". Le "donc" à cet endroit est loin d'être évident.

    Ensuite, il y a une erreur dans le spectre de $M_0$ : c'est incohérent avec la ligne précédente.

    Enfin, c'est dommage que tu ne profites pas des propriétés géométriques de $J_n$ ou plutôt de $\frac 1n J_n$.
  • OShine
    Modifié (25 Apr)
    @bisam
    Merci.
    J'ai rectifié la coquille et rajouté les explications.
    Si on pose $W_n = \dfrac{1}{n} J_n$ alors $W_n ^2 = W_n$ donc $W_n$ est un projecteur.
    Ses valeurs propres sont donc $0$ et $1$.
    Mais $J_n = w W_n$ donc $Sp(J_n)= \{ 0,n \}$.

    C'est encore plus rapide avec le projecteur, on sait que tout projecteur est diagonalisable en plus.
  • C'est même un projecteur orthogonal (puisque symétrique)... donc noyau et image sont orthogonaux.
  • Ah d'accord merci.
    Pour la suite, la 1.b c'est exactement la formule du déterminant que j'ai utilisée il y a peu.

  • 1.b)
    On a immédiatement : $\chi_{-M_0} (x)=(x-1)^{n-1} (x+n-1)$ d'après Q1.a.
    Mais aussi : $\chi_{-M_0} (x)= \displaystyle\sum_{ \sigma \in \mathfrak{S}_n} \varepsilon(\sigma) \displaystyle\prod_{i=1}^n \left( X \delta_{\sigma(i) i}+ [M_0]_{\sigma(i)i} \right)$.
    $\chi_{-M_0} (x)= \displaystyle\sum_{ \sigma \in \mathfrak{S}_n} \varepsilon(\sigma) \displaystyle\prod_{1 \leq  i \leq n\\ \sigma(i)=i} \left( x \delta_{\sigma(i) i}+ [M_0]_{\sigma(i)i} \right) \times  \displaystyle\prod_{1 \leq  i \leq n\\ \sigma(i) \ne i} \left( x \delta_{\sigma(i) i}+ [M_0]_{\sigma(i)i} \right)$.
    On a pour $\sigma \in \mathfrak{S}_n$ fixée :  
    • Si $\sigma(i)=i$ alors $x \delta_{\sigma(i) i}+ [M_0]_{\sigma(i)i}=x$
    • Si $\sigma(i) \ne i$ alors $x \delta_{\sigma(i) i}+ [M_0]_{\sigma(i)i} = 1$
    Donc :  $\chi_{-M_0} (x)= \displaystyle\sum_{ \sigma \in \mathfrak{S}_n} \varepsilon(\sigma) \displaystyle\prod_{1 \leq  i \leq n\\ \sigma(i)=i} x \times  \displaystyle\prod_{1 \leq  i \leq n\\ \sigma(i) \ne i} 1$.
    Finalement :  
    $\chi_{-M_0} (x)= \displaystyle\sum_{ \sigma \in \mathfrak{S}_n} \varepsilon(\sigma) x^{\mu(\sigma)}$
    Conclusion :  
    $\boxed{\displaystyle\sum_{ \sigma \in \mathfrak{S}_n} \varepsilon(\sigma) x^{\mu(\sigma)} = (x-1)^{n-1} (x+n-1)}$.




  • La question 2 est calculatoire ! Je m'arrête ici pour ce soir. 
    2) 

    Pour la première somme, on prend $x=1$ et on obtient $\boxed{\displaystyle\sum_{\sigma \in \mathfrak{S}_n} \varepsilon( \sigma)=0}$.

    Posons :  $f_n(x)=\displaystyle\sum_{\sigma \in \mathfrak{S}_n} \varepsilon( \sigma) x^{\nu( \sigma)}=(x-1)^{n-1} (x+n-1)$.
    On remarque que : $\displaystyle\sum_{\sigma \in \mathfrak{S}_n} \varepsilon( \sigma) x^{\nu( \sigma)}=\displaystyle\sum_{\sigma \in \mathfrak{S}_n \\ \nu(\sigma) \geq 1} \varepsilon( \sigma) x^{\nu( \sigma)}$.
    Mais d'une part $f_n '(x)=\displaystyle\sum_{\sigma \in \mathfrak{S}_n} \varepsilon( \sigma) \nu( \sigma) x^{\nu( \sigma)-1}$ et d'autre part : $f_n'(x)=(n-1) (x-1)^{n-2}(x+n-1)+ (x-1)^{n-1}$.
    En évaluant en $x=1$, on obtient : 
    $\boxed{\displaystyle\sum_{\sigma \in \mathfrak{S}_n} \varepsilon( \sigma) \nu( \sigma) = \begin{cases} 2 \ \text{si} \ n =2 \\ 0 \ \text{si} \ n \geq 3 \end{cases}}$

    Calculons la dernière somme.
    $\displaystyle\int_{0}^x \displaystyle\sum_{\sigma \in \mathfrak{S}_n} \varepsilon( \sigma) u^{\nu( \sigma)} du= \displaystyle\sum_{\sigma \in \mathfrak{S}_n} \varepsilon( \sigma) \dfrac{u^{\nu( \sigma)+1}}{\nu(\sigma)+1}$.
    Mais aussi : $\displaystyle\int_{0}^x (u-1)^{n-1} (u+n-1) du =\displaystyle\int_{0}^x (u-1)^n du +n \displaystyle\int_{0}^x  (u-1)^{n-1}=\dfrac{(x-1)^{n+1}}{n+1}+(x-1)^n +(-1)^{n+1} \dfrac{n}{n+1}$.
    En évaluant en $x=1$, on obtient finalement : 
    $\boxed{\displaystyle\sum_{\sigma \in \mathfrak{S}_n} \dfrac{\varepsilon( \sigma )}{ \mu( \sigma) +1} = (-1)^{n+1} \dfrac{n}{n+1}}$.


  • OShine a dit :
    On remarque que : $\displaystyle\sum_{\sigma \in \mathfrak{S}_n} \varepsilon( \sigma) x^{\nu( \sigma)}=\displaystyle\sum_{\sigma \in \mathfrak{S}_n \\ \nu(\sigma) \geq 1} \varepsilon( \sigma) x^{\nu( \sigma)}$.


    Tu sembles ne pas avoir bien compris l'intérêt du $\nu(\sigma)\geq 1$ dans la preuve du corrigé https://cpge-paradise.com/Concours2024/XENS/MP/corriges/MathA2024corr.pdf
    Sinon, c'est assez ressemblant, félicitations.


  • OShine
    Modifié (25 Apr)
    Pas besoin de corrigé, j'ai vu le problème du $\nu(\sigma) \geq 1$ tout seul.
    D'ailleurs, ici pour Q1 on m'a donné des solutions bien meilleures que celle du corrigé et bien plus efficaces. 
    Si $\nu(\sigma)=0$ alors en dérivant, j'ai vu que j'avais du $x^{\nu(\sigma)-1}$ et comme $x \in \R$ il y a un problème.
    Je peux démontrer cette relation qui n'est pas expliquée dans le corrigé.
    On a $\displaystyle\sum_{\sigma \in \mathfrak{S}_n} \varepsilon(\sigma) x^{ \nu( \sigma)}=\displaystyle\sum_{\sigma \in \mathfrak{S}_n \\ \nu(\sigma) =0 } \varepsilon(\sigma) x^{ \nu( \sigma)} + \displaystyle\sum_{\sigma \in \mathfrak{S}_n \\ \nu(\sigma) \geq 1} \varepsilon(\sigma) x^{ \nu( \sigma)} = 0 +\displaystyle\sum_{\sigma \in \mathfrak{S}_n \\ \nu(\sigma) \geq 1} \varepsilon(\sigma) x^{ \nu( \sigma)} =\displaystyle\sum_{\sigma \in \mathfrak{S}_n \\ \nu(\sigma) \geq 1} \varepsilon(\sigma) x^{ \nu( \sigma)}  $

    Par contre, pour Q3 je ne sais pas ce que signifie signature prescrite.
  • JLapin
    Modifié (25 Apr)
    Tu feras attention quand tu apprendras à tes élèves la définition de $x^0$.
    Sinon, ton projet, c’est de reprendre le corrigé en détaillant ce que tu estimes insuffisamment détaillé et en introduisant quelques coquilles. C’est triste mais je ne suis pas surpris…
  • Lirone93
    Modifié (25 Apr)
    Pour info.
    Sur yt, hier j'ai suivi la correction complète de ce sujet. La vidéo dure de mémoire 1'30, à peu près.
    « je sais que la question de départ est bizarre de la part d'un professeur certifié ».
  • Je compte plutôt chercher les questions moi-même, mais je ne sais pas que que c'est une signature prescrite, jamais entendu cette expression.
  • Je compte plutôt chercher les questions moi-même
    Ce que tu fais depuis le début de ce fil s’appelle un plagiat, purement et simplement. C’est honteux et tu devrais cesser sans délai.
  • raoul.S
    Modifié (25 Apr)
    OShine a dit : 
    mais je ne sais pas que que c'est une signature prescrite...

    Prescrite ça veut dire donnée. Une signature fixée au départ quoi... 🙄

    La question est : quelle est la probabilité qu'en tirant au hasard une permutation tu obtiennes une permutation ayant une signature donnée ($1$ et $-1$ étant les deux valeurs possibles pour la signature).

  • Lirone93
    Modifié (26 Apr)
    Ce n'était pas destiné forcément à toi en fait.

    Bon, sinon pour te répondre puisqu'il n'y a que ça qui intéresse... : la phrase que tu n'as pas comprise, c'est parce que tu prends « signature prescrite » avec « prescrite » comme un terme courant et/ou général dans le domaine mathématique alors que du tout, c'est un terme inhabituel tout à fait dans le sens du langage naturel.
    « je sais que la question de départ est bizarre de la part d'un professeur certifié ».
  • Lirone93
    Modifié (26 Apr)
    raoul.S a dit :
    OShine a dit : 
    mais je ne sais pas que que c'est une signature prescrite...

    Prescrite ça veut dire donnée. Une signature fixée au départ quoi... 🙄

    La question est : quelle est la probabilité qu'en tirant au hasard une permutation tu obtiennes une permutation ayant une signature donnée ($1$ et $-1$ étant les deux valeurs possibles pour la signature).

    Il ne fallait pas répondre en donnant la solution directement...
    « je sais que la question de départ est bizarre de la part d'un professeur certifié ».
  • OShine
    Modifié (26 Apr)
    @JLapin
    Ok, je n'ouvrirai plus ce corrigé.

    @raoul.S
    Ok merci.
  • OShine
    Modifié (26 Apr)
    Pour Q3, pour la partie proba je ne suis pas sûr de ma rédaction.

    3) On a d'après Q2, $\displaystyle\sum_{\sigma \in \mathfrak{S}_n } \varepsilon( \sigma) =0$.
    On a la partition suivante : $ \mathfrak{S_n} = \{ \sigma \in \mathfrak{S}_n \ , \ \varepsilon(\sigma) = 1 \} \cup  \{ \sigma \in \mathfrak{S}_n \ , \ \varepsilon(\sigma) = -1 \}$
    Ainsi : $\displaystyle\sum_{\sigma \in \mathfrak{S}_n } \varepsilon( \sigma) = \displaystyle\sum_{\sigma \in \mathfrak{S}_n \\   \varepsilon(\sigma) = 1 } \varepsilon( \sigma) +  \displaystyle\sum_{\sigma \in \mathfrak{S}_n \\   \varepsilon(\sigma) = -1 } \varepsilon( \sigma) =  \displaystyle\sum_{\sigma \in \mathfrak{S}_n \\   \varepsilon(\sigma) = 1 } 1 -   \displaystyle\sum_{\sigma \in \mathfrak{S}_n \\   \varepsilon(\sigma) = -1 }  1 = card (\{ \sigma \in \mathfrak{S}_n \ , \ \varepsilon(\sigma) = 1 \} ) - card( \{ \sigma \in \mathfrak{S}_n \ , \ \varepsilon(\sigma) = -1 \} )=0  $
    Finalement : $\boxed{card (\{ \sigma \in \mathfrak{S}_n \ , \ \varepsilon(\sigma) = 1 \} ) = card( \{ \sigma \in \mathfrak{S}_n \ , \ \varepsilon(\sigma) = -1 \} ) }$

    Pour la probabilité, voici mon idée.
    On note $A^{+}$ l'évènement : $\{ \sigma \in \mathfrak{S}_n \ | \ \varepsilon ( \sigma) =1 \}$ et  $A^{-}$ l'évènement : $\{ \sigma \in \mathfrak{S}_n \ | \ \varepsilon ( \sigma) =-1 \}$ .
    On a $\Omega= \mathfrak{S}_n$.
    On a $card( \mathfrak{S}_n ) = 2 card (A^{+})$
    $P(A^{+})=\dfrac{ card( A^{+})}{ card ( \mathfrak{S}_n)} = \dfrac{1}{2}$
    $P(A^{-})=\dfrac{ card( A^{-})}{ card ( \mathfrak{S}_n)} = \dfrac{1}{2}$
    Or les deux seules issues possibles sont $A^{+}$ et $A^{-}$ la probabilité vaut toujours $1/2$.
  • De rien.
    « je sais que la question de départ est bizarre de la part d'un professeur certifié ».
  • OShine
    Modifié (26 Apr)
    La question 4 semble abordable, je ne vois pas encore mais j'ai l'impression que c'est encore une manipulation simple des sommes avec la question 1.b.
  • OShine
    Modifié (26 Apr)
    J'ai réussi la question $4$.
    J'ai révisé récemment les sommes (début de MPSI) et j'ai l'impression qu'on utilise que ça ici, choisir des partitions et séparer les sommes. 
    Q4) 
    On a $\boxed{\sigma \in \mathcal D_n \iff \nu(\sigma)=0}$.
    On a la partition : $\mathfrak{S}_n = \mathcal D_n \cup (\mathfrak{S}_n \backslash \mathcal D_n) $.
    Ainsi $\displaystyle\sum_{ \sigma \in \mathfrak{S}_n} \varepsilon (\sigma) x^{\nu( \sigma)} = \displaystyle\sum_{ \sigma \in \mathcal D_n} \varepsilon (\sigma) x^{\nu( \sigma)}  + \displaystyle\sum_{ \sigma \in \mathfrak{S}_n \backslash \mathcal D_n} \varepsilon (\sigma) x^{\nu( \sigma)} =(x-1)^{n-1} (x+n-1)$
    D'où :  $\boxed{ \displaystyle\sum_{ \sigma \in \mathcal D_n} \varepsilon (\sigma)  + \displaystyle\sum_{ \sigma \in \mathfrak{S}_n \backslash \mathcal D_n} \varepsilon (\sigma) x^{\nu( \sigma)} =(x-1)^{n-1} (x+n-1)} $

    Mais :  $\displaystyle\sum_{ \sigma \in \mathcal D_n} \varepsilon (\sigma) x^{\nu( \sigma)} = \displaystyle\sum_{ \sigma \in \mathcal D_n \\ \varepsilon(\sigma)=1} \varepsilon (\sigma) x^{\nu( \sigma)}+ \displaystyle\sum_{ \sigma \in \mathcal D_n \\ \varepsilon( \sigma)=-1} \varepsilon (\sigma) x^{\nu( \sigma)}=card \{ \sigma \in \mathcal D_n \ | \ \varepsilon(\sigma)= 1 \} - card \{ \sigma \in \mathcal D_n \ | \ \varepsilon(\sigma)= -1 \}$

    En prenant $x=0$, il vient : $card \{ \sigma \in \mathcal D_n \ | \ \varepsilon(\sigma)= 1 \} - card \{ \sigma \in \mathcal D_n \ | \ \varepsilon(\sigma)= -1 \}=(-1)^{n-1} (n-1)$

    Enfin : $\boxed{card \{ \sigma \in \mathcal D_n \ | \ \varepsilon(\sigma)= 1 \} = card \{ \sigma \in \mathcal D_n \ | \ \varepsilon(\sigma)= -1 \} +(-1)^{n-1} (n-1)}$


  • OShine
    Modifié (26 Apr)
    La suite, un peu d'algèbre linéaire. Je bloque sur l'inverse de $M$.
    5.a) On a $\dim \R_m [X]=m+1$ et les familles comportent $m+1$ éléments et les éléments sont échelonnés en degré donc ils forment une famille libre.
    Finalement, ce sont bien des bases de $\R_m [X]$.
    5.b) Il suffit de voir que $\forall k \in [|0,m|]$ on a $\boxed{X^k = (X-1+1)^k= \displaystyle\sum_{i=0}^k \binom{k}{i} (X-1)^i}$.
    5.c) $M$ est triangulaire supérieure donc $\det(M)= \displaystyle\prod_{q=1}^m  \binom{q}{q} = 1 \ne 0$ donc $M$ est inversible.
    Pour l'inverse de $M$, je ne vois pas. J'ai essayer de résoudre le système, mais ça me semble trop compliqué.



  • Je n'ai rien suivi mais en lisant la 5.b je vois qu'on te dit que $M^t$ est la matrice de l'endomorphisme identité (qui est inversible...) dans des bases données. Donc $M^t$ est inversible, donc $M$ est inversible.
  • @raoul.S
    Oui c'est plus rapide.
    Pas besoin de lire ce qui précède, le début de la question $5$ ne dépend pas de ce qui précède, ce sont des questions d'algèbre linéaire matricielle.
    Pour l'inverse j'ai une idée. 
    Je sais calculer $(M^T)^{-1}$. Puis, je vais utiliser que $(M^T)^{-1}=(M^{-1})^T$.  
    Donc $\boxed{M^{-1} =((M^T)^{-1})^T}$
    En effet, $M^T$ est une matrice de passage donc on sait calculer son inverse.
    Je vais essayer au brouillon.

  • OShine
    Modifié (27 Apr)
    J'ai réussi 5.c.
    Tu avais raison, le corrigé est faux pour cette question, ils ont oublié de faire la transposée, du coup mieux vaut faire les choses soit même.
    Dans 5.d 
    il n'y a pas une erreur d'énoncé ? La somme de $v_k$ va jusqu'à $m$ et non $k$, sauf erreur de ma part.

    5.c) Notons $\mathcal B_1 = (1,X, \cdots, X^m)$ et $\mathcal B_2 = (1,X-1, \cdots, (X-1)^m)$.
    On a $M^T=P_{\mathcal B_2}^{\mathcal B_1}$.
    Donc $(M^T)^{-1}=(M^{-1})^T=P_{\mathcal B_1}^{\mathcal B_2}$
    Soit $k \in [|0,m|]$.
    On a $(X-1)^k= \displaystyle\sum_{i=0}^k \binom{k}{i} X^i (-1)^{k-i}$
    Donc : $\forall (i,j) \in [|0,m|]^2 \  [(M^{-1})^T]_{ij}= \binom{j}{i} (-1)^{j-i}$
    Finalement, en passant à la transposée :  $\boxed{\forall (i,j) \in [|0,m|]^2 \  [M^{-1}]_{ij}= \binom{i}{j} (-1)^{i-j}}$

    5.d) On a $(u_0, \cdots ,u_m)^T=\left( \displaystyle\sum_{l=0}^0 \binom{0}{l} v_l, \cdots,  \displaystyle\sum_{l=0}^m \binom{m}{l} v_l  )^T \right) = M (v_0, \cdots, v_m)^T$
    Donc : $(v_0, \cdots, v_m)^T = M^{-1} (u_0, \cdots ,u_m)^T$
    En regardant la $k$-ième ligne $v_k$, on remarque que $v_k= \text{k-ième ligne de l'inverse de M} \times  (u_0, \cdots ,u_m)^T$
    Ce qui donne $\boxed{\forall k \in [|0,m|] \ v_k=\displaystyle\sum_{l=0}^m \binom{l}{k}  (-1)^{k-l} u_l }$.




  • bd2017
    Modifié (27 Apr)
    Bonjour
    Au passage je remarque que tu as des difficultés pour un petit exo de collège pour ensuite faire un sujet XENS. Comprenne qui pourra.
    Sinon, en  notant $U$  et $V$  les vecteurs colonnes  associés  à ces deux vecteurs lignes, la question  5 . d  est la simple traduction de "$U=  MV$   implique $V=M^{-1} U$" et l'expression de $M^{- 1}$  est dans le corrigé de la question précédente.   
     Il n'y a donc pas d'erreur dans l'énoncé de la question 5.d.
    Par ailleurs tu devrais te dire que $M$  étant triangulaire inférieure, il en est de même pour $M^{-1};$  ce qui explique que les sommes vont bien  de $l=0$  à $l=k.$  
     
  • @bd2017
    Oui bien vu l'ensemble des matrices triangulaires inférieures est un groupe.

    On a $U=MV$ donc $V=M^{-1} U$.
    Soit $k \in [|0,m|]$. 
    On a $[V]_k = v_k = [ M^{-1} U]_k= \displaystyle\sum_{l=0}^m [M^{-1}]_{k l} u_l$.
    Or $[M^{-1}]_{kl}=\binom{k}{l} (-1)^{k-l}$ donc $[M^{-1}]_{kl}=0$ si $l>k$. (Je viens de réviser les coefficients binomiaux)
    Ainsi : $\boxed{\forall 1 \leq k \leq m \ \  v_k =  \displaystyle\sum_{l=0}^k (-1)^{k-l}  \binom{k}{l} u_l}$.

    Pour la 6, ça me semble une question classique de maths sup. 



  • Lirone93
    Modifié (27 Apr)
    @bd2017

    C'est plus que des difficultés, puisqu'en fait l'exercice du collège n'a jamais été résolu, même s'il cherche apparemment à faire croire le contraire. Ce qui est inquiétant.

    Mais le pire serait qu'il ait bien réussi à faire croire qu'il a résolu l'exercice alors que ce forum est quand même fréquenté par pas mal de professeurs, de ce que j'ai compris.
    Ou alors on est épuisé ou alors on est complaisant ou alors on ose pas être plus ferme ou on n'y arrive pas, ou ça n'intéresse pas, ou on reste dubitatif etc.
    Bref ça persiste...
    « je sais que la question de départ est bizarre de la part d'un professeur certifié ».
  • OShine
    Modifié (28 Apr)
    6) Cette question m'a demandé du temps. Cette question est peu guidée. 
    Je la trouve difficile, peut-être la première question ardue du sujet.
    Soit $0 \leq k \leq n$.
    On sait que $| \mathfrak{S}_k | =k!$.
    On a la partition suivante :  $ \mathfrak{S}_k = \displaystyle\bigcup_{l=0}^k \{ \sigma \in  \mathfrak{S}_k \ | \ \nu(\sigma)= l \}$.
    Pour $l \in [|0,k|]$ notons $A_l = \{ \sigma \in  \mathfrak{S}_k \ | \ \nu(\sigma)= l \}$.
    On a : $| \mathfrak{S}_k |= \displaystyle\sum_{l=0}^k | A_l | =k!$.
    Déterminons $| A_l |$ : 
    • On choisit les $l$ points fixes, il y en a : $\binom{k}{l}$.
    • On effectue un dérangement des $k-l$ restants. Donc : $| A_l |= \binom{k}{l} D_{k-l}$.
    Ainsi : $k!= \displaystyle\sum_{l=0}^k \binom{k}{l} D_{k-l} = \displaystyle\sum_{j=0}^k \binom{k}{k-j} D_j$
    D'où : $k!=  \displaystyle\sum_{j=0}^k \binom{k}{j} D_j$
    Posons $u_k=k!$ et $v_l = D_l$. D'après Q5d, on a : 
    $v_n= \displaystyle\sum_{l=0}^n (-1)^{n-l} \binom{n}{l} l !$ soit : $v_n= n! \displaystyle\sum_{l=0}^n \dfrac{(-1)^{n-l}}{(n-l)!}$
    Le changement d'indice $k=n-l$ donne : $\boxed{D_n = n! \displaystyle\sum_{l=0}^n \dfrac{(-1)^{k}}{k!}}$
  • Mis à part des fautes de recopiage, bravo!
     
  • OShine
    Modifié (27 Apr)
    Ce sujet me motive car je ne bloque pas totalement sur des questions pour l'instant, j'ai toujours des idées pour démarrer, même si je n'aboutis pas toujours.
    Bon, je fais plusieurs choses à la fois, j'ai revu la trigo de MPSI donc j'avance lentement.
    Je vais essayer de terminer la Q8 ce soir, des questions de probabilités mélangées à l'algèbre c'est intéressant.
  • 7.a) 
    La signature d'une permutation vaut $1$ ou $-1$ donc $\boxed{Y_n( \mathcal D_n)= \{-1,1 \}}$.
    On a :  $ P(Y_n =1)+ P(Y_n =-1)=1$ $(A)$
    $P(Y_n =1)= \dfrac{ card \{ \sigma \in \mathcal D_n \ : \ \varepsilon( \sigma)=1 \}}{ D_n }$
    D'après Q4, on en déduit : $P(Y_n =1)= \dfrac{ card \{ \sigma \in \mathcal D_n \ : \ \varepsilon( \sigma)= -1 \}}{ D_n }+ \dfrac{ (-1)^{n-1} (n-1) }{D_n}$
    Soit : $P(Y_n =1) -P(Y_n =-1) = \dfrac{ (-1)^{n-1} (n-1) }{D_n}$ $(B)$
    $(A)+(B)$ donne : $2 P(Y_n =1)=1+ \dfrac{ (-1)^{n-1} (n-1) }{D_n}$
    Donc : $\boxed{P(Y_n =1)= \dfrac{1}{2}+ \dfrac{ (-1)^{n-1} (n-1) }{2 D_n}}$
    Et $\boxed{ P(Y_n = -1)= \dfrac{1}{2}- \dfrac{ (-1)^{n-1} (n-1) }{2 D_n}}$

    7.b) On voit que $P(Y_n = \varepsilon)=\dfrac{1}{2}+ \varepsilon \dfrac{ (-1)^{n-1} (n-1) }{2 D_n}$
    D'après Q6, $D_n = n! \displaystyle\sum_{k=0}^n \dfrac{(-1)^k}{k!}$. Donc : $P(Y_n = \varepsilon)=\dfrac{1}{2}+ \varepsilon \dfrac{ (-1)^{n-1} (n-1) }{2  n! \sum_{k=0}^n \dfrac{(-1)^k}{k!}}$
    Or : $ \sum_{k=0}^n \dfrac{(-1)^k}{k!} \sim \dfrac{1}{e}$ et $\dfrac{n-1}{n!} \longrightarrow 0$
    Ainsi $\boxed{\lim\limits_{n \rightarrow +\infty} P(Y_n = \varepsilon)= \dfrac{1}{2}}$.



  • On est content pour toi bravo.
    « je sais que la question de départ est bizarre de la part d'un professeur certifié ».
  • OShine
    Modifié (28 Apr)
    Je bloque sur la 8.c la limite.
    8.a) $Z_n( \mathfrak{S}_n )= \{0,1,2, \cdots, n \}$.
    Soit $k \in [|0,n|]$.
    On a $P(Z_n = k)= \dfrac{ card \{ \sigma \in \mathfrak{S}_n \ | \ \nu( \sigma)=k \} }{ card \mathfrak{S}_n }$
    Donc $P(Z_n =k)= \dfrac{ \binom{n}{k} D_{n-k}}{n!}=\dfrac{1}{ k! (n-k)!} D_{n-k}$
    D'après Q6, on a : $\boxed{P(Z_n =k)= \dfrac{1}{k!} \displaystyle\sum_{p=0}^{n-k} \dfrac{(-1)^p}{p!}}$.

    8.b) $\lim\limits_{n \rightarrow +\infty} \displaystyle\sum_{p=0}^{n-k} \dfrac{(-1)^p}{p!} = \lim\limits_{n \rightarrow +\infty} \displaystyle\sum_{p=0}^{n} \dfrac{(-1)^p}{p!} = \dfrac{1}{e}$.
    Donc : $\boxed{\forall k \leq n \  \ \lim\limits_{n \rightarrow +\infty} P(Z_n =k)= \dfrac{1}{ e k!}}$

    8.c) $E(Z_n)=\displaystyle\sum_{k=0}^{n} k P(Z_n =k)= \displaystyle\sum_{k=0}^{n} \dfrac{k}{k!} \displaystyle\sum_{p=0}^{n-k} \dfrac{(-1)^p}{p!}$.
    Je bloque sur cette limite lorsque $n$ tend vers $+ \infty$.
    On ne peut pas simplifier l'expression de l'espérance ? 
  • Lirone93
    Modifié (28 Apr)
    Non pas besoin de meilleure expression pour cette question.

    Réfléchis un peu et essaie de proposer qq chose « d'intuitif » pour cette question, en utilisant la question 8.b...
    « je sais que la question de départ est bizarre de la part d'un professeur certifié ».
  • bd2017
    Modifié (28 Apr)
    8.a  est faux. 
    Comme par ailleurs le début de 8.c.  
    En écrivant 8.c  correctement et avec un calcul formel élémentaire,  il est clair que la limite de $E(Z_n)$ attendue vaut $1$. La convergence dominée devrait justifier ce calcul.

    Edit:  j'ai fait remarquer qu'il y a des fautes dans la réponse à 6, pourrais-tu les corriger?
     
  • Lirone93
    Modifié (28 Apr)
    Et la question 8.c parle de nombre moyen de points fixes, pas directement d'espérance.

    Donc encore et toujours des copier/coller partiels.
    bd2017 a dit :

    Edit:  j'ai fait remarquer qu'il y a des fautes dans la réponse à 6, pourrais-tu les corriger?
    Non il ne pourra pas.
    « je sais que la question de départ est bizarre de la part d'un professeur certifié ».
  • Lirone93
    Modifié (28 Apr)
    bd2017 a dit :
    La convergence dominée devrait justifier ce calcul.
    Ou en utilisant le théorème de la double limite, s'il est au programme.

    Double edit... : « double limite » -> (pensant à une erreur) « double somme » -> (c'était bien : ) « double limite ».
    « je sais que la question de départ est bizarre de la part d'un professeur certifié ».
  • Une autre façon de calculer l'espérance de $Z_n$ est de remarquer que $Z_n$ est la somme des variables aléatoires de Bernoulli $X_k$ valant $1$ si $k$ est un point fixe et $0$ sinon.
    Le résultat est alors immédiat.
  • @bd2017
    J'ai rectifié les nombreuses coquilles.
    On a $E(Z_n)= \displaystyle\sum_{k=0}^n \displaystyle\sum_{p=0}^{n-k} \dfrac{(-1)^p}{ (k-1)! p!}$
    Ensuite je bloque, je ne connais pas de théorème de convergence dominée sur les séries. Je connais que les résultats sur la sommabilité et le théorème de Fubini. 
    Je ne sais pas quel théorème appliquer ici.

    @bisam
    Je n'ai pas réussi avec cette méthode.
    $Z_n= X_0+ X_1+ \cdots + X_n$.
    $E(Z_n)=E(X_0)+ \cdots + E(X_n)$
    Mais que vaut $P(X_k = 1)$ ? 
  • Lirone93
    Modifié (28 Apr)
    Je t'ai déjà répondu pour ma part.
    « je sais que la question de départ est bizarre de la part d'un professeur certifié ».
  • @bisam intéressant ton idée.  Donc  $E(Z_n)=1$  ne dépend pas de $n.$
     
  • OShine
    Modifié (28 Apr)
    Je ne connais pas de théorème de la double somme. A mon avis, il n'existe pas.
    C'est le théorème de Fubini, j'ai étudié les familles sommables récemment.

    @bd2017
    Voici une rédaction précise utilisant le théorème de Fubini que j'ai longuement étudié il n'y a pas si longtemps.
    $E(Z_n) \longrightarrow S= \displaystyle\sum_{k=1}^{+\infty} \displaystyle\sum_{p=0}^{+\infty} u_{p,k}$ avec $u_{p,k}= \dfrac{ (-1)^p}{ (k-1) ! p!}$

    Si on est dans les hypothèses du théorème de Fubini, alors $S= \displaystyle\sum_{p=0}^{+\infty} \dfrac{(-1)^p}{p!} \displaystyle\sum_{k=1}^{+\infty} \dfrac{1}{(k-1)!}$. Or : $\displaystyle\sum_{k=1}^{+\infty} \dfrac{1}{(k-1)!} = e$. Puis $\displaystyle\sum_{p=0}^{+\infty} \dfrac{(-1)^p}{p!}= \dfrac{1}{e}$ 
    Donc $S= 1$.

    Vérifions les hypothèses du théorème de Fubini.
    • Pour tout $k \in [|1,+\infty |[$, la série $\sum_{p \geq 0} |u_{p,k}|$ converge vers $\dfrac{e}{(k-1)!}$
    • La série $\sum_{k \geq 0} \left( \sum_{p=0}^{+\infty} |u_{p,k}| \right)$ converge vers $e \times e^{-1}=1$.
    Finalement, $\boxed{E(Z_n) \longrightarrow 1}$.

    Pour la méthode de @bisam
    $P(X_i =1)= \dfrac{n!}{(n+1)!}=\dfrac{1}{n+1}$ donc $E(Z_n )=1$ ce résultat est-il cohérent ? 

    @Lirone93
    Ma méthode n'est pas traitée dans ton corrigé. 






Connectez-vous ou Inscrivez-vous pour répondre.