\documentclass[11pt]{article}


% Packages gestion des caractères, du français et de la mise en page

\usepackage[french]{babel}
\usepackage[utf8]{inputenc}
\usepackage[T1]{fontenc}

\renewcommand{\FrenchLabelItem}{\textbullet}
\setlength{\parindent}{0pt}


% Packages maths

\usepackage{mathtools}
\usepackage{amsthm}
\usepackage{amsfonts}
\usepackage{amssymb}
\usepackage{stmaryrd}


% Packages mise en page

\usepackage{comment}
\usepackage{enumitem}
\usepackage[margin=2.5cm]{geometry}
\usepackage{multicol}
\usepackage[pdftex,pdfborder={0 0 0},linktoc=all]{hyperref}
\usepackage{pdfpages}
\usepackage{tabularx}


% Packages graphiques

\usepackage{subfig}
\usepackage{pgf,tikz}
\usetikzlibrary{arrows}
\usetikzlibrary{cd}
\usetikzlibrary{graphs}
\usepackage[figurename=Figure]{caption}



% Nouveaux environnements

\theoremstyle{plain}
	\newtheorem{thm}{Théorème}
	\newtheorem{cor}[thm]{Corollaire}
	\newtheorem{lem}[thm]{Lemme}
	\newtheorem{prop}[thm]{Proposition}


\theoremstyle{definition}
	\newtheorem{dfn}[thm]{Définition}
	\newtheorem{ntn}[thm]{Notation}
	\newtheorem{exo}[thm]{Exercice}

\theoremstyle{remark}
	\newtheorem*{hint}{Indication}
	\newtheorem*{rem}{Remarque}
	\newtheorem{ex}[thm]{Exemple}


% Commandes et opérateurs utiles

\newcommand{\C}{\mathbb{C}}
\newcommand{\N}{\mathbb{N}}
\newcommand{\Q}{\mathbb{Q}}
\newcommand{\R}{\mathbb{R}}
\renewcommand{\S}{\mathbb{S}}
\newcommand{\Z}{\mathbb{Z}}

\newcommand{\cC}{\mathcal{C}}
\newcommand{\cL}{\mathcal{L}}
\newcommand{\cO}{\mathcal{O}}
\newcommand{\cP}{\mathcal{P}}
\newcommand{\cS}{\mathcal{S}}
\newcommand{\cV}{\mathcal{V}}

\newcommand{\BL}{\textbf{(BL)}}
\newcommand{\BW}{\textbf{(BW)}}


\renewcommand{\bar}{\overline}
\renewcommand{\epsilon}{\varepsilon}
\renewcommand{\geq}{\geqslant}
\renewcommand{\leq}{\leqslant}
\renewcommand{\tilde}{\widetilde}
\renewcommand{\hat}{\widehat}


\newcommand{\dx}{\dmesure\!}
\newcommand{\mvert}{\mathrel{}\middle|\mathrel{}}
\newcommand{\one}{\mathbf{1}}
\newcommand{\trans}[1]{\prescript{\text{t}}{}{\text{co}\parentheses*{#1}}}


\DeclareMathOperator{\card}{Card}
\DeclareMathOperator{\codim}{codim}
\DeclareMathOperator{\Diff}{Diff}
\DeclareMathOperator{\dmesure}{d}
\DeclareMathOperator{\ev}{ev}
\DeclareMathOperator{\Id}{Id}
\DeclareMathOperator{\Iso}{Iso}
\DeclareMathOperator{\Inv}{Inv}
\DeclareMathOperator{\Jac}{Jac}
\DeclareMathOperator{\vect}{Vect}
\DeclareMathOperator{\sym}{Sym}
\DeclareMathOperator{\tr}{Tr}
\DeclareMathOperator{\vol}{Vol}


\DeclarePairedDelimiter{\ang}{\langle}{\rangle}
\DeclarePairedDelimiter{\brackets}{\{}{\}}
\DeclarePairedDelimiter{\ceil}{\lceil}{\rceil}
\DeclarePairedDelimiter{\floor}{\lfloor}{\rfloor}
\DeclarePairedDelimiter{\norm}{\lvert}{\rvert}
\DeclarePairedDelimiter{\Norm}{\lVert}{\rVert}
\DeclarePairedDelimiter{\parentheses}{(}{)}
\DeclarePairedDelimiterX{\prsc}[2]{\langle}{\rangle}{#1\,, #2}
\DeclarePairedDelimiter{\squarebrackets}{[}{]}
\DeclarePairedDelimiterX{\ssquarebrackets}[2]{\llbracket}{\rrbracket}{#1,#2}


%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%

% Gestion de l'affichage des solutions avec le package comment

% Nouveaux compteurs pour avoir une numérotation des équations indépendante dans les solutions

\newcounter{aux}
\newcounter{soleq}

% Définition d'un environnement sol qui peut être commenté à loisir ci-dessous
% La numération des équations est indépendantes et en chiffres romains dans les solutions

\specialcomment{sol}{
	\setcounter{aux}{\value{equation}}
	\setcounter{equation}{\value{soleq}}
	\renewcommand{\theequation}{\roman{equation}}
	\par\begingroup\color{violet}
	}
	{
	\endgroup
	\setcounter{soleq}{\value{equation}}
	\setcounter{equation}{\value{aux}}
	\renewcommand{\theequation}{\arabic{equation}}
	}

% Le contenu des environnements sol est visible par défaut, décommenter la ligne suivante le cache
%\excludecomment{sol}

%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%


% Informations du document

\author{Thomas Letendre}
\date{Prépa Agreg -- Automne 2024}
\title{Exercices de Calcul Différentiel}


\begin{document}

\maketitle


\begin{exo}[Petits $o$]
\label{exo: equiv o}

Soient $X$ un espace topologique, $Y \subset X$ et $a \in \bar{Y}$. Soient $f:Y \to F$ et $g:Y \to G$, où $F$ et $G$ sont des espaces normés. Montrer que les énoncés suivants sont équivalents.
\begin{enumerate}
\item \label{item: equiv def} On a $f(x) \underset{x \to a}{=} o\parentheses*{g(x)}$.
\item \label{item: equiv reel} Il existe $V \in \cV(a)$ et $\eta:Y\cap V \to [0,+\infty[$ tel que $\Norm{f}_F = \eta \Norm{g}_G$ sur $Y \cap V$ et $\eta(x) \xrightarrow[x \to a]{}0$.
\item \label{item: equiv voisinage} Pour tout $\delta>0$, il existe $W\in \cV(a)$ tel que $\forall x \in Y \cap W$, $\Norm{f(x)}_F \leq \delta \Norm{g(x)}_G$.
\end{enumerate}

\begin{sol}

Supposons~\eqref{item: equiv def}. Il existe $V \in \cV(a)$ et $\epsilon:Y\cap V \to F$ telle que $\epsilon(x)\xrightarrow[x \to a]{}0$ et $f=\epsilon\Norm{g}_G$ sur $Y \cap V$. Notons $\eta = \Norm{\epsilon}_F$, on a $\Norm{f}_F=\eta\Norm{g}_G$ sur $Y \cap V$ et $\eta(x) \xrightarrow[x \to a]{}0$. Donc~\eqref{item: equiv def} $\implies$ \eqref{item: equiv reel}.

Supposons~\eqref{item: equiv reel}. Soit $\delta >0$, il existe $W \in \cV(a)$ tel que $W \subset V$ et $\forall x \in Y \cap W$, $0 \leq \eta(x) <\delta$, puisque $\eta(x) \xrightarrow[x \to a]{}0$ et $\eta$ est à valeurs positives. Donc $\forall x \in Y \cap W$, $\Norm{f(x)}_F < \delta \Norm{g(x)}_G$, d'où~\eqref{item: equiv voisinage}.

Supposons~\eqref{item: equiv voisinage}. Soit $V \in \cV(a)$ tel que $\forall x \in Y \cap V$, $\Norm{f(x)}_F \leq \Norm{g(x)}_G$. On définit $\epsilon:Y\cap V \to F$ par $\epsilon(x)=\frac{1}{\Norm{g(x)}_G}f(x)$ si $g(x)\neq 0$ et $\epsilon(x)=0$ si $g(x)=0$. Pour tout $x \in Y \cap V$ on a $f(x)=\epsilon(x) \Norm{g(x)}_G$. En effet, si $g(x)=0$ alors $f(x)=0$, et si $g(x) \neq 0$ on a défini $\epsilon(x)$ pour ça.

Soit $\delta>0$, il existe $W \in \cV(a)$ tel que $\Norm{f}_x\leq \delta \Norm{g}_G$ sur $Y \cap W$. Quitte à considérer $V \cap W$, on peut supposer que $W \subset V$. Pour tout $x \in Y \cap W$, si $g(x)=0$ alors $\epsilon(x)=0$. Sinon $\Norm{\epsilon(x)}_F = \frac{\Norm{f(x)}_F}{\Norm{g(x)}_G}\leq \delta$. Donc, $\forall x \in Y \cap W$, $\Norm{\epsilon(x)}\leq \delta$. Donc $\epsilon(x) \xrightarrow[x \to a]{}0$. Ainsi \eqref{item: equiv voisinage} $\implies$ \eqref{item: equiv def}.

\end{sol}

\end{exo}

%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%


\begin{exo}[Symétrie de l'équivalence]
\label{exo: sym equiv}

Soient $X$ un espace topologique, $Y \subset X$ et $a \in \bar{Y}$. Soient $f$ et $g$ de $Y$ vers un espace normé $E$. Montrer que $f(x)-g(x) \underset{x\to a}{=} o\parentheses*{g(x)} \iff f(x)-g(x) \underset{x\to a}{=} o\parentheses*{f(x)}$.

\begin{sol}

Supposons que $f(x)-g(x) \underset{x\to a}{=} o\parentheses*{g(x)}$. Quitte à remplacer $Y$ par son intersection avec un voisinage de $a$ dans $X$, on peut supposer qu'il existe $\epsilon:Y \to E$ tel que $f-g=\epsilon\Norm{g}$ et $\epsilon(x) \xrightarrow[x \to a]{}0$. Alors $g=f-\epsilon\Norm{g}$, donc $\Norm{g} = \Norm*{\strut f-\epsilon\Norm{g}} \leq \Norm{f}+\Norm{\epsilon}\Norm{g}$ et donc $\Norm{g}(1-\Norm{\epsilon}) \leq \Norm{f}$. Comme $\epsilon(x) \xrightarrow[x \to a]{}0$, il existe $V \in \cV(a)$ tel que $1-\Norm{\epsilon(x)}\geq \frac{1}{2}$ pour tout $x \in Y \cap V$. Pour tout $x \in Y \cap V$, on a
\begin{equation*}
\frac{1}{2}\Norm{g(x)} \leq \Norm{g(x)}\parentheses*{1-\Norm{\epsilon(x)}} \leq \Norm{f(x)}
\end{equation*}
donc $\Norm{g(x)}\leq 2\Norm{f(x)}$.

On définit $\eta:Y \cap V \to E$ par $\eta(x) = \frac{\Norm{g(x)}}{\Norm{f(x)}} \epsilon(x)$ si $f(x) \neq 0$ et $\eta(x)=\epsilon(x)$ si $f(x)=0$. Pour tout $x \in Y \cap V$ on a $\Norm{f(x)}\eta(x) = \Norm{g(x)}\epsilon(x)= f(x)-g(x)$. On a $\Norm{\eta(x)}\leq 2\Norm{\epsilon(x)} \xrightarrow[x \to a]{}0$ donc $f(x)-g(x) \underset{x\to a}{=} o\parentheses*{f(x)}$, ce qui prouve le sens direct. Le sens réciproque est symétrique.

\end{sol}

\end{exo}

%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%


\begin{exo}[Applications bilinéaires]
\label{exo: appli bilineaire}

Soient $E_1$, $E_2$ et $F$ des Banachs et $B:E_1 \times E_2 \to F$ bilinéaire continue.

\begin{enumerate}
\item Montrer que $B$ est différentiable et expliciter sa différentielle.

\begin{sol}

Pour tout $x=(x_1,x_2)$ et $h=(h_1,h_2) \in E_1 \times E_2$ on a
\begin{equation*}
B(x+h) = B(x_1+h_1,x_2+h_2) = \underbrace{B(x_1,x_2)}_{=B(x)} + \underbrace{B(h_1,x_2)+ B(x_1,h_2)}_{\text{linéaire continue en}\ h} + \underbrace{B(h_1,h_2)}_{=o\parentheses*{\Norm{h}_\infty}}.
\end{equation*}
En effet, $\Norm{B(h_1,h_2)} \leq \Norm{B}\Norm{h_1}\Norm{h_2} \leq \Norm{B}\Norm{(h_1,h_2)}_\infty^2 =o(\Norm{h}_\infty)$ d'une part. D'autre part,
\begin{equation}
\label{eq: diff bilineaire C0}
\begin{aligned}
\Norm{B(h_1,x_2)+B(x_1,h_2)} &\leq \Norm{B(h_1,x_2)}+\Norm{B(x_1,h_2)} \leq \Norm{B}\parentheses*{\Norm{h_1}\Norm{x_2}+\Norm{x_1}\Norm{h_2}}\\
&\leq \Norm{B}\parentheses*{\Norm{x_1}+\Norm{x_2}}\Norm{h}_\infty \leq 2\Norm{B}\Norm{x}_\infty\Norm{h}_\infty,
\end{aligned}
\end{equation}
donc $(h_1,h_2) \mapsto B(h_1,x_2)+B(x_1,h_2)$ est linéaire continue de $E_1 \times E_2$ avec $\Norm{\cdot}_\infty$ vers $F$. Donc $B$ est différentiable en $x$ et $D_xB:h \mapsto B(h_1,x_2)+B(x_1,h_2)$.

\end{sol}

\item Montrer que $DB:E_1 \times E_2 \to \cL(E_1,\times E_2,F)$ est linéaire et continue.

\begin{sol}

Soient $x,y\in E_1 \times E_2$ et $\lambda \in \R$, pour tout $h \in E_1 \times E_2$, on a
\begin{align*}
D_{x+\lambda y}B(h) &=B(h_1,x_2+\lambda y_2)+ B(x_1+\lambda y_1,h_2)\\
& = B(x_1,h_1)+\lambda B(y_1,h_2)+B(h_1,x_2)+\lambda B(h_1,y_2)\\
&= D_xB(h)+\lambda D_yB(h).
\end{align*}
Donc $D_{x+\lambda y}B=D_xB + \lambda D_yB$ et donc $DB$ est bien linéaire. Le calcul~\eqref{eq: diff bilineaire C0} montre que, pour tout $x \in E_1 \times E_2$, $\Norm{D_xB} \leq 2\Norm{B}\Norm{x}_\infty$. Donc $DB$ est continue de $E_1 \times E_2$ avec $\Norm{\cdot}_\infty$ vers $\cL(E_1\times E_2,F)$ avec la norme d'opérateur, et de norme au plus $2\Norm{B}$.
\end{sol}

\item Montrer que $\mu:(\lambda,x) \mapsto \lambda x$ est $\cC^1$ de $\R \times \R^n$ vers $\R^n$ et expliciter sa différentielle.

\begin{sol}

L'application $\mu$ est bilinéaire, et continue car on est en dimension finie. Donc $\mu$ est $\cC^1$. Le cas général ci-dessus montre que, pour tout $\lambda \in \R$ et $x \in \R^n$, $D_{(\lambda,x)}\mu : (t,h) \mapsto tx+\lambda h$.

\end{sol}

\item Soit $(E,\prsc{\cdot}{\cdot})$ un espace euclidien, montrer $\prsc{\cdot}{\cdot}:E \times E \to \R$ est $\cC^1$. Expliciter sa différentielle.

\begin{sol}

Comme $E$ est euclidien il est de dimension finie. Donc $\prsc{\cdot}{\cdot}$ est bilinéaire continue, donc $\cC^1$. Le cas général montre que $D_{(x,y)}\prsc{\cdot}{\cdot}:(u,v) \mapsto \prsc{x}{u}+\prsc{y}{v}$ pour tout $x,y \in E$.

\end{sol}

\item Soient $E$, $F$ et $G$ des Banachs, montrer que $C:(L,K)\mapsto K \circ L$ est $\cC^1$ de $\cL(E,F) \times \cL(F,G)$ vers $\cL(E,G)$, équipés de leurs normes d'opérateurs. Expliciter sa différentielle.

\begin{sol}

Une fois encore on est dans le cas d'une application bilinéaire entre espaces de Banachs. Par contre, cette fois, sa continuité n'est pas automatique. Si $L \in \cL(E,F)$ et $K \in \cL(F,G)$, on a vu que $K \circ L \in \cL(E,G)$ et $\Norm{K \circ L}\leq \Norm{K}\Norm{L}$. Donc $C$ est bien continue.

Par le cas général, $C$ est $\cC^1$ et $D_{(L,K)}C:(P,Q) \mapsto Q \circ L + K \circ P$ pour tout $(L,K)$, de $\cL(E,F) \times \cL(E,G)$ vers $\cL(E,G)$.

\end{sol}

\end{enumerate}

\end{exo}

%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%


\begin{exo}[Différentielle et dérivée]
\label{exo: diff et derivee}

Soient $U \subset \R$ un ouvert, $F$ un Banach et $f:U \to F$. Soit $x \in U$, montrer que $f$ est différentiable en $x$ si et seulement si elle y est dérivable. Expliciter la relation en $D_xf$ et $f'(x)$ dans ce cas.

\begin{sol}

Si $f$ est différentiable en $x$, alors
\begin{equation*}
f(x+h) \underset{h \to 0}{=} f(x) + D_xf(h)+o(h) \underset{h \to 0}{=} f(x) + h D_xf(1) + o(h)
\end{equation*}
donc $f$ est dérivable en $x$ et $f'(x) = D_xf(1)$. Inversement, si $f$ est dérivable en $x$, alors $h \mapsto hf'(x)$ est linéaire continue de $\R$ dans $F$ et $f(x+h) \underset{h \to 0}{=} f(x) + hf'(x)+o(h)$, ce qui prouve que $f$ est différentiable en $x$ et $D_xf:h \mapsto h f'(x)$.

\end{sol}

\end{exo}

%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%


\begin{exo}[Polynômes]
\label{exo: polynomes Cinf}
Montrer que les fonctions polynomiales de $\R^n$ dans $\R$ sont $\cC^\infty$.

\begin{sol}

Il suffit de le prouver pour les monômes, le résultat s'en déduit ensuite par combinaison linéaire. Soient $\alpha=(\alpha_1,\dots,\alpha_n) \in \N^n$ et $X^\alpha:(x_1,\dots,x_n) \mapsto x_1^{\alpha_1}\dots x_n^{\alpha_n}$. Pour tout $i \in \ssquarebrackets{1}{n}$, si $\alpha_i=0$ on a $\partial_iX^\alpha=0$, et sinon $\partial_i X^\alpha = \alpha_i X^\beta$ où $\beta_i=\alpha_i-1$ et $\beta_j=\alpha_j$ pour $j \neq i$. Donc $X^\alpha$ a des dérivées partielles, qui sont des monômes de degré strictement plus petit, en particulier continues.

Par récurrence sur le degré total du monôme, $X^\alpha$ admet des dérivées partielles continues à tout ordre. Donc $X^\alpha$ est $\cC^\infty$.
\end{sol}

\end{exo}

%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%


\begin{exo}[Différentielle du déterminant]
\label{exo: determinant}

Soit $\det:M_n(\R) \to \R$ l'application déterminant.

\begin{enumerate}

\item Montrer que $\det$ est différentiable en $\Id$ et expliciter sa différentielle.

\begin{sol}

Soit $H = \parentheses*{h_{i,j}}_{1 \leq i,j \leq n}$, on a
\begin{align*}
\det(\Id+H) &= \det\parentheses*{\begin{smallmatrix}
1+ h_{1,1} & h_{1,2} & \dots & h_{1,n} \\
h_{2,1} & \ddots & \ddots & \vdots \\
\vdots & \ddots & \ddots & h_{n-1,n}\\
h_{n,1} & \dots & h_{n,n-1} & h_{n,n}
\end{smallmatrix}} \underset{H\to 0}{=} \prod_{i=1}^n (1+h_{i,i}) + O\parentheses*{\Norm{H}_\infty^2}\\
&\underset{H\to 0}{=} 1+ \sum_{i=1}^n h_{i,i} + O\parentheses*{\Norm{H}_\infty^2}\underset{H\to 0}{=} 1 + \tr(H)+ o\parentheses*{H}.
\end{align*}
Comme $\tr$ est linéaire, on en déduit que $\det$ est différentiable en $\Id$ et $D_{\Id}\det = \tr$.

\end{sol}

\item En déduire que $\det$ est différentiable sur $GL_n(\R)$ et expliciter sa différentielle.

\begin{sol}

Soient $M \in GL_n(\R)$. Comme $\Norm{M^{-1}H} \leq \Norm{M^{-1}}\Norm{H} \xrightarrow[H \to 0]{}0$, on a
\begin{align*}
\det(M+H)&=\det(M)\det(\Id+M^{-1}H) \underset{H\to 0}{=} \det(M) \parentheses*{\Id + \tr\parentheses*{M^{-1}H}+o(M^{-1}H)}\\
&\underset{H\to 0}{=} \det(M) + \tr\parentheses*{\trans{M} H} + o(H),
\end{align*}
où on a noté $\text{co}(M)$ la matrice des cofacteurs de $M$ et utilisé la formule $\trans{M}=\det(M)M^{-1}$. Comme la trace et la multiplication par $\trans{M}$ sont linéaires, $\det$ est différentiable en $M$ et $D_M\det:H \mapsto \tr\parentheses*{\trans{M} H}$.

\end{sol}

\item Montrer que $\det$ est en fait $\cC^\infty$ sur $M_n(\R)$, et expliciter sa difféntielle en tout point.

\begin{sol}

L'application $\det:M_n(\R) \to \R$ est polynomiale en les coefficients, donc $\cC^\infty$. Les applications $D\det$ et $M \mapsto \tr\parentheses*{\trans{M}\, \cdot\,}$ sont donc deux applications continues de $M_n(\R)$ vers $\cL(M_n(\R),\R)$, par exemple parce que les coefficients de $\trans{M}$ sont polynomiaux en ceux de $M$. Elles coïncident sur l'ouvert dense $GL_n(\R)$ donc partout. Donc, pour tout $M \in M_n(\R)$, $D_M\det:H \mapsto \tr\parentheses*{\trans{M}H}$.

\end{sol}

\end{enumerate}

\end{exo}

%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%


\begin{exo}[Linéarité de la différentiation]
\label{exo: linearite}

Soient $E$ et $F$ des Banachs, $U \subset E$ ouvert et $x \in U$. Vérifier que $\Diff_x(U,F)$, $\Diff(U,F)$ et $\cC^1(U,F)$ sont des espaces vectoriels sur lesquels $D_x$ (resp.~$D$) est linéaire.

\begin{sol}

On va montrer que $\Diff_x(U,F)$ est un sous-espace de l'espace $F^U$ des fonctions de $U$ dans $F$. Soient $f,g \in \Diff_x(U,F)$ et $\lambda \in \R$. On a
\begin{align*}
(f+\lambda g)(x+h) &= f(x+h) + \lambda g(x+h) \underset{h \to 0}{=} f(x) + D_xf(h)+o(h)+ \lambda g(x) + \lambda D_xg(h) + \lambda o(h)\\
&\underset{h \to 0}{=} (f + \lambda g)(x) + \parentheses*{ D_xf+\lambda D_xg}(h) + o(h).
\end{align*}
L'application $D_xf+\lambda D_xg:E \to F$ est linéaire continue comme combinaison linéaire de telles applications. Donc $f+\lambda g$ est différentiable en $x$ et $D_x(f+\lambda g)= D_x f+\lambda D_xg$. D'une part, cela prouve que $\Diff_x(U,F)$ est un sous-espace de $F^U$, donc un espace vectoriel. D'autre part, cela montre que $D_x:\Diff_x(U,F) \to \cL(E,F)$ est linéaire.

Ensuite $\Diff(U,F) = \bigcap_{x \in U}\Diff_x(U,F)$ est un espace vectoriel comme intersection d'espaces vectoriels. Si $f,g \in \Diff(U,F)$ et $\lambda \in \R$, alors le cas précédent montre que, pour tout $x \in U$, $D_x(f+\lambda g) = D_xf+\lambda D_x g$, donc $D(f+\lambda g) = D_f + \lambda D_g$. Donc $D:\Diff(U,F) \to \cL(E,F)^U$ est linéaire.

L'espace $\cC^0\parentheses*{U,\cL(E,F)}$ est un sous-espace vectoriel de $\cL(E,F)^U$, dont l'image réciproque par $D$ est $\cC^1(U,F)$. Donc $\cC^1(U,F)$ est un sous-espace de $\Diff(U,F)$, donc un espace vectoriel. La restriction $D:\cC^1(U,F) \to \cC^0(U,\cL(E,F))$ reste évidemment linéaire.

\end{sol}

\end{exo}

%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%


\begin{exo}[Applications vers un produit]
\label{exo: produit au but}

Soient $E$, $F_1, \dots,F_p$ des Banachs et $F = F_1\times \dots \times F_p$ muni de $\Norm{\cdot}_\infty$. Soit $f=(f_1,\dots,f_p)$ de $U \subset E$ vers $F$, montrer que $f \in \Diff_x(U,F)$ si et seulement si $\forall i \in \ssquarebrackets{1}{p}$, $f_i \in \Diff_x(U,F_i)$. Si c'est le cas, montrer que $D_xf:h \mapsto \parentheses*{D_xf_1(h), \dots,D_xf_p(h)}$.

\begin{sol}

Soit $x \in U$, où $U$ est ouvert de $E$. Si $f$ est différentiable en $x$, alors $D_xf:E \to F_1 \times \dots \times F_p$ est linéaire continue. Pour tout $i \in\ssquarebrackets{1}{p}$, on note $p_i$ la projection canonique de $F$ vers $F_i$ et $g_i=p_i \circ D_xf$. On a alors
\begin{align*}
\Norm*{f_i(x+h)-f_i(x)-(g_i(x))(h)}_{F_i} &= \Norm*{p_i\parentheses*{\strut f(x+h)-f(x)-D_xf(h)}}_{F_i}\\
&\leq \Norm*{f(x+h)-f(x)-D_xf(h)}_\infty\underset{h\to 0}{=} o(h).
\end{align*}
Donc $f_i(x+h)\underset{h\to 0}{=}f_i(x)+(g_i(x))(h)+o(h)$. L'application $g_i(x)$ est linéaire et continue, comme composée de telles applications. Donc $f_i$ est différentiable en $x$, et $D_xf_i=g_i(x)= p_i \circ D_xf$.

Inversement, supposons que, pour tout $i \in \ssquarebrackets{1}{p}$ la fonction $f_i$ soit différentiable en $x$. On définit $L=(D_xf_1,\dots,D_xf_p)$ qui est linéaire de $E$ vers $F$. Soit $h \in E$,
\begin{equation*}
\Norm{L(h)}_\infty = \max_{1 \leq i \leq p}\Norm{D_xf_i(h)}_{F_i} \leq \max_{1 \leq i \leq p}\Norm{D_xf_i}\Norm{h}_E \leq \Norm{h}_E\max_{1 \leq i \leq p}\Norm{D_xf_i},
\end{equation*}
donc $L$ est continue. Puis $\Norm*{f(x+h)-f(x)-L(h)}_\infty = \max_{1 \leq i \leq p}\Norm*{f_i(x+h)-f_i(x)-D_xf_i(h)}_{F_i}$. Par différentiabilité de $f_i$ en $x$ (voir les caractérisations de l'exercice~\ref{exo: equiv o}), il existe $\epsilon_i:U \to [0,+\infty[$ tel que $\Norm*{f_i(x+h)-f(x)+D_xf_i(h)}_{F_i}=\epsilon_i(h)\Norm{h}_E$ et $\epsilon_i(h)\xrightarrow[h \to 0]{}0$. Donc
\begin{equation*}
\Norm*{f(x+h)-f(x)-L(h)}_\infty = \Norm{h}_E \underbrace{\max_{1 \leq i \leq p}\epsilon_i(h)}_{=\epsilon(h) \xrightarrow[h \to 0]{}0},
\end{equation*}
c'est-à-dire $f(x+h)\underset{h\to 0}{=}f(x)+L(h)+o(h)$. Donc $f$ est différentiable en $x$ et $D_xf=L$.

\end{sol}

\end{exo}

%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%


\begin{exo}[Règle de Leibniz]
\label{exo: Leibniz}

Soient $I \subset \R$ un ouvert et $x \in I$

\begin{enumerate}

\item Soient $f$ et $g$ de $I$ dans $\R$ dérivables en $x$, montrer que $fg$ est dérivable en $x$ et calculer $(fg)'(x)$.

\begin{sol}

Par dérivabilité de $f$ et $g$, on a
\begin{align*}
(fg)(x+h) &= f(x+h)g(x+h) \underset{h \to 0}{=} \parentheses*{f(x)+hf'(x)+o(h)}\parentheses*{g(x)+hg'(x)+o(h)}\\
&\underset{h \to 0}{=} f(x)g(x) + h\parentheses*{f'(x)g(x)+g'(x)f(x)}+o(h).
\end{align*}
Donc $fg$ est dérivable en $x$ et $(fg)'(x)=f'(x)g(x)+g'(x)f(x)$.

\end{sol}

\item Soient $f$ et $g$ de $I$ dans $\R^n$ dérivables en $x$, montrer que $\prsc{f}{g}$ est dérivable en $x$ et calculer sa dérivée en $x$.

\begin{sol}

Par dérivabilité de $f$ et $g$, on a
\begin{align*}
\prsc{f}{g}(x+h) &= \prsc{f(x+h)}{g(x+h)} \underset{h \to 0}{=} \prsc*{f(x)+hf'(x)+o(h)}{g(x)+hg'(x)+o(h)}\\
&\underset{h \to 0}{=} \prsc{f(x)}{g(x)} + h\parentheses*{\prsc{f'(x)}{g(x)}+\prsc{f(x)}{g'(x)}}+o(h).
\end{align*}
Donc $\prsc{f}{g}$ est dérivable en $x$ et $(\prsc{f}{g})'(x)=\prsc{f'(x)}{g(x)}+\prsc{f(x)}{g'(x)}$.

\end{sol}

\item Plus généralement, soient $E$,$F_1$,$F_2$ et $G$ des Banachs, $U$ un ouvert de $E$ et $B:F_1 \times F_2 \to G$ bilinéaire continue. Soient $f_1:U \to F_1$ et $f_2:U \to F_2$ différentiables en $x \in U$. Montrer que $g=B(f_1,f_2)$ est différentiable en $x$ et calculer $D_xg$.

\begin{sol}

Notons $f=(f_1,f_2)$ de $U$ dans $F_1 \times F_2$, de sorte que $g = B \circ f:U \to G$. On a montré que $f$ est différentiable en $x$ et calculé sa différentielle dans l'exercice~\ref{exo: produit au but}. De même, on a montré que $B$ est différentiable sur $F_1 \times F_2$ et calculé sa différentielle dans l'exercice~\ref{exo: appli bilineaire}. Par la règle de la chaine, on en déduit que $g$ est différentiable en $x$ et que
\begin{align*}
D_xg &= D_x\parentheses*{B \circ f} = D_{f(x)}B \circ D_xf = D_{(f_1(x),f_2(x))}B \circ \parentheses*{D_xf_1,D_xf_2}\\
&= B\parentheses*{f_1(x),D_xf_2(\cdot)}+B\parentheses*{D_xf_1(\cdot),f_2(x)}.
\end{align*}

\end{sol}

\end{enumerate}

\end{exo}

%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%


\begin{exo}[Primitive]
\label{exo: primitive}

Soit $F$ un espace de Banach, soit $\varphi:[a,b] \to F$ une fonction continue et $\Phi:x \mapsto \int_a^x \varphi(t) \dx t$. Montrer que $\Phi$ est $\cC^1$ sur $[a,b]$ et $\Phi'=\varphi$.

\begin{sol}

Comme $F$ est potentiellement de dimension infinie, on doit utiliser l'intégrale de Riemann. Ici, pour tout $x \in [a,b]$, la fonction $\varphi$ est continue sur $[a,x]$, donc $\Phi(x)$ est bien définie.

Soit $x \in [a,b]$, pour $h$ assez petit on a
\begin{align*}
\Norm*{\Phi(x+h)-\Phi(x)-h\varphi(x)} &= \Norm*{\int_a^{x+h}\varphi(t) \dx t - \int_a^x \varphi(t) \dx t - \int_x^{x+h}\varphi(x)\dx t}\\
&= \Norm*{\int_x^{x+h} \parentheses*{\strut \varphi(t)-\varphi(x)} \dx t} \leq \int_x^{x+h} \Norm{\varphi(t)-\varphi(x)}\dx t.
\end{align*}
Comme $\varphi$ est continue sur $[a,b]$ elle y est uniformément continue. Soit $\epsilon>0$, il existe donc $\delta>0$ tel que si $\norm{t-x}\leq \delta$ alors $\Norm{\varphi(t)-\varphi(x)}\leq \epsilon$. Si $\norm{h} \leq \delta$ alors $\frac{1}{\norm{h}}\int_x^{x+h}\Norm{\varphi(t)-\varphi(x)}\dx t \leq \epsilon$. Donc
\begin{equation*}
\frac{\Norm*{\Phi(x+h)-\Phi(x)-h\varphi(x)}}{\norm{h}}\leq \frac{1}{\norm{h}}\int_x^{x+h}\Norm{\varphi(t)-\varphi(x)}\dx t \xrightarrow[h \to 0]{}0.
\end{equation*}
Donc $\Phi$ est dérivable en $x$ et $\Phi'(x)=\varphi(x)$. C'est valable pour tout $x \in [a,b]$, et $\varphi$ est continue.
\end{sol}

\end{exo}

%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%


\begin{exo}[Intégration par parties]
\label{exo: IPP}
Soient $f$ et $g$ des fonctions $\cC^1$ de $[a,b]$ dans $\R$, montrer que $\int_a^b f(t)g'(t) \dx t = \squarebrackets*{f(t)g(t)}_a^b -\int_a^b f'(t)g(t) \dx t$.

\begin{sol}
On applique le théorème fondamental analyse à $fg$, qui est $\cC^1$, et on utilise la règle Leibniz:
\begin{equation*}
\squarebrackets*{f(t)g(t)}_a^b = \int_a^b (fg)'(t) \dx t = \int_a^b f'(t)g(t) \dx t + \int_a^b f(t)g'(t) \dx t.\qedhere
\end{equation*}
\end{sol}

\end{exo}

%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%


\begin{exo}[Caractère $\cC^1$ et dérivées partielles]
\label{exo: derivees partielle et C1}

Soient $U \subset \R^n$ un ouvert, $F$ un Banach et $f:U \to F$. Montrer que $f$ est $\cC^1$ si et seulement si les $\parentheses*{\partial_if}_{1 \leq i \leq n}$ sont bien définies et continues.

\begin{sol}

Notons $(e_1,\dots,e_n)$ la base canonique de $\R^n$. Si $f$ est $\cC^1$ sur $U$, en particulier $f$ est différentiable en tout $x \in U$, donc y admet des dérivées partielles définies par $\partial_if(x) = D_xf(e_i)$, pour $i \in \ssquarebrackets{1}{n}$. Il reste alors à vérifier que $\partial_if:x \mapsto D_xf(e_i)$ est continue sur $U$. Soient $x,y \in U$ et $i \in \ssquarebrackets{1}{n}$, on a
\begin{equation*}
\Norm*{\partial_if(y)-\partial_if(x)} = \Norm*{D_yf(e_i)-D_xf(e_i)}\leq \Norm*{D_yf-D_xf}\Norm{e_i}=\Norm*{D_yf-D_xf} \xrightarrow[y \to x]{}0,
\end{equation*}
car $Df$ est continue en $x$. Donc $\partial_if$ est continue en $x$, et finalement sur $U$.

Inversement, supposons que les $\parentheses*{\partial_if}_{1 \leq i \leq n}$ sont bien définies et continues sur $U$. D'après le cours, pour tout $x\in U$, $f$ est différentiable en $x$. Il reste à vérifier que $Df$ est continue. Soient $x, y \in U$ et $h \in \R^n$, on a
\begin{align*}
\Norm*{D_yf(h)-D_xf(h)} &= \Norm*{\sum_{i=1}^n h_i \partial_if(y) - \sum_{i=1}^n h_i\partial_if(x)}\leq \sum_{i=1}^n \norm{h_i}\Norm{\partial_if(y)-\partial_if(x)}\\
&\leq \Norm{h} \sum_{i=1}^n\Norm{\partial_if(y)-\partial_if(x)}.
\end{align*}
Donc $\Norm*{D_yf-D_xf} \leq \sum_{i=1}^n\Norm{\partial_if(y)-\partial_if(x)} \xrightarrow[y \to x]{}0$, par continuité des $\parentheses*{\partial_if}_{1 \leq i \leq n}$ en $x$. Donc $Df$ est continue en $x$, et finalement sur $U$. Donc $f$ est $\cC^1$.

\end{sol}

\end{exo}

%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%


\begin{exo}[Un calcul explicite]
\label{exo: calcul explicite}

Soient $f:(x_1,x_2,x_3) \mapsto (x_1+x_2+x_3,x_1-x_2+x_3)$ de $\R^3$ dans~$\R^2$ et $g:(y_1,y_2) \mapsto y_1^2 - y_2^2$ de $\R^2$ dans $\R$. Calculer la différentielle de On note $h = g \circ f$. Justifier que $h$ est différentiable et calculer sa différentielle en tout point.

\begin{sol}

Les applications $f$ et $g$ sont différentiables car elles sont polynomiales. Donc $h$ est différentiable comme composée de deux telles applications, par la règle de la chaine. En fait $h$ est même $\cC^\infty$.

On est dans un cas très explicite dans $\R^n$, donc calculer la différentielle revient à calculer la jacobienne. On pourrait expliciter $h$ et calculer ses dérivées partielles, mais il est plus simple de calculer les jacobiennes de $f$ et $g$ puis d'appliquer la règle de la chaine. Dans ce qui suit on identifie les applications linéaires avec leurs matrices dans les bases canoniques de $\R$, $\R^2$ et $\R^3$. On a donc
\begin{align*}
&\forall x=(x_1,x_2,x_3) \in \R^3, \ D_xf = \begin{pmatrix}
1 & 1 & 1 \\ 1 & - 1 & 1
\end{pmatrix} & &\text{et} & &\forall y=(y_1,y_2) \in \R^3, \ D_yg = \begin{pmatrix}
2y_1 & -2y_2
\end{pmatrix}
\end{align*}
Donc, pour tout $x \in \R^3$,
\begin{align*}
D_xh &= D_{f(x)}g \circ D_xf = \begin{pmatrix}
2f_1(x) & -2f_2(x)
\end{pmatrix} \begin{pmatrix}
1 & 1 & 1 \\ 1 & - 1 & 1
\end{pmatrix}\\
&= 2 \begin{pmatrix}
f_1(x)-f_2(x) & f_1(x)+f_2(x) & f_1(x)-f_2(x)
\end{pmatrix} = 4 \begin{pmatrix}
x_2 & x_1+x_3 & x_2
\end{pmatrix}.
\end{align*}
\end{sol}

\end{exo}

%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%


\begin{exo}[Un contre-exemple]
\label{exo: contre-ex derivee directionnelle}

On considère la fonction $f:\R^2 \to \R$ définie par $f(0,0)=0$ et $f(x_1,x_2)=\frac{x_1x_2^2}{x_1^2+x_2^2}$ si $(x,y)\neq (0,0)$.

\begin{enumerate}

\item Montrer que $f$ est continue.

\begin{sol}

Sur $\R^2 \setminus \brackets{(0,0)}$, la fonction est continue comme quotient de fonctions continues dont le dénominateur ne s'annule pas. En $(0,0)$, on a $\Norm{f(x_1,x_2)-f(0,0)} = \frac{\norm{x_1}\norm{x_2}^2}{\Norm{x}^2} \leq \Norm{x} \xrightarrow[x\to (0,0)]{}0$. Donc $f$ est continue en $(0,0)$.

\end{sol}

\item Montrer que $f$ admet des dérivées directionnelles dans toutes les directions en $(0,0)$.

\begin{sol}

Soit $v=(v_1,v_2) \in \R^2$, alors $f_{0,v}:t \mapsto \frac{tv_1 (tv_2)^2}{t^2(v_1^2+v_2^2)} = t f(v)$ est linéaire, en particulier dérivable en $(0,0)$. Donc $f$ admet des dérivées partielles dans toutes les directions en $(0,0)$ et, pour tout $v \in \R^2$, $\partial_vf(0,0) = (f_{0,v})'(0)= f(v)$.

\end{sol}

\item Est-ce que $f$ est différentiable en $(0,0)$?

\begin{sol}

Si $f$ était différentiable en $(0,0)$, on aurait $D_0f:v \mapsto \partial_vf(0,0)$ et donc $D_0f=f$. C'est absurde car $f$ n'est pas linéaire. Donc $f$ n'est pas différentiable en $(0,0)$.

\end{sol}

\end{enumerate}
\end{exo}

%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%


\begin{exo}[Un autre contre-exemple]
\label{exo: contre-ex C1}

On considère la fonction $f:\R^2 \to \R$ définie par $f(0,0)=0$ et $f(x_1,x_2)=x_1x_2 \sin\parentheses*{\frac{1}{\sqrt{x_1^2+x_2^2}}}$ si $x=(x_1,x_2)\neq 0$.

\begin{enumerate}

\item Montrer que $f$ est différentiable sur $\R^2$.

\begin{sol}

Sur $\R^2 \setminus \brackets{0}$, la fonction $f$ est $\cC^1$ comme produit et composée de fonctions usuelles. En particulier, elle y est différentiable. Par ailleurs $f(0)=0$ et $f(x_1,x_2) = O(x_1x_2) = o(\Norm{x})$ lorsque $x \to 0$. Donc $f$ est différentiable en $0$ et $D_0f=0$.

\end{sol}


\item Est-ce que $f$ est de classe $\cC^1$?

\begin{sol}

Soit $x=(x_1,x_2) \neq (0,0)$, on a $\partial_1f(x) = x_2 \sin\parentheses{\frac{1}{\Norm{x}}} - \frac{x_1^2x_2}{\Norm{x}^3} \cos\parentheses*{\frac{1}{\Norm{x}}}$ et symétriquement $\partial_2f(x) = x_1 \sin\parentheses{\frac{1}{\Norm{x}}} - \frac{x_1x_2^2}{\Norm{x}^3} \cos\parentheses*{\frac{1}{\Norm{x}}}$. Si $f$ était de classe $\cC^1$, ses dérivées partielles serait continues, en particulier en $0$. Notamment, on aurait
\begin{equation*}
\partial_1f\parentheses*{\frac{t}{\sqrt{2}},\frac{t}{\sqrt{2}}} = \frac{t}{\sqrt{2}} \sin\parentheses*{\frac{1}{\norm{t}}} - \parentheses*{\frac{1}{\sqrt{2}}}^3\cos\parentheses*{\frac{1}{\norm{t}}} \xrightarrow[t\to 0]{}0,
\end{equation*}
ce qui impliquerait que $\cos\parentheses*{\frac{1}{\norm{t}}}\xrightarrow[t \to 0]{}0$, et donc $\cos(\theta) \xrightarrow[\theta \to +\infty]{}0$. C'est absurde, donc $f$ n'est pas $\cC^1$ sur $\R^2$. On remarque que sur $\R^2 \setminus \brackets{0}$, les dérivées partielles sont continues comme sommes, ce qui remontre que $f$ est $\cC^1$ sur $\R^2 \setminus \brackets{0}$, et que le seul problème pour la continuité de $Df$ est en $0$.

\end{sol}

\end{enumerate}

\end{exo}

%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%


\begin{exo}[Contre-exemple à l'égalité des accroissements finis]
\label{exo: contreex EAF}

Donner un contre-exemple à l'égalité des accroissements pour les fonctions à valeurs dans un espace de dimension $2$ ou plus.

\begin{sol}

On considère $f:t \mapsto e^{i\pi t}$ de $\R$ dans $\C \simeq \R^2$. Si l'égalité des accroissements finis était vraie pour cette fonction, il existerait $t \in [0,1]$ tel que $-2=\frac{f(1)-f(0)}{1}=f'(t)=i\pi e^{i\pi t}$. En prenant les modules on aurait $\pi=2$, ce qui est absurde.

\end{sol}

\end{exo}

%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%


\begin{exo}[Conditions d'extremum]
\label{exo: conditions extremum}

Soit $f:U \to \R$ une application différentiable, où $U$ est un ouvert d'un Banach $E$. On rappelle que $x \in U$ est appelé un \emph{point critique} de $f$ si $D_xf=0$.

\begin{enumerate}
\item Si $f$ atteint un extremum local en $x \in U$, montrer que $x$ est point critique de $f$. Donner un contre-exemple à la réciproque.

\begin{sol}

Pour tout $v \in E$, l'application partielle $f_{x,v}:t \mapsto f(x+tv)$ est bien définie au voisinage de $0$ dans $\R$ et atteint un extremum local en $0$. Par le cas traité en cours pour les fonctions de $\R$ dans $\R$, on a $D_xf(v)=f_{x,v}'(0)=0$. Donc $D_xf=0$.

Pour la fonction $f:x\mapsto x^3$ de $\R$ dans $\R$, le point $x=0$ est critique mais n'est pas un extremum local.

\end{sol}

\end{enumerate}

Dans la suite on suppose que $f$ est deux fois différentiable en $x \in U$.

\begin{enumerate}[resume]

\item Si $f$ atteint un minimum local en $x$, montrer que $D_x^2f(v,v) \geq 0$ pour tout $v \in \R$. La réciproque est-elle vraie?

\begin{sol}

Par la question précédente, $D_xf=0$. Par Taylor--Young à l'ordre $2$, on a donc
\begin{equation}
\label{eq: Taylor-Young 2}
f(x+v) = f(x) + D_x^2f(v,v) + o(\Norm{v}^2).
\end{equation}
Soit $v \in E$, pour tout $t \in \R$ suffisamment proche de $0$ on a donc
\begin{equation*}
0 \leq \frac{f(x+tv)-f(x)}{t^2} \underset{t\to 0}{=} \frac{1}{t^2}\parentheses*{D_x^2f(tv,tv)+o(\Norm{tv}^2)} \underset{t\to 0}{=} D_x^2f(v,v) + o(1).
\end{equation*}
En passant à la limite $t \to 0$, on a $D_x^2f(v,v)\geq 0$.

La réciproque est fausse, toujours en considérant $f:x \mapsto x^3$ qui est telle que $f'(0)=f''(0)=0$ et pour laquelle $0$ n'est pas minimum local.

\end{sol}

\item On suppose qu'il existe $\epsilon>0$ tel que, pour tout $v \in E$, $D_x^2f(v,v) \geq \epsilon \Norm{v}^2$. Montrer que $x$ est un minimum local de $f$.

\begin{sol}

On repart de la formule de Taylor--Young~\eqref{eq: Taylor-Young 2}. Par la caractérisation de l'exercice~\ref{exo: equiv o}, il existe $\eta >0$ tel que, pour tout $v \in B(0,\eta)$,
\begin{equation*}
\norm*{f(x+v)-f(x)-D_x^2f(v,v)} <\epsilon \Norm{v}^2.
\end{equation*}
Donc $f(x+v)-f(x) > D_x^2f(v,v) -\epsilon \Norm{v}^2 \geq 0$. Donc $x$ est un minimum local de $f$.

\end{sol}

\item On suppose que $E$ est de dimension finie et que, pour tout $v \in E \setminus \brackets{0}$, $D_x^2f(v,v) >0$. Montrer que $x$ est un minimum local de $f$.

\begin{sol}

On va se ramener au cas précédent en utilisant la compacité de la sphère unité $S$ de $E$. Comme $S$ est fermée et bornée en dimension finie elle est compacte. Comme $D_x^2f$ est continue, l'application $v \mapsto D_x^2f(v,v)$ est continue, et elle atteint donc un minimum $\epsilon>0$ sur $S$. Alors, pour tout $v \neq 0$ on a
\begin{equation*}
D_x^2f(v,v) = \Norm{v}^2 D_x^2f\parentheses*{\frac{v}{\Norm{v}} , \frac{v}{\Norm{v}}} \geq \epsilon\Norm{v}^2.
\end{equation*}
Cette relation étant encore vraie pour $v=0$ on est ramené au cas de la question précédente.

\end{sol}
\end{enumerate}

\end{exo}

%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%


\begin{exo}[Recherche d'extrema]
\label{exo: extrema}

Soit $f:(x_1,x_2) \mapsto x_1^2+x_2^2 + 8 \cos(x_1)\cos(x_2)$ de $\R^2$ dans $\R$.

\begin{enumerate}

\item Montrer que $f$ atteint un minimum global. Atteint-elle un maximum global?

\begin{sol}
Pour tout $x \in \R^2$ on a $f(x) = \Norm{x}^2 + 8\cos(x_1)\cos(x_2) \geq \Norm{x}^2- 8 \xrightarrow[\Norm{x}\to +\infty]{}+\infty$. Cela montre que $f$ n'atteint pas de maximum global.

En revanche, notons $K = f^{-1}(]-\infty,8])$. Par continuité de $f$, l'ensemble $K$ est fermé dans $\R^2$, on a $0 \in K$ puisque $f(0)=8$. Enfin, comme $f$ tend vers $+\infty$ à l'infini, il existe $R >0$ tel que $\Norm{x}>R \implies f(x) >8$. Donc $K \subset B_F(0,R)$ et finalement $K$ est compact. De nouveau par continuité, $f_{\vert K}$ admet un minimum. Par définition de $K$, ce minimum est un minimum global.


\end{sol}

\item Déterminer la jacobienne et la hessienne de $f$ en tout point $x \in \R^2$.

\begin{sol}

On calcule les dérivées partielles. Pour tout $x=(x_1,x_2) \in \R^2$,
\begin{align*}
\partial_1f(x) &= 2x_1 -8\sin(x_1)\cos(x_2), & \partial^2_1f(x) = \partial^2_2f(x) &= 2 -8\cos(x_1)\cos(x_2), \\
\partial_2f(x) &= 2x_2 -8\cos(x_1)\sin(x_2), &  \partial_1\partial_2f(x) &= 8\sin(x_1)\sin(x_2).\\
\end{align*}
Notons $J_x(f)$ la jacobienne et $H_x(f)$ la hessienne de $f$ en $x$, on a donc
\begin{align*}
J_x(f) &= \begin{pmatrix}
2x_1 -8\sin(x_1)\cos(x_2) & 2x_2 -8\cos(x_1)\sin(x_2)
\end{pmatrix},\\
H_x(f) &= \begin{pmatrix}
2 -8\cos(x_1)\cos(x_2) & 8\sin(x_1)\sin(x_2) \\ 8\sin(x_1)\sin(x_2) & 2 -8\cos(x_1)\cos(x_2)
\end{pmatrix}.
\end{align*}
\end{sol}

\item Soit $x=(x_1,x_2) \in \R^2$, montrer que $D_xf=0$ si et seulement si $x_1+x_2=4\sin(x_1+x_2)$ ou $x_1-x_2=4\sin(x_1-x_2)$. En déduire la liste des $9$ points critiques de $f$.

\begin{hint}
On pourra commencer par montrer que l'équation $\frac{\sin(t)}{t}=\frac{1}{4}$ d'inconnue $t \in \R^*$ admet une unique solution $\alpha$ sur $]0,+\infty[$ et que $\alpha \in ]\frac{\pi}{2},\pi[$.
\end{hint}

\begin{sol}
On a $D_xf=0 \iff J_xf=0$ ce qui équivaut à
\begin{align*}
\begin{cases} x_1 =4\sin(x_1)\cos(x_2) \\ x_2 =4\cos(x_1)\sin(x_2) \end{cases} &\iff \begin{cases} x_1+x_2 =4\sin(x_1)\cos(x_2)+4\cos(x_1)\sin(x_2) \\ x_1-x_2 =4\sin(x_1)\cos(x_2)-4\cos(x_1)\sin(x_2) \end{cases}\\
&\iff \begin{cases} x_1+x_2 =4\sin(x_1+x_2) \\ x_1-x_2 =4\sin(x_1-x_2) \end{cases}
\end{align*}
Cherchons les solutions de ce système. On va commencer par déterminer les $t\neq 0$ tels que $\frac{\sin(t)}{t}=\frac{1}{4}$. La fonction $g:t\mapsto \frac{\sin(t)}{t}$ est bien définie hors de $0$ et paire. Si $t \geq 2\pi$ alors $\norm{g(t)}\leq \frac{1}{2\pi}<\frac{1}{4}$. Par ailleurs $g$ est négative sur $[\pi,2\pi]$. On est ramené à chercher les $t \in ]0,\pi[$ tels que $g(t)=\frac{1}{4}$. Pour tout $t \in ]0,\pi[$, $g'(t) = \frac{\cos(t)t-\sin(t)}{t^2}$. Sur $[\frac{\pi}{2},\pi]$, le numérateur est clairement négatif. Sur $]0,\frac{\pi}{2}[$, on a $t < \tan(t) \iff \cos(t)t-\sin(t) < 0$. Donc $g'$ est à valeurs strictement négatives, et $g$ décroit strictement sur $]0,\pi[$. Par le théorème des valeurs intermédiaires, il existe un unique $t \in ]0,\pi[$ tel que $g(t)=\frac{1}{4}$. Remarquons que, comme $g(\frac{\pi}{2}) = \frac{2}{\pi} > \frac{1}{4}$, on doit avoir $t > \frac{\pi}{2}$.

Notons $\alpha$ l'unique réel strictement positif tel que $g(\alpha)=\frac{1}{4}$. On a vu que $\alpha \in ]\frac{\pi}{2},\pi[$. Soit $x=(x_1,x_2) \in \R^2$, ce point est critique pour $f$ si et seulement si il satisfait le système d'équation ci-dessus, qui est équivalent à $x_1+x_2 \in \brackets{-\alpha,0,\alpha}$ et $x_1-x_2 \in \brackets{-\alpha,0,\alpha}$. On a donc $9$ possibilités.

Les points critiques de $f$ sont donc $z_0=(0,0)$, $z_1=(-\alpha,0)$, $z_2=(\alpha,0)$, $z_3=(0,-\alpha)$, $z_4=(0,\alpha)$, $z_5=(-\frac{\alpha}{2},-\frac{\alpha}{2})$, $z_6=(-\frac{\alpha}{2},\frac{\alpha}{2})$, $z_7=(\frac{\alpha}{2},-\frac{\alpha}{2})$ et $z_8=(\frac{\alpha}{2},\frac{\alpha}{2})$.
\end{sol}

\item Parmi les $9$ points critiques précédents, lesquels sont des minima locaux, lesquels des maxima locaux et lesquels des points cols (les autres)?

\begin{sol}

Pour déterminer la nature d'un point critique on étudie la nature de la hessienne en ce point. Si celle-ci est définie-positive (resp. définie-positive) on a un minimum (resp. maximum local), voir exercice~\ref{exo: conditions extremum}. Dans les autres cas, si la hessienne est non-dégénérée on a un point-col. Comme la hessienne est symétrique, elle est diagonalisable, et tout ceci se lit donc sur les signes des valeurs propres, qui se déduisent des signes de la trace et du déterminant de la hessienne.

Pour tout $x \in \R^2$ on a $\tau(x):=\tr(H_x(f))=4\parentheses*{1-4\cos(x_1)\cos(x_2)}$ et
\begin{align*}
\delta(x):=\det\parentheses*{H_x(f)} &= \parentheses*{2-8\cos(x_1)\cos(x_2)}^2 - \parentheses*{8\sin(x_1)\sin(x_2)}^2\\
&= 4 - 32\cos(x_1)\cos(x_2) + 64\parentheses*{\cos(x_1)^2\cos(x_2)^2- \sin(x_1)^2\sin(x_2)^2}\\
&= 4 \parentheses*{1 - 8\cos(x_1)\cos(x_2) + 16\cos(x_1+x_2)\cos(x_1-x_2)}.
\end{align*}

En $z_0=(0,0)$, on a $\tau(z_0)=-12$ et $\delta(z_0)=36$. Donc en $z_0$, la hessienne de $f$ a deux valeurs propres de même signe car $\delta(z_0)>0$ et elles sont négatives car $\tau(z_0)<0$. Donc $H_{z_0}(f)$ est définie-négative, et $z_0$ est un maximum local.

Pour $i \in \brackets{1,2,3,4}$, on a $\tau(z_i) = 4\parentheses*{1-4\cos(\alpha)}$. Comme $\alpha \in ]\frac{\pi}{2},\pi[$, on a $\cos(\alpha)<0$ et donc $\tau(z_i) >0$. Par ailleurs,
\begin{equation*}
\delta(z_i) = 4 \parentheses*{1 - 8\cos(\alpha) + 16\cos(\alpha)^2} = 4\parentheses*{1-4\cos(\alpha)}^2>0.
\end{equation*}
Donc $H_{z_i}(f)$ est non-dégénérée et admet deux valeurs propres de même signe, qui sont en fait positives. Donc $H_{z_i}(f)$ est définie-positive, et $z_1,z_2,z_3$ et $z_4$ sont des minima locaux.

Pour $i \in \brackets{5,6,7,8}$, on a
\begin{align*}
\delta(z_i) &= 4\parentheses*{1-8\cos\parentheses*{\frac{\alpha}{2}}^2+16\cos(\alpha)} = 4\parentheses*{1-4\parentheses*{1+\cos(\alpha)}+16\cos(\alpha)}\\
&=-12\parentheses*{1-4\cos(\alpha)}<0.
\end{align*}
Donc $H_{z_i}(f)$ est non-dégénérée avec deux valeurs propres de signes différents. Donc $z_i$ est un point-col.

\end{sol}

\item Déterminer la valeur du minimum de $f$ en fonction de $\alpha$.

\begin{sol}
Le minimum global de $f$ est en particulier un minimum local. Il est donc atteint en l'un des points $z_1,z_2,z_3$ ou $z_4$. On remarque sur la forme de $f$ que $f(x_1,x_2)$ dépend uniquement de $\norm{x_1}$ et $\norm{x_2}$. Donc on a en fait $f(z_1)=f(z_2)=f(z_3)=f(z_4)$, et $f$ atteint donc son minimum global en $4$ points différents.

La valeur de ce minimum est $f(z_2)=f(\alpha,0) = \alpha^2 +8\cos(\alpha)$. On peut donner des valeurs approchées: $\alpha \simeq 2,457$ et $f(z_2) \simeq -0,162$.

\end{sol}
\end{enumerate}

\end{exo}

%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%


\begin{exo}[Point de Fermat]
\label{exo: point de Fermat}

Soient $x_1,x_2$ et $x_3 \in \R^2$ trois points non alignés. On définit $f:x \mapsto \Norm{x-x_1}+\Norm{x-x_2}+\Norm{x-x_3}$, où on a noté $\Norm{\cdot}$ la norme euclidienne de $\R^2$.

\begin{enumerate}
\item Montrer que $f$ admet un minimum sur $\R^2$.

\begin{sol}

La fonction $f$ est continue. De plus $f(x) \xrightarrow[\Norm{x}\to +\infty]{} + \infty$, par exemple parce que pour tout $i \in \brackets{1,2,3}$, $\Norm{x-x_i} \geq \Norm{x}-\Norm{x_i}$. On va montrer que cela suffit à obtenir l'existence d'un minimum.

Soit $\alpha = f(0)$, on considère $K = f^{-1}(]-\infty,\alpha])$, qui est fermé par continuité de $f$ et contient~$0$. Il existe $R \geq 0$ tel que, pour $x \in \R^2 \setminus B(0,R)$, $f(x) > \alpha$. Alors $K \subset B(0,R)$. Donc $K$ est fermé borné, donc compact.

Par continuité, $f_{\vert K}$ atteint un minimum, disons en $y \in K$. En particulier $f(y) \leq f(0)$, donc par définition de $K$, la fonction $f$ atteint un minimum global en $y$.
\end{sol}

\item Montrer que $\Norm{\cdot}$ est strictement convexe, au sens où pour tout $x,y \in \R^2$ et tout $t \in [0,1]$ on a $\Norm{(1-t)x +ty} \leq (1-t)\Norm{x}+t\Norm{y}$, avec égalité si et seulement si $t \in \brackets{0,1}$ ou $x$ et $y$ sont positivement colinéaires. 

\begin{sol}

Soient $x, y \in \R^2$ et $t \in [0,1]$, on a
\begin{equation*}
\Norm{(1-t)x+ty}^2 = (1-t)^2 \Norm{x}^2 + 2(1-t)t\prsc{x}{y} + t^2 \Norm{y}^2 \leq (1-t)^2 \Norm{x}^2 + 2(1-t)t\Norm{x}\Norm{y} + t^2 \Norm{y}^2
\end{equation*}
par Cauchy-Schwarz. Donc $\Norm{(1-t)x +t y} \leq (1-t)\Norm{x}+t \Norm{y}$. C'est valable pour tout $x,y \in \R^2$ et $t \in [0,1]$, donc $\Norm{\cdot}$ est convexe.

En reprenant le calcul précédent, $\Norm{(1-t)x +t y} = (1-t)\Norm{x}+t \Norm{y}$ si et seulement si on est dans le cas d'égalité dans l'inégalité de Cauchy-Schwarz, c'est-à-dire si et seulement si $(1-t)x$ et $ty$ sont positivement colinéaires. Cela se produit exactement si $t\in \brackets{0,1}$, ou si $x$ et $y$ sont positivement colinéaires.
\end{sol}

\item En déduire que le minimum de $f$ est unique.

\begin{sol}

Supposons par l'absurde que $f$ atteigne son minimum global en deux points $y$ et $z$ distincts. Soit $t \in ]0,1[$, on a d'après la question précédente:
\begin{align*}
f((1-t)y+tz) =& \Norm{(1-t)(y-x_1)+t(z-x_1)}+\Norm{(1-t)(y-x_2)+t(z-x_2)}\\
&+\Norm{(1-t)(y-x_3)+t(z-x_3)}\\
\leq& (1-t)\Norm{y-x_1}+t\Norm{z-x_1}+(1-t)\Norm{y-x_2}+t\Norm{z-x_2}\\
&+(1-t)\Norm{y-x_3}+t\Norm{z-x_3}\\
\leq& (1-t)f(y)+tf(z).
\end{align*}
Comme $f(y)=f(z)$ est le minimum de $f$ on a en fait égalité. On est donc dans le cas d'égalité pour les trois inégalités appliquées dans le calcul précédent. À savoir, pour tout $i \in\brackets{1,2,3}$,
\begin{equation*}
\Norm{(1-t)(y-x_i)+t(z-x_i)} = (1-t)\Norm{y-x_i}+t\Norm{z-x_i}
\end{equation*}
donc $y-x_i$ et $z-x_i$ sont colinéaires, puisque $t \in ]0,1[$. Comme on a supposé $y \neq z$, on donc que $x_1$, $x_2$ et $x_3$ sont sur la droite $(y,z)$, ce qui contredit l'hypothèse qu'ils ne sont pas alignés.

C'est absurde, donc $f$ atteint son minimum en un unique point de $\R^2$.
\end{sol}

\item Supposons que $f$ atteignent son minimum en $y \in \R^2 \setminus\brackets{x_1,x_2,x_3}$. Montrer que les segements $[y,x_i]$ forment entre eux des angles de $\frac{2\pi}{3}$ en $y$.

\begin{sol}
Enfin une question où on fait du calcul différentiel. La norme euclidienne $N:x \mapsto \Norm{x}$ est $\cC^1$ sur $\R^2 \setminus \brackets{0}$ et, pour tout $x \neq 0$, $D_xN: v \mapsto \prsc*{\frac{x}{\Norm{x}}}{v}$. En effet, lorsque $v \to 0$ on a:
\begin{align*}
N(x+v) &= \sqrt{\prsc{x+v}{x+v}} =\sqrt{\Norm{x}^2+2\prsc{x}{v}+\Norm{v}^2} = \Norm{x}\sqrt{1 + 2\prsc*{\frac{x}{\Norm{x}^2}}{v}+o(v)}\\
&= \Norm{x}\parentheses*{1+\prsc*{\frac{x}{\Norm{x}^2}}{v}+o(v)} = N(x) + \prsc*{\frac{x}{\Norm{x}}}{v}+o(v).
\end{align*}
On peut aussi le prouver en calculant les dérivées partielles de $N:(z_1,z_2) \mapsto \sqrt{z_1^2+z_2^2}$ et en vérifiant qu'elles sont continues.

Alors $f$ est différentiable sur $\R^2 \setminus \brackets{x_1,x_2,x_3}$ comme somme et composée de fonctions différentiables. Pour tout $x \notin \brackets{x_1,x_2,x_3}$ on a alors
\begin{equation*}
D_xf = \sum_{i=1}^3 D_{x-x_i}N \circ \Id = \sum_{i=1}^3 \prsc*{\frac{x-x_i}{\Norm{x-x_i}}}{\cdot} = \prsc*{\sum_{i=1}^3 \frac{x-x_i}{\Norm{x-x_i}}}{\cdot}.
\end{equation*}
En $y$, on a $D_yf=0$, c'est-à-dire $\sum_{i=1}^3 \frac{x_i-y}{\Norm{x_i-y}}=0$. On va déduire de cette égalité que les segements $[y,x_i]$ forment entre eux des angles de $\frac{2\pi}{3}$ en $y$.

Pour cela, on identifie canoniquement $\R^2$ à $\C$, pour pouvoir calculer avec les complexes. Le problème étant invariant par translation, rotation et symétrie, on peut supposer que $y=0$, que $\frac{x_1}{\norm{x_1}}=1$ et que $\frac{x_2}{\norm{x_2}}$ se trouve dans le demi-plan supérieur. Il existe $\alpha \in [0,\pi]$ et $\beta \in ]-\pi,\pi]$ tels que $\frac{x_2}{\norm{x_2}}=e^{i\alpha}$ et $\frac{x_3}{\norm{x_3}}=e^{i\beta}$. La condition ci-dessus affirme alors que $1+e^{i\alpha}+e^{i\beta}=0$.

On en déduit $\sin(\beta)=-\sin(\alpha)$, d'où $\beta \in \brackets{-\alpha,-\pi+\alpha}$. Par ailleurs $-1=\cos(\alpha)+\cos(\beta)$ ce qui interdit $\beta=\alpha-\pi$. Donc $-\beta=\alpha=\frac{2\pi}{3}$. Ainsi, une fois qu'on a normalisé la situation, on a $\frac{x_1}{\norm{x_1}}=1$, $\frac{x_2}{\norm{x_2}}=e^{2i\frac{\pi}{3}}$ et $\frac{x_3}{\norm{x_3}}=e^{-2i\frac{\pi}{3}}$. Cela prouve le résultat attendu sur les angles.

\end{sol}

\end{enumerate}

\end{exo}

%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%


\begin{exo}[Régularité des applications linéaires et bilinéaires]
\label{exo: lin et bilin Cinf}

\begin{enumerate}

\item Soit $L:E \to F$ une application linéaire continue en Banachs, montrer qu'elle est de classe $\cC^\infty$.

\begin{sol}

On sait que $L$ est différentiable et $D_xL= L$ pour tout $x \in E$. Donc $DL:E \to \cL(E,F)$ est constante, donc différentiable et $D_x^2L=0 \in \cL_2(E,F)$ pour tout $x \in E$. En répétant l'argument, on montre par récurrence que pour tout $p \geq 2$, $D^pL$ est bien définie sur $E$ et $D_x^pL=0 \in \cL_p(E,F)$ pour tout $x \in E$. Donc $L$ est bien $\cC^\infty$ sur $E$.

\end{sol}

\item Soit $B:E_1 \times E_2 \to F$ une application bilinéaire continue entre Banachs, montrer qu'elle est de classe $\cC^\infty$.

\begin{sol}

On a montré dans l'exercice~\ref{exo: appli bilineaire} que $B$ est différentiable et $DB:E_1 \times E_2 \to \cL(E_1\times E_2,F)$ est linéaire continue. Par la question précédente $DB$ est de classe $\cC^\infty$. Donc $B$ aussi.

\end{sol}

\end{enumerate}

\end{exo}

%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%


\begin{exo}[Régularité des composées]
\label{exo: composee Ck}
Soient $E,F$ et $G$ des Banachs, $U \subset E$ et $V\subset F$ des ouverts et $k \in \N$. Si $f:U \to V$ et $g:V \to G$ sont de classe $\cC^k$ montrer que $g \circ f$ aussi.

\begin{sol}

On procède par récurrence sur $k \in \N$. Le cas $k=1$ a été traité en cours de topologie. Soit $k \in \N$, supposons le résultat vrai pour $k$ (pour toutes applications entre des ouverts d'espaces de Banach).

Soient $f:U \to V$ et $g:V \to G$ de classe $\cC^{k+1}$. Par la règle de la chaine, pour tout $x \in U$ on a
\begin{equation*}
D_x(g \circ f) = D_{f(x)}g \circ D_xf.
\end{equation*}
Par hypothèse, $Dg:V\mapsto \cL(F,G)$ est $\cC^k$, de même que $f:U \to V$. Donc $Dg \circ f:x \mapsto D_{f(x)}g$ est $\cC^k$, par hypothèse de récurrence. Comme $Df$ est aussi $\cC^k$, l'application $x \mapsto (D_xf,D_{f(x)}g)$ est $\cC^k$ de $U$ dans $\cL(E,F) \times \cL(F,G)$.

On a déjà vu que $B:(L,K) \mapsto K \circ L$ est bilinéaire continue sur $\cL(E,F) \times \cL(F,G)$ dans $\cL(E,G)$. Par l'exercice~\ref{exo: lin et bilin Cinf}, on sait que $B$ est $\cC^\infty$, en particulier $\cC^k$. Par hypothèse de récurrence de nouveau, $D(g\circ f) = B \circ \parentheses*{Df,Dg\circ f}$ est de classe $\cC^k$. Donc $g \circ f$ est $\cC^{k+1}$, ce qui achève la récurrence et établit le résultat.

\end{sol}

\end{exo}

%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%


\begin{exo}[Régularité de l'inverse]
\label{exo: inverse Cinf}

\begin{enumerate}

\item Montrer que $\Inv:M \to M^{-1}$ est $\cC^\infty$ sur $GL_n(\R)$.

\begin{sol}

En dimension finie c'est relativement simple. Déjà $GL_n(\R) = \det^{-1}(\R^*)$ est ouvert par continuité de $\det$, qui est polynomial. Ensuite on utilise la formule $\Inv(M) = M^{-1} = \frac{1}{\det(M)}\trans{M}$, où $\text{co}(M)$ est la matrice des cofacteurs de $M$.

Sur $GL_n(\R)$, la fonction $\det$ ne s'annule pas, donc $M \mapsto \frac{1}{\det(M)}$ est bien définie. Les coefficients de $\trans{M}$ sont des déterminants extraits de $M$, en particulier des polynômes en les coefficients de $M$. Donc les coefficients de $M^{-1}$ sont des fractions rationnelles en les coefficients de $M$, en particulier $\cC^\infty$. Donc $\Inv$ est $\cC^\infty$.

\end{sol}

\item Soit $E$ un espace de Banach, montrer que $\Inv:L \mapsto L^{-1}$ est $\cC^\infty$ de $GL(E)$ dans lui-même.

\begin{sol}

Dans ce cadre, c'est plus compliqué. On a montré dans le cours de topologie que $GL(E)$ est ouvert dans le Banach $\cL(E)$ et que $\Inv$ est continu. On a aussi montré dans le cours de calcul différentiel que $\Inv$ est différentiable et que $D_L\Inv:H \mapsto -L^{-1}HL^{-1}$ pour tout $L \in GL(E)$.

Soient $M,N \in \cL(E)$, on définit $B(M,N):H \mapsto -MHN$ qui est linéaire de $\cL(E)$ dans lui-même. Pour tout $H \in \cL(E)$, $\Norm{B(M,N)(H)} = \Norm{MHN} \leq \Norm{M}\Norm{N}\Norm{H}$. Donc $B(M,N)$ est continue, et $\Norm{B(M,N)} \leq \Norm{M}\Norm{N}$. On définit ainsi $B:\cL(E) \times \cL(E) \to \cL\parentheses*{\cL(E)}$ qui est bilinéaire et continue. Notons aussi $\iota:L \mapsto (L,L)$ qui est linéaire continue de $\cL(E)$ dans $\cL(E) \times \cL(E)$.

L'expression ci-dessus montre que $D_L \Inv = B(L^{-1},L^{-1}) = B(\iota(L^{-1})) = (B \circ \iota \circ \Inv)(L)$ pour tout $L \in GL(E)$. En d'autres termes $D\Inv = B \circ \iota \circ \Inv$ de $GL(E)$ vers $\cL(\cL(E))$. Les applications $B$ et $\iota$ sont $\cC^\infty$, car linéaire continue et bilinéaire continue respectivement. Si $\Inv$ est $\cC^k$, alors $D\Inv$ est $\cC^k$ comme composée d'applications $\cC^k$, voir exercice~\ref{exo: composee Ck}, et donc $\Inv$ est~$\cC^{k+1}$. Puisque $\Inv$ est $\cC^0$, on conclut par récurrence que $\Inv$ est $\cC^\infty$.

\end{sol}

\item Soient $E$ et $F$ des Banachs, montrer que $\Inv:L \mapsto L^{-1}$ est $\cC^\infty$ de $\Iso(E,F)$ dans $\Iso(F,E)$.

\begin{sol}

Si $E$ et $F$ ne sont pas isomorphes, $\Inv$ est l'application vide, donc c'est de la zérologie. Si $E$ et $F$ sont isomorphes, on se ramène au cas précédent.

Soit $M \in \Iso(F,E)$. Notons $\phi:L \mapsto M \circ L$ de $\cL(E,F)$ vers $\cL(E)$ et $\psi:K \mapsto K \circ M$ de $\cL(E)$ vers $\cL(F,E)$. Ces deux applications sont linéaires continues, donc $\cC^\infty$. Notons $\Inv_E:K \to K^{-1}$ de $GL(E)$ dans lui-même, qui est $\cC^\infty$ par la question précédente.

Pour tout $L \in \Iso(E,F)$ on a
\begin{align*}
\Inv(L) = L^{-1} = L^{-1}\circ M^{-1} \circ M = (M\circ L)^{-1}\circ M = \psi\parentheses*{\Inv_E\parentheses*{\phi(L)}}.
\end{align*}
Donc $\Inv = \psi \circ \Inv_E \circ \phi$ est $\cC^\infty$ comme composée d'applications $\cC^\infty$.

\end{sol}

\end{enumerate}

\end{exo}

%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%


\begin{exo}[Développement de Taylor]
\label{exo: Taylor}

Soient $U \subset \R^n$ un ouvert, $F$ un espace de Banach et $f:U \to F$ une application $k$-différentiable en $x \in U$. Soit $h=(h_1,\dots,h_n) \in \R^n$, montrer que
\begin{equation*}
D^k_xf(h,\dots,h) = \sum_{\alpha_1+\dots+\alpha_n =k} \frac{k!}{\alpha_1! \dots \alpha_n!} h_1^{\alpha_1}\dots h_n^{\alpha_n} \partial_1^{\alpha_1}\dots\partial_n^{\alpha_n}f(x).
\end{equation*}

\begin{sol}

Pour simplifier les écritures on utilise des notations multi-indicielles: pour $\alpha =(\alpha_1,\dots,\alpha_n) \in \N^n$ on note $\norm{\alpha} =\alpha_1 + \dots + \alpha_n$, $\partial^\alpha = \partial_1^{\alpha_1}\dots \partial_n^{\alpha_n}$, $\binom{k}{\alpha} = \frac{k!}{\alpha!} = \frac{k!}{\alpha_1! \dots \alpha_n !}$ et $h^\alpha = h_1^{\alpha_1}\dots h_n^{\alpha_n}$. On veut donc prouver que $D_x^kf(h,\dots,h) = \sum_{\norm{\alpha}=k} \binom{k}{\alpha} h^\alpha \partial^\alpha f(x)$.

On écrit $h = \sum_{i=1}^n h_i e_i$, avec $(e_1,\dots,e_n)$ la base canonique de $\R^n$, et on développe par multilinéarité.
\begin{align*}
D_x^kf(h,\dots,h) &= D_x^kf\parentheses*{\sum_{i_1=1}^n h_{i_1}e_{i_1}, \dots,\sum_{i_k=1}^n h_{i_k}e_{i_k}}\\
&= \sum_{1 \leq i_1,\dots,i_k \leq n} h_{i_1}\dots h_{i_k} D_xf^k(e_{i_1},\dots,e_{i_k})\\
&= \sum_{1 \leq i_1,\dots,i_k \leq n} h_{i_1}\dots h_{i_k} \parentheses*{\partial_{i_1}\dots \partial_{i_k}f}(x).
\end{align*}
Soit $i_1, \dots, i_k \in \ssquarebrackets{1}{n}$, pour tout $p \in \ssquarebrackets{1}{n}$, on note $\alpha_p = \card\parentheses*{\brackets*{j \in \ssquarebrackets{1}{k}\mvert i_j=p}}$. Alors on a $h_{i_1}\dots h_{i_k} = h_1^{\alpha_1}\dots h_n^{\alpha_n}= h^\alpha$ et $\partial_{i_1}\dots \partial_{i_k} = \partial_1^{\alpha_1}\dots \partial_n^{\alpha_n} = \partial^\alpha$. De plus, par définition des $(\alpha_p)_{1 \leq p \leq m}$, $\norm{\alpha} = \alpha_1 + \dots + \alpha_n = \card \parentheses{\bigsqcup_{p=1}^n \brackets*{j \in \ssquarebrackets{1}{k}\mvert i_j=p}} = \card\parentheses*{\ssquarebrackets{1}{k}}=k$. Les termes dans l'expression de $D_x^kf(h,\dots,h)$ ci-dessus sont donc de la forme $h^\alpha \partial^\alpha f(x)$ avec $\norm{\alpha}=k$.

Inversement, soit $\alpha \in \N^n$ tel que $\norm{\alpha}=k$. On a $h^\alpha \partial^\alpha f(x)=h_{i_1}\dots h_{i_k} \parentheses*{\partial_{i_1}\dots \partial_{i_k}f}(x)$ si et seulement si exactement $\alpha_1$ des $(i_j)_{1 \leq j \leq k}$ sont égaux à $1$, $\alpha_2$ sont égaux à $2$, etc. Le nombre de $k$-uplets $(i_1,\dots,i_k) \in \ssquarebrackets{1}{n}$ satisfaisant cette condition est le nombre de partition de $\ssquarebrackets{1}{k}$ en $n$ ensembles de cardinaux respectifs $\alpha_1,\alpha_2,\dots,\alpha_n$, c'est-à-dire $\frac{k!}{\alpha_1! \dots \alpha_k!}=\binom{k}{\alpha}$.

Finalement, $D_x^kf(h,\dots,h) = \sum_{\norm{\alpha}=k} \binom{k}{\alpha} h^\alpha \partial^\alpha f(x)$ comme attendu.

\end{sol}

\end{exo}

%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%


\begin{exo}[Encore un contre-exemple]
\label{exo: contre ex homéo Cinf}

Donner un exemple d'homéomorphisme $\cC^\infty$ qui ne soit pas un difféomorphisme.

\begin{sol}

On peut considérer $f:x \mapsto x^3$ de $\R$ dans $\R$, qui est $\cC^\infty$, bijective et dont la réciproque $f^{-1}:x \mapsto \sqrt[3]{x}$ est $\cC^\infty$ sur $\R^*$ mais n'est pas dérivable en $0$.
\end{sol}

\end{exo}

%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%


\begin{exo}[Théorème d'inversion globale]
\label{exo: inversion globale}

Soient $E$ et $F$ des Banachs, $U \subset E$ un ouvert de $f:U \to F$ une application $\cC^k$ telle que $\forall x \in U$, $D_xf \in \Iso(E,F)$.

\begin{enumerate}

\item Montrer que $f$ est une application ouverte.

\begin{sol}

Soit $\Omega \subset U$ un ouvert, il s'agit de montrer que $f(\Omega)$ est ouvert. Soit $y \in f(\Omega)$, il existe $x \in \Omega$ tel que $y=f(x)$. Comme $D_xf \in \Iso(E,F)$, par le théorème d'inversion locale, $f$ réalise un $\cC^k$-difféomorphisme local d'un voisinage de $x$ dans $U$ vers un voisinage de $y$ dans $F$. Quitte à prendre l'intersection avec $\Omega \in \cV(x)$, il existe $V$ voisinage ouvert de $x$ inclus dans $\Omega$ tel que $f_{\vert V}$ soit un $\cC^k$-difféomorphisme de $V$ vers son image. En particulier, $f(V)$ est ouvert et $y \in f(V) \subset f(\Omega)$. Donc $f(\Omega)$ est voisinage de $y$. Donc $f(\Omega)$ est voisinage de chacun de ses points, donc ouvert. Donc $f$ est ouverte.

\end{sol}

\item Si $f$ est injective, montrer que c'est un $\cC^k$-difféomorphisme de $U$ vers $f(U)$.

\begin{sol}

Si $f$ est injective, alors $f:U \to f(U)$ est bijective et $\cC^k$. Comme $f$ est une application ouverte, l'application réciproque $f^{-1}$ est continue. Donc $f$ est un homéomorphisme.

Comme $D_xf$ est un isomorphisme pour tout $x \in U$, on a que $f$ est un $\cC^k$-difféomorphisme d'après le cours.

\end{sol}

\end{enumerate}

\end{exo}

%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%


\begin{exo}[Régularité des racines d'un polynôme]
\label{exo: regularite des racines d'un polynome}

Soit $d \in \N^*$, on note $\ev:\R_d[X]\times \R$ l'application d'évaluation définie par $\ev:(P,x) \mapsto P(x)$.

\begin{enumerate}

\item Justifier que $\ev$ est $\cC^\infty$.

\begin{sol}

Soit $\varphi:\R^{d+1}\times \R \to \R_d[X] \times \R$ l'isomorphisme définit par $\varphi:(a_0,\dots,a_d,x)\mapsto \parentheses*{\sum_{i=0}^d a_iX^i,x}$. L'application $\ev \circ \varphi :\R^{d+2}\to \R$ est $(a_0,\dots,a_d,x)\mapsto \sum_{i=0}^d a_ix^i$. Elle est polynomiale sur $\R^{d+2}$, donc $\cC^\infty$. Comme $\varphi^{-1}$ est linéaire donc $\cC^\infty$, on a que $\ev = (\ev\circ \varphi) \circ \varphi^{-1}$ est $\cC^\infty$ comme composée d'applications $\cC^\infty$.

De façon moins abstraite, on travaille dans la base canonique $(1,X,\dots,X^d)$ de $\R_d[X]$, et $\ev \circ \varphi$ est $\ev$ lue dans cette base. Mais pour cela il faut se convaincre que le choix d'une base ne modifie pas le caractère $\cC^\infty$ d'une application.

\end{sol}

\item Pour tout $P \in \R_d[X]$ et $x \in \R$, déterminer $D_{(P,x)}\ev$.

\begin{sol}

Soient $P \in \R_d[X]$ et $x \in \R$, on sait par le point précédent que $D_{(P,x)}\ev : \R_d[X] \times \R \to \R$ est bien définie et linéaire. Pour tout $Q \in \R_d[X]$ et $h \in \R$,
\begin{equation*}
D_{(P,x)}\ev(Q,h) = D_{(P,x)}\ev(Q,0)+ D_{(P,x)}\ev(0,h).
\end{equation*}
Le nombre $D_{(P,x)}\ev(0,h)$ est la dérivée directionnelle de $\ev$ dans la direction $(0,h)$ en $(P,x)$, i.e~la dérivée en $0$ de la fonction $f:t \mapsto \ev\parentheses{(P,x) + t (0,h)} = \ev\parentheses*{P,x+th}=P(x+th)$. Donc
\begin{equation*}
D_{(P,x)}\ev(0,h) = f'(0)=h P'(t).
\end{equation*}
De même, $D_{(P,x)}\ev(Q,0)$ est la dérivée en $0$ de $g:t \mapsto \ev\parentheses*{(P+tQ,x)} = P(x)+tQ(x)$, c'est-à-dire $D_{(P,x)}\ev(Q,0)=g'(0)=Q(x)$. Finalement $D_{(P,x)}\ev:(Q,h) \mapsto Q(x)+ hP'(x)$.

Plus conceptuellement, $\partial_1 \ev(P,x)= D_{(P,x)}\ev(\cdot,0)$ est la différentielle en $P$ de l'application linéaire $\ev(\cdot,x):\R_d[X] \to \R$. Donc $D_{(P,x)}\ev(\cdot,0)=\partial_1 \ev(P,x)=\ev(\cdot,x)$. Par ailleurs, $\partial_2 \ev(P,x)= D_{(P,x)}\ev(0,\cdot)$ est la différentielle en $x$ de l'application $\ev(P,\cdot)=P:\R \to \R$, c'est-à-dire la multiplication par $P'(x)$. Par linéarité,
\begin{equation*}
D_{(P,x)}\ev(Q,h) = \partial_1 \ev(P,x)(Q) + \partial_2\ev(P,x)(h) = Q(x) + h P'(x).
\end{equation*}

\end{sol}

\item Soient $P \in \R_d[X]$ et $x \in \R$ tels que $P(x)=0$ et $P'(x)\neq 0$. Montrer qu'il existe un voisinage $U$ de $P$ dans $\R_d[X]$, un voisinage $I$ de $x$ dans $\R$ et $\psi:U \to I$ de classe $\cC^\infty$ tels que $\psi(P)=x$ et, pour tout $Q \in U$, $\psi(Q)$ est l'unique racine de $Q$ dans $I$.

\begin{sol}

On a $\ev(P,x)=0$ et $\partial_2\ev(P,x):h \mapsto h P'(x)$ de $\R$ dans $\R$ d'après la question précédente. Comme $P'(x) \neq 0$, on a que $\partial_2\ev(P,x)$ est un isomorphisme de $\R$ dans $\R$.

Par le théorème des fonctions implicites, il existe un voisinage ouvert $U$ de $P$ dans $\R_d[X]$, un voisinage ouvert $I$ de $x$ dans $\R$ et $\psi:U \to I$ tels que $\psi(P)=x$ et $\forall (Q,y) \in U \times I$, $Q(y)=\ev(Q,y) =0 \iff y = \psi(Q)$.

Notamment, pour tout $Q \in U$, il existe une unique racine de $Q$ dans $I$, qui est $\psi(Q)$.

\end{sol}

\end{enumerate}

\end{exo}

%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%


\begin{exo}[Volume d'une courbe]
\label{exo: volume d'une courbe}

Soient $I \subset \R$ un intervalle ouvert et $\gamma:I \to \R^n$ avec $n \geq 2$ une fonction de classe $\cC^1$.

\begin{enumerate}

\item Soient $a,b \in I$ tels que $a <b$, montrer qu'il existe $\alpha >0$ tel que: $\forall x \in [a,b]$, $\forall \epsilon \in ]0,1]$, $\gamma\parentheses{[x-\alpha\epsilon,x+\alpha\epsilon]} \subset B_F(\gamma(x),\epsilon)$.

\begin{sol}

Comme $[a,b] \subset I$ et $I$ est ouvert, il existe $\beta>0$ tel que $K=[a-\beta,b+\beta] \subset I$. Comme $\gamma'$ est continue, elle est bornée sur le compact $K$, disons par $C>0$. Posons $\alpha = \min\parentheses*{\beta,\frac{1}{C}}>0$.

Soient $\epsilon\in ]0,1]$ et $x \in [a,b]$, on a $0 <\epsilon \alpha \leq \beta$ donc $[x-\epsilon\alpha,x+\epsilon\alpha]\subset K\subset I$. Donc, pour tout $y \in [x-\epsilon\alpha,x+\epsilon\alpha]$, on a $\Norm{\gamma(y)-\gamma(x)} \leq \norm{y-x}\Norm{\gamma'}_{\infty,K}\leq C \alpha\epsilon \leq \epsilon$, par l'inégalité des accroissements finis. D'où le résultat.

\end{sol}

\item Soit $\epsilon\in ]0,1]$, montrer qu'on peut recouvrir $\gamma([a,b])$ par $\ceil{\frac{b-a}{2\alpha\epsilon}}$ boules  fermées de rayon~$\epsilon$.

\begin{sol}

Le segment $[a,b]$ étant de longueur $(b-a)$, on peut le recouvrir par $\ceil*{\frac{b-a}{2\alpha\epsilon}}$ segments de longueur $2\alpha\epsilon$. Par exemple, les segments $[a+(2k-2)\alpha\epsilon,a+2k\alpha\epsilon]$ avec $k \in \ssquarebrackets{1}{\ceil*{\frac{b-a}{2\alpha\epsilon}}}$, que l'on peut aussi écrire comme $[x_k-\alpha\epsilon,x_k+\alpha\epsilon]$, où $x_k=a+(2k-1)\alpha\epsilon$ et $k \in \ssquarebrackets{1}{\ceil*{\frac{b-a}{2\alpha\epsilon}}}$. Alors
\begin{equation*}
\gamma\parentheses*{[a,b]} = \bigcup_{k=1}^{\ceil*{\frac{b-a}{2\alpha\epsilon}}}\gamma\parentheses*{[x_k-\alpha\epsilon,x_k+\alpha\epsilon]} \subset \bigcup_{k=1}^{\ceil*{\frac{b-a}{2\alpha\epsilon}}} B_F(\gamma(x_k),\epsilon),
\end{equation*}
d'après la question précédente.

\end{sol}


\item En déduire que $\gamma(I)$ est de mesure nulle dans $\R^n$ pour la mesure de Lebesgue.

\begin{sol}

Soient $a,b \in I$ tels que $a <b$. D'après la question précédente, le volume $n$-dimensionnel de $\gamma([a,b])$ est borné par celui de $\ceil*{\frac{b-a}{2\alpha\epsilon}}$ boules de rayon $\epsilon$. En notant $\omega$ le volume de la boule unité euclidienne de $\R^n$, on a
\begin{equation*}
\vol\parentheses*{\gamma([a,b])} \leq \ceil*{\frac{b-a}{2\alpha\epsilon}} \epsilon^n \omega \leq \omega \epsilon^n \parentheses*{\frac{b-a}{2\alpha\epsilon}+1} \leq \omega\epsilon^{n-1}\parentheses*{\frac{b-a}{2\alpha}+\epsilon} \underset{\epsilon \to 0}{=} O(\epsilon^{n-1}).
\end{equation*}
Comme le terme de gauche est indépendant de $\epsilon$, on en déduit que $\gamma([a,b])$ est de mesure nulle pour la mesure de Lebesgue de $\R^n$.

Ensuite, il existe deux suites $(a_k)_{k \in \N}$ et $(b_k)_{k \in \N}$, le première décroissante, la seconde croissante, telles que $a_0 < b_0$ et $I = \bigcup_{k \in \N}[a_k,b_k]$. Donc $\gamma(I) = \bigcup_{k \in \N} \gamma([a_k,b_k])$ est union dénombrable d'ensembles de mesure nulle, donc de mesure nulle.

\end{sol}

\end{enumerate}

\end{exo}

%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%


\begin{exo}[Lemme de Sard, cas facile]
\label{exo: Sard}

Soient $I \subset \R$ un intervalle ouvert et $f:I \to \R$ de classe~$\cC^1$. On note $C = \brackets*{x \in I \mvert f'(x)=0}$ l'ensemble des points critiques de $f$.
\begin{enumerate}

\item Soient $a,b \in I$ tels que $a <b$ et $\epsilon>0$. Montrer qu'il existe $\delta >0$ tel que: pour tout $x \in [a,b] \cap C$, on a $\gamma\parentheses{[x-\delta,x+\delta]} \subset [f(x)-\epsilon\delta,f(x)+\epsilon\delta]$.

\begin{sol}

Comme $[a,b] \subset I$ et $I$ est ouvert, il existe $\alpha>0$ tel que $K=[a-\alpha,b+\alpha] \subset I$. Comme $f'$ est continue, elle est uniformément continue sur le compact $K$. Soit $\delta \in ]0,\alpha]$ tel que pour tout $x,y \in K$ si $\norm{y-x}\leq \delta$ alors $\norm{f'(y)-f'(x)}\leq \epsilon$. Soit $x \in [a,b]\cap C$, alors $[x-\delta,x+\delta] \subset K$. Pour tout $z \in [x-\delta,x+\delta]$, on a donc $\norm{f'(z)}=\norm{f'(z)-f'(x)} \leq \epsilon$. Par l'inégalité des accroissements finis, pour tout $y \in [x-\delta,x+\delta]$ on a donc $\norm{f(y)-f(x)} \leq \epsilon\norm{y-x}\leq \epsilon\delta$. Donc on a $\gamma\parentheses{[x-\delta,x+\delta]} \subset [f(x)-\epsilon\delta,f(x)+\epsilon\delta]$.

\end{sol}

\item En déduire que $\gamma\parentheses*{[a,b]\cap C}$ est de mesure nulle.

\begin{sol}

Si $[a,b] \cap C=\emptyset$ c'est vrai. Sinon, comme $C=(f')^{-1}(0)$ est fermé, $[a,b]\cap C$ est compact et non-vide, il admet donc un minimum $x_1$.

Soit $\epsilon>0$ et soit $\delta>0$ correspondant donné par la question précédente, on note $N =\ceil*{\frac{b-a}{\delta}}$. Pour tout $k \in \ssquarebrackets{1}{N}$, on notera $x_k=x_1$ si le compact $[a+(k-1)\delta,a+k\delta]\cap C$ est vide, et $x_k = \min\parentheses*{[a+(k-1)\delta,a+k\delta]\cap C}$ sinon. Si $[a+(k-1)\delta,a+k\delta]\cap C \neq \emptyset$, alors il contient $x_k$ et est de longueur $\delta$, donc $[a+(k-1)\delta,a+k\delta]\cap C \subset [x_k-\delta,x_k+\delta]$. Cette dernière inclusion est encore vrai si $[a+(k-1)\delta,a+k\delta]\cap C= \emptyset$. Comme $N\delta \geq b-a$, on a donc
\begin{equation*}
[a,b]\cap C = \bigcup_{k=1}^N [a+(k-1)\delta,a+k\delta]\cap C \subset \bigcup_{k=1}^N [x_k-\delta,x_k+\delta]
\end{equation*}
Donc, en utilisant la définition de $\delta$,
\begin{equation*}
f\parentheses*{[a,b]\cap C} \subset \bigcup_{k=1}^N f\parentheses*{[x_k-\delta,x_k+\delta]} \subset \bigcup_{k=1}^N [f(x_k)-\epsilon\delta,f(x_k)+\epsilon\delta].
\end{equation*}
Donc $f\parentheses*{[a,b]\cap C}$ est de mesure au plus
\begin{equation*}
2N\epsilon\delta \leq 2\epsilon\delta \parentheses*{\frac{b-a}{\delta}+1} \leq 2\parentheses*{b-a+\delta}\epsilon \leq 2(b-a+\alpha)\epsilon,
\end{equation*}
où $\alpha$ est comme dans la solution de la question précédente, en particulier indépendant de $\epsilon$. C'est vrai pour tout $\epsilon>0$ donc $f\parentheses*{[a,b]\cap C}$ est de mesure nulle.

\end{sol}

\item Montrer que $\gamma(C)$ est de mesure nulle.

\begin{sol}

Comme dans la dernière question de l'exercice~\ref{exo: volume d'une courbe}, on recouvre $I$ par une famille dénombrable de segment et on applique le résultat à chacun. Alors $f(C)$ est union dénombrable d'ensembles négligeables, donc négligeable.
\end{sol}

\end{enumerate}

\end{exo}

%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%


\begin{exo}[Continuité des applications multilinéaires]
\label{exo: continuite multilineaires}

Soient $E$ et $F$ des Banachs. Pour tout $x=(x_1,\dots,x_k) \in E^k$ on note $\Norm{x}_\infty = \max_{1 \leq 1 \leq k}\Norm{x_i}_E$.
\begin{enumerate}

\item Montrer que $\parentheses*{E^k,\Norm{\cdot}_\infty}$ est un espace de Banach

\begin{sol}

Soit $(x^{(n)})_{n \in \N}$ une suite de Cauchy dans $E^k$. Pour tout $i \in \ssquarebrackets{1}{k}$, pour tout $p,q \in \N$, on a $\Norm{x_i^{(p)}-x_i^{(q)}}_E\leq \Norm{x^{(p)}-x^{(q)}}_\infty$. Donc $(x_i^{(n)})_{n \in \N}$ une suite de Cauchy dans $E$, donc converge vers une limite $x_i \in E$. Alors $x^{(n)} \xrightarrow[n \to +\infty]{}x=(x_1,\dots,x_k)$.

\end{sol}

\item Soit $M:E^k \to F$ une application $k$-linéaire. Montrer que $M$ est continue si et seulement s'il existe $C \geq 0$ tel que, pour tout $x\in E^k$, $\Norm{M(x)}_F \leq C \Norm{x_1}_E\dots\Norm{x_k}_E$.

\begin{sol}

Supposons qu'il existe $C \geq 0$ comme ci-dessus. Soient $x=(x_1,\dots,x_k)$ et $y=(y_1,\dots,y_k) \in E^k$,
\begin{align*}
\Norm{M(y_1,\dots,y_k)-M(x_1,\dots,x_k)}_F \leq & \Norm{M(y_1,\dots,y_k)-M(x_1,,y_2\dots,y_k)}_F\\
&+ \Norm{M(x_1,y_2,\dots,y_k)-M(x_1,x_2,y_3,\dots,y_k)}_F\\
&+ \dots + \Norm{M(x_1,\dots,x_{k-1},y_k)-M(x_1,\dots,x_{k-1},x_k)}_F\\
\leq & \Norm{M(y_1-x_1,y_2,\dots,y_k)}_F\\
&+ \Norm{M(x_1,y_2-x_2,y_3\dots,y_k)}_F\\
&+ \dots +\Norm{M(x_1,\dots,x_{k-1},y_k-x_k)}_F\\
\leq & C\Norm{y_1-x_1}_E\Norm{y_2}_E\dots\Norm{y_k}_E\\
&+ \dots +\Norm{x_1}_E\dots\Norm{x_{k-1}}_E\Norm{y_k-x_k}_E\\
&\xrightarrow[y \to x]{}0.
\end{align*}
Donc $M$ est continue sur $E^k$. Inversement, si $M$ est continue, elle est en particulier continue en $0$, donc il existe $\delta>0$ tel que, pour tout $x \in E^k$ si $\Norm{x}_\infty \leq \delta$ alors $\Norm{M(x)}_F \leq 1$. Soit $x=(x_1,\dots,x_k) \in E^k$, si l'un des $x_i$ est nul alors $M(x)=0$. Si $x_i \neq 0$ pour tout $i \in \ssquarebrackets{1}{k}$, alors
\begin{equation*}
1 \geq \Norm*{M\parentheses*{\frac{\delta}{\Norm{x_1}_E}x_1,\cdots,\frac{\delta}{\Norm{x_k}_E}x_k}} = \frac{\delta^k}{\Norm{x_1}_E\dots\Norm{x_k}_E}\Norm{M(x)}_F.
\end{equation*}
Donc, pour tout $x \in E^k$, $\Norm{M(x)}_F \leq C \Norm{x_1}_E\dots\Norm{x_k}_E$ avec $C = \frac{1}{\delta^k}$.

\end{sol}

\item Vérifier que la norme subordonnées à $\Norm{\cdot}_E$ et $\Norm{\cdot}_F$ est bien une norme sur $\cL_k(E,F)$. On rappelle qu'elle est définie par $\Norm{M} = \sup \brackets*{\frac{\Norm{M(x)}_F}{\Norm{x_1}_E \dots \Norm{x_k}_E} \mvert \forall i \in \ssquarebrackets{1}{k}, x_i \neq 0}$ pour tout $M \in \cL_k(E,F)$.

\begin{sol}

La question précédente montre déjà que $\Norm{M}$ est définie pour tout $M \in \cL_k(E,F)$. Si $\Norm{M}=0$ alors pour tout $x \in E^k$, $\Norm{M(x)}=0$ et donc $M=0$. Inversement, si $M=0$ alors $\Norm{M}=0$.

Si $M, N \in \cL_k(E,F)$ et $\lambda \in \R$ alors, pour tout $x \in E^k$ tel que $\forall i \in \ssquarebrackets{1}{k}, x_i \neq 0$,
\begin{align*}
&\Norm{(M+N)(x)}_F \leq \Norm{M(x)}_F+\Norm{N(x)}_F \leq \parentheses*{\Norm{M}+\Norm{N}}\Norm{x_1}_E\dots\Norm{x_k}_E,\\
&\frac{\Norm{\lambda M(x)}_F}{\Norm{x_1}_E\dots\Norm{x_k}_E} = \norm{\lambda}\frac{\Norm{M(x)}_F}{\Norm{x_1}_E\dots\Norm{x_k}_E}.
\end{align*}
Donc $\Norm{M+N}\leq \Norm{M}+\Norm{N}$ et $\Norm{\lambda M}= \norm{\lambda}\Norm{M}$ en passant au sup sur $x$.

\end{sol}

\item En utilisant les isomorphismes canoniques $\cL_k(E,F) \simeq \cL\parentheses*{E, \cL\parentheses*{E,\dots\cL(E,F)\dots}}$ définis en cours, montrer que $\parentheses*{\cL_k(E,F),\Norm{\cdot}}$ est un espace de Banach.

\begin{sol}

On sait que l'espace des applications linéaires continues entre deux Banachs est de Banach pour la norme d'opérateur, voir les exercices de topologie. Par récurrence, $\cL\parentheses*{E, \cL\parentheses*{E,\dots\cL(E,F)\dots}}$ est donc de Banach pour la norme naturelle induite par $\Norm{\cdot}_E$ et $\Norm{\cdot}_F$.

On a vu en cours que l'isomorphisme canonique $\cL_k(E,F) \simeq \cL\parentheses*{E, \cL\parentheses*{E,\dots\cL(E,F)\dots}}$ est en fait une isométrie. Donc $\parentheses*{\cL_k(E,F),\Norm{\cdot}}$ est un espace de Banach.

\end{sol}

\item Par le même genre d'argument, montrer que si $E$ est de dimension finie alors toute application $k$-linéaire sur $E^k$ est continue.

\begin{sol}

On procède par récurrence sur $k \in \N^*$. On sait que si $E$ est de dimension finie, alors toute application linéaire sur $E$ est continue, ce qui traite le cas $k=1$ et servira dans l'étape de récurrence. Soit $k \in \N^*$, supposons que toute application $k$-linéaire sur $E^k$ est continue. Soient $F$ un espace normé et $M:E^{k+1}\to F$ une application $(k+1)$-linéaire.

Soit $x_0 \in E$, alors $M(x_0,\cdot):E^k \to F$ est $k$-linéaire, donc continue par hypothèse de récurrence. On définit ainsi $\varphi:E \to \cL_k(E,F)$ par $\varphi:x_0 \mapsto M(x_0,\cdot)$. Cette application est linéaire de $E$ vers $\cL_k(E,F)$, donc continue. Alors, pour tout $x=(x_0,\dots,x_k) \in E^{k+1}$, on a
\begin{align*}
\Norm{M(x)}_F &= \Norm{\varphi(x_0)(x_1,\dots,x_k)}_F \leq \Norm{\varphi(x_0)}_{\cL_k(E,F)}\Norm{x_1}_E \dots \Norm{x_k}_E\\
&\leq \Norm{\varphi}_{\cL(E,\cL_k(E,F))}\Norm{x_0}_E \dots \Norm{x_k}_E.
\end{align*}
Donc $M$ est continue sur $E$.

\end{sol}

\end{enumerate}

\end{exo}

%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%


\begin{exo}[Différentiabilité des applications multilinéaires]
\label{exo: diff multilineaire}

Soient $E$ et $F$ des espaces de Banach, $k \in \N^*$ et $M \in \cL_k(E,F)$.

\begin{enumerate}

\item Montrer que $M$ est différentiable sur $\parentheses*{E^k,\Norm{\cdot}_\infty}$ et expliciter sa différentielle.

\begin{sol}

Soient $x=(x_1,\dots,x_k)$ et $h=(h_1,\dots,h_k) \in E^k$. Notons $\Lambda = \prod_{i=1}^k \brackets{x_i,h_i}$, de sorte que $\lambda = (\lambda_i)_{1 \leq i\leq k} \in \Lambda$ si et seulement si pour tout $i \in \ssquarebrackets{1}{k}$ on a $\lambda_i=x_i$ ou $\lambda_i=h_i$. L'ensemble $\Lambda$ est de cardinal $2^k$ et, par multilinéarité,
\begin{align*}
M(x+h) =& M(x_1,x_2+h_2,\dots,x_k+h_k) + M(h_1,x_2+h_2,\dots,x_k+h_k)\\
=& M(x_1,x_2,x_3+h_3,\dots,x_k+h_k)+M(x_1,h_2,x_3+h_3,\dots,x_k+h_k)\\
&+M(h_1,x_2,x_3+h_3,\dots,x_k+h_k)+M(h_1,h_2,x_3+h_3,\dots,x_k+h_k)\\
=& \dots =\sum_{\lambda \in \Lambda} M(\lambda).
\end{align*}
Soit $\lambda \in \Lambda$, on a $\Norm{M(\lambda)}\leq \Norm{M}\Norm{\lambda_1}_E \dots \Norm{\lambda_2}_E$. Dans le régime où $x$ est fixé et $h \to 0$, dès que deux des $\lambda_i$ sont du type $h_i$ le terme précédent est $O\parentheses*{\Norm{h}_\infty^2}=o(h)$. Donc,
\begin{equation*}
M(x+h) = M(x) + M(h_1,x_2,\dots,x_k) + M(x_1,h_2,x_3,\dots,x_k) + \dots + M(x_1,\dots,x_{k-1},h_k)+o(h).
\end{equation*}

Comme $M$ est $k$-linéaire continue, l'application $M(\cdot,x_2,\dots,x_k)$ est linéaire et continue sur $E$. Comme de plus $p_1:h=(h_1,\dots,h_k) \mapsto h_1$ est linéaire continue sur $E^k$, l'application composée $\psi_1(x_2,\dots,x_k):h \mapsto M(h_1,x_2,\dots,x_k)$  linéaire continue de $E^k$ dans $F$. De même pour les autres termes. Donc
\begin{equation*}
h \mapsto M(h_1,x_2,\dots,x_k) + M(x_1,h_2,x_3,\dots,x_k) + \dots + M(x_1,\dots,x_{k-1},h_k)
\end{equation*}
est linéaire continue sur $E^k$ comme somme de telles applications.

Finalement, $M$ est différentiable en tout $x=(x_1,\dots,x_k) \in E^k$ et
\begin{equation}
\label{eq: DM}
D_xM:(h_1,\dots,h_k) \mapsto M(h_1,x_2,\dots,x_k) + M(x_1,h_2,x_3,\dots,x_k) + \dots + M(x_1,\dots,x_{k-1},h_k).
\end{equation}

\end{sol}

\item Montrer que $M$ est de classe $\cC^\infty$ sur $E^k$.

\begin{sol}

On procède par récurrence sur $k \in \N^*$. Pour $k =1$, soit $L \in \cL(E,F)$, on sait que $D_xL= L$ pour tout $x \in E$. Donc $DL$ est constante, donc différentiable de différentielle nulle. Donc pour tout $x \in E$, $D_x^2L=0 \in \cL_2(E,F)$. En répétant l'argument, pour tout $p \geq 2$, $D^pL$ est bien définie et $\forall x\in E$, $D_x^pL=0 \in \cL_p(E,F)$. Donc $L$ est bien $\cC^\infty$ sur $E$.

Soit $k \geq 2$, supposons que toute application $(k-1)$-linéaire sur $E^{k-1}$ est de classe $\cC^\infty$. Soit $M \in \cL_k(E,F)$, on a vu dans la question précédente que $M$ est différentiable et que $DM$ est définie par~\eqref{eq: DM}.

Soient $y_2,\dots,y_k \in E$, on note comme précédemment $\psi_1(y_2,\dots,y_k)= M(\cdot,y_2,\dots,y_k) \circ p_1$. On a vu que $\psi_1(y_2,\dots,y_k) \in \cL(E^k,F)$. Par ailleurs, $\psi_1:E^{k-1} \to \cL(E^k,F)$ est $(k-1)$-linéaire. Pour tout $h \in E^k$ et $y \in E^{k-1}$,
\begin{align*}
\Norm{\psi_1(y)(h)}_F &= \Norm{M(h_1,y_2,\dots,y_k)}_F \leq \Norm{M}\Norm{h_1}_E\Norm{y_2}_E \dots \Norm{y_k}_E \\
&\leq \Norm{M}\Norm{h}_\infty\Norm{y_2}_E \dots \Norm{y_k}_E
\end{align*}
Donc $\Norm{\psi_1(y_2,\dots,y_k)}_{\cL(E^k,F)} \leq \Norm{M}\Norm{y_2}_E \dots \Norm{y_k}_E$ et donc $\psi_1$ est continue sur $E^{k-1}$. Finalement, on a $\psi_1 \in \cL_{k-1}(E,\cL(E^k,F))$. Donc $\psi_1$ est $\cC^\infty$ par hypothèse de récurrence.

La projection $\pi_1:(x_1,\dots,x_k)\mapsto (x_2,\dots,x_k)$ est linéaire continue de $E^k$ dans $E^{k-1}$, en particulier $\cC^\infty$. Donc $\psi_1 \circ \pi_1 :(x_1,\dots,x_k) \mapsto M(\cdot ,x_2,\dots,x_k) \circ p_1$ est $\cC^\infty$ de $E^k$ vers $\cL(E^k,F)$, voir exercice~\ref{exo: composee Ck}. D'après~\eqref{eq: DM}, pour tout $x =(x_1,\dots,x_k) \in E^k$,
\begin{align*}
D_xM &= M(\cdot,x_2,\dots,x_k) \circ p_1 + M(x_1,\cdot,x_3,\dots,x_k) \circ p_2 +\dots + M(x_1,\dots,x_{k-1},\cdot)\circ p_k\\
&= \psi_1\parentheses*{\pi_1(x)} + \psi_2\parentheses*{\pi_2(x)} + \dots + \psi_k\parentheses*{\pi_k(x)},
\end{align*}
où $\psi_2,\dots,\psi_k$ et $\pi_2,\dots,\pi_k$ sont définies similairement à $\psi_1$ et $\pi_1$ respectivement. Le même raisonnement que ci-dessus montre que pour tout $i \in \ssquarebrackets{1}{k}$, $\varphi_i \circ \pi_i:E^k \to \cL(E^k,F)$ est $\cC^\infty$. Donc $DM = \sum_{i=1}^k \varphi_i \circ \pi_i$ est $\cC^\infty$. Donc $M$ est $\cC^\infty$, ce qui conclut la récurrence et établit le résultat.

\end{sol}

\end{enumerate}

\end{exo}

%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%


\begin{exo}[Applications multilinéaires symétriques]
Soient $E$ et $F$ des Banachs, $k \in \N^*$ et $M \in \cL_k(E,F)$. On suppose que $M$ est symétrique et on définit $f:x \mapsto \frac{1}{k!}M(x,\dots,x)$ de $E$ dans $F$.

\begin{enumerate}

\item Montrer que $f$ est de classe $\cC^\infty$.

\begin{sol}

L'application $\iota:x \mapsto (x,\dots,x)$ de $E$ dans $E^k$ est $\cC^\infty$ car linéaire continue. Donc $f = \frac{1}{k!}M \circ \iota$ est de classe $\cC^\infty$, en utilisant les résultats des exercices~\ref{exo: composee Ck} et~\ref{exo: diff multilineaire}.

\end{sol}

\item Montrer que pour tout $p \in \ssquarebrackets{1}{k}$, $\forall x \in E$, $D_x^pf:(h_1,\dots,h_p) \mapsto \frac{1}{(k-p)!}M(h_1,\dots,h_p,x,\dots,x)$ et pour tout $p >k$, $D^pf=0$.

\begin{sol}

On prouve par récurrence sur $p \in \N^*$ que: pour tout $E$,$F$ et $k$, pour tout $M \in \cL_k(E,F)$ symétrique on a la formule voulue pour $D^pf$.

Pour $p=1$, soient $E$ et $F$ des Banachs et $M \in \cL_k(E,F)$ symétrique, la règle de la chaine montre que, pour tout $x \in E$,
\begin{equation*}
D_xf = \frac{1}{k!} D_x(M\circ \iota)= \frac{1}{k!}D_{\iota(x)}M \circ D_x\iota = D_{\iota(x)}M \circ \iota,
\end{equation*}
puisque $\iota$ est linéaire continue. On utilise alors la formule~\eqref{eq: DM} prouvée dans l'exercice~\ref{exo: diff multilineaire} et la symétrie de $M$. Pour tout $x,h \in E$,
\begin{align*}
D_xf(h) &= \frac{1}{k!} D_{(x,\dots,x)}M(h,\dots,h)\\
&= \frac{1}{k!}\parentheses*{M(h,x,\dots,x)+M(x,h,x,\dots,x) + \dots + M(x,\dots,x,h)}\\
&= \frac{1}{(k-1)!} M(h,x,\dots,x),
\end{align*}
ce qui prouve le cas $p=1$.

Soit $p \in \N^*$, supposons le résultat vrai pour $p$. Soient $E$ et $F$ des Banachs et $M \in \cL_k(E,F)$ symétrique. Par hypothèse de récurrence, si $p=k$ alors $Df:x \mapsto M$, et si $p>k$ alors $Df:x \mapsto 0$. Dans les deux cas, $Df$ est constante de $E$ dans $\cL_k(E,F)$ et donc $D_x^{p+1}f=0$ pour tout $x \in E$.

Supposons désormais que $k>p$. Par hypothèse de récurrence, pour tout $x \in E$,
\begin{equation*}
D^p_xf = \frac{1}{(k-p)!}M(\underbrace{\cdot}_{p \ \text{arguments}},\underbrace{x,\dots,x}_{(k-p) \ \text{termes}}).
\end{equation*}
Notons $N:E^{k-p} \to \cL_p(E,F)$ définie par $N(y_{p+1},\dots,y_k) = M(\cdot,y_{p+1},\dots,y_k)$. L'application $N$ est $(k-p)$-linéaire continue et symétrique. De plus,
\begin{equation*}
D^pf: x \mapsto \frac{1}{(k-p)!}N(x,\dots,x).
\end{equation*}
En appliquant le cas $p=1$ à cette fonction, pour tout $x,h_1,\dots,h_{p+1} \in E$ on a
\begin{align*}
D_x^{p+1}f(h_1,\dots,h_{p+1}) &= \parentheses*{\strut D_x(D^pf)(h_{p+1})}(h_1,\dots,h_p)\\
&= \frac{1}{(k-p-1)!}\parentheses*{\strut N(h_p,x,\dots,x)}(h_1,\dots,h_p)\\
&= \frac{1}{(k-p-1)!}M(h_1,\dots,h_p,h_{p+1},x,\dots,x).
\end{align*}
Cela établit le résultat voulu pour $p+1$ et conclut la récurrence.

\end{sol}

\end{enumerate}

\end{exo}

%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%


\begin{exo}[Suite de fonctions différentiables]
\label{exo: suite de fonction diff}
Soient $E$ et $F$ des Banachs et $U \subset E$ un ouvert convexe borné. Soit $\parentheses*{f_n}_{n \in \N}$ une suite de fonctions différentiables de $U$ dans $F$. On suppose que:
\begin{itemize}
\item il existe $x_0 \in U$ tel que $\parentheses*{f_n(x_0)}_{n \in \N}$ converge vers une limite $a \in F$;
\item il existe $g:U \to \cL(E,F)$ telle que $Df_n \xrightarrow[n \to +\infty]{} g$ uniformément.
\end{itemize}

\begin{enumerate}

\item Montrer que pour tout $p,q \in \N$, pour tout $x,y \in U$ on a
\begin{equation}
\label{eq: CV fonctions diff}
\Norm*{\parentheses*{f_p(x)-f_p(y)}-\parentheses*{f_q(x)-f_q(y)}}\leq \Norm{D f_q - D f_p}_\infty \Norm{y-x}
\end{equation}

\begin{sol}
On applique l'inégalité des accroissements finis en $x$ et $y$ à l'application $f_q-f_p$ qui est différentiable sur $U$. C'est bien possible puisque $[x,y] \subset U$ par convexité. Notons que
\begin{equation*}
\Norm{D f_q - D f_p}_\infty \leq \Norm{D f_q - g}_\infty + \Norm{D f_p - g}_\infty
\end{equation*}
et que le terme de droite est fini, au moins pour $p$ et $q$ assez grands.
\end{sol}

\item Montrer que $(f_n)_{n \in \N}$ converge uniformément sur $U$, vers une fonction $f:U \to F$.

\begin{sol}

Comme $f_n(x_0) \xrightarrow[n \to +\infty]{}a$, il est équivalent de montrer que $\parentheses*{f_n-f_n(x_0)}_{n \in \N}$ converge uniformément sur $U$ vers une fonction $h$. On a alors
\begin{equation*}
f_n = f_n(x_0) + f_n - f_n(x_0) \xrightarrow[n \to +\infty]{\Norm{\cdot}_\infty} a + h=f.
\end{equation*}

Comme $U$ est borné, il existe $R>0$ tel que $U \subset B(x_0,R)$. En appliquant~\eqref{eq: CV fonctions diff} avec $y=x_0$, pour tout $x \in U$, $\Norm*{\parentheses*{f_p(x)-f_p(x_0)}-\parentheses*{f_q(x)-f_q(x_0)}}\leq \Norm{D f_q - D f_p}_\infty R$. On en déduit que $\Norm*{\parentheses*{f_p-f_p(x_0)}-\parentheses*{f_q-f_q(x_0)}}_\infty \leq \Norm{D f_q - D f_p}_\infty R$. Comme $(Df_n)$ converge uniformément elle est de Cauchy uniforme. L'inégalité précédente montre alors que $\parentheses*{f_n-f_n(x_0)}_{n \in \N}$ est de Cauchy uniforme. Plus précisément, c'est une suite de Cauchy dans l'espace des fonctions bornées de $U$ dans $F$, qui est un Banach pour $\Norm{\cdot}_\infty$. Donc $\parentheses*{f_n-f_n(x_0)}_{n \in \N}$ converge uniformément sur $U$.

\end{sol}

\item Montrer que $f$ est différentiable sur $U$ et que $Df=g$.

\begin{sol}

Soit $x \in U$, comme $g(x) \in \cL(E,F)$ il suffit de prouver que $f(x+h) \underset{h \to 0}{=} f(x)+g(x)(h)+o(h)$. Pour tout $h$ assez petit et tout $p \in \N$,
\begin{align*}
\Norm{f(x+h)-f(x)-g(x)\cdot h} \leq& \Norm*{\parentheses*{f(x+h)-f(x)}-\parentheses*{f_p(x+h)-f_p(x)}}\\
&+ \Norm{f_p(x+h)-f_p(x)-D_xf_p \cdot h} + \Norm{D_xf_p \cdot h - g(x)\cdot h}\\
\leq& 2 \Norm{g - D f_p}_\infty \Norm{h} + \Norm{f_p(x+h)-f_p(x)-D_xf_p \cdot h},
\end{align*}
où on a utilisé~\eqref{eq: CV fonctions diff} avec $y=x+h$ et $q \to +\infty$ pour contrôler le premier terme.

Soit $\epsilon >0$, il existe $p$ tel que $\Norm{D f_p-g}_\infty \leq \epsilon$. Par différentiabilité en $x$ de $f_p$, pour $h$ suffisamment petit, $\Norm{f_p(x+h)-f_p(x)-D_xf_p \cdot h} \leq \epsilon \Norm{h}$. Donc pour tout $h$ assez petit $\Norm{f(x+h)-f(x)-g(x)\cdot h} \leq 3\epsilon \Norm{h}$. Donc $\Norm{f(x+h)-f(x)-g(x)\cdot h}=o(h)$. Donc $f$ est différentiable en $x$ et $D_xf=g(x)$.
\end{sol}

\end{enumerate}

\end{exo}

%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%


\begin{exo}[Série de fonctions différentiables]
\label{exo: serie de fonction diff}
Soient $E$ et $F$ des Banachs et $U \subset E$ un ouvert convexe borné. Soit $\parentheses*{g_k}_{k \in \N}$ une suite de fonctions différentiables de $U$ dans $F$. On suppose que:
\begin{itemize}
\item il existe $x_0 \in U$ tel que $\sum_{k \in \N} g_k(x_0)$ converge;
\item la série de fonction $\sum_{k \in \N} Dg_k$ converge uniformément sur $U$.
\end{itemize}
Montrer que $\sum_{k \in \N}g_k$ converge uniformément sur $U$, que la somme est une fonction différentiable sur $U$, et que $D\parentheses{\sum_{k \in \N} g_k} = \sum_{k \in \N} Dg_k$.

\begin{sol}

Pour tout $n \in \N$, on note $f_n = \sum_{k=0}^n g_k$. Alors $f_n(x_0) \xrightarrow[n \to+\infty]{}\sum_{k \geq 0} g_k(x_0)$ et, pour tout $n \in \N$, $f_n$ est différentiable sur $U$ de différentielle $Df_n = \sum_{k =0}^n Dg_k$. En particulier, $\parentheses*{Df_n}_{ n \in \N}$ converge uniformément sur $U$ vers $\sum_{k \in \N} Dg_k$.

En appliquant le résultat de l'exercice~\ref{exo: suite de fonction diff} à $(f_n)_{n \in \N}$, on obtient que $(f_n)_{n\in \N}$ converge uniformément sur $U$ vers une fonction différentiable de différentielle $\sum_{k\in \N} Dg_k$. C'est exactement le résultat souhaité.

\end{sol}

\end{exo}

%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%


\begin{exo}[Différentiabilité de l'exponentielle]
\label{exo: diff exp}
Soit $E$ un Banach et $\exp:L \mapsto \sum_{k \geq 0} \frac{L^k}{k!}$ de $\cL(E)$ dans lui-même.

\begin{enumerate}

\item Montrer que $\exp$ est bien définie.

\begin{sol}

Soit $L \in \cL(E)$, pour tout $k \in \N$, $\Norm{L^k} \leq \Norm{L}^k$. Ainsi, la série $\sum_{k \in \N} \frac{L^k}{k!}$ est normalement convergente, donc convergente, dans le Banach $\cL(E)$ muni de sa norme d'opérateur.

\end{sol}

\item Montrer que $\exp$ est différentiable sur $\cL(E)$ et exprimer $D_L\exp(H)$ sous forme d'une série.

\begin{sol}

On va utiliser le résultat de l'exercice~\ref{exo: serie de fonction diff}.

Pour tout $k \in \N$, on note $g_k:L \mapsto \frac{L^k}{k!}$ de $\cL(E)$ dans lui-même. La série $\sum_{k \in \N} g_k(0)$ converge dans $\cL(E)$ vers $\Id$. Notons que $g_0:L \mapsto \Id$ est constante.

Soit $k \in \N^*$, on note $M_k:(L_1,\dots,L_k) \mapsto L_k \circ \dots \circ L_1$ qui est $k$-linéaire de $\cL(E)^k$ vers $\cL(E)$. Cette application est continue car $\Norm{M_k(L_1,\dots,L_k)}=\Norm{L_k \circ \dots \circ L_1}\leq \Norm{L_1}\dots \Norm{L_k}$ pour tout $L_1,\dots,L_k \in \cL(E)$. Donc $M_k$ est différentiable, et sa différentielle est donnée par l'expression~\eqref{eq: DM}.

Notons $\iota_k:L \mapsto (L,\dots,L)$ de $\cL(E)$ dans $\cL(E)^k$, qui est linéaire continue. On a $g_k = \frac{1}{k!}M_k \circ \iota_k$, donc $g_k$ est différentiable comme composée d'applications différentiables. Soit $L \in \cL(E)$, par la règle de la chaine et la formule~\eqref{eq: DM}, pour tout $H \in \cL(E)$,
\begin{align*}
D_Lg_k(H) &= \frac{1}{k!} \parentheses*{D_{\iota(L)}M_k \circ \iota} (H) = \frac{1}{k!} D_{(L,\dots,L)}M_k(H,\dots,H)\\
&=\frac{1}{k!}\parentheses*{\strut M_k(H,L,\dots,L) + M_k(L,H,L,\dots,L) + \dots + M_k(L,\dots,L,H)}.
\end{align*}
Donc
\begin{align*}
\Norm{D_Lg_k(H)} &\leq \frac{1}{k!} \parentheses*{\strut \Norm{M_k(H,L,\dots,L)} + \Norm{M_k(L,H,L,\dots,L)} + \dots + \Norm{M_k(L,\dots,L,H)}}\\
&\leq \frac{1}{k!}k\Norm{L}^{k-1}\Norm{H} = \frac{\Norm{L}^{k-1}}{(k-1)!}\Norm{H}.
\end{align*}
Ainsi $\Norm{D_Lg_k} \leq \frac{\Norm{L}^{k-1}}{(k-1)!}$.

Soit $R>0$, pour tout $L \in B(0,R)$, on a $\Norm{D_Lg_k} \leq \frac{R^{k-1}}{(k-1)!}$, donc $\Norm{D g_k}_{\infty,B(0,R)} \leq \frac{R^{k-1}}{(k-1)!}$. Ainsi, la série $\sum_{k \geq 0} Dg_k$ converge normalement donc uniformément sur l'ouvert convexe borné $B(0,R)$. Par l'exercice~\ref{exo: serie de fonction diff}, $\sum_{k \in \N} g_k$ converge uniformément vers $f$ sur $B(0,R)$. De plus $\exp$ est différentiable sur $B(0,R)$ et $D\exp = \sum_{k \in \N} Dg_k$. Ceci est valable pour tout $R>0$, donc $\exp$ est différentiable sur $\cL(E)$. De plus, pour tout $L,H \in \cL(E)$,
\begin{align*}
D_L\exp(H) &= \sum_{k \in \N} D_Lg_k(H)\\
&=\sum_{k \in \N^*}\frac{1}{k!}\parentheses*{\strut M_k(H,L,\dots,L) + M_k(L,H,L,\dots,L) + \dots + M_k(L,\dots,L,H)}\\
&=\sum_{k \in \N^*}\frac{1}{k!}\parentheses*{\strut H\circ L \circ \dots\circ L + L\circ H\circ L\circ \dots\circ L + \dots + L\circ \dots\circ L\circ H}
\end{align*}

\end{sol}

\item Soient $L$ et $H \in \cL(E)$ tels que $L\circ H= H \circ L$, vérifier que $D_L\exp(H)= \exp(L) \circ H$.

\begin{sol}

Si $L$ et $H$ commutent la formule précédente devient
\begin{equation*}
D_L\exp(H) =\sum_{k \in \N^*}\frac{1}{(k-1)!} L^{k-1}\circ H = \parentheses*{\sum_{k \in \N}\frac{L^k}{k!}}\circ H = \exp(L) \circ H,
\end{equation*}
où on utilise la continuité de $K \mapsto K \circ H$ pour échanger la somme et la composition par $H$ à droite.

\end{sol}

\end{enumerate}

\end{exo}

%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%


\begin{exo}[Principe variationnel et géodésiques]

Soient $\prsc{\cdot}{\cdot}$ le produit scalaire usuel sur $\R^n$ et $\Norm{\cdot}$ la norme associée. On note $\Norm{\cdot}_\infty$ la norme sup pour les fonctions continues de $[0,1]$ dans $\R^n$. On rappelle que $\cC^1([0,1],\R^n)$ est un Banach pour la norme définie par $\Norm{\gamma}_1=\Norm{\gamma}_\infty+\Norm{\gamma'}_\infty$ pour tout $\gamma :[0,1] \to \R^n$ de classe $\cC^1$. Soit $E =\brackets{\gamma \in \cC^1([0,1],\R^n) \mid \gamma(0)=0=\gamma(1)}$.

\begin{enumerate}

\item Montrer que $\parentheses*{E,\Norm{\cdot}_1}$ est un espace de Banach.

\begin{sol}

L'application $\ev:\gamma \mapsto (\gamma(0),\gamma(1))$ est linéaire continue de $\cC^1([0,1],\R^n)$ vers $\R^{2n}$. Donc l'espace $E = \ker(\ev)$ est un sous-espace vectoriel fermé du Banach $\parentheses*{\cC^1([0,1],\R^n),\Norm{\cdot}_1}$. Donc $\parentheses*{E,\Norm{\cdot}_1}$ est complet.
\end{sol}

\item Soient $x \in \R^n$ et $\cS: \gamma \mapsto \int_0^1 \Norm{x+\gamma'(t)}^2 \dx t$ de $E$ vers $\R$, montrer que $\cS$ est différentiable et calculer sa différentielle.

\begin{sol}

Soit $\gamma$ et $h \in E$, on a
\begin{equation}
\label{eq: calcul S}
\begin{aligned}
\cS(\gamma+h) &= \int_0^1 \Norm{x + \gamma'(t)+h'(t)}^2 \dx t\\
&= \int_0^1 \Norm{x+\gamma'(t)}^2 + 2 \prsc{x+\gamma'(t)}{h'(t)}+\Norm{h'(t)}^2 \dx t\\
&= \cS(\gamma) + 2 \int_0^1 \prsc{x+\gamma'(t)}{h'(t)}\dx t + \int_0^1 \Norm{h'(t)}^2 \dx t.
\end{aligned}
\end{equation}
D'une part, $\int_0^1 \Norm{h'(t)}^2 \dx t \leq \Norm{h'}_\infty^2 \leq \Norm{h}_1^2=o(h)$ lorsque $h \to 0$. D'autre part, $\forall h \in E$,
\begin{align*}
\norm*{\int_0^1 \prsc{x+\gamma'(t)}{h'(t)}\dx t} &\leq \int_0^1 \norm*{\prsc{x+\gamma'(t)}{h'(t)}}\dx t \leq \int_0^1 \Norm{x+\gamma'(t)}\Norm{h'(t)}\dx t \\
&\leq \Norm{x+\gamma'}_\infty \Norm{h'}_\infty \leq \Norm{x+\gamma'}_\infty\Norm{h}_1,
\end{align*}
Donc la forme linéaire $h \mapsto \int_0^1 \prsc{x+\gamma'(t)}{h'(t)}\dx t$ est continue sur $\parentheses*{E,\Norm{\cdot}_1}$. Donc, pour tout $\gamma \in E$, l'application $\cS$ est différentiable en $\gamma$ et
\begin{equation*}
D_\gamma \cS: h \mapsto 2\int_0^1 \prsc{x+\gamma'(t)}{h'(t)}\dx t.
\end{equation*}

\end{sol}

\item Soit $f:[0,1] \to \R$ continue. On suppose que, pour tout $g:[0,1]\to \R$ de classe $\cC^1$ tel que $g(0)=0=g(1)$, on a $\int_0^1 f(t)g'(t) \dx t$. Montrer que $f$ est constante.
\begin{hint}
Considérer $g:y \mapsto \int_0^y f(t)-m\dx t$, où $m=\int_0^1 f(t) \dx t$.
\end{hint}

\begin{sol}

Considérons $g$ comme dans l'indication. On a bien $g:[0,1] \to \R$ de classe $\cC^1$, $g(0)=0$ et $g(1)= \int_0^1 f(t)-m \dx t = \int_0^1 f(t) \dx t - m = 0$. Notons que $\int_0^1 g'(t)\dx t = g(1)-g(0)=0$. On a donc
\begin{equation*}
0= \int_0^1 f(t)g'(t) \dx t = \int_0^1 (f(t)-m)g'(t) \dx t + m\int_0^1 g'(t)\dx t  = \int_0^1 \parentheses*{f(t)-m}^2\dx t.
\end{equation*}
Donc $f-m$ est la fonction nulle, et $f$ est bien constante (à $m$ qui est sa valeur moyenne, tout va bien).

\end{sol}

\item En déduire que $\cS$ possède un unique point critique $\gamma_0$ dans $E$ et le déterminer.

\begin{sol}

Soit $\gamma \in E$, supposons que $\gamma$ soit un point critique de $\cS$. Pour tout $h \in E$ on a
\begin{equation*}
D_\gamma\cS(h)= \int_0^1 \prsc{x+\gamma'(t)}{h'(t)}\dx t=0.
\end{equation*}
Notons $h=(h_1,\dots,h_n)$, $\gamma=(\gamma_1,\dots,\gamma_n)$, $x=(x_1,\dots,x_n)$. Soit $i \in \ssquarebrackets{1}{n}$. Quitte à se restreindre à des $h \in E$ tels que $h_j=0$ pour tout $j \neq i$, on a que
\begin{equation*}
\int_0^1 \parentheses*{x_i+\gamma'_i(t)}h_i'(t) \dx t=0
\end{equation*}
pour tout $h_i:[0,1] \to \R$ de classe $\cC^1$ tel que $h_i(0)=0=h_i(1)$. Par la question précédente on a $x_i+\gamma_i'$ constante. Donc $\gamma'_i$ est constante. Comme $\gamma \in E$, on a $0= \gamma_i(1)-\gamma_i(0) = \int_0^1 \gamma_i'(t) \dx t$. Donc finalement $\gamma_i'$ est la fonction nulle, et $\gamma_i$ aussi vu que $\gamma_i(0)=0$. C'est valable pour tout $i \in \ssquarebrackets{1}{n}$, donc finalement $\gamma=0$. Cela prouve que $0$ est l'unique point critique potentiel de $\cS$.

Par ailleurs, pour tout $h \in E$ on a
\begin{equation*}
D_0\cS(h) = \int_0^1 \prsc{x}{h'(t)}\dx t = \sum_{i=1}^n  x_i \int_0^1 h_i'(t) \dx t =  \sum_{i=1}^n  x_i(h_i(1)-h_i(0)) =0.
\end{equation*}
Donc $0$ est effectivement point critique de $\cS$. Donc $\cS$ admet un unique point critique, en $\gamma_0=0$.

\end{sol}

\item Vérifier que $\gamma_0$ est le minimum global de $\cS$.

\begin{sol}

On repart du calcul~\eqref{eq: calcul S}. Pour tout $h \in E$, comme $\gamma_0$ est critique, on a
\begin{equation*}
\cS(\gamma_0 + h) = \cS(\gamma_0) + D_{\gamma_0}\cS(h) + \int_0^1 \Norm{h'(t)}^2 \dx t = \cS(\gamma_0) +\int_0^1 \Norm{h'(t)}^2 \dx t \geq \cS(\gamma_0).
\end{equation*}

\end{sol}

\end{enumerate}

Soit $\Gamma$ une courbe régulière entre $0$ et $x$, au sens où il existe un paramétrage $\alpha:[a,b]\to \R^n$ de classe $\cC^1$ tel que $\alpha(a)=0$, $\alpha(b)=1$, $\alpha'$ ne s'annule pas, et $\Gamma = \alpha([a,b])$. On note $L(\Gamma)= \int_a^b \Norm{\alpha'(t)}\dx t$ la longueur de $\Gamma$. Si $\beta:[c,d]\to \R^n$ est un autre paramétrage admissible, on rappelle qu'il existe un $\cC^1$-difféomorphisme $\varphi:[c,d]\to [a,b]$ tel que $\beta
 = \alpha \circ \varphi$. On rappelle également qu'un tel $\Gamma$ admet un paramétrage par longueur d'arc, c'est-à-dire tel que $\Norm{\alpha'}$ est constante à $1$.

\begin{enumerate}[resume]

\item Montrer que $L(\Gamma)$ ne dépend pas du choix du paramétrage $\alpha$, et qu'on peut toujours trouver un paramétrage $\alpha:[0,1]\to \R^n$ tel que $\Norm{\alpha'}$ est constante.

\begin{sol}

Soient $\alpha:[a,b]\to \R^n$ et $\beta:[c,d]\to \R^n$ deux paramétrages admissibles de $\Gamma$. D'après le rappel, il existe $\varphi:[c,d]\to [a,b]$ un $\cC^1$-difféomorphisme tel que $\beta=\alpha\circ \varphi$. Alors on a $\beta' = (\alpha'\circ \varphi)\varphi'$ et donc
\begin{equation*}
\int_c^d \Norm{\beta'(t)}\dx t = \int_c^d \Norm{\alpha'(\varphi(t))} \norm{\varphi'(t)}\dx t = \int_a^b \Norm{\alpha'(s)}\dx s
\end{equation*} 
par le changement de variable $s=\varphi(y)$. Donc $L(\Gamma)$ ne dépend pas du choix d'un paramétrage.

L'énoncé rappelle qu'il existe une paramétrage par longueur d'arc de $\Gamma$. Soit $\alpha:[a,b]\to \R^n$ un tel paramétrage. Alors $\beta:t \mapsto \alpha\parentheses*{(1-t)a+tb}$ de $[0,1]$ dans $\R^n$ est tel que $\beta(0)=\alpha(a)=0$, $\beta(1)=\alpha(b)=x$, $\beta([0,1])=\alpha([a,b])=\Gamma$. Enfin pour tout $t \in [0,1]$,
\begin{equation*}
\Norm{\beta'(t)}=\Norm{\alpha'\parentheses{(1-t)a+tb}}(b-a) = b-a.
\end{equation*}
Donc $\beta:[0,1]\to \R^n$ est un paramétrage de $\Gamma$ à vitesse constante.

\end{sol}

\item On note $u:t \mapsto tx$ de $[0,1]$ dans $\R^n$. Soit $\alpha:[0,1]\to \R^n$ un paramétrage de $\Gamma$ tel que $\Norm{\alpha'}$ soit constante, montrer que $L(\Gamma)^2 = \cS(\alpha-u)$.

\begin{sol}

Notons $v >0$ la constante telle que $\Norm{\alpha'}(t)=v$ pour tout $t \in [0,1]$. On a
\begin{equation*}
L(\Gamma) = \int_0^1 \Norm{\alpha'(t)}\dx t = \int_0^1 v \dx t = v.
\end{equation*}
D'autre part, $\alpha-u$ est $\cC^1$ de $[0,1]$ dans $\R^n$ et $\alpha(0)=0=u(0)$ et $\alpha(1)=x=u(1)$, donc $\alpha-u \in E$. On calcule alors
\begin{equation*}
\cS(\alpha-u) = \int_0^1 \Norm{x + \alpha'(t)-u'(t)}^2 \dx t = \int_0^1 \Norm{\gamma'(t)}^2\dx t = v^2.
\end{equation*}
Donc $L(\Gamma)^2 = \cS(\alpha-u)$.

\end{sol}

\item Conclure qu'il existe une unique courbe régulière de $0$ à $x$ minimisant $L$ et la déterminer.

\begin{sol}

Toute courbe régulière $\Gamma$ de $0$ à $x$ admet un paramétrage $\alpha_\Gamma:[0,1]\to \R^n$ à vitesse constante. Comme $L(\Gamma)$ ne dépend pas du paramétrage, on peut se restreindre à ne considérer que des paramétrages de ce type.

Pour des paramétrages de ce type, on vient de prouver que $L(\Gamma)^2 = \cS(\alpha_\Gamma-u)$. Minimiser $L(\Gamma)$ parmi les courbes régulières revient donc à minimiser $\cS(\alpha-u)$ parmi les $\alpha$ à vitesse constante.

Or, on a vu que $\cS$ admet un unique minimum global sur $E$, en $0$. Donc, pour tout $\alpha$ du type précédent on a $\cS(\alpha-u) \geq \cS(0) = \cS(u-u)$. Comme $u:[0,1]\to \R^n$ est $\cC^1$ de $0$ vers $x$ à vitesse constante, c'est un paramétrage du type qui nous intéresse. Ainsi, pour tout courbe régulière~$\Gamma$
\begin{equation*}
L(\Gamma)^2 = \cS(\alpha_\Gamma-u) \geq \cS(0) = L(u([0,1]))^2.
\end{equation*}
Finalement, il existe une unique courbe régulière de $0$ à $x$ minimisant la longueur, et c'est $u\parentheses{[0,1]}=[0,x] \subset \R^n$, qui est de longueur $\Norm{x}$.

\begin{rem}
Tout ça pour ça, certes. Mais c'est le prototype d'une méthode permettant de déterminer les courbes de longueur minimale dans des espaces métriques plus compliqués: les variétés riemanniennes. Ce genre de techniques est aussi à la base de la formulation Lagrangienne de la mécanique classique, par exemple.
\end{rem}

\end{sol}

\end{enumerate}

\end{exo}

\end{document}