\documentclass[11pt]{article}


% Packages gestion des caractères, du français et de la mise en page

\usepackage[french]{babel}
\usepackage[utf8]{inputenc}
\usepackage[T1]{fontenc}

\usepackage[margin=2.5cm]{geometry}
\usepackage[pdftex,pdfborder={0 0 0}]{hyperref}

\setlength{\parindent}{0pt}
\renewcommand{\FrenchLabelItem}{\textbullet}


% Graphiques et Figures

\usepackage{subfig}
\usepackage{pgf,tikz}
\usetikzlibrary{arrows}
\usepackage[figurename=Figure]{caption}


% Packages pour les maths

\usepackage{mathtools}
\usepackage{amsthm}
\usepackage{amsfonts}
\usepackage{amssymb}
\usepackage[g]{esvect}


% Nouveaux environnements

\theoremstyle{plain}
	\newtheorem{thm}{Théorème}[section]
	\newtheorem{cor}[thm]{Corollaire}
	\newtheorem{lem}[thm]{Lemme}
	\newtheorem{prop}[thm]{Proposition}


\theoremstyle{definition}
	\newtheorem{dfn}[thm]{Définition}
	\newtheorem{ntn}{Notation}
	\newtheorem{ntns}{Notations}

\theoremstyle{remark}
	\newtheorem*{hint}{Indication}
	\newtheorem*{rem}{Remarque}
	\newtheorem*{ex}{Exemple}
	\newtheorem*{exs}{Exemples}
	\newtheorem*{exo}{Exercice}
		

% Commandes et opérateurs utiles

\newcommand{\C}{\mathbb{C}}
\newcommand{\N}{\mathbb{N}}
\renewcommand{\P}{\mathbb{P}}
\newcommand{\Q}{\mathbb{Q}}
\newcommand{\R}{\mathbb{R}}
\renewcommand{\S}{\mathbb{S}}
\newcommand{\Z}{\mathbb{Z}}

\newcommand{\cC}{\mathcal{C}}

\newcommand{\acts}{\curvearrowright}
\newcommand{\cov}[2]{\Cov\parentheses*{#1, #2}}
\newcommand{\dx}{\dmesure\!}
\newcommand{\esp}[2][]{\mathbb{E}_{#1}\squarebrackets*{#2}}
\newcommand{\espcond}[3][]{\mathbb{E}_{#1}\squarebrackets*{#2 \mvert #3}}
\newcommand{\gauss}[1]{\mathcal{N}\parentheses*{0,#1}}
\newcommand{\mvert}{\mathrel{}\middle|\mathrel{}}
\newcommand{\one}{\mathbf{1}}
\newcommand{\trans}[1]{\prescript{\text{t}}{}{#1}}
\newcommand{\var}[1]{\Var\parentheses*{#1}}

\renewcommand{\bar}{\overline}
\renewcommand{\epsilon}{\varepsilon}
\renewcommand{\geq}{\geqslant}
\renewcommand{\hat}{\widehat}
\renewcommand{\l}{\ell}
\renewcommand{\leq}{\leqslant}
\renewcommand{\tilde}{\widetilde}

\DeclareMathOperator{\aff}{Aff(\R^n)}
\DeclareMathOperator{\bij}{Bij}
\DeclareMathOperator{\dmesure}{d}
\DeclareMathOperator{\ev}{ev}
\DeclareMathOperator{\gr}{Gr^+(\R^n)}
\DeclareMathOperator{\Gr}{\mathcal{G}r^+(\R^n)}
\DeclareMathOperator{\Id}{Id}
\DeclareMathOperator{\iso}{Isom(\R^n)}
\DeclareMathOperator{\isom}{Isom^+(\R^n)}
\DeclareMathOperator{\leb}{Leb}
\DeclareMathOperator{\sym}{\mathcal{S}_n^+(\R)}
\DeclareMathOperator{\vect}{Vect}
\DeclareMathOperator*{\vol}{Vol}

\DeclarePairedDelimiter{\ang}{\langle}{\rangle}
\DeclarePairedDelimiter{\brackets}{\{}{\}}
\DeclarePairedDelimiter{\ceil}{\lceil}{\rceil}
\DeclarePairedDelimiter{\floor}{\lfloor}{\rfloor}
\DeclarePairedDelimiter{\norm}{\lvert}{\rvert}
\DeclarePairedDelimiter{\Norm}{\lVert}{\rVert}
\DeclarePairedDelimiter{\parentheses}{(}{)}
\DeclarePairedDelimiterX{\prsc}[2]{\langle}{\rangle}{#1\,, #2}
\DeclarePairedDelimiter{\squarebrackets}{[}{]}


% Informations du document

\author{Thomas Letendre}
\date{Mini-cours de Rentrée de la FMJH \\ 31 aout et 1 septembre 2022}
\title{Géométrie intégrale et racines de polynômes aléatoires}


\begin{document}


\maketitle


\begin{abstract}
Dans ce mini-cours on s'intéressera à des problèmes de géométrie intégrale, aussi appelée théorie des probabilités géométriques. Notre premier objectif sera de démontrer la formule de Crofton, qui permet de calculer la longueur d'une courbe paramétrée dans l'espace euclidien comme le nombre moyen de points d'intersection entre cette courbe et un hyperplan affine choisi uniformément au hasard. Ce sera l'occasion de parler rapidement de mesures invariantes et de géométrie affine. Dans un second temps, nous utiliserons une variante de la formule de Crofton pour calculer le nombre moyen de racines réelles d'un polynôme aléatoire à coefficients gaussiens.
\end{abstract}


\section{Introduction: l'aiguille de Buffon}
\label{sec: intro}

Buffon est un scientifique français du $18^\text{ème}$ siècle, principalement naturaliste mais aussi philosophe, mathématicien\dots \ En 1777, il s'intéresse à la question suivante. Si on lance une aiguille au hasard sur un sol en parquet, quelle est la probabilité que l'aiguille intersecte la frontière entre deux lattes?


\subsection{Modélisation}
\label{sub: modelisation}

Mathématiquement, les frontières entre les différentes lattes sont un ensemble $F$, formé de droites parallèles et séparées par une même distance $D$. Disons $F = \R \oplus D\Z$.

L'aiguille est un segment $A$ (orienté du chas vers la pointe) de longueur $\l$. On considère $\l < D$ de sorte que $A$ rencontre au plus l'une des droites de $F$.

La position de l'aiguille $A$ est décrite par:
\begin{itemize}
\item la position $(x,y) \in \R^2$ de son centre de gravité (le milieu du segment),
\item l'angle $\theta \in ]-\pi,\pi]$ entre la direction de $A$ et le demi-axe horizontal positif.
\end{itemize}

Quitte à translater par un élément de $\R \oplus D\Z$, on peut supposer que $x=0$ et $y \in\ ]-\frac{D}{2},\frac{D}{2}]$. La translation laisse $F$ invariant et préserve le fait que $A$ intersecte $F$ ou non.

L'intersection éventuelle de $A$ et $F$ dépend uniquement de $(y,\theta) \in\ ]-\frac{D}{2},\frac{D}{2}] \times ]-\pi,\pi]$. On va décrire un lancé aléatoire de $A$ en supposant que $y$ et $\theta$ sont deux variables aléatoires indépendantes uniformes, i.e.~$(y,\theta)$ est distribuée selon la mesure de Lebesgue normalisée $\frac{1}{2\pi D}\dx y \otimes \dx \theta$.


\subsection{Probabilité d'intersection}
\label{sub: proba Buffon}

La projection du segment $A$ sur l'axe vertical est l'intervalle $I =\squarebrackets*{\strut y-\frac{\l}{2} \norm{\sin\theta},y+\frac{\l}{2} \norm{\sin\theta}}$.

On a $\l < D$ et $\norm{y} \leq \frac{D}{2}$, donc $\norm{y}+\frac{\l}{2} \norm{\sin\theta} <D$ et
\begin{align*}
A \cap F \neq \emptyset &\iff A \cap (\R \times \brackets{0}) \neq \emptyset \iff 0\in I \iff \norm{y} \leq \frac{\l}{2} \norm{\sin\theta}.
\end{align*}
On a donc
\begin{equation*}
\P\squarebrackets*{A \cap F \neq \emptyset} = \P\squarebrackets*{\strut \norm{y} \leq \frac{\l}{2} \norm{\sin\theta}} = \frac{1}{2\pi D} \int_{-\pi}^\pi \int_{-\frac{\l}{2} \norm{\sin\theta}}^{\frac{\l}{2} \norm{\sin\theta}} \dx y \dx \theta = \frac{\l}{\pi D} \int_0^\pi \sin\theta \dx \theta = \frac{2\l}{\pi D}.
\end{equation*}

En fait,
\begin{equation*}
\# \parentheses{A \cap F} = \begin{cases} 0 & \text{si} \ \norm{y} > \frac{\l}{2} \norm{\sin\theta},\\
1 & \text{si} \ \norm{y} \leq \frac{\l}{2} \norm{\sin\theta} \ \text{et} \ \theta \neq 0,\\
+\infty & \text{si} \ y=0=\theta.
\end{cases}
\end{equation*}
Le dernier cas étant de mesure nulle: $\esp{\#\parentheses{A\cap F}} = \P\squarebrackets*{A \cap F \neq \emptyset} = \frac{2\l}{\pi D}$.

Cette dernière formule est le prototype des résultats de géométrie intégrale. Elle exprime une quantité géométrique déterministe, le quotient $\frac{\l}{D}$, comme la moyenne d'une certaine variable aléatoire dont la valeur est très facile à observer (déterminer $\#(A\cap F)$ pour un tirage donné ne nécessite pas de calcul, déterminer une longueur si).


\subsection{Application: calcul numérique de \texorpdfstring{$\pi$}{}}
\label{sub: calcul de pi}

Supposons $\l = \frac{D}{2}$. On note $X = \#(A\cap F)$ qui est une variable aléatoire dans $\brackets{0,1}$ d'espérance $\frac{1}{\pi}$. Soit $\parentheses*{X_k}_{k \geq 1}$ une suite de variables aléatoires indépendantes de même loi que $X$.

Par la loi des grands nombres, presque surement: $\frac{1}{n}\sum_{k=0}^n X_k \xrightarrow[n \to +\infty]{} \esp{X}=\frac{1}{\pi}$. Cela fournit une méthode expérimental de calcul de $\pi$. Cependant, par le théorème central limite:
\begin{equation*}
\sqrt{n}\parentheses*{\frac{1}{n}\sum_{k=0}^n X_k-\esp{X}} \xrightarrow[n \to +\infty]{\text{loi}} \gauss{1}.
\end{equation*}
Moralement l'erreur $\frac{1}{n}\sum_{k=0}^n X_k-\esp{X}$ est donc d'ordre $\frac{1}{\sqrt{n}}$. C'est très très mauvais: il faut de l'ordre de $10^{2k}$ lancés pour obtenir un résultat précis à $10^{-k}$ près.


\subsection{Teaser: la formule de Crofton}
\label{sub: teaser}

Le premier objectif de ce mini-cours est de montrer le résultat de géométrie intégrale suivant, attribuée à Crofton (mathématicien irlandais du $19^\text{ème}$ siècle).

Soient $C$ une courbe paramétrée suffisamment régulière de longueur $\l$ et $H$ une droite du plan tirée uniformément au hasard, alors $\esp{\#\parentheses*{C \cap H}} = \frac{2}{\pi}\l$.

Plus généralement, on va montrer un résultat similaire dans $\R^n$ avec $H$ un hyperplan affine uniforme. Pour cela, on va devoir définir une notion naturelle de mesure uniforme sur l'ensemble des hyperplans, c'est-à-dire invariante sous l'action d'un certain groupe de transformations.


\section{Géométrie affine}
\label{sec: geometrie affine}

On va maintenant décrire l'ensemble des hyperplans de $\R^n$ ainsi que l'action du groupe des isométries de $\R^n$ sur cet ensemble. Pour des raisons techniques, on va considérer des hyperplans orientés et des isométries directes. Dans la suite, $\R^n$ est supposé orienté par sa base canonique, muni de son produit scalaire euclidien $\prsc{\cdot}{\cdot}$ et de la norme associée $\Norm{\cdot}$. Le cas qui nous intéresse est $n \geq 2$.


\subsection{Hyperplans affines}
\label{sub: hyperplans affines}

\begin{dfn}[hyperplan affine orienté]
\label{def: hyperplan affine orienté}
Un \emph{hyperplan affine} de $\R^n$ est un sous-ensemble de la forme $H = a +\vv{H}$, où $a \in \R^n$ et $\vv{H}$ est un hyperplan vectoriel, appelé la \emph{direction} de $H$. On dit que $H$ est \emph{orienté} si $\vv{H}$ l'est.
\end{dfn}

\begin{rem}
$\vv{H} = \brackets*{y-x\mvert x,y \in H}$ est uniquement défini par $H$, mais pas $a$.
\end{rem}

Soit $\theta$ un vecteur unitaire normal à $\vv{H}$. Il définit une orientation $\omega_\theta$ sur $\vv{H}$ par: $(e_2,\dots,e_n)$ est une base orthonormée directe (B.O.N.D.) de $\vv{H}$ si et seulement si $\parentheses{\theta,e_2,\dots,e_n}$ est une B.O.N.D.~de~$\R^n$. Le vecteur $-\theta$ définit l'orientation opposée $\omega_{-\theta}$. Le choix d'une orientation de $\vv{H}$ est donc le choix de l'un des deux vecteurs de $\S^{n-1}\cap\vv{H}$.

\begin{dfn}[grassmannienne]
On note $\Gr$ l'ensemble, appelé \emph{grassmannienne}, des hyperplans affines orientés de $\R^n$.
\end{dfn}

Soit $(H,\omega) \in \Gr$, où $H =a +\vv{H}$ et $\omega$ est l'orientation de $\vv{H}$. Il existe un unique $\theta \in \S^{n-1}$ tel que $\vv{H}=\theta^\perp$ et $\omega = \omega_\theta$. Ensuite, pour tout $x \in \R^n$ on a:
\begin{equation*}
x \in H \iff x-a \in \vv{H} \iff \prsc{x-a}{\theta}=0 \iff \prsc{x}{\theta} = \prsc{a}{\theta}.
\end{equation*}
En notant $\alpha = \prsc{a}{\theta} \in \R$, on a donc $H = \brackets*{x \in \R^n \mvert \prsc{x}{\theta}=\alpha}$.

Pour tout $(\alpha,\theta) \in \R\times\S^{n-1}$, on note $H(\alpha,\theta)=\brackets*{x \in \R^n \mvert \prsc{x}{\theta}=\alpha}=\alpha\theta+\theta^\perp$. On vient de montrer que pour tout $(H,\omega) \in \Gr$, il existe un unique $(\alpha,\theta) \in \R \times \S^{n-1}$ tel que $H = H(\alpha,\theta)$ et $\omega=\omega_\theta$. En d'autres termes, $(\alpha,\theta) \mapsto \parentheses*{H(\alpha,\theta),\omega_\theta}$ est une bijection de $\R \times \S^{n-1}$ vers $\Gr$.

Dans la suite on identifie $\R \times \S^{n-1} \simeq \Gr$ via cette bijection. En particulier, cela munit $\Gr$ d'une topologie sympathique et naturelle.

\begin{rem}
Plus généralement, on peut définir la grassmannienne (i.e.~l'ensemble) des sous-espaces de codimension $k \in \brackets{0,\dots,n}$ de $\R^n$ (affines ou vectoriels, orientés ou non). Ces ensembles s'identifient naturellement à des quotients de $\R^k \times O_n(\R)$.
\end{rem}


\subsection{Applications affines}
\label{sub: applications affines}

On commence donc par s'intéresser aux applications affines dont les isométries sont un cas particulier.

\begin{dfn}[application affine]
\label{def: application affine}
Une application $\varphi:\R^n \to \R^n$ est dite \emph{affine} si elle préserve les barycentre, c'est-à-dire: $\forall x,y \in \R^n$, $\forall t \in \R$, $\varphi\parentheses*{\strut t x +(1-t)y} = t \varphi(x) +(1-t)\varphi(y)$. 
\end{dfn}

\begin{exs}
Les translations $\tau_v:x \mapsto x+v$ pour $v \in \R^n$. Les applications linéaires $L \in M_n(\R)$.
\end{exs}

\begin{lem}
\label{lem: composition et inverse affine}
Soient $\varphi$ et $\psi$ des applications affines alors $\psi \circ \varphi$ est affine. Si de plus $\varphi$ est bijective alors $\varphi^{-1}$ est affine.
\end{lem}

\begin{exo}
Prouver ce lemme.
\end{exo}

En particulier, les bijections affines de $\R^n$ forment un groupe pour la composition, noté $\aff$. Il contient comme sous-groupe $GL_n(\R)$ et $\R^n$, identifié au sous-groupe des translations via $\tau:v \mapsto \tau_v$.

\begin{lem}
\label{lem: decomposition affine}
Soit $\varphi$ une application affine, il existe un unique $(v,L) \in \R^n \times M_n(\R)$ tel que $\varphi = \tau_v \circ L$. On appelle $L$ la \emph{partie linéaire} de $\varphi$, notée $\vv{\varphi}$.
\end{lem}

\begin{exs}
Si $v \in \R^n$ alors $\vv{\tau_v}= \Id$. Si $L \in M_n(\R)$ alors $\vv{L}=L$.
\end{exs}

\begin{proof}
Par analyse-synthèse, si $\varphi = \tau_v \circ L$, alors $\varphi(0)=\tau_v(0)=v$ et $L = \tau_{-v}\circ \varphi$. Cela prouve l'unicité et donne les seuls candidats pour l'existence.

Soit $\varphi$ affine, posons $v=\varphi(0)$ et $L = \tau_{-v}\circ \varphi$. Il suffit de vérifier qu'une application affine fixant $0$, telle que $L$, est linéaire. Soient $x,y \in \R^n$ et $\lambda \in \R$,
\begin{align*}
L\parentheses*{x+\lambda y} &= L\parentheses*{(1+\lambda)\frac{x+\lambda y}{1+\lambda} - \lambda 0} = (1+\lambda) L\parentheses*{\frac{x+\lambda y}{1+\lambda}} - \lambda L(0)\\
&= (1+\lambda) \parentheses*{\frac{1}{1+\lambda}L(x) + \frac{\lambda}{1+\lambda}L(y)} = L(x) +\lambda L(y).\qedhere
\end{align*}
\end{proof}

En particulier, une application affine $\varphi$ est bijective si et seulement si sa partie linéaire $\vv{\varphi}$ l'est. On a donc montré que $(v,L) \mapsto \tau_v \circ L$ est bijective de $\R^n \times GL_n(\R)$ vers $\aff$. Attention ce n'est pas un isomorphisme pour la structure produit sur $\R^n \times GL_n(\R)$. Cependant on a le résultat suivant.

\begin{lem}
\label{lem: produit semi-direct}
Il existe une unique structure de groupe sur $\R^n \times GL_n(\R)$ telle que $(v,L) \mapsto \tau_v \circ L$ soit un isomorphisme. Elle est décrite par: $(w,M)\cdot (v,L) = (w+Mv,ML)$.
\end{lem}

\begin{exo}
Le vérifier. En déduire que $\varphi \mapsto \vv{\varphi}$ est un morphisme de groupe surjectif de $\aff$ vers $GL_n(\R)$ dont le noyau est le sous-groupe des translations.
\end{exo}

L'ensemble $\R^n \times GL_n(\R)$ muni de la structure de groupe donné par le lemme~\ref{lem: produit semi-direct} est appelé \emph{produit semi-direct} de $\R^n$ par $GL_n(\R)$, noté $\R^n \rtimes GL_n(\R)$. On a donc $\R^n \rtimes GL_n(\R) \simeq \aff$.


\subsection{Isométries}
\label{sub: isometries}

\begin{dfn}[isométrie]
Une isométrie de $\R^n$ est une application $\varphi:\R^n \to \R^n$ qui préserve la distance: $\forall x,y \in \R^n$, $\Norm{\varphi(y)-\varphi(x)} = \Norm{y-x}$.
\end{dfn}

\begin{exs}
Les translations $\tau_v$ avec $v \in \R^n$. Les isométries vectorielles $\Omega \in O_n(\R)$.
\end{exs}

\begin{prop}
\label{prop: isom affine}
Soit $\varphi$ une isométrie de $\R^n$, alors $\varphi$ est affine et $\vv{\varphi} \in O_n(\R)$.
\end{prop}

En particulier, toute isométrie de $\R^n$ est bijective et les isométries forment un sous-groupe de $\aff$. Sous l'isomorphisme $\R^n \rtimes GL_n(\R) \simeq \aff$, ce sous-groupe est:
\begin{equation*}
\brackets*{\varphi \in \aff \mvert \vv{\varphi} \in O_n(\R)} =\brackets*{\tau_v \circ \Omega \mvert v \in \R^n, \Omega \in O_n(\R)} \simeq \R^n \rtimes O_n(\R).
\end{equation*}

\begin{dfn}[isométries directes]
\label{def: isometrie directe}
On note $\isom$ le sous-groupe de $\aff$ formé des isométries directes:
\begin{equation*}
\isom = \brackets*{\varphi \in \aff \mvert \vv{\varphi} \in SO_n(\R)} = \brackets*{\tau_v \circ \Omega \mvert v \in \R^n, \Omega \in SO_n(\R)} \simeq \R^n \rtimes SO_n(\R).
\end{equation*}
\end{dfn}

\begin{proof}[Démonstration de la proposition~\ref{prop: isom affine}]
Soit $\varphi$ une isométrie. Si on suppose $\varphi$ affine alors $\varphi = \tau_{\varphi(0)}\circ\vv{\varphi}$ et $\vv{\varphi} = \tau_{-\varphi(0)}\circ\varphi$ est linéaire et préserve $\Norm{\cdot}$. Il s'agit donc de montrer que $\varphi$ est affine.

\textbf{Étape 1: $\varphi$ préserve l'alignement.} Soient $x,y$ et $z \in \R^n$ alignés dans cet ordre. On a:
\begin{equation*}
\Norm{z-x}= \Norm{\varphi(z)-\varphi(x)} \leq \Norm{\varphi(z)-\varphi(y)}+\Norm{\varphi(y)-\varphi(x)} = \Norm{z-y}+\Norm{y-z} = \Norm{z-x},
\end{equation*}
en utilisant la condition d'alignement. Donc $\Norm{\varphi(z)-\varphi(x)} = \Norm{\varphi(z)-\varphi(y)}+\Norm{\varphi(y)-\varphi(x)}$. Comme $\Norm{\cdot}$ est la norme euclidienne, cela signifie que $\varphi(x),\varphi(y)$ et $\varphi(z)$ sont alignés dans cet ordre. Formellement cela se ramène au cas d'égalité dans l'inégalité de Cauchy-Schwarz.

\textbf{Étape 2: $\varphi$ préserve les barycentres.} Soient $x,y \in \R^n$ et $t \in \R$, on note $g = tx+(1-t)y$. On peut supposer que $x \neq y$. Supposons aussi que $t \leq 0$, les cas $t \in [0,1]$ et $t \geq 1$ étant similaires.

Alors $x,y$ et $g$ sont alignés dans cet ordre, donc $\varphi(x), \varphi(y)$ et $\varphi(g)$ sont alignés dans cet ordre. Il existe donc $s \leq 0$ tel que $\varphi(g) = s \varphi(x) + (1-s) \varphi(y)$. Il s'agit de montrer que $s=t$.

On a $g-y= t(x-y)$. Comme $t \leq 0$, on a $t = -\norm{t} = -\frac{\Norm{g-y}}{\Norm{x-y}}$. De même, $s = -\frac{\Norm{\varphi(g)-\varphi(y)}}{\Norm{\varphi(x)-\varphi(y)}}$. Comme $\varphi$ est isométrique, on en déduit que $s=t$. Donc $\varphi$ préserve les barycentres, i.e.~est affine.
\end{proof}


\subsection{Actions des isométries sur la grassmannienne}
\label{sub: action des isometries sur la grassmannienne}

Soit $H = a +\vv{H}$ un hyperplan affine et $\varphi=\tau_v \circ L \in \aff$. Alors $\varphi(H) = v+L(a+\vv{H}) = v+La +L\vv{H}$. Donc $\varphi(H)$ est un hyperplan affine de direction $\vv{\varphi}(\vv{H})$. De plus, on définit une orientation sur $\vv{\varphi}(\vv{H})$ en demandant que l'image $(\vv{\varphi} e_2,\dots,\vv{\varphi} e_n)$ d'une base directe $(e_2,\dots,e_n)$ de $\vv{H}$ soit directe.

Donc $\varphi$ induit une application de $\Gr$ dans lui-même, encore notée $\varphi$. On se convaincra que cela définit un morphisme de groupe $\aff \to \bij(\Gr)$, i.e.~une action $\aff \acts \Gr$.

\begin{exo}
Se convaincre.
\end{exo}

On veut maintenant décrire l'action induite $\R^n \rtimes SO_n(\R) \simeq \isom \acts \Gr \simeq \R \times \S^{n-1}$. Soit $(\alpha,\theta) \in \R \times \S^{n-1}$ correspondant à $\parentheses*{H(\alpha,\theta),\omega_\theta} \in \Gr$. Soient $(v,\Omega) \in \R^n \rtimes SO_n(\R)$ et $\varphi = \tau_v \circ \Omega$:
\begin{equation*}
\varphi\parentheses*{H(\alpha,\theta)} = v + \Omega\parentheses*{\alpha \theta + \theta^\perp} = v+\alpha\Omega \theta + \Omega(\theta^\perp).
\end{equation*}
On a $\Omega(\theta^\perp) = (\Omega \theta)^\perp$ car $\Omega$ préserve l'orthogonalité. Par ailleurs, comme $\Norm{\Omega\theta}=\Norm{\theta}=1$, on peut écrire $v = \prsc{v}{\Omega\theta} \Omega\theta + v^\perp$, où $v^\perp \in (\Omega \theta)^\perp$. Donc
\begin{equation*}
\varphi\parentheses*{H(\alpha,\theta)} = \parentheses*{\alpha + \prsc{v}{\Omega\theta}}\Omega\theta + (\Omega \theta)^\perp = H\parentheses*{\strut\alpha + \prsc{v}{\Omega\theta},\Omega\theta}.
\end{equation*}

Soit $(e_2,\dots,e_n)$ une B.O.N.D.~de $\theta^\perp$ pour $\omega_\theta$. Alors $(\theta,e_2,\dots,e_n)$ est une B.O.N.D.~de $\R^n$, et donc $(\Omega\theta,\Omega e_2,\dots,\Omega e_n)$ aussi. Donc $(\Omega e_2,\dots,\Omega e_n)$ est une B.O.N.D.~de $(\Omega \theta)^\perp$ pour $\omega_{\Omega\theta}$. Cela prouve que l'orientation sur $(\Omega \theta)^\perp$ image de $\omega_\theta$ par $\varphi$ est $\omega_{\Omega\theta}$.

Ainsi, $\varphi\parentheses*{H(\alpha,\theta),\omega_\theta} = \parentheses*{H\parentheses*{\strut\alpha + \prsc{v}{\Omega\theta},\Omega\theta}, \omega_{\Omega\theta}}$, qui correspond à $\parentheses*{\alpha + \prsc{v}{\Omega\theta},\Omega\theta} \in \R\times \S^{n-1}$. L'action $\R^n \rtimes SO_n(\R) \acts \R \times \S^{n-1}$ est donc décrite par:
\begin{equation}
\label{eq: action sur Gr+}
\forall (v,\Omega) \in \R^n \rtimes SO_n(\R), \forall (\alpha,\theta) \in \R \times \S^{n-1}, \qquad (v,\Omega) \cdot (\alpha,\theta) = \parentheses*{\alpha + \prsc{v}{\Omega\theta},\Omega\theta}.
\end{equation}


\section{Mesures invariantes}
\label{sec: mesures invariantes}

Notre prochain objectif est de définir une mesure sur $\Gr$ qui soit invariante par isométries.

\subsection{Rappels de théorie de la mesure}
\label{sub: rappels}

\begin{dfn}[mesure image]
\label{def: mesure image}
Soient $\varphi:E \to F$ mesurable entre espaces mesurés et $\mu$ une mesure sur $E$. La \emph{mesure image} $\varphi_*\mu$ de $\mu$ par $\varphi$ est la mesure sur $F$ définie par: $\varphi_*\mu(A) = \mu \parentheses*{\varphi^{-1}(A)}$ pour tout $A\subset F$ mesurable.
\end{dfn}

C'est l'unique mesure telle que $f \in L^1(F,\varphi_*\mu) \iff f\circ \varphi \in L^1(E,\mu)$ et, pour tout $f \in L^1(F,\varphi_*\mu)$, $\int_F f \dx \varphi_*\mu = \int_E (f \circ \varphi) \dx \mu$.

\begin{exo}
Vérifier que c'est le cas.
\end{exo}

\begin{dfn}[mesure invariante]
\label{def: mesure invariante}
Une mesure $\mu$ est dite \emph{invariante} par $\varphi:E \to E$ si $\varphi_*\mu = \mu$. Soit $G$ ensemble de fonctions mesurables, $\mu$ est dite \emph{$G$-invariante} si elle est invariante par tout~ $\varphi \in G$.
\end{dfn}

\begin{ex}
La mesure de Lebesgue est invariante par les isométries de $\R^n$.
\end{ex}

Dans la suite, les mesures sur des espaces topologiques seront toujours supposées être boréliennes.

\begin{thm}
La mesure de Lebesgue sur $\R^n$ est l'unique mesure finie sur les compacts et invariante par translation, à constante multiplicative près.
\end{thm}

\begin{exo}
Prouver ce théorème. On pourra commencer par montrer que si $\mu$ est invariante par translation alors il existe $a\geq 0$ telle que pour tout cube $C$ de côté $2^k$ ($k \in \Z$) on a $\mu(C) = a \leb(C)$.
\end{exo}


\subsection{Gaussiennes et loi uniforme sur la sphère}
\label{sub: gaussiennes et loi uniforme sur la sphere}

On travaille toujours dans $\R^n$ muni de son produit scalaire euclidien $\prsc{\cdot}{\cdot}$ et de la norme $\Norm{\cdot}$ associée. On note $\sym$ l'ensemble des matrices symétriques définies positives de taille $n$.

\begin{dfn}[gaussienne centrée]
\label{def: gaussienne}
Soit $\Lambda \in \sym$, la loi \emph{gaussienne centrée} de variance $\Lambda$ est la mesure de probabilité $\gauss{\Lambda}$ sur $\R^n$ admettant la densité $x \mapsto \frac{1}{\sqrt{(2\pi)^n\det(\Lambda)}}\exp\parentheses*{-\frac{1}{2}\prsc*{\Lambda^{-1}x}{x}}$ par rapport à la mesure de Lebesgue. La loi $\gauss{\Id}$ est appelée \emph{gaussienne standard}.
\end{dfn}

\begin{lem}
\label{lem: transformation des gaussiennes}
Soient $X \sim \gauss{\Lambda}$ et $L \in GL_n(\R)$ alors on a $LX \sim \gauss{L\Lambda \trans{L}}$, c'est-à-dire $L_*\gauss{\Lambda} = \gauss{L \Lambda \trans{L}}$. En particulier, $\gauss{\Id}$ est $O_n(\R)$-invariante.
\end{lem}

\begin{exo}
Prouver ce lemme.
\end{exo}

Si $X \sim \gauss{\Id}$, alors $\theta = \frac{X}{\Norm{X}}$ est une variable aléatoire dans $\S^{n-1}$ définie presque surement.

\begin{dfn}[mesure uniforme sur $\S^{n-1}$]
\label{def: mesure uniforme sur Sn}
On appelle \emph{mesure uniforme} sur $\S^{n-1}$ la loi $\dx \theta$ de $\theta$. Si $p:\R^n \setminus \brackets{0} \to \S^{n-1}$ est la projection radiale, $d\theta = p_*\gauss{\Id}$.
\end{dfn}

\begin{lem}
$\dx\theta$ est $O_n(\R)$-invariante sur $\S^{n-1}$.
\end{lem}

\begin{proof}
Soit $\Omega \in O_n(\R)$, pour tout $x \neq 0$, on a	$
\Omega(p(x)) = \Omega \frac{x}{\Norm{x}} = \frac{\Omega x}{\Norm{x}} = \frac{\Omega x}{\Norm{\Omega x}} = p(\Omega(x))$. Donc $p \circ \Omega = \Omega \circ p$. On en déduit que:
\begin{equation*}
\Omega_* \dx \theta = \Omega_* p_* \gauss{\Id} = (\Omega \circ p)_*\gauss{\Id} = p_*\Omega_*\gauss{\Id} =  p_*\gauss{\Id} = \dx \theta.\qedhere
\end{equation*}
\end{proof}

\begin{thm}
\label{thm: unicite uniforme sur Sn}
Si $n \geq 2$, alors $\dx\theta$ est l'unique mesure de probabilité $SO_n(\R)$-invariante sur $\S^{n-1}$.
\end{thm}

On admet ce résultat. C'est un cas particulier d'un résultat très général évoqué à la section~\ref{sub: mesures de Haar}.

\begin{exo}
\begin{enumerate}
\item Montrer qu'une mesure de probabilité $SO_n(\R)$-invariante sur $\S^{n-1}$ est sans atome.
\item Si $\mu=\rho \dx \theta$ est $SO_n(\R)$-invariante et $\rho$ est continue, montrer que $\rho$ est constante.
\end{enumerate}
\end{exo}


\subsection{Mesure uniforme sur la grassmannienne}
\label{sub: mesure uniforme sur Gr}

\begin{dfn}[mesure uniforme]
On appelle \emph{mesure uniforme} sur $\Gr \simeq \R \times \S^{n-1}$ la mesure $\dx \mu = \dx \alpha \otimes \dx \theta$, où $\dx \alpha$ est la mesure de Lebesgue sur $\R$ et $\dx \theta$ est la mesure uniforme sur $\S^{n-1}$.
\end{dfn}

\begin{lem}
\label{lem: invariance de dmu}
La mesure $\dx \mu$ est $\isom$-invariante.
\end{lem}

\begin{proof}
Soient $(v,\Omega) \in \R^n\rtimes SO_n(\R)$ et $\varphi = \tau_v \circ \Omega \in \isom$. On rappelle que l'action de $(v,\Omega)$ sur $\Gr$ est décrite par l'équation~\eqref{eq: action sur Gr+}. Pour toute fonction mesurable positive $f$ sur $\R \times \S^{n-1}\simeq \Gr$ on calcule:
\begin{align*}
\int_{\Gr} f\circ \varphi \dx \mu &= \int_{\R \times \S^{n-1}} f\parentheses*{\varphi \cdot (\alpha,\theta) \strut} \dx \alpha \dx \theta & &= \int_{\S^{n-1}}\parentheses*{\int_\R f\parentheses*{\alpha + \prsc{v}{\Omega\theta},\Omega\theta}\dx \alpha}\dx \theta\\
&= \int_{\S^{n-1}}\parentheses*{\int_\R f\parentheses*{\alpha,\Omega\theta}\dx \alpha}\dx \theta & &(\text{invariance par translation de} \, \dx \alpha)\\
&= \int_\R\parentheses*{\int_{\S^{n-1}} f\parentheses*{\alpha,\Omega\theta}\dx \theta}\dx \alpha\\
&= \int_\R\parentheses*{\int_{\S^{n-1}} f\parentheses*{\alpha,\theta}\dx \theta}\dx \alpha& &(\text{invariance par rotation de} \, \dx \theta)\\
&= \int_{\Gr} f \dx \mu.
\end{align*}
Si $f$ est l'indicatrice du borélien $A$, on obtient bien $\varphi_*\mu(A) = \mu \parentheses{\varphi^{-1}(A)} = \mu(A)$. Donc $\varphi_*\mu= \mu$.
\end{proof}

\begin{thm}[admis]
\label{thm: unicite dmu}
La mesure $\dx \mu$ est l'unique mesure  sur $\Gr$ finie sur les compacts et $\isom$-invariante, à constante multiplicative près.
\end{thm}


\subsection{Mesures de Haar}
\label{sub: mesures de Haar}

L'unicité de la mesure de Lebesgue sur $\R^n$ et des mesures uniformes sur $\S^{n-1}$ et $\Gr$ sont des cas particuliers d'un résultat général qu'on présente pour la culture dans cette section.

\begin{dfn}[action de groupe continue]
\label{def: action de groupe continue}
Une action $G \acts X$ est dite \emph{continue} si:
\begin{itemize}
\item $G$ et $X$ sont des espaces topologiques localement compacts;
\item les opérations du groupe $(g,h)\mapsto gh$ et $g \mapsto g^{-1}$ sont continues;
\item l'application $(g,x) \mapsto g \cdot x$ est continue de $G \times X$ dans $X$.
\end{itemize}
\end{dfn}

\begin{exs}
\begin{itemize}
\item L'action $\R^n \acts \R^n$ par translation.
\item L'action naturelle de $\aff$ et ses sous-groupes sur $\R^n$.
\item L'action $SO_n(\R) \acts \S^{n-1}$ par rotation.
\item Notre action préférée $\isom \acts \Gr$ décrite à la section~\ref{sub: action des isometries sur la grassmannienne}.
\end{itemize}
\end{exs}

\begin{dfn}[mesure de Haar]
\label{def: mesure de Haar}
Une \emph{mesure de Haar} pour une action $G \acts X$ continue et transitive est une mesure borélienne non nulle sur $X$ qui est $G$-invariante et finie sur les compacts.
\end{dfn}

On connait une condition nécessaire et suffisante, appelé \emph{critère de Weil}, pour que $G \acts X$ admette une mesure de Haar. Son énoncé précis sort du cadre de ce cours. Il est satisfait dans les cas suivants:
\begin{enumerate}
\item\label{cas: stab compact} Il existe $x \in X$ dont le stabilisateur est compact (en particulier si $G$ est compact).
\item\label{cas: Haar} $G \acts G$ est l'action par translation à gauche ou à droite.
\end{enumerate}

De plus, si $G \acts X$ admet une mesure de Haar elle est unique à une constante multiplicative près.

\begin{rem}
\begin{itemize}
\item Le point~\ref{cas: stab compact}, pour l'action $O_n(\R) \acts \S^{n-1}$ remontre l'existence de $\dx \theta$.
\item Le point~\ref{cas: Haar} remontre l'existence de la mesure de Lebesgue, un indice que ce résultat est dur.
\item Comme l'action est transitive, les stabilisateurs sont tous conjugués, donc homéomorphes. Dans le point~\ref{cas: stab compact}, il est donc équivalent de demander que le stabilisateur de tout point soit compact.
\item Ce résultat est satisfaisant théoriquement mais il ne dit pas comment construire la mesure invariante, ce qui est gênant pour la manipuler. Dans les cas concrets on construit souvent une mesure invariante à la main, comme dans les sections précédentes.
\end{itemize}
\end{rem}


\section{Formule de Crofton euclidienne}
\label{sec: Crofton euclidien}

Dans cette section on prouve la formule de Crofton dans $\R^n$.

\begin{thm}[Formule de Crofton]
\label{thm: Crofton euclidien}
Soit $I \subset\R$ un intervalle. Soit $\gamma:I \to \R^n$ une courbe paramétrée de classe $\cC^1$ et régulière, i.e.~$\forall t \in I$, $\gamma'(t) \neq 0$. Notons $\l = \int_I \Norm{\gamma'(t)}\dx t \in [0,+\infty]$ la longueur de $\gamma(I)$. On a:
\begin{equation*}
\int_{(H,\omega) \in \Gr} \#\parentheses*{\gamma(I) \cap H} \dx \mu(H,\omega) = C_n \l, \qquad \text{où} \quad C_n = \frac{\Gamma\parentheses*{\frac{n}{2}}}{\Gamma\parentheses*{\frac{1}{2}}\Gamma\parentheses*{\frac{n+1}{2}}}.
\end{equation*}
\end{thm}

\begin{rem}
\begin{itemize}
\item Attention ce n'est pas une espérance car $\mu$ est de masse infinie. Si $\gamma(I) \subset B(0,M)$ pour un certain $M >0$ (par exemple si $\l$ est finie), alors on peut se restreindre à intégrer sur $\brackets*{(H,\omega) \in \Gr\mvert H \cap B(0,M) \neq \emptyset } \simeq [-M,M] \times \S^{n-1}$, qui est de mesure finie. Quitte à normaliser on a alors bien une mesure de probabilité.
\item Chaque hyperplan est compté exactement deux fois, une fois avec chaque orientation.
\item $\#\parentheses*{\gamma(I) \cap H}$ est un abus de notation pour $\# \gamma^{-1}(H)$, ce qui est différent si la courbe n'est pas simple: un point double sera compté deux fois. Ce ne sera pas un problème dans la suite.
\end{itemize}
\end{rem}


\subsection{Cas d'un segment}
\label{sub: cas segment}

On commence par prouver le théorème lorsque $\gamma(I)$ est un segment. Par invariance sous $\isom$, on peut se ramener à $\gamma:t \mapsto t e_1$ de $[-\frac{\l}{2},\frac{\l}{2}]$ dans $\R^n$, où $e_1$ est le premier vecteur de base de $\R^n$.

Soient $(\alpha,\theta) \in \R \times \S^{n-1}$, la projection orthogonale de $\gamma(I) = \squarebrackets*{-\frac{\l}{2},\frac{\l}{2}}e_1$ sur la droite $\R \theta$ est le segment $\squarebrackets*{-\frac{\l}{2}\norm{\prsc{e_1}{\theta}},\frac{\l}{2}\norm{\prsc{e_1}{\theta}}}\theta$.

L'hyperplan $H(\alpha,\theta) = \alpha\theta + \theta^\perp$ intersecte $\gamma(I)$ si et seulement si $\alpha \in \squarebrackets*{-\frac{\l}{2}\norm{\prsc{e_1}{\theta}},\frac{\l}{2}\norm{\prsc{e_1}{\theta}}}$. Comme dans le cas des aiguilles de Buffon on a donc:
\begin{equation*}
\# \parentheses{\gamma(I) \cap H(\alpha,\theta)} = \begin{cases} 0 & \text{si} \ \norm{\alpha} > \frac{\l}{2}\norm{\prsc{e_1}{\theta}},\\
1 & \text{si} \ \norm{\alpha} \leq \frac{\l}{2}\norm{\prsc{e_1}{\theta}}, \ \text{et} \ \prsc{e_1}{\theta} \neq 0,\\
+\infty & \text{si} \ \alpha=0=\prsc{e_1}{\theta}.
\end{cases}
\end{equation*}
Comme $\mu\parentheses*{\brackets{0}\times (\brackets{0}\times\S^{n-2})}=0$, on a:
\begin{equation*}
\int_{\Gr}\# \parentheses{\gamma(I) \cap H}\dx \mu = \mu\parentheses*{\strut\brackets*{(H,\omega) \mvert \gamma(I) \cap H \neq \emptyset}} = \int_{\S^{n-1}} \int_{-\frac{\l}{2}\norm{\prsc{e_1}{\theta}}}^{\frac{\l}{2}\norm{\prsc{e_1}{\theta}}} \dx \alpha \dx \theta = \l \int_{\S^{n-1}} \norm{\prsc{\theta}{e_1}} \dx \theta.
\end{equation*}
Le résultat en prouvé en posant $C_n = \int_{\S^{n-1}} \norm{\prsc{\theta}{e_1}} \dx \theta$. Il reste à calculer cette constante. Notons $\dx \sigma_{k-1}$ la mesure de volume sur $\S^{k-1} \subset \R^k$. En passant en coordonnées sphériques, on a:
\begin{align*}
C_n &= \int_{\S^{n-1}} \norm{\prsc{\theta}{e_1}} \dx \theta = \frac{1}{\vol(\S^{n-1})}\int_{\S^{n-1}} \norm{\prsc{\eta}{e_1}} \dx \sigma_{k-1}(\eta)\\
&= \frac{1}{\vol(\S^{n-1})}\int_{\beta=0}^\pi \int_{\brackets{0} \times \S^{n-2}} \norm{\cos(\beta)} \norm{\sin(\beta)}^{n-2} \dx \sigma_{k-2}(\eta) \dx \beta\\
&= 2\frac{\vol(\S^{n-2})}{\vol(\S^{n-1})} \int_0^\frac{\pi}{2} \cos(\beta) \sin(\beta)^{n-2} \dx \beta = \frac{2}{n-1}\frac{\vol(\S^{n-2})}{\vol(\S^{n-1})}.
\end{align*}
On conclut en utilisant $\Gamma(\frac{1}{2})=\sqrt{\pi}$ et la formule suivante pour le volume $(n-1)$-dimensionnel de la sphère $\S^{n-1}$: $\vol(\S^{n-1}) = \frac{2\pi^\frac{n}{2}}{\Gamma\parentheses{\frac{n}{2}}}$.


\subsection{Cas où l'intervalle \texorpdfstring{$I$}{} est compact}

C'est l'étape difficile. Si $I$ est compact alors $\l <+\infty$, et on peut supposer que $I=[0,\l]$ et que $\gamma$ est un paramétrage par longueur d'arc: $\forall t \in I, \Norm{\gamma'(t)} =1$.

On procède en approchant $\gamma(I)$ par des lignes brisées. Soient $k \in \N$ et $i \in \brackets{1,\dots,2^k}$, on note $S_{k,i} = \squarebrackets*{\gamma\parentheses*{\frac{i-1}{2^k}\l},\gamma\parentheses*{\frac{i}{2^k}\l}}$ et $C_k=\bigcup_{1 \leq i\leq 2^k} S_{k,i}$, la ligne brisée qui interpole $\gamma(I)$ aux points de paramètres $\parentheses*{\frac{i\l}{2^k}}_{0 \leq i \leq 2^k}$. On note $\l_{k,i}$ la longueur de $S_{k,i}$ et $\l_k = \sum_{i=1}^{2^k}\l_{k,i}$ celle de $C_k$.

On va déduire le résultat des trois lemmes suivants.

\begin{lem}
\label{lem: rectifiabilite}
On a $\l_k \xrightarrow[k \to +\infty]{} \l$.
\end{lem}

\begin{lem}
\label{lem: limite intersection}
Soit $H$ un hyperplan affine de $\R^n$ tel que:
\begin{enumerate}
\item \label{hyp: noeuds} $H$ ne contient aucun des noeuds $\gamma\parentheses*{\frac{i\l}{2^k}}$, où $k \in \N$ et $0 \leq i \leq 2^k$;
\item \label{hyp: tangence} $H$ n'est pas tangent à $\gamma(I)$: $\forall t \in I$, si $\gamma(t) \in H$ alors $\gamma'(t) \notin \vv{H}$.
\end{enumerate}
Alors $\parentheses*{\#\parentheses{C_k \cap H}}_{k \geq 0}$ est une suite croissante qui converge vers $\#\parentheses{\gamma(I) \cap H}<+\infty$.
\end{lem}

\begin{lem}
\label{lem: genericite}
Pour presque tout $(H,\omega) \in \Gr$, les conditions~\ref{hyp: noeuds} et~\ref{hyp: tangence} du lemme~\ref{lem: limite intersection} sont satisfaites.
\end{lem}

Si on suppose ces lemmes établis, le lemme de croissance monotone assure que:
\begin{align*}
\int_{\Gr} \#\parentheses*{\gamma(I) \cap H} \dx \mu &= \int_{\Gr} \lim_{k \to +\infty} \#\parentheses*{C_k \cap H} \dx \mu = \lim_{k \to +\infty} \int_{\Gr}\#\parentheses*{C_k \cap H} \dx \mu\\
&= \lim_{k \to +\infty} \sum_{i=1}^{2^k} \int_{\Gr}\#\parentheses*{S_{k,i} \cap H} \dx \mu = \lim_{k \to +\infty} \sum_{i=1}^{2^k} C_n\l_{k,i} = \lim_{k \to +\infty} C_n \l_k \\
&= C_n \l.
\end{align*}

Il faut maintenant prouver les lemmes.

\begin{proof}[Démonstration du lemme~\ref{lem: rectifiabilite}]
Comme $\gamma'$ est continue sur $[0,\l]$, elle y est uniformément continue. Soit $\epsilon >0$ et soit $\eta >0$ tel que $\norm{t-s} \leq \eta$ implique $\Norm{\gamma'(t)-\gamma'(s)} \leq \epsilon$.

Pour tout $k \geq 0$ assez grand pour que $\frac{\l}{2^k} \leq \eta$ et tout $i \in \brackets{1,\dots,2^k}$,
\begin{align*}
\Norm*{\gamma\parentheses*{\frac{i}{2^k}\l}-\gamma\parentheses*{\frac{i-1}{2^k}\l} - \frac{\l}{2^k}\gamma'\parentheses*{\frac{i}{2^k}\l}} &= \Norm*{\int_{\frac{i-1}{2^k}\l}^{\frac{i}{2^k}\l} \gamma'(t)-\gamma'\parentheses*{\frac{i}{2^k}\l} \dx t}\\
&\leq \int_{\frac{i-1}{2^k}\l}^{\frac{i}{2^k}\l} \Norm*{\gamma'(t)-\gamma'\parentheses*{\frac{i}{2^k}\l}} \dx t \leq \frac{\l}{2^k}\epsilon.
\end{align*}
Donc
\begin{align*}
\norm*{l_{k,i}-\frac{\l}{2^k}} &= \norm*{\Norm{\gamma\parentheses*{\frac{i}{2^k}\l}-\gamma\parentheses*{\frac{i-1}{2^k}\l}} - \frac{\l}{2^k}\Norm{\gamma'\parentheses*{\frac{i}{2^k}\l}}} \leq \Norm*{\gamma\parentheses*{\frac{i}{2^k}\l}-\gamma\parentheses*{\frac{i-1}{2^k}\l} - \frac{\l}{2^k}\gamma'\parentheses*{\frac{i}{2^k}\l}}\\
&\leq \frac{\l}{2^k}\epsilon
\end{align*}
et donc
\begin{equation*}
\norm*{\l_k - l} = \norm*{\sum_{i=1}^{2^k} \parentheses*{ l_{k,i}-\frac{\l}{2^k}}} \leq \sum_{i=1}^{2^k} \norm*{ l_{k,i}-\frac{\l}{2^k}} \leq \l\epsilon.\qedhere
\end{equation*}
\end{proof}

\begin{proof}[Démonstration du lemme~\ref{lem: limite intersection}]
Soit $k \geq 0$ et $1 \leq i \leq 2^k$. Par l'hypothèse~\ref{hyp: noeuds}, les extrémités de $S_{k,i}$ ne sont pas dans $H$. Donc $\#\parentheses*{S_{k,i} \cap H} \in \brackets{0,1}$.

\textbf{Croissance.} Si les extrémités de $S_{k,i}$ sont dans la même composante connexe de $\R^n \setminus H$, alors $\#\parentheses*{S_{k,i} \cap H} =0$ par convexité. Donc $\#\parentheses*{S_{k,i} \cap H} \leq \#\parentheses*{S_{k+1,2i-1} \cap H} + \#\parentheses*{S_{k+1,2i} \cap H}$.

Par contraposée, si $\#\parentheses*{S_{k,i} \cap H} =1$, alors $\gamma\parentheses*{\frac{i-1}{2^k}\l}$ et $\gamma\parentheses*{\frac{i}{2^k}\l}$ ne sont pas dans la même composante de $\R^n \setminus H$. Par théorème des valeurs intermédiaires, tout chemin continu reliant ces points intersecte~$H$, en particulier $S_{k+1,2i-1}\cup S_{k+1,2i}$. Donc $\#\parentheses*{S_{k+1,2i-1} \cap H} + \#\parentheses*{S_{k+1,2i} \cap H} \geq 1 = \#\parentheses*{S_{k,i} \cap H}$.

Finalement on obtient:
\begin{equation*}
\#\parentheses*{C_k \cap H} = \sum_{i=1}^{2^k} \#\parentheses*{S_{k,i} \cap H} \leq \sum_{i=1}^{2^k} \#\parentheses*{S_{k+1,2i-1} \cap H} + \#\parentheses*{S_{k+1,2i} \cap H} = \#\parentheses{C_{k+1} \cap H}.
\end{equation*}
Donc la suite $\parentheses*{\#\parentheses*{C_k \cap H}}_{k \geq 1}$ est croissante.

\textbf{Finitude.} On fait une preuve par l'absurde. Si $\gamma^{-1}(H) \subset [0,\l]$ est infini, il admet un point d'accumulation par compacité. Il existe donc $t \in [0,\l]$ et une suite $(t_j)_{j \geq 0}$ de points de $\gamma^{-1}(H) \setminus \brackets{t}$ tels que $t_j \xrightarrow[j \to +\infty]{} t$. Comme $H$ est fermé, $\gamma(t) \in H$. Par ailleurs $\frac{\gamma(t)-\gamma(t_j)}{t-t_j} \in \vv{H}$ pour tout $j$. En passant à la limite, $\gamma'(t) \in \vv{H}$, ce qui contredit l'hypothèse~\ref{hyp: tangence}. Donc $\gamma^{-1}(H)$ est fini.

\textbf{Stationnarité.} On note $0 < t_1 < \dots < t_m < \l$ les éléments de $\gamma^{-1}(H)$. Pour tout $j$, $\gamma(t_j) \in H$. Donc, par l'hypothèse~\ref{hyp: tangence}, $\gamma'(t_j) \notin \vv{H}$ i.e. la courbe traverse $H$. Pour tout $k \geq 0$ assez grand, chaque intervalle $\squarebrackets*{\frac{i-1}{2^k}\l,\frac{i}{2^k}\l}$ contient au plus l'un des $t_j$. De plus, $\#\parentheses*{S_{k,i} \cap H} =1$ si et seulement si c'est le cas. Donc, pour tout $k$ assez grand,
\begin{equation*}
\#\parentheses{C_k \cap H} = \sum_{i=1}^{2^k} \#\parentheses*{S_{k,i} \cap H} = m = \#\parentheses*{\gamma(I) \cap H}.\qedhere
\end{equation*}
\end{proof}

La preuve du lemme~\ref{lem: genericite} utilise le lemme suivant, qui est un cas très particulier du théorème de Sard.

\begin{lem}
\label{lem: Sard}
Soit $f:[0,\l] \to \R$ une fonction de classe $\cC^1$, alors $\leb\parentheses*{\brackets*{f(t) \mvert f'(t)=0}}=0$.
\end{lem}

\begin{proof}
Soit $\epsilon >0$, alors $\brackets{t \in [0,\l]\mid \norm{f'(t)}<\epsilon} = (f')^{-1}(]-\epsilon,\epsilon[)$ est ouvert. Il s'écrit donc comme l'union disjointe $\bigsqcup_{i \in I} U_i$ de ses composantes connexes, qui sont des intervalles ouverts.

Soient $x,y \in U_i$, par le théorème des accroissements finis, $\norm{f(y)-f(x)} \leq \epsilon \norm{y-x}$. Donc l'intervalle $f(U_i)$ est de longueur $\leb(f(U_i)) \leq \epsilon \leb(U_i)$. Ensuite,
\begin{equation*}
\brackets*{f(t) \mid f'(t)=0} \subset \brackets*{f(t) \mid \norm{f'(t)}<\epsilon} = f\parentheses*{\bigsqcup_{i \in I} U_i} = \bigcup_{i \in I} f(U_i).
\end{equation*}
Donc $\leb\parentheses*{\brackets*{f(t) \mid f'(t)=0}} \leq \sum_{i \in I} \leb(f(U_i)) \leq \epsilon \sum_{i \in I} \leb(U_i) \leq \epsilon \l$, pour tout $\epsilon >0$.
\end{proof}

\begin{proof}[Démonstration du lemme~\ref{lem: genericite}]
Il suffit de montrer que chacune des conditions~\ref{hyp: noeuds} et~\ref{hyp: tangence} est satisfaite $\mu$-presque partout sur $\Gr$.

\textbf{Condition~\ref{hyp: noeuds}.} Soit $k \geq 0$ et $0 \leq i \leq 2^k$, pour tout $(\alpha,\theta) \in \R\times \S^{n-1}$ on a:
\begin{equation*}
\gamma\parentheses*{\frac{i\l}{2^k}} \in H(\alpha,\theta) = \alpha \theta + \theta^\perp \iff \prsc*{\gamma\parentheses*{\frac{i\l}{2^k}}}{\theta} = \alpha.
\end{equation*}
Donc $\mu\parentheses*{\brackets*{(\alpha,\theta) \mvert \gamma\parentheses*{\frac{i\l}{2^k}} \in H(\alpha,\theta)}} = \int_{\S^{n-1}} \leb\parentheses*{\brackets*{\prsc*{\gamma\parentheses*{\frac{i\l}{2^k}}}{\theta}}} \dx \theta = 0$. Comme on considère un nombre dénombrable de couples $(k,i)$,
\begin{equation*}
\mu \parentheses*{\brackets*{(\alpha,\theta) \mvert \exists (k,i), \gamma\parentheses*{\frac{i\l}{2^k}} \in H(\alpha,\theta)}} = 0.
\end{equation*}

\textbf{Condition~\ref{hyp: tangence}.} Pour $\theta \in \S^{n-1}$, on note $f_\theta:t \mapsto \prsc{\gamma(t)}{\theta}$ de $I$ dans $\R$. Cette fonction est $\cC^1$ et $f'_\theta:t \mapsto \prsc{\gamma'(t)}{\theta}$. Soient $(\alpha,\theta) \in \R \times \S^{n-1}$ et $t \in I$, on a:
\begin{equation*}
H \ \text{est tangent à} \ \gamma(I) \ \text{en} \ \gamma(t) \iff
\left\{\begin{aligned}
&\gamma(t) \in H(\alpha,\theta), \\ &\gamma'(t) \in \vv{H(\alpha,\theta)},
\end{aligned}
\right.
\iff
\left\{\begin{aligned}
&\prsc{\gamma(t)}{\theta} = \alpha,\\ &\prsc{\gamma'(t)}{\theta} = 0,
\end{aligned}
\right.
\iff
\left\{\begin{aligned}
&f_\theta(t), = \alpha\\ &f'_\theta(t) = 0.
\end{aligned}
\right.
\end{equation*}
Donc, par le lemme~\ref{lem: Sard},
\begin{align*}
\mu\parentheses*{\brackets{\strut (\alpha,\theta)\mvert H(\alpha,\theta) \ \text{tangent à}\ \gamma(I)}} &= \mu\parentheses*{\brackets*{\strut (\alpha,\theta)\mvert \exists t \in I \ \text{tel que}\ \alpha=f_\theta(t) \ \text{et} \ f'_\theta(t)=0}}\\
&= \mu\parentheses*{\brackets*{\rule{0em}{2.5ex}(\alpha,\theta)\mvert \alpha \in \brackets*{f_\theta(t) \mvert f_\theta'(t)=0}}}\\
&= \int_{\S^{n-1}} \leb\parentheses*{\brackets*{f_\theta(t) \mvert f'_\theta(t)=0}} \dx \theta =0.\qedhere
\end{align*}
\end{proof}


\subsection{Cas général}
\label{sub: cas general euclidien}

Si on ne suppose pas que $I$ est compact, il existe une suite croissante $(K_j)$ d'intervalles compacts tels que $I = \bigcup_{j \geq 0} K_j$. On peut toujours supposer que $\gamma$ est un paramétrage par longueur d'arc.

Pour tout hyperplan $H$ fixé, la suite $\parentheses*{\#\parentheses*{\gamma(K_j) \cap H}}_{j \geq 0}$ est croissante et converge vers $\#\parentheses*{\gamma(I) \cap H}$. Par convergence monotone et le cas précédent, on obtient:
\begin{align*}
\int_{\Gr} \#\parentheses*{\gamma(I) \cap H} \dx \mu &= \int_{\Gr} \lim_{j \to +\infty} \#\parentheses*{\gamma(K_j) \cap H} \dx \mu = \lim_{j \to +\infty} \int_{\Gr} \#\parentheses*{\gamma(K_j) \cap H} \dx \mu\\
&= C_n \lim_{j \to +\infty} \leb(K_j) = C_n \l.
\end{align*}


\section{Formule de Crofton sphérique}
\label{sec: formule de Crofton sphérique}

Dans cette section, on s'intéresse à une variante de la formule de Crofton pour des courbes tracées sur la sphère unité $\S^{n-1} \subset \R^n$, avec $n \geq 2$.

Dans ce cadre, les hyperplans affines sont remplacés par des équateurs de $\S^{n-1}$, c'est-à-dire des sous-ensembles de la forme $\S^{n-1} \cap \theta^\perp \simeq \S^{n-2}$, avec $\theta \in \S^{n-1}$. Chaque équateur est défini par exactement deux vecteurs de $\S^{n-1}$, opposés l'un de l'autre, induisant des orientations opposés sur $\theta^\perp$. On peut donc penser à $\theta \mapsto \S^{n-1} \cap \theta^\perp$ comme une bijection de $\S^{n-1}$ vers l'ensemble des ``équateurs orientés''.

\begin{thm}[Formule de Crofton]
\label{thm: Crofton spherique}
Soit $I \subset\R$ un intervalle. Soit $\gamma:I \to \R^n$ une courbe paramétrée de classe $\cC^1$ et régulière. Notons $\l = \int_I \Norm{\gamma'(t)}\dx t \in [0,+\infty]$ sa longueur. On suppose que $\gamma(I) \subset \S^{n-1}$. Soit $\theta$ une variable aléatoire uniforme dans $\S^{n-1}$, alors:
\begin{equation*}
\esp{\#\parentheses*{\gamma(I) \cap \theta^\perp}} = \frac{\l}{\pi}.
\end{equation*}
\end{thm}

\begin{rem}
Comme dans le cas euclidien, $\#\parentheses*{\gamma(I) \cap \theta^\perp}$ est un abus de notation pour $\#\gamma^{-1}(\theta^\perp)$.
\end{rem}

La preuve est la même que dans le cas euclidien. La différence principale est qu'on remplace les segments de droites par des arcs de grands cercles, qui sont les géodésiques sur $\S^{n-1}$.


\subsection{Cas d'un arc de grand cercle}
\label{sub: cas arc de cercle}

Soient $x,y \in \S^{n-1}$ distincts et non antipodaux. Alors $\vect(x,y)$ est un plan et $\S^{n-1} \cap \vect(x,y) \simeq \S^1$ est l'unique \emph{grand cercle} de $\S^{n-1}$ contenant $x$ et $y$. Le plus court des deux arcs joignant $x$ à $y$ dans $\S^{n-1} \cap \vect(x,y)$ est $p\parentheses*{\squarebrackets{x,y}}$, où on a noté $p:\R^n \setminus \brackets{0} \to \S^{n-1}$ la projection radiale.

On admettra que cet arc $p\parentheses*{\squarebrackets{x,y}}$ est l'unique chemin de longueur minimale de $x$ à $y$ dans $\S^{n-1}$.

\begin{dfn}[Géodésique]
\label{def: geodesique}
L'arc $p\parentheses*{\squarebrackets{x,y}}$ est appelé la \emph{géodésique} entre $x$ et $y$.
\end{dfn}

Commençons par prouver le théorème~\ref{thm: Crofton spherique} dans le cas où $\gamma(I)$ est une géodésique de longueur $\l < \pi$. La mesure $\dx \theta$ étant $SO_n(\R)$-invariante, on peut se ramener à $\gamma:t \mapsto \parentheses*{\cos(t),\sin(t),0,\dots,0}$ de $I=\squarebrackets{-\frac{\l}{2},\frac{\l}{2}}$ dans $\S^{n-1}$.

Soit $\theta \in \S^{n-1}$. Si $\theta \in \S^{n-1} \cap (\brackets{0} \times \R^{n-2}) \simeq \S^{n-3}$ alors $\gamma(I) \subset \theta^\perp$ et $\#\parentheses*{\gamma(I) \cap \theta^\perp}=+\infty$. Heureusement, cet ensemble est de mesure nulle pour $\dx \theta$ (c'est la mesure de $\brackets{0} \times \R^{n-2}$ pour la gaussienne standard de $\R^n$).

Sinon, $\R^2 \times \brackets{0}$ n'est pas inclus dans $\theta^\perp$. Donc l'intersection de ces deux espaces est une droite vectorielle. Donc
\begin{equation*}
\gamma(I) \cap \theta^\perp \subset (\R^2 \times \brackets{0}) \cap \theta^\perp \cap \S^{n-1}
\end{equation*}
est de cardinal au plus $2$, et en fait au plus $1$ car $\gamma(I)$ ne peut pas contenir deux points antipodaux. On a donc
\begin{equation*}
\esp{\#\parentheses*{\gamma(I)\cap \theta^\perp}} = \P\squarebrackets*{\gamma(I)\cap \theta^\perp \neq \emptyset} = \P\squarebrackets*{\strut \exists t \in I, \prsc{\gamma(t)}{\theta}=0} = \P\squarebrackets*{\theta \in \bigcup_{t \in I} \gamma(t)^\perp}.
\end{equation*}
Cette probabilité est la proportion de $\S^{n-1}$ occupée par $\bigcup_{t \in I} \gamma(t)^\perp$. Cette proportion est la même que la proportion du cercle $\S^{n-1}\cap \parentheses*{\R^2 \times \brackets{0}}$ qui rencontre $\bigcup_{t \in I} \gamma(t)^\perp$. On obtient donc
\begin{equation*}
\esp{\#\parentheses*{\gamma(I)\cap \theta^\perp}} = \P\squarebrackets*{\theta \in \bigcup_{t \in I} \gamma(t)^\perp} = \frac{2\l}{2\pi} = \frac{\l}{\pi}.
\end{equation*}


\subsection{Cas général}
\label{sub: cas generel sphere}

Passer du cas $I$ compact au cas $I$ quelconque se fait exactement comme dans le cas euclidien. Il s'agit donc de traiter le cas où $I=[0,\l]$ et $\gamma$ est un paramétrage par longueur d'arc.

Pour tout $k \geq 0$ et $i \in \brackets{1,\dots,2^k}$ on note $\tilde{S}_{k,i} = p\parentheses*{S_{k,i}}$ la géodésique de $\gamma\parentheses*{\frac{i-1}{2^k}\l}$ à $\gamma\parentheses*{\frac{i}{2^k}\l}$. On note $\tilde{C}_k = p(C_k) = \bigcup_{i=1}^{2^k} \tilde{S}_{k,i}$, qui est une approximation géodésique par morceaux de $\gamma(I)$. On peut alors montrer les équivalents des lemmes~\ref{lem: rectifiabilite}, \ref{lem: limite intersection} et~\ref{lem: genericite} dans ce cadre, avec des preuves similaires. Commentons rapidement les différences.

\textbf{Convergence des longueurs.} Notons $\tilde{\l}_{k,i}$ la longueur de $\tilde{S}_{k,i}$ et $\tilde{\l}_k$ celle de $\tilde{C}_k$. Pour tout $(k,i)$, $\l_{k,i} \leq \tilde{\l}_{k,i} \leq \frac{\l}{2^k}$, où $\frac{\l}{2^k}$ est la longueur de la courbe joignant $\gamma\parentheses*{\frac{i-1}{2^k}\l}$ à $\gamma\parentheses*{\frac{i}{2^k}\l}$ en suivant $\gamma$.

En sommant sur $i$ on obtient que: $\l_k \leq \tilde{\l}_k \leq \l$ pour tout $k \geq 0$. Le lemme~\ref{lem: rectifiabilite} et le théorème des gendarmes montrent alors que $\tilde{l}_k \xrightarrow[k \to +\infty]{}\l$ sans faire plus d'efforts.

\textbf{Condition de tangence.} On veut montrer que l'équivalent de la condition~\ref{hyp: tangence} du lemme~\ref{lem: limite intersection} est satisfaite presque surement. C'est-à-dire, on veut montrer que:
\begin{equation*}
\P \squarebrackets*{\theta^\perp \ \text{est tangent à} \ \gamma(I)} = \P \squarebrackets*{\exists t \in I \ \text{tel que} \ \prsc{\gamma(t)}{\theta}=0=\prsc{\gamma'(t)}{\theta}}=0.
\end{equation*}
Malheureusement, le lemme~\ref{lem: Sard} ne suffit pas à établir ce résultat. Il faut utiliser une version plus évoluée du théorème de Sard qui sort du cadre de ce cours.


\section{Racines de polynômes aléatoires}
\label{sec: racines de polynomes aleatoires}

On va maintenant appliquer la formule de Crofton sphérique (thm.~\ref{thm: Crofton spherique}) au calcul du nombre moyen de racines réelles d'un polynôme aléatoire.

L'ensemble des polynômes de $\R_d[X]$ (ou $\C_d[X]$) admettant une racine complexe multiple est décrit par une équation polynomiale en les coefficients (penser au discriminant quand $d=2$). C'est donc une hypersurface algébrique, qui sera de mesure nulle pour toute loi naturelle. Autrement dit, tout polynôme aléatoire raisonnable $P \in \R_d[X]$ (ou $\C_d[X]$), a presque surement $d$ racines complexes.

Qu'en est-il du nombre de racines réelles? Un polynôme générique de $\C_d[X]$ n'a pas de racine réelle. On se pose donc la question pour un polynôme aléatoire dans $\R_d[X]$.


\subsection{Polynômes de Kac}
\label{sub: polynomes de Kac}

\begin{dfn}[polynôme de Kac]
\label{def: Kac}
Un \emph{polynôme de Kac} de degré $d$ est un polynôme aléatoire $P \in \R_d[X]$ de la forme $P = \sum_{i=0}^d a_i X^i$, où les $\parentheses*{a_i}_{0 \leq i \leq d}$ sont des $\gauss{1}$ indépendantes.
\end{dfn}

\begin{thm}[Kac, 1943]
\label{thm: Kac}
Soit $P$ un polynôme de Kac de degré $d$, pour tout intervalle $I \subset \R$,
\begin{align*}
\esp{\#\parentheses*{P^{-1}(0) \cap I}} &= \int_I \rho_d(t) \dx t, & &\text{où} & &\rho_d: t \longmapsto \frac{1}{\pi} \sqrt{\frac{1}{(1-t^2)^2} - \frac{(d+1)t^{2d}}{(1-t^{2d+2})^2}}.
\end{align*}
\end{thm}

\begin{cor}
\label{cor: Kac}
$\esp{\#P^{-1}(0)} = \int_\R \rho_d(t) \dx t \sim \frac{2}{\pi}\ln(d)$.
\end{cor}

\begin{exo}
Prouver le corollaire.
\end{exo}

La fonction $\rho_d$ est strictement positive sur $\R \setminus \brackets{-1,1}$ et diverge en $\pm 1$. Elle donne la répartition en moyenne des racines de $P$ dans $\R$. On peut vérifier (exercice) qu'en tant que mesures de probabilités:
\begin{equation*}
\frac{\rho_d \dx t}{\int_\R \rho_d(t) \dx t} \xrightarrow[d \to +\infty]{\text{loi}} \frac{1}{2}\parentheses{\delta_{-1}+\delta_1}.
\end{equation*}
C'est-à-dire que les racines des polynômes de Kac se concentrent autour de $\pm 1$ lorsque $d \to +\infty$.

\begin{proof}[Démonstration du théorème~\ref{thm: Kac}]
La démonstration qu'on présente n'est pas démonstration originale de Kac~\cite{Kac1943}, mais une preuve alternative due à Edelman et Kostlan~\cite{EK1995}.

Soit $P = \sum_{i=1}^d a_i X^i \in \R_d[X] \setminus \brackets{0}$ déterministe, pour le moment. Notons $a = \parentheses{a_0,\dots,a_d} \in \R^{d+1}$. Soit $m:t \mapsto \parentheses{1,t,\dots,t^d}$ de $\R$ dans $\R^{d+1}$ la \emph{courbe des moments}. Pour tout $t \in \R$,
\begin{equation*}
P(t) = 0 \iff \sum_{i=1}^d a_i t^i=0 \iff \prsc{a}{m(t)}=0 \iff \prsc*{\frac{a}{\Norm{a}}}{\frac{m(t)}{\Norm{m(t)}}}=0 \iff \gamma(t) \in \theta^\perp,
\end{equation*}
où on a noté $\theta = \frac{a}{\Norm{a}}$ et $\gamma:t \mapsto \frac{m(t)}{\Norm{m(t)}}$.

Si maintenant $P$ est un polynôme de Kac, alors $a \sim \gauss{\Id}$ dans $\R^{d+1}$ et $\theta$ est uniforme dans $\S^d$. Par la formule de Crofton,
\begin{equation*}
\esp{\#\parentheses{P^{-1}(0) \cap I}} = \esp{\#\parentheses{\gamma^{-1}(\theta^\perp) \cap I}} = \esp{\#\parentheses{\gamma(I) \cap \theta^\perp}} = \frac{1}{\pi}\int_I \Norm{\gamma'(t)} \dx t.
\end{equation*}
Pour conclure il suffit de vérifier que $\Norm{\gamma'(t)}^2 = \frac{1}{(1-t^2)^2} - \frac{(d+1)t^{2d}}{(1-t^{2d+2})^2}$ pour tout $t \in \R$.
\end{proof}

\begin{exo}
Faire le calcul.
\end{exo}


\subsection{Polynômes de Kostlan}
\label{sub: polynomes de Kostlan}

\begin{dfn}[polynôme de Kostlan]
\label{def: Kostlan}
Un \emph{polynôme de Kostlan} de degré $d$ est un polynôme aléatoire $Q \in \R_d[X]$ de la forme $Q = \sum_{i=0}^d a_i \sqrt{\binom{d}{i}} X^i$, où les $\parentheses*{a_i}_{0 \leq i \leq d}$ sont des $\gauss{1}$ indépendantes.
\end{dfn}

\begin{thm}[Kostlan, 1993]
\label{thm: Kostlan}
Soit $Q \in \R_d[X]$ polynôme de Kostlan, pour tout intervalle $I \subset \R$,
\begin{equation*}
\esp{\#\parentheses*{Q^{-1}(0) \cap I}} = \sqrt{d} \int_I \frac{1}{(1+t^2)} \frac{\dx t}{\pi}.
\end{equation*}
En particulier $\esp{\#Q^{-1}(0)} = \sqrt{d}$.
\end{thm}

\begin{proof}
La preuve est la même que celle du théorème~\ref{thm: Kac}, en remplaçant $m$ par la courbe $\tilde{m}: t \mapsto \parentheses*{1,\dots,\sqrt{\binom{d}{i}}t^i, \dots,t^d}$. Il suffit de vérifier que $\forall t \in \R$, $\Norm{\tilde{\gamma}'(t)} = \frac{\sqrt{d}}{1+t^2}$, où $\tilde{\gamma} = \frac{\tilde{m}}{\Norm{\tilde{m}}}$.
\end{proof}

On a de nouveau une densité moyenne de racines donnée par $\tilde{\rho}_d= \sqrt{d}\rho$, où $\rho: t \mapsto \frac{1}{\pi(1+t^2)}$ est la densité de la loi de Cauchy. En particulier, la répartition en moyenne des racines ne dépend pas de~$d$.


\subsection{Pourquoi la loi de Kostlan?}
\label{sub: pourquoi Kostlan}

Une idée sous-jacente dans tout ce cours est que les mesures naturelles sur un espace sont les mesures invariantes sous l'action d'un groupe sympathique. De ce point de vue, on peut s'étonner du fait que la mesure de Kostlan sur $\R_d[X]$ donne un résultat plus sympathique que la mesure de Kac. En effet, Kac $\sim \gauss{\Id}$ est invariante sous $O_{d+1}(\R)$ alors que Kostlan $\sim \gauss{\Lambda_d}$ ne l'est pas, où
\begin{equation*}
\Lambda_d = \begin{pmatrix}
1 & 0 & \cdots & \cdots & 0 & \\
0 & \ddots & \ddots & & \vdots \\
\vdots & \ddots & \binom{d}{i} & \ddots & \vdots \\
\vdots & & \ddots & \ddots & 0\\
0 & \dots & \dots & 0 & 1
\end{pmatrix}.
\end{equation*}

Cependant, choisir une gaussienne centrée revient à choisir sa matrice de covariance $\Lambda$, ce qui revient au choix d'un produit scalaire. Ici, Kac $\sim \gauss{\Id}$ pour le produit scalaire tel que $(X^i)_{0 \leq i \leq d}$ est orthonormée, mais Kostlan $\sim \gauss{\Id}$ pour le produit scalaire rendant $\parentheses{\sqrt{\binom{d}{i}} X^i}_{0 \leq i \leq d}$ orthonormée. Sur $\R^n$ on avait un produit scalaire canonique. Sur $\R_d[X]$ on a plein de produits scalaires pertinents, par exemple les produits scalaires $L^2$ à poids. La question devient donc à savoir pourquoi le produit scalaire de Kostlan est plus pertinent que celui hérité de $\R^{d+1}$ en identifiant un polynôme au vecteur de ses coefficients.

Pour cela, remarquons que $\R_d[X] \simeq \R_d^\text{hom}[X,Y]$ l'espace des polynômes homogènes de degré $d$ en $2$ variables, via $\sum_{i=1}^d a_i X^i \mapsto \sum_{i=1}^d a_iX^iY^{d-i}$. Le produit de Kostlan correspond au produit scalaire sur $\R_d^\text{hom}[X,Y]$ qui rend $\parentheses{\sqrt{\binom{d}{i}} X^iY^{d-i}}_{0 \leq i \leq d}$ orthonormée. On peut vérifier qu'il est défini par:
\begin{equation}
\label{eq: Kostlan}
\prsc{P}{Q} =\frac{1}{4\pi^2 d!} \int_{(w,z) \in \C^2} P(w,z) \bar{Q(w,z)} e^{-\frac{\norm{w}^2+\norm{z}^2}{2}}\dx w \dx z.
\end{equation}
À un facteur près, c'est le produit $L^2$ à poids gaussien standard pour les fonctions sur $\C^2\simeq \R^4$.

Par ailleurs $O_2(\R) \acts \R^2$ naturellement, et donc $O_2(\R) \acts \R_d^\text{hom}[X,Y]$ par $\Omega \cdot P = P \circ \Omega^{-1}$. On voit sur la formule~\eqref{eq: Kostlan} que le produit scalaire de Kostlan est invariant sous cette action. Il en est donc de même de la loi de Kostlan, c'est-à-dire la $\gauss{\Id}$ sur $\R_d^\text{hom}[X,Y]$ pour ce produit scalaire. Ce n'est pas le cas de la loi de Kac, ce qui explique pourquoi la loi de Kostlan est plus naturelle.

Si on voit $P \in \R_d^\text{hom}[X,Y]$ comme une fonction sur $\R^2$, ses coefficients dépendent de la base orthonormée de $\R^2$ qu'on utilise pour les définir. En revanche, si $P$ suit la loi de Kostlan, la loi de ses coefficients dans $\R^{d+1}$ ne dépend pas de la base de $\R^2$ utilisée pour les définir.

Pour conclure, remarquons que le produit scalaire de Kostlan sur $\R_d^\text{hom}[X,Y]$ n'est pas l'unique produit scalaire invariant sous l'action de $O_2(\R)$, même à constante près. Il existe une famille à paramètres de tels produits scalaires. En revanche, la formule~\eqref{eq: Kostlan} définit l'unique produit hermitien sur $\C_d^\text{hom}[X,Y]$ invariant sous l'action de $U_2(\C)$ par précomposition, à une constante près.

\bibliographystyle{amsalpha}
\bibliography{/home/thomas/Documents/Biblio/main}

\end{document}