\documentclass{article}
\usepackage{a4}
\usepackage[latin1]{inputenc}
\usepackage[T1]{fontenc}
\usepackage{amscd}
\usepackage{amsmath}
\usepackage{amsfonts}
\usepackage{amssymb}
\usepackage{amsthm}
\usepackage{comment}
\usepackage{stmaryrd}
\usepackage{graphicx}
\usepackage{french}

  \paperheight=29.7cm
  \paperwidth=21cm

  \setlength\textwidth{17cm}
  \hoffset=-1in
  \setlength\marginparsep{0cm}
  \setlength\marginparwidth{0cm}
  \setlength\marginparpush{0cm}
  \setlength\evensidemargin{2cm}
  \setlength\oddsidemargin{2cm}

  \setlength\topmargin{3cm}
  \setlength\headheight{0cm}
  \setlength\headsep{0cm}
  \voffset=-1in
  \setlength\textheight{23cm}





\newcounter{smlistec}
\newenvironment{smliste}
   {\setcounter{smlistec}{0}
    \begin{list}{}
       {\setlength{\parsep}{0cm}%
        \setlength{\topsep}{0cm}\setlength{\leftmargin}{0.7cm}%
        \setlength{\itemsep}{0cm}\setlength{\parskip}{\parsep}%
        \setlength{\labelwidth}{0.5cm}\setlength{\labelsep}{0cm}%
        \renewcommand{\makelabel}
        {\addtocounter{smlistec}{1}(\alph{smlistec}) \hfil}}}
   {\end{list}}





\setlength{\parindent}{5mm}
\setlength{\parskip}{1.5mm}

\newtheorem*{thm}{Théorème}
\newtheorem*{prop}{Proposition}
\newtheorem*{lem}{Lemme}
\newtheorem*{cor}{Corollaire}
\newtheorem*{defn}{Définition}
\newtheorem*{props}{Propri\'et\'es}

\theoremstyle{definition}
\newtheorem*{exemple}{Exemple}
\newtheorem*{rmq}{Remarque}


\renewcommand{\proofname}{Démonstration}


\DeclareMathOperator{\Aut}{Aut}
\DeclareMathOperator{\sgn}{sgn}
\DeclareMathOperator{\Id}{Id}
\DeclareMathOperator{\tr}{tr}
\DeclareMathOperator{\Ad}{Ad}
\DeclareMathOperator{\ad}{ad}
\DeclareMathOperator{\Int}{Int}
\DeclareMathOperator{\End}{End}
\DeclareMathOperator{\diag}{diag}
\DeclareMathOperator{\Ker}{Ker}
\DeclareMathOperator{\Img}{Im}
\DeclareMathOperator{\Ind}{Ind}
\DeclareMathOperator{\Sym}{Sym}
\DeclareMathOperator{\Char}{Char}


\renewcommand{\d}{\displaystyle}
\renewcommand{\geq}{\geqslant}
\renewcommand{\leq}{\leqslant}
\renewcommand{\H}{\mathbb{H}}
\newcommand{\K}{\mathbb{K}}
\newcommand{\N}{\mathbb{N}}
\newcommand{\Z}{\mathbb{Z}}
\newcommand{\R}{\mathbb{R}}
\newcommand{\Q}{\mathbb{Q}}
\newcommand{\C}{\mathbb{C}}
\newcommand{\g}{\mathfrak{g}}
\renewcommand{\sl}{\mathfrak{sl}}
\newcommand{\su}{\mathfrak{su}}
\newcommand{\gl}{\mathfrak{gl}}
\renewcommand{\b}{\mathfrak{b}}
\newcommand{\h}{\mathfrak{h}}
\newcommand{\n}{\mathfrak{n}}
\renewcommand{\phi}{\varphi}




\newcommand\sfrac[2]
{\leavevmode\kern.1em
  \raise.4ex\hbox{\(#1\)}\kern-.1em
  \diagup\kern-.15em\lower.75ex\hbox{\(#2\)}}

\newcommand\fonction[4]
{\left\{\begin{array}{rcl}#1&\longrightarrow&#2\\
      #3&\longmapsto&#4\end{array}\right.}

\newcommand\matrdeux[4]
{\left(\begin{array}{cc}#1&#2\\#3&#4\end{array}\right)}









\title{Produit de fusion et th\'eorie des singularit\'es}
\author{S\'ebastien Gouëzel et Nicolas George\\Sujet propos\'e par
  Olivier Schiffmann}
\date{2 juin 1999}




















\begin{document}
\maketitle


\begin{abstract}
Dans ce m\'emoire, on s'int\'eresse aux repr\'esentations du groupe
$SU(N)$ qui, munies de la somme directe et du produit tensoriel,
forment un anneau. On tronque ensuite certaines repr\'esentations, de
poids trop important, pour construire l'alg\`ebre de Verlinde
$R(SU(N)_k)$. Enfin, on s'int\'eresse \`a un r\'esultat sur ces
alg\`ebres, la dualit\'e niveau-rang, i.e. $SU(N+1)_k\simeq
SU(k+1)_N$. L'\'etude de ce th\'eor\`eme passe par l'\'etude des
singularit\'es d'une fonction complexe et l'introduction d'un nouvel
outil, la monodromie.
\end{abstract}

\tableofcontents

\section{Repr\'esentations de dimension finie de $SU(N)$ et $SL(N,\C)$}
\subsection{Repr\'esentations d'un groupe}
\begin{defn}
Soit $G$ un groupe. On appelle repr\'esentation de $G$ une paire
$(V,\rho)$ o\`u $V$ est un $\C$-espace vectoriel et $\rho:
G\rightarrow GL(V)$ un morphisme de groupes.
\end{defn}
Cela revient \`a se donner une action lin\'eaire de $G$ sur $V$, ou
encore \`a ``voir'' $G$ comme un sous-groupe de $GL(n,\C)$ (modulo
l'injectivit\'e de $\rho$), d'o\`u le
terme repr\'esentation.

On dira bien s\^ur que deux repr\'esentations $(\rho,V)$ et
$(\rho',V')$ d'un groupe $G$ sont isomorphes s'il existe un
isomorphisme $\psi$ entre $V$ et $V'$ tel que $\forall g\in G$,
$\psi\circ \rho(g)=\rho'(g)\circ \psi$.
Comme d'habitude, on consid\'erera les repr\'esentations \`a
isomorphisme pr\`es.

Par abus de langage, on parlera souvent de ``la repr\'esentation $V$''
au lieu de la repr\'esentation $(\rho,V)$, sauf lorsque cela pr\^ete
\`a confusion.


Etant donn\'ees $(\rho,V)$ et $(\rho',V')$ deux repr\'esentations, il
existe deux mani\`eres naturelles de construire de nouvelles
repr\'esentations: la somme directe et le produit tensoriel.
\\
On appelle somme directe des repr\'esentations $V$ et $V'$ la repr\'esentation
$\pi: G\rightarrow GL(V\oplus V')$ d\'efinie par
$\pi(g).(x,y)=(\rho(g).x,\rho'(g).y)$.
\\
On appelle produit tensoriel des repr\'esentations $V$ et $V'$
la repr\'esentation
$\tau:G\rightarrow GL(V\otimes V')$ d\'efinie par $\tau(g).(x\otimes
y)=(\rho(g).x)\otimes (\rho'(g).y)$.

A partir de ces constructions, on a envie de construire un anneau,
l'anneau des repr\'esentations de $G$, dont la somme serait donn\'ee
par la somme directe et le produit par le produit tensoriel. Mais
l'op\'eration somme ne serait pas inversible! Il faut donc ruser un
peu: on va ajouter un ``moins'' artificiellement en consid\'erant un
$\Z$-module puis en le quotientant judicieusement.

Soit $A$ le $\Z$-module libre de base les classes d'isomorphisme des
repr\'esentations de $G$ de dimension finie (on notera $[V]$ la classe de la
repr\'esentation $V$).
Le produit tensoriel munit $A$ d'une structure
d'anneau commutatif.
Soit $J$ l'id\'eal engendr\'e par les
\'el\'ements $[W]-[V]-[V']$ pour toute suite exacte $0\rightarrow
V\rightarrow W\rightarrow V'\rightarrow 0$.
\begin{defn}
On appelle anneau des repr\'esentations de dimension finie de $G$,
not\'e $R(G)$, l'anneau quotient $A/J$.
\end{defn}
\begin{rmq}
$J$ est en fait juste le sous-module engendr\'e par les \'el\'ements
$[W]-[V]-[V']$ pour toute suite exacte $0\rightarrow
V\rightarrow W\rightarrow V'\rightarrow 0$, puisque ce sous-module est
stable par le produit tensoriel.
\end{rmq}
\begin{rmq}
Quand on quotiente par $J$, cela annule en particulier les
\'el\'ements du type $[V\oplus W]-[V]-[W]$; ainsi, on peut dire que la
somme dans $R(G)$ s'apparente \`a la somme directe. Elle est un peu
plus g\'en\'erale puisque, pour certains groupes compliqu\'es,
 les suites exactes du type pr\'ec\'edent ne
se scindent pas toujours (en fait, ce ne sera pas le cas dans la suite).
\end{rmq}



\begin{defn}
On appelle repr\'esentation irr\'eductible de $G$ une repr\'esentation
$V$ de $G$ qui n'admet pas de sous-espace strict non trivial
stable sous l'action de $G$.
\end{defn}

Pour certains groupes, toute repr\'esentation de dimension finie
se d\'ecompose de mani\`ere unique comme somme de repr\'esentations
irr\'eductibles: c'est le cas par exemple des groupes finis. Dans ce
cas, $R(G)$ est le $\Z$-module libre de base les repr\'esentations
irr\'eductibles de dimension finie de $G$.


\subsection{Groupes et alg\`ebres de Lie}
Soit $k=\R,\C$ ou $\H$ un corps.
On appelle groupe de Lie sur le corps $k$ un groupe
topologique muni d'une structure de vari\'et\'e analytique, tel que la
multiplication $G\times G\rightarrow G$ et l'inversion $G\rightarrow
G$ soient analytiques: le groupe,
comme espace topologique, est
lisse, i.e. il ressemble localement \`a $k^n$, et la multiplication
\`a gauche par un \'el\'ement du groupe comme l'inversion sont des
applications continues et m\^eme analytiques du groupe dans
lui-m\^eme. On notera $\Phi_g$ la multiplication \`a gauche par $g$
dans $G$.

Soit $G$ un groupe de Lie, et soit $\g=T_e G$ son espace tangent en
l'identit\'e.
On peut identifier les \'el\'ements de $\g$ et les champs de
vecteurs $u$ sur $G$ dits invariants \`a gauche,
i.e. tels que $T_h \Phi_g.u(h)=u(gh)$
(la multiplication \`a gauche par $g$ transforme $u(h)$ en $u(gh)$).
Ces champs de vecteurs, vus comme des d\'erivations, sont
naturellement munis d'un crochet de Lie par $[u,v]=u\circ v-v\circ u$,
ce qui induit un crochet de Lie sur $\g$.

\begin{defn}
On appelle alg\`ebre de Lie un espace vectoriel muni d'une op\'eration
bilin\'eaire $[\ ,\ ]$ appel\'ee crochet de Lie et v\'erifiant $[X,X]=0$ et
$[X,[Y,Z]]+[Y,[Z,X]]+[Z,[X,Y]]=0$. La premi\`ere \'egalit\'e
\'equivaut \`a l'antisym\'etrie $[X,Y]=-[Y,X]$; la seconde est
appel\'ee identit\'e de Jacobi.
\end{defn}
\begin{prop}
$\g=T_e G$ est naturellement munie d'une structure d'alg\`ebre de
Lie. On dit que c'est l'alg\`ebre de Lie du groupe $G$.
\end{prop}

Le crochet de Lie traduit des propri\'et\'es du groupe $G$.
Par exemple, si $G$ est commutatif, le crochet sur $\g$
est l'application nulle. On dira alors que l'alg\`ebre de Lie est
commutative.
Remarquons que tout espace vectoriel peut \^etre muni d'une structure
d'alg\`ebre de Lie en ajoutant le crochet trivial, uniform\'ement nul.
{\setlength{\parindent}{0mm}

{\bf Exemples.}
\vspace{-2mm}
\begin{enumerate}
\item
$GL(n,\C)$ est un groupe de Lie; sa structure de vari\'et\'e
provient de son plongement naturel comme ouvert de $\C^{n^2}$ l'espace des
matrices $n\times n$. Son alg\`ebre de Lie est constitu\'ee de toutes
les matrices $n\times n$ puisque, si $A$ est une matrice,
$\phi(t)=\Id+tA$ est un chemin dans $GL(n,\C)$ pour $t$ petit, qui
donne en $t=0$ le
vecteur tangent $A$. On notera cette alg\`ebre de Lie $\gl(n,\C)$.
Le crochet de Lie est alors $[A,B]=AB-BA$ (au sens de la
multiplication des matrices).
\item
$SL(n,\C)$ l'ensemble des matrices carr\'ees de taille $n$ et
de d\'eterminant 1 est aussi un groupe de Lie
(c'est une vari\'et\'e car
$SL(n,\C)=\det^{-1}(1)$, et l'application $\det$ est submersive).
Son alg\`ebre de Lie est l'ensemble des matrices de
trace nulle, not\'e $\sl(n,\C)$. Le crochet de Lie est $[A,B]=AB-BA$.
\item
Enfin, soit $SU(n)$ l'ensemble des matrices carr\'ees complexes $X$ de taille $n$
unitaires, i.e. v\'erifiant $\det X=1$ et
$XX^*=\Id$. C'est bien une vari\'et\'e, mais r\'eelle cette fois
puisque d\'efinie par des \'equations alg\'ebriques r\'eelles. Son
alg\`ebre de Lie -- un $\R$-espace vectoriel -- est constitu\'ee des
matrices antihermitiennes de trace nulle, i.e. v\'erifiant $A+A^*=0$
et $\tr A=0$; on la notera $\su(n)$.
\end{enumerate}
}

Soit $G$ un groupe de Lie. Pour $g\in G$, on note $\Int g$ la
conjugaison par $g$. C'est une application analytique qui envoie
l'\'el\'ement neutre de $G$
sur lui-m\^eme, sa d\'eriv\'ee not\'ee $\Ad g$ est donc une
application lin\'eaire de $\g$ dans lui-m\^eme. Le morphisme de
groupes
$\left\{\begin{array}{ccc}
G&\rightarrow&GL(\g)\\
g&\mapsto &\Ad g
\end{array}\right.$
est une repr\'esentation de $G$ dans le $k$-espace vectoriel $\g$,
appel\'ee repr\'esentation adjointe de $G$.

En d\'erivant encore une fois, on obtient un morphisme $\ad:
\g\mapsto \gl(\g)$: c'est la repr\'esentation adjointe de $\g$.
On a de plus $\ad(X).Y=[X,Y]$.


\subsection{Repr\'esentations des groupes de Lie}
Les groupes de Lie ont une structure de vari\'et\'e analytique, on
s'int\'eressera ici uniquement aux repr\'esentations en rapport
avec cette structure: ce sont les repr\'esentations $(\rho,V)$ dites
analytiques (ou holomorphes dans le cas complexe),
 c'est-\`a-dire telles que le morphisme $\rho:
G\rightarrow GL(V)$ soit analytique.
On utilisera aussi les repr\'esentations des alg\`ebres de Lie.

\begin{defn}
Soient $\g$ et $\h$ deux alg\`ebres de Lie, et $\rho: \g\rightarrow
\h$. On dit que $\rho$ est un morphisme d'alg\`ebres de Lie si $\rho$
est lin\'eaire et respecte le crochet de Lie, i.e. $\forall X,Y\in
\g,\ \rho([X,Y])=[\rho(X),\rho(Y)]$.
\end{defn}
\begin{defn}
Si $\g$ est une alg\`ebre de Lie sur un corps $k$, et $V$ un
$k$-espace vectoriel, on appelle repr\'esentation de $\g$ un morphisme
d'alg\`ebres de Lie
$\rho: \g\rightarrow \gl(V)(=\End(V))$ .
\end{defn}

La repr\'esentation adjointe $\ad$ de $\g$, d\'efinie au paragraphe
pr\'ec\'edent, est un exemple de repr\'esentation d'une alg\`ebre de
Lie.

Pour \'etudier les repr\'esentations des groupes de Lie, on peut remarquer
qu'elles sont li\'ees aux
repr\'esentations de leur alg\`ebre de Lie:
si $\rho: G\rightarrow GL(V)$ est une repr\'esentation de $G$, alors
$T_e \rho:\g \rightarrow \gl(V)$ est une repr\'esentation de
l'alg\`ebre de Lie de $G$.
R\'eciproquement, il est parfois possible de ``remonter'' d'une
repr\'esentation de l'alg\`ebre \`a une repr\'esentation du
groupe, en int\'egrant. Plus pr\'ecis\'ement,
\begin{thm}
Soit $G$ un groupe de Lie connexe et simplement connexe. Alors
l'application $(\rho,V)\mapsto (T_e\rho,V)$ d\'efinit une
correspondance bijective entre les repr\'esentations de dimension
finie de $G$ et celles de $\g$.
\end{thm}
On montre que $SL(n,\C)$ comme $SU(N)$ sont connexes et simplement
connexes. Ce th\'eor\`eme s'applique donc et ram\`ene l'\'etude des
repr\'esentations de ces groupes \`a celle des repr\'esentations de leurs
alg\`ebres de Lie (qui sont plus simples car on a affaire \`a un
espace vectoriel).

On remarque aussi que $\sl(n,\C)=\su(n)\oplus i\,\su(n)$.
A une repr\'esentation (r\'eelle) de $\su(n)$ on peut associer une
repr\'esentation (complexe) de $\sl(n,\C)$ en complexifiant,
et r\'eciproquement
une repr\'esentation de $\sl(n,\C)$ est la complexifi\'ee d'une
repr\'esentation de $\su(n)$ (unique \`a isomorphisme pr\`es).
 On obtient ainsi une bijection entre les repr\'esentations de
 dimension finie
de ces deux alg\`ebres de Lie.

Finalement, on a ramen\'e l'\'etude des repr\'esentations de $SU(N)$
de dimension finie \`a l'\'etude de celles de $\sl(n,\C)$.


\subsection{Repr\'esentations de $\sl(n,\C)$}
Dans toute cette section, on notera $\g=\sl(n,\C)$ l'ensemble des
matrices carr\'ees complexes de taille $n$ et de trace nulle.
On va montrer que les repr\'esentations irr\'eductibles de dimension
finie de $\g$ sont
naturellement index\'ees par $\N^{n-1}$, en expliquant un peu ce qui se passe
mais sans faire aucune d\'emonstration qui rel\`event de la th\'eorie
des alg\`ebres de Lie semi-simples complexes (voir par exemple \cite{Serre}).

\subsubsection{D\'efinition des racines}
On pose $\h\subset \g$ l'ensemble des matrices diagonales de trace
nulle: c'est la sous-alg\`ebre de Cartan.
On note aussi $\n_+$ (respectivement $\n_-$) l'ensemble des matrices
triangulaires sup\'erieures strictes (respectivement triangulaires
inf\'erieures strictes), de telle sorte que
$\g=\h\oplus \n_+\oplus \n_-$. On pose enfin $\b=\h\oplus \n_+$ la
sous-alg\`ebre de Borel positive de $\g$.

Tout \'el\'ement de $\h$ op\`ere sur $\g$ par action adjointe, de
mani\`ere diagonalisable:
$H.X=\ad(H)X$ (rappelons que $\ad(H)$ est
d\'efini par $\ad(H)X=[H,X]=HX-XH$). Comme $\h$ est commutatif, tous
les endomorphismes $\ad(H)$ sont
simultan\'ement diagonalisables;
une base de vecteurs propres simultan\'es est donn\'ee par les
matrices \'el\'ementaires
$E^{ij}$ (avec  un 1 en position $(i,j)$ et des 0 ailleurs).
Si $H=\diag(h_1,\ldots,h_n)\in \h$ (avec
$\sum h_i=0$), on a $[H,E^{ij}]=(h_i-h_j)E^{ij}$, et $[H,X]=0$ d\`es
que $X$ est diagonale.
Ainsi,
tous les $\ad(H)$ sont diagonaux dans la base constitu\'ee des
$E^{ij}$ pour $i\not=j$ et des $E^{ii}-E^{i+1,i+1}$.

Appelons alors racines les \'el\'ements $\alpha$ de $\h^*$ (le dual de
$\h$) tels que
$\g^{\alpha} =\{X\in \g\ |\ \forall H\in \h,\
\ad(H)X=\alpha(H)X\}$ soit non trivial: ce sont les
valeurs propres de la repr\'esentation adjointe de $\h$ .
Notons $\epsilon_i$ la forme lin\'eaire sur $\g$ qui \`a une matrice
associe son $i^{\text{\`eme}}$ coefficient diagonal, de telle sorte
que $\h^*=\left(\bigoplus \C \epsilon_i\right) /\C(\epsilon_1+\ldots
+\epsilon_n)$. Le calcul
pr\'ec\'edent montre alors que les racines sont exactement les formes
lin\'eaires $\alpha_{ij}=\epsilon_i-\epsilon_j$, avec
$\g^{\alpha_{ij}}= \C E^{ij}$. En particulier, on a
$\d{\g=\h\oplus \bigoplus_{i\not=j} \g^{\alpha_{ij}}}$.


On note $R$ l'ensemble des racines, $R_+$ l'ensemble des racines
$\alpha_{ij}$ avec $i<j$ (les racines positives);
on pose, pour $1\leq i\leq n-1$,
$\alpha_i=\alpha_{i,i+1}=\epsilon_i-\epsilon_{i+1}$: ce sont les {\it racines
  fondamentales}. Ainsi, toute racine positive
$\epsilon_i-\epsilon_j$ s'exprime comme somme de racines fondamentales:
$\d{\epsilon_i-\epsilon_j=\sum_{k=i}^{j-1} \alpha_k}$. Pour
$\alpha=\epsilon_i-\epsilon_j$, on notera aussi $X_{\alpha}=E^{ij}$. Si
$\alpha$ est une racine positive, $X_{\alpha}\in \n_+$.

\subsubsection{Poids des repr\'esentations}
Soit maintenant $V$ une repr\'esentation de $\g$. Pour $\chi\in \h^*$,
on note $V_{\chi}=\{v\in V\ |\ \forall H\in \h,\ H.v=\chi(H)v\}$: c'est
l'ensemble des vecteurs propres de $\h$ de poids (=valeur propre) $\chi$.
Des calculs \'el\'ementaires montrent que, si $v\in V_{\chi}$ et
$\alpha$ est une racine,
$X_{\alpha}.v \in V_{\chi+\alpha}$. De plus, on montre que, si $V$ est
de dimension finie, $V=\bigoplus_{\chi\in
  \h^*} V_{\chi}$.
On appelle {\it poids} de la repr\'esentation tout $\chi$ tels que
$V_{\chi}$ soit non nul. Si $V$ est de dimension finie, l'entier $\dim
V_{\chi}$ est appel\'e multiplicit\'e de $\chi$.

Pour $v\in V$, il y a \'equivalence entre:
\begin{smliste}
\item $v$ est un vecteur propre pour la sous-alg\`ebre de Borel $\b=\h\oplus
  \n_+$
\item $v$ est un vecteur propre pour $\h$ et $X_\alpha.v=0\ \forall \alpha\in
  R_+$
\end{smliste}
Un tel \'el\'ement $v$ non nul est appel\'e \'el\'ement primitif.

Pour $\chi\in \h^*$, on appelle repr\'esentation de plus haut poids
$\chi$ toute
repr\'esentation de $\g$ engendr\'ee par un \'el\'ement primitif de
poids $\chi$. On montre qu'une repr\'esentation de plus haut poids
$\chi$ est irr\'eductible si et seulement si elle contient un unique
\'el\'ement primitif. Inversement, pour tout $\chi$ il existe une
unique repr\'esentation irr\'eductible de poids dominant $\chi$,
construite de la mani\`ere suivante: on
note $\C v_{\chi}$ la repr\'esentation de $\b$ de dimension 1
d\'efinie par $h.v_{\chi}=\chi(h)v_{\chi}$ si $h\in \h$,
$b.v_{\chi}=0$ si $b\in \n_+$, et on pose
$M_{\chi}=\Ind_{\b}^{\g}\C v_{\chi}$ (le \textit{module de Verma}). On montre
alors que $M_{\chi}$ admet un unique sous-module propre maximal $Z_{\chi}$, et
que $V_{\chi}=M_{\chi}/Z_{\chi}$ est irr\'eductible de poids dominant
$\chi$.

\subsubsection{Cas de la dimension finie}
Dans le cas de la dimension finie, tout se simplifie: une
repr\'esentation contient toujours un \'el\'ement primitif, et
une repr\'esentation est irr\'eductible si et seulement si elle
contient un unique \'el\'ement primitif. Ainsi, pour avoir toutes les
repr\'esentations irr\'eductibles de dimension finie, il suffit
de d\'eterminer les
poids dominants correspondants.






Soit $\chi=u_1 \epsilon_1+\ldots+u_n \epsilon_n \in \h^*$ (les $u_i$
\'etant d\'etermin\'es \`a une constante pr\`es). Alors on montre que
 $\chi$ est le
poids dominant d'une repr\'esentation
irr\'eductible de dimension finie (i.e. $V_{\chi}$ est de dimension finie)
si et seulement si $\forall
i<j,\ u_i-u_j\in \N$. Pour $i=1,\ldots,n-1$, notons
$\Lambda_i=\epsilon_1+\ldots+\epsilon_i\in
\h^*$: ce sont les $n-1$ \textit{poids fondamentaux}. La condition
pr\'ec\'edente s'\'ecrit: il existe $m_1,\ldots,m_{n-1} \in \N$ tels
que $\chi=\sum m_i \Lambda_i$. Ainsi,
\begin{thm}
Toute repr\'esentation irr\'eductible de dimension finie de $\g$ est
isomorphe \`a un $V_{\chi}$ pour $\chi\in P_n^+=\{\sum m_i\Lambda_i\ |\
\forall i,\ m_i\in \N\}$.
\end{thm}
Les repr\'esentations
irr\'eductibles de dimension finie
sont donc naturellement en bijection avec $\N^{n-1}$, cette bijection
s'obtenant en \'ecrivant le poids dominant de la repr\'esentation
comme combinaison des poids fondamentaux $\Lambda_i$.


Enfin, la connaissance des repr\'esentations irr\'eductibles de
dimension finie donne
toutes les repr\'esentations de dimension finie de $\g$, \`a cause du
th\'eor\`eme suivant:
\begin{thm}
Toute repr\'esentation de dimension finie de $\g$ se d\'ecompose comme
somme de repr\'esentations irr\'eductibles $V=\bigoplus
V_{\chi}^{m_{\chi}}$. Les entiers $m_{\chi}$ sont uniquement
  d\'etermin\'es.
\end{thm}



\subsection{L'anneau des repr\'esentations de $SU(N)$}
A partir de l'\'etude des repr\'entations de $\sl(N,\C)$ de la section
pr\'ec\'edente, on d\'eduit des informations sur les
repr\'esentations de $SU(N)$, puisque les repr\'esentations de
dimension finie de ce
groupe de Lie r\'eel et de cette alg\`ebre de Lie complexe sont
naturellement en correspondance.

Tout d'abord, les repr\'esentations irr\'eductibles de dimension
finie de $SU(N)$ sont caract\'eris\'ees par leur poids dominant,
qui s'\'ecrit de mani\`ere unique sous la forme
$\d{\Lambda=\sum_{i=1}^{N-1} m_i
\Lambda_i}$, o\`u les $\Lambda_i$ sont les poids fondamentaux, et $m_i\in \N$.
Dans l'anneau des repr\'esentations de $SU(N)$, on notera $[\Lambda]$
la classe des repr\'esentations irr\'eductibles de poids dominant
$\Lambda$.

Ensuite, une repr\'esentation de dimension finie de $SU(N)$ se
d\'ecompose comme somme directes de repr\'esentations
irr\'eductibles.
Ainsi, l'anneau des repr\'esentations de $SU(N)$ peut se voir
comme le $\Z$-module libre de base les $[\Lambda]$.

On voudrait aussi comprendre comment se passe la multiplication
dans cet anneau, i.e. comment le produit tensoriel de deux
repr\'esentations se d\'ecompose comme somme de repr\'esentations
irr\'eductibles. Pour cela, on va expliciter plus pr\'ecis\'ement
ce qui se passe: on va construire les repr\'esentations
irr\'eductibles de dimension finie de $SU(N)$, ou plut\^ot de $SL(N,\C)$,
ce qui revient au m\^eme comme on l'a vu plus haut.











\section{Construction des repr\'esentations de $SL(N,\C)$}
Dans cette section, on va construire les repr\'esentations
irr\'eductibles de $SL(N,\C)$ de dimension finie, en exhibant pour
chaque poids une repr\'esentation dont c'est le poids dominant.
Cette construction se fera par l'interm\'ediaire d'un outil
combinatoire classique, les tableaux de Young; on d\'eduira alors
des propri\'et\'es des repr\'esentations de $SL(N,\C)$ \`a partir
de la combinatoire des tableaux de Young. Pour plus de d\'etails, on
pourra se r\'ef\'erer \`a \cite{Fulton}.

Dans toute la suite, $E$ sera un $\C$-espace vectoriel de dimension
finie.

\subsection{Les repr\'esentations de $SL(E)$}
On a vu dans la section pr\'ec\'edente des r\'esultats sur les
repr\'esentations de l'alg\`ebre de Lie $\sl(E)$, qu'on peut traduire
en termes de repr\'esentations du groupe $SL(E)$.

Soit $V$ une repr\'esentation de $SL(E)$.
On note $H$ le sous-groupe de $SL(E)$ constitu\'e des matrices
diagonales. Pour $\chi=(u_1,\ldots,u_m)$, on dit que $v\in
V$ a pour poids $\chi$ si $\forall x=\diag(x_1,\ldots,x_m)\in H$,
$x.v=x_1^{u_1}\ldots x_m^{u_m} v$ (puisque $x_1\ldots
x_m=1$, les coefficients $u_i$ sont d\'efinis \`a une constante pr\`es); on note $V_{\chi}$
l'ensemble des vecteurs de poids $\chi$, et on d\'eduit du
r\'esultat correspondant sur les repr\'esentations de $\sl(E)$ que
$V=\bigoplus V_{\chi}$.

Soit $B\subset SL(E)$ le sous-groupe de Borel constitu\'e des matrices
triangulaires sup\'erieures. Un vecteur $v\in V$ est dit primitif
 si $B.v=\C^* v$, et son poids est appel\'e poids dominant de
la repr\'esentation. Une repr\'esentation est irr\'eductible si
et seulement si elle a un unique poids dominant, et deux
repr\'esentations irr\'eductibles sont isomorphes si et seulement si
elles ont le m\^eme poids dominant.

Les poids dominants des repr\'esentations irr\'eductibles sont les
$(u_1,\ldots,u_m)$ avec $u_1\geq u_2\ldots\geq
u_m$. Il suffit donc de construire des repr\'esentations ayant ces
poids pour \^etre s\^ur d'avoir construit toutes les repr\'esentations
irr\'eductibles de dimension finies de $SL(E)$.


\subsection{Le module de Schur $E^{\lambda}$}
\subsubsection{Tableaux de Young}
Etant donn\'e $\lambda=(\lambda_1,\ldots,\lambda_n)$ un $n$-uplet
d'entiers positifs ou nuls d\'ecroissants,
on appelle forme $\lambda$ un tableau
\`a $n$ lignes dont la $i^{\text{\`eme}}$ ligne compte $\lambda_i$
cases.

Un diagramme de Young de forme $\lambda$ est un remplissage de ce
tableau vide par des \'el\'ements d'un ensemble a priori
quelconque. On parlera d'un tableau de Young quand ces
\'el\'ements sont des entiers, et que le remplissage est croissant
au sens large suivant chaque ligne et croissant au sens strict
suivant chaque colonne.



\subsubsection{Construction du module $E^{\lambda}$}
Soit $\lambda=(\lambda_1\geq \ldots\geq \lambda_n)\in\N^n$. On note $E^{\times \lambda}=E^{\sum
\lambda_i}$, et on verra un \'el\'ement de $E^{\times \lambda}$
comme un remplissage de la forme $\lambda$.

On consid\`ere les fonctions $\phi:E^{\times \lambda}\rightarrow F$
telles que:
\begin{smliste}
\item $\phi$ est multilin\'eaire.
\item $\phi$ est altern\'ee suivant chaque colonne: si $v'$ est obtenu
  \`a partir de $v$ en \'echangeant deux entr\'ees d'une m\^eme
  colonne, $\phi(v')=-\phi(v)$.
\item Si on choisit deux colonnes $i<j$, et $k$ boîtes dans la
colonne $j$, alors $\forall v\in E^{\times \lambda},\ \phi(v)=\sum\phi(w)$
pour $w$ obtenu en \'echangeant $k$ boîtes de la colonne $i$ avec
les $k$ boîtes choisies dans la colonne $j$, tout en respectant
l'ordre.
\end{smliste}

On voudrait construire un $\C$-espace vectoriel $E^{\lambda}$ qui
soit universel pour ces applications, i.e. tel qu'il existe
$p:E^{\times \lambda}\rightarrow E^{\lambda}$ telle que pour toute
application $\phi$ du type pr\'ec\'edent il existe $\tilde{\phi}:E^{\lambda}\rightarrow F$
avec $\phi=\tilde{\phi}\circ p$. Un tel module serait
n\'ecessairement unique \`a isomorphisme pr\`es: c'est vrai pour
tous les probl\`emes universels.

On construit $E^{\lambda}$ comme suit: soit $(e_1,\ldots,e_m)$ une
base de $E$. Pour un remplissage $T$ de la forme $\lambda$ avec des
nombres de 1 \`a $m$ (r\'ep\'etitions permises), on remplace dans
chaque case $i$ par $e_i$, ce qui donne un \'el\'ement $e_T$ de $E^{\times
\lambda}$.
On appelle alors $F$ le $\C$-espace vectoriel de base les $e_T$,
et $Q$ son sous-espace vectoriel engendr\'e par les \'el\'ements
de la forme:
\begin{smliste}
\item $e_T$ si $T$ a deux entr\'ees \'egales dans une colonne.
\item $e_T+e_{T'}$ si $T'$ est obtenu \`a partir de $T$ en
\'echangeant deux entr\'ees dans une colonne.
\item $e_T-\sum e_S$, o\`u $S$ est obtenu \`a partir de $T$ comme
dans la troisi\`eme condition sur $\phi$.
\end{smliste}
$E^{\lambda}=F/Q$ est alors solution du probl\`eme universel.
\vspace{3mm}
\\
{\bf Exemples.}
\vspace{-2mm}
\begin{enumerate}
\item
Pour $\lambda=(n)$ le tableau avec une seule ligne de $n$ cases, la
propri\'et\'e $(b)$ n'impose rien, et on quotiente juste
par les $e_T-e_S$ o\`u $S$ est obtenu en \'echangeant deux entr\'ees
de $T$. $E^{(n)}$ est donc le produit tensoriel $E^{\otimes n}$
quotient\'e par le sous-module engendr\'e par les
$v_1\otimes\ldots\otimes v_n-v_{\sigma(1)}\otimes\ldots\otimes
v_{\sigma(n)}$: c'est la $n^{\text{i\`eme}}$ puissance sym\'etrique de
  $E$, $\Sym^n(E)$.
\item
Pour $\lambda=(1)^n$ le tableau avec 1 colonne de hauteur $n$, la
propri\'et\'e $(b)$ indique que $E^{\lambda}$ est altern\'e: c'est la
$n^{\text{i\`eme}}$ puissance ext\'erieure $\Lambda^n(E)$.
\end{enumerate}

\begin{prop}
Le $\C$-espace vectoriel $E^{\lambda}$ a pour base les $e_T$, pour
$T$ tableau de Young de forme $\lambda$ rempli avec des nombres de
$\{1,\ldots,m\}$
\end{prop}


\subsubsection{Propri\'et\'es de la repr\'esentation $E^{\lambda}$}
Rappelons que $E^\lambda$ est le quotient de deux espaces vectoriels
$F$ et $Q$, d\'efinis plus haut.
$\End(E)$ agit sur $F$ (il agit sur chaque case), et $Q$ est stable
par $\End(E)$. Ainsi, $\End(E)$ agit sur $E^{\lambda}$ en passant
au quotient, de m\^eme que tous les sous-groupes de $\End(E)$. En
particulier, $E^{\lambda}$ est une repr\'esentation de $SL(E)$.


\begin{prop}
A multiplication par un scalaire pr\`es, l'unique \'el\'ement primitif
de la repr\'esentation $E^{\lambda}$ est le vecteur $e_T$, o\`u
$T=U(\lambda)$ est le tableau de forme $\lambda$ dont la
$i^{\text{\`eme}}$ ligne ne contient que l'entier $i$.
Le plus haut poids de cette repr\'esentation est
$(\lambda_1,\ldots,\lambda_m)$.
\end{prop}

Ainsi, on a bien construit toutes les repr\'esentations
irr\'eductibles de dimension finie de $SL(E)$, puisqu'on a obtenu tous
les poids dominants.

\subsection{Calcul de $E^{\lambda}\otimes E^{(1)^n}$}
\subsubsection{Les polyn\^omes de Schur -- Caract\`eres}
Soit $T$ un diagramme de Young de forme $\lambda$ rempli par des nombres
de $1$ \`a $m$. Notant $n_i$ le nombre de $i$ dans le tableau, on
note $x^T=x_1^{n_1}\ldots x_m^{n_m}$: c'est un mon\^ome en $n$ variables.

On pose alors $s_{\lambda}(x)=\sum x^T$ pour $T$ tableau de Young de
forme $\lambda$ rempli par des nombres de $\{1,\ldots,m\}$: c'est un
polyn\^ome en $x_1,\ldots, x_m$, appel\'e polyn\^ome de Schur
associ\'e \`a la forme $\lambda$. On a alors:
\begin{thm}
Les polyn\^omes $s_{\lambda}$ sont sym\'etriques. Quand $\lambda$
d\'ecrit toutes les formes de Young ayant au plus $m$ lignes, les
polyn\^omes $s_\lambda$ forment une base des polyn\^omes sym\'etriques
en $m$ variables.
\end{thm}
Par exemple, quand
$\lambda=(n)$, $s_\lambda$ est la somme de tous les mon\^omes
distincts de degr\'e $n$. Pour $\lambda=(1)^n$, $s_\lambda$ est le
$n^{\text{i\`eme}}$ polyn\^ome sym\'etrique \'el\'ementaire, c'est-\`a-dire
le coefficient de $X^n$ dans
$(X+x_1)\ldots(X+x_m)$.


On appelle caract\`ere d'une repr\'esentation $V$ de $SL(E)$ de dimension finie
la fonction $\Char(V):H\rightarrow \C$ d\'efinie par:
$\Char(V)(x_1,\ldots,x_m)$ est la trace de l'action de
$\diag(x_1,\ldots,x_m)$ sur $V$.
Dans $E^{\lambda}$, en regardant ce qui se passe sur la base des
$e_T$, on obtient $\Char(V)(x)=\sum x^T$, o\`u $T$ parcourt les
tableaux de Young de forme $\lambda$ remplis avec des nombres de 1 \`a
$m$. Autrement dit, $\Char(V)=s_\lambda$.


Soit maintenant $V$ une repr\'esentation de dimension finie de
$SL(E)$.
$V$ se d\'ecompose comme somme de repr\'esentations irr\'eductibles de
dimension finie: $V=\bigoplus (E^{\lambda})^{d_{\lambda}}$. Prenant le
caract\`ere, $\Char(V)=\sum d_{\lambda} s_{\lambda}$. Comme les
$s_\lambda$ sont lin\'eairement ind\'ependants, on peut d\'eterminer
les $d_\lambda$ connaissant $\Char(V)$; autrement dit, une
repr\'esentation de dimension finie de $SL(E)$ est enti\`erement
d\'etermin\'ee par son caract\`ere (c'est un fait g\'en\'eral en
th\'eorie des repr\'esentations).

On voudrait maintenant d\'ecomposer la repr\'esentation $E^\lambda
\otimes E^\mu$ comme somme de repr\'esentations irr\'eductibles:
$E^{\lambda}\otimes E^{\mu}=\sum(E^{\nu})^{c_{\lambda \mu}^\nu}$ (les
$c_{\lambda\mu}^\nu$ sont appel\'es {\it coefficients de
  Littlewood-Richardson});
on voudrait une m\'ethode pour calculer explicitement les coefficients
$c_{\lambda \mu}^\nu$. Pour cela, on se ram\`ene \`a un probl\`eme sur
les polyn\^omes sym\'etriques en prenant le caract\`ere: $s_\lambda
s_\mu=\sum c_{\lambda\mu}^\nu s_\nu$ (et on sait qu'une telle
d\'ecomposition est unique puisque les $s_\nu$ sont lin\'eairement
ind\'ependants). On s'est ramen\'e \`a un probl\`eme de calcul formel,
qui peut \^etre entrepris par une machine.



On peut aussi faire ce calcul par des m\'ethodes
combinatoires, par exemple en comptant le nombre de diagrammes de
Young d'un certain type:
si la forme $\lambda$ est incluse dans la forme $\nu$,
appelons forme tordue $\nu/\lambda$ la forme obtenue en
\^otant $\lambda$ \`a $\nu$. On peut remplir des formes tordues en
croissant au sens large suivant les lignes et au sens strict suivant
les colonnes, et on dit qu'on a affaire \`a un tableau de Young tordu
de forme $\nu/\lambda$. Un tel tableau est dit de
Littlewood-Richardson si, \'ecrivant ses entr\'ees en lisant la
premi\`ere ligne de droite \`a gauche, la deuxi\`eme de droite \`a
gauche, etc., le mot obtenu est tel que tous ses pr\'efixes
contiennent au moins autant de 1 que de 2, de 2 que de 3, etc.
On a alors:
\begin{thm}(r\`egle de Littlewood-Richardson)
Le coefficient $c_{\lambda \mu}^\nu$
est le nombre de tableaux tordus de
Littlewood-Richardson de forme $\nu/\lambda$ qui contiennent $\mu_1$
1,$\ldots, \mu_m\ m$.
\end{thm}

\subsubsection{Calcul de $E^{\lambda}\otimes E^{(1)^n}$}
Rappelons que, pour $n\leq m$, on d\'esigne par $(1)^n$ la forme
qui compte une unique colonne de hauteur $n$.

Comme application de ce qui pr\'ec\`ede, on voudrait d\'ecomposer $E^{\lambda}\otimes E^{(1)^n}$
comme somme de repr\'esentations irr\'eductibles. Cela revient \`a
calculer les coefficients $c_{\lambda (1)^n}^\nu$.

Consid\'erons $\nu=(\nu_1,\ldots,\nu_m)$ une forme de Young, et
supposons que $c_{\lambda (1)^n}^\nu\not=0$. N\'ecessairement, la
forme $\lambda$ est incluse dans la forme $\nu$, et la forme
tordue $\nu/\lambda$ peut \^etre remplie avec un 1, un
2,$\ldots$, un $n$. Lisant les entr\'ees de droite \`a gauche et de
haut en bas dans le tableau tordu de Littlewood-Richardson ainsi form\'e,
le mot obtenu doit \^etre une permutation de $\{1,\ldots,n\}$ dont les
pr\'efixes contiennent autant de 1 que de 2, de 2 que de 3, etc:
c'est n\'ecessairement l'identit\'e.
Le remplissage doit \^etre croissant suivant les lignes, et aussi
croissant quand on lit de droite \`a gauche et de haut en bas; ainsi,
$\nu/\lambda$ ne peut avoir deux cases sur la m\^eme ligne (on ne
pourrait les remplir en respectant les conditions pr\'ec\'edentes).
Finalement, $\nu$ est
obtenu \`a partir de $\lambda$ en rajoutant 1 case \`a la fin de $n$
lignes, et il y a alors un seul remplissage possible de la forme
tordue qui en fasse un tableau de Littlewood-Richardson. On a
prouv\'e:
\begin{prop}
Le coefficient $c_{\lambda (1)^n}^\nu$ vaut 1 s'il existe $a_1<\ldots<a_n$
tels que $\nu_{a_k}=\lambda_{a_k}+1$ et $\nu_l=\lambda_l$ sinon.
\\
Dans le cas contraire, $c_{\lambda (1)^n}^\nu=0$.
\end{prop}

On en d\'eduit le r\'esultat que l'on recherchait:
\begin{prop}
$E^\lambda \otimes E^{(1)^n}=\sum E^{\nu}$, la somme se faisant sur les $\nu$
tels qu'il existe $a_1<\ldots<a_n$ avec $\nu_{a_k}=\lambda_{a_k}+1$ et $\nu_l=\lambda_l$ sinon.
\end{prop}
\begin{rmq}
En regardant la dimension des espaces dans l'\'egalit\'e
pr\'ec\'edente, on obtient une \'egalit\'e combinatoire non
triviale. C'est souvent ce qui se passe dans l'\'etude des
tableaux de Young, o\`u on d\'eduit parfois des \'egalit\'es
combinatoires de propri\'et\'es des repr\'esentations, et o\`u
r\'eciproquement des informations combinatoires donnent des
r\'esultats sur les repr\'esentations.
\end{rmq}

\subsection{Cons\'equences sur $R(SU(N))$}
Dans $SU(N)$, on voudrait comprendre la multiplication par un des
poids fondamentaux $\Lambda_p=\epsilon_1+\ldots+\epsilon_p$.
On utilise pour cela le fait que $\Lambda_p$ est le poids dominant de
la repr\'esentation $E^{(1)^p}$.
Le r\'esultat pr\'ec\'edent se r\'e\'ecrit alors:
\begin{prop}
\label{expressprod}
Soit $\Lambda$ un poids dominant. Alors, dans $R(SU(N))$,
$[\Lambda_p]\times [\Lambda]=\sum [\Lambda']$, la somme se faisant sur
tous les poids dominants de la forme $\Lambda+\epsilon_{i_1}+\ldots+
\epsilon_{i_p}$
avec $i_1<\ldots<i_p$.
\end{prop}
On en d\'eduit:
\begin{thm}
\label{genalg}
Comme alg\`ebre, $R(SU(N))$ est engendr\'ee par les $[\Lambda_p]$,
$1\leq p\leq N-1$.
\end{thm}
\begin{proof}
\ \\
Pour deux poids fondamentaux $\Lambda=\sum m_i\epsilon_i$ et
$\Lambda'=\sum m'_i \epsilon_i$, on notera $\Lambda\leq \Lambda'$ si
$(m_1,\ldots,m_{N-1})\leq (m'_1,\ldots.m'_{N-1})$ au sens de l'ordre
lexicographique. C'est un ordre total sur les poids.

On d\'emontre alors le r\'esultat par r\'ecurrence:\\
-- Pour $\Lambda=0$, le r\'esultat est clair.\\
-- Soit
$\Lambda=m_1(\epsilon_1+\ldots+\epsilon_k)+m_{k+1}\epsilon_{k+1}+\ldots+
m_{N-1}\epsilon_{N-1}$, avec $m_1>m_{k+1}\geq \ldots\geq m_{N-1}\geq 0$.
Posons alors $\Lambda'=(m_1-1)(\epsilon _1+\ldots+\epsilon_k)+m_{k+1}
\epsilon_{k+1}+\ldots+m_{N-1}\epsilon_{N-1}$: c'est encore un poids
dominant. En \'ecrivant la formule explicite de la proposition
pr\'ec\'edente, on v\'erifie que $[\Lambda']\times
[\Lambda_k]=[\Lambda]+M$, o\`u $M$ est une somme de repr\'esentations
$<\Lambda$. On conclut par hypoth\`ese de
r\'ecurrence.
\end{proof}



\section{Le produit de fusion}
\subsection{Introduction}
Pour les besoins de la physique et en particulier de la th\'eorie des
champs conformes, mais aussi en math\'ematiques pour certaines
repr\'esentations en caract\'eristique finie, il est utile
d'introduire une troncature de l'anneau des repr\'esentations de
$SU(N)$: on voudrait \'eliminer les repr\'esentations irr\'eductibles
dont le poids serait trop grand.

\textit{Dans toute la suite, $k$ sera un entier positif fix\'e,
  au-del\`a duquel on voudrait tronquer les poids.}

Notons $P_{N,k}=\{\sum m_i \Lambda_i\ |\ m_i \in \N, \sum m_i \leq
k\}$: on \'ecarte tous les poids dominants qui sont plus grands que
$k$. Une premi\`ere m\'ethode pour tronquer serait de quotienter
$R(SU(N))$ par le sous-module engendr\'e par les $[\Lambda]$ pour
$\Lambda\not\in P_{N,k}$. Mais c'est juste un sous-module, pas un
id\'eal pour la structure multiplicative, ce qui fait qu'on ne
pourrait pas d\'efinir de produit naturel sur la structure quotient.

Il faut donc s'y prendre autrement: soient $\Lambda,\Lambda'$ dans
$P_{N,k}$. Pour d\'efinir leur produit tronqu\'e, on \'ecrit
$[\Lambda]\times [\Lambda']=\sum [\Lambda'']$ dans $R(SU(N))$,
puis on \'elimine les
$[\Lambda'']$ qui ne sont pas dans $P_{N,k}$ en les ramenant dedans
par une sym\'etrie orthogonale par rapport \`a l'hyperplan affine
$\{\sum m_i \Lambda_i\ | \sum m_i=k+1\}$ et en changeant leur signe.
Pour faire cela, il faut pr\'eciser le sens de ``orthogonal'', et donc
mettre un produit scalaire sur l'espace des racines. Tout le
probl\`eme est de trouver un produit scalaire naturel.

\subsection{G\'eom\'etrie du syst\`eme de racines}
\subsubsection{Produit scalaire invariant sur $\h$}
On appelle espace des racines le $\R$-espace vectoriel $V$ de base les
$\alpha_i$, $1\leq i\leq N-1$. De mani\`ere \'equivalente, on peut dire
qu'il a pour base les $\epsilon_i$, $1\leq N-1$, et on pose
$\epsilon_N=-\epsilon_1-\ldots -\epsilon_{N-1}$.
Pour mettre un produit scalaire sur l'espace des racines, on va
plut\^ot en mettre un sur $\h_{\R}$ l'ensemble des matrices r\'eelles
de trace nulle, dont $V$ est le dual. L'identification canonique entre un
espace euclidien et son dual donnera alors un produit scalaire sur $V$.

On appelle forme de Killing la forme bilin\'eaire $B:\left\{
\begin{array}{ccc}
\g \times \g&\rightarrow & \R \\
(X,Y)&\mapsto & \tr(\ad X \circ \ad Y)
\end{array}\right. $
qui a le m\'erite d'\^etre invariante,
i.e. $B([X,Y],Z)+B(Y,[X,Z])=0\ \forall X,Y,Z\in \g$.
\begin{thm}
$B$ est invariante non d\'eg\'en\'er\'ee. Sa restriction \`a $\h$ est
aussi invariante non d\'eg\'en\'er\'ee, et $B$ est positive sur
$\h_{\R}$.
\end{thm}
Ce th\'eor\`eme est un fait g\'en\'eral sur toute alg\`ebre de Lie
semi-simple; dans ce cas particulier, on va en v\'erifier la derni\`ere
partie en calculant explicitement $B$ sur $\h$
, dans la base des
$H_i=\diag(0,\ldots,0,1,-1,0,\ldots,0)$. Une base de $\g$, comme on
l'a vu plus haut, est form\'e des $E^{ij}$ pour $i\not=j$, et des
$H_i$. Dans cette base, les $\ad X$ sont diagonaux pour $X\in \h$, et
$\ad X$ agit par $\ad X(E^{ij})=(X_i-X_j)E^{ij}$. Ainsi, $\ad X\circ
\ad Y E^{ij}=(X_i-X_j)(Y_i-Y_j)E^{ij}$. En sommant sur les $i\not=j$, on
trouve $B(X,Y)=\sum_{i,j}(X_i-X_j)(Y_i-Y_j)$, ce qui est clairement
une forme bilin\'eaire positive non d\'eg\'en\'er\'ee. Pour calculer $B(X,Y)$,
on \'ecrit les matrices $(X_i-X_j)_{i,j}$ et $(Y_i-Y_j)_{i,j}$, puis on fait
la somme des produits coefficient par coefficient. On en d\'eduit la
matrice de $B$ dans la base des $H_i$: c'est
$$2N\left(\begin{array}{ccccc}
2&-1&0&\ldots &0\\
-1&\ddots&\ddots&\ddots&\vdots\\
0&\ddots&\ddots&\ddots&0\\
\vdots&\ddots&\ddots&\ddots&-1\\
0&\ldots&0&-1&2
\end{array}\right)$$
Pour simplifier, on renormalise et on consid\`ere $(X,Y)=B(X,Y)/2N$
plut\^ot que $B$: c'est encore un produit scalaire invariant, dont la
matrice dans la base des $H_i$ est plus simple.


\subsubsection{Espace des racines}
Pour $X\in \h$, on veut calculer $(H_i,X)$. On d\'ecompose $X$ dans la
base des $H_i$: $X=\sum a_i H_i$, si bien que, pour $i\not=1,N$,
$(H_i,X)=-a_{i-1}+2a_i-a_{i+1}$. Ecrivons $X=\diag(b_i)$, alors
$b_i=a_i-a_{i-1}$, puis
$(H_i,X)=b_i-b_{i+1}=(\epsilon_i-\epsilon_{i+1})(X)$
(ce qui reste vrai pour $i=1$).
L'isomorphisme canonique entre $\h$ et $\h^*$ (provenant de la
structure euclidienne) envoie donc la base $H_i$ sur la base
$\alpha_i$, et on obtient un produit scalaire naturel sur $V$.

On note $s_i$ la sym\'etrie orthogonale d'axe $\alpha_i$:
$s_i(x)=x-2\frac{(x,\alpha_i)}{(\alpha_i,\alpha_i)}\alpha_i$, c'est
l'identit\'e sur $\alpha_i^{\perp}$ et
$s_i(\alpha_i)=-\alpha_i$. $s_i$ permute les racines, les compos\'ees
des $s_i$ aussi, et le groupe $W$ engendr\'e par les $s_i$ est donc
fini (c'est le \textit{groupe de Weyl}). Remarquons que $s_i$ permute
$\epsilon_i$ et
$\epsilon_{i+1}$ et laisse les autres $\epsilon_j$ invariants,
donc $W$ s'identifie au
groupe des permutations $\mathfrak{S}_N$.

On note aussi $s_0$ la sym\'etrie orthogonale par rapport \`a
l'hyperplan $H=\{\sum m_i \Lambda_i={k+1}\}$, et $\tilde{W}$ le groupe
engendr\'e par $W$ et $s_0$. Pour $w\in \tilde{W}$, on d\'efinit
la signature de $w$: on
\'ecrit $w$ comme un produit d'\'el\'ements $s_i$, en nombre minimal
$r$, et on pose $\epsilon(w)=(-1)^r$.

Il est utile de remarquer que $P_{N,k+1}$ est un domaine fondamental
pour $\tilde{W}$, c'est -\`a-dire que pour tout $x\in V$ il existe
$w\in \tilde{W}$ tel que $w(x)\in P_{N,k+1}$, et $w(x)$ est
ind\'ependant du choix de $w$.



\subsection{Construction du produit de fusion}
On peut alors d\'efinir le produit
de fusion: si $\Lambda$ et $\Lambda'$ sont deux poids dominants de
$P_{N,k}$, on note $[\Lambda]\times [\Lambda']=\sum c_i [\Lambda_i]$ dans
$R(SU(N))$. Pour chaque $[\Lambda_i]$ qui n'est pas dans $P_{N,k+1}$,
on l'y ram\`ene en le multipliant par un \'el\'ement $w_i\in\tilde{W}$
(si $\Lambda_i\in P_{N,k+1}$, on prend $w_i=\Id$).
Si $w_i(\Lambda_i)\in H$ (l'hyperplan $k+1$) on pose $\delta_i=0$ et
sinon $\delta_i=1$.
Finalement, on pose
$[\Lambda]\times'[\Lambda']=\sum c_i \epsilon(w_i) \delta_i [w_i(\Lambda_i)]$
(cette d\'efinition \'etant ind\'ependante du choix des
$w_i$). Autrement dit, on ram\`ene tout dans $P_{N,k+1}$ en changeant
\'eventuellement les signes, puis on tue
ceux qui sont sur le bord.

Le $\Z$-module libre de base les $[\Lambda]$ pour $\Lambda\in P_{N,k}$
est ainsi muni d'un produit, et on montre que celui-ci est associatif
et distributif par rapport \`a l'addition. L'anneau ainsi form\'e,
not\'e $R(SU(N)_k)$, est \textit{l'alg\`ebre de Verlinde} de niveau $k$
de $SU(N)$.

L'associativit\'e est une cons\'equence de:
\begin{thm}(Kazhdan)
Notons $I$ l'id\'eal de $R(SU(N))$ engendr\'e par les $[\Lambda]$ pour
$\Lambda=\sum m_i \Lambda_i$ avec $\sum m_i=k+1$. Alors
$R(SU(N)_k)\simeq R(SU(N))/I$.
\end{thm}



Comme alg\`ebre, $R(SU(N)_k)$ est engendr\'ee par les \'el\'ements
$[\Lambda_1],\ldots,[\Lambda_{N-1}]$ (ce qui se d\'eduit du r\'esultat
correspondant sur $R(SU(N))$ prouv\'e en $\eqref{genalg}$).
Le morphisme d'alg\`ebre
$\pi:\C[x_1,\ldots,x_{N-1}]\rightarrow R(SU(N)_k)$ qui envoie $x_i$
sur $\Lambda_i$ est donc surjectif. Notant $J$ son noyau,
$R(SU(N)_k)\simeq \C[x_1,\ldots,x_{N-1}]/J$. Plus pr\'ecis\'ement, on
peut  expliciter $J$:
\begin{thm}(Gepner)
Soit $V_{N,k}$ le polyn\^ome en $N-1$ variables d\'efini par, si $h=N+k$,
$$
V_{N,k}(x)=\frac{(-1)^h}{h!}\left(\frac{d}{dt}\right)^h \ln\left.\left(
  1-tx_1+t^2x_2-\ldots +(-t)^{N-1}x_{N-1}+(-t)^N\right)\right|_{t=0}
$$
Alors $J$ est l'id\'eal engendr\'e par les d\'eriv\'ees partielles
d'ordre 1 de $V_{N,k}$. Autrement dit,
$$
R(SU(N)_k)=\frac{\C[x_1,\ldots,x_{N-1}]}{(\partial_i V_{N,k})}
$$
\end{thm}

Il est souvent utile de consid\'erer \'egalement le \textit{potentiel de
fusion tronqu\'e}, d\'efini par
$$
V^0_{N,k}(x)=\frac{(-1)^h}{h!}\left(\frac{d}{dt}\right)^h \ln\left.\left(
  1-tx_1+t^2x_2-\ldots +(-t)^{N-1}x_{N-1}\right)\right|_{t=0}
$$


\subsection{Le r\'eseau de l'alg\`ebre de Verlinde}
\begin{defn}
On appelle r\'eseau de l'alg\`ebre de Verlinde $R(SU(N)_k)$ le
r\'eseau sur $\Z$ de base les $\alpha_{\lambda}$ pour $\lambda\in
P_{N,k}$.
On le note $L(SU(N)_k)$.
\end{defn}
Comme pr\'ec\'edemment sur l'espace des racines, on va ajouter une
forme bilin\'eaire sym\'etrique. Cependant, elle ne sera pas
n\'ecessairement d\'efinie positive.


On a explicit\'e en $\eqref{expressprod}$ le produit d'un \'el\'ement
de $R(SU(N))$ par un poids fondamental $[\Lambda_p]$. On en d\'eduit
une formule du m\^eme type dans $R(SU(N)_k)$:
\begin{prop}
Soit $\Lambda\in P_{N,k}$. Alors, dans $R(SU(N)_k)$,
$[\Lambda_p]\times [\Lambda]=\sum [\Lambda']$, la somme se faisant sur
tous les $\Lambda'\in P_{N,k}$ qui s'\'ecrivent sous la forme
$\Lambda+\epsilon_{i_1} +\ldots+\epsilon_{i_p}$ avec $1\leq i_1<
\ldots < i_p \leq N$.
\end{prop}

Cela nous conduit \`a d\'efinir une forme bilin\'eaire naturelle $B_{N,k}$ sur
$L(SU(N)_k)$. On pose $B_{N,k}(\alpha_\lambda,\alpha_\lambda)=2$,
$B_{N,k}(\alpha_{\lambda},\alpha_\mu)=-1$ si $\mu$ peut s'\'ecrire
sous la forme $\lambda+\epsilon_{i_1}+\ldots+\epsilon_{i_p}$ avec $1\leq p\leq N-1$,
  et 0 sinon.
Cette forme bilin\'eaire est sym\'etrique. En effet, si
$\mu=\lambda+\epsilon_{i_1}+\ldots+\epsilon_{i_p}$, consid\'erons
  $j_1,\ldots,j_{N-p}$ tels que
  $\{i_1,\ldots,j_{N-p}\}=\{1,\ldots,N\}$. Comme
  $\epsilon_1+\ldots+\epsilon_N=0$,
  $\lambda=\mu+\epsilon_{j_1}+\ldots+\epsilon_{j_{N-p}}$.

On peut remarquer que le r\'eseau muni de sa forme bilin\'eaire encode
toute la structure de l'alg\`ebre: avec ces informations, si on veut
calculer $[\Lambda_p]\times [\Lambda]$, ce sera la somme des
$[\Lambda']$ tels que $B_{N,k}(\alpha_{\Lambda},\alpha_{\Lambda'})=-1$
et tels que, si $\Lambda'=\Lambda+\sum m_i \epsilon_i$ (les $m_i$
d\'efinis \`a une constante pr\`es), alors $\sum
m_i \equiv p \mod N$.
En particulier, deux alg\`ebres qui ont des r\'eseaux isomorphes
sont isomorphes.


On consid\`ere aussi sur $L(SU(N)_k)$ les r\'eflexions $s_{\lambda}$ par
rapport aux hyperplans orthogonaux aux \'el\'ements de base
$\alpha_{\lambda}$. Ils engendrent un groupe $\Gamma_{N,k}$
d'automorphismes lin\'eaires de $L(SU(N)_k)$, appel\'e groupe de r\'eflexion
de $SU(N)_k$.






















%******************************************************************************
%
%            La partie qui suit est l'oeuvre de Nicolas George
%
%******************************************************************************



\section{Cycle évanescent et groupe de monodromie}

Le potentiel de fusion court possède une singularité; on va voir
que les propriétés de cette singularité permettent de reconstruire
entièrement le réseau de l'algèbre de Verlinde. Nous allons donc
introduire un certain nombre de notions pour l'étude des singularités
des fonctions holomorphes.

\subsection{Rappels de topologie algébrique}

\subsubsection{Homotopie et groupe fondamental}

Il s'agit ici de définir brièvement le groupe formé des chemins à
déformation près  dans un espace topologique.

Soient \(X\) un espace topologique et \(x\in X\).

Un lacet d'extrémités \(x\) est une application continue \(\gamma:
[0,1]\longrightarrow X\) telle que \(\gamma(0)=\gamma(1)=x\).

\begin{defn}
Deux lacets d'extrémités \(x\) \(\gamma\) et \(\gamma'\) dans \(X\) sont
homotopes s'il existe une application continue \(H:
[0,1]\times[0,1]\longrightarrow X\) telle que \(H(0,\cdot)=\gamma\),
\(H(1,\cdot)=\gamma'\) et \(\forall t\ H(t,0)=H(t,1)=x\).
\end{defn}

Etant donnés deux lacets \(\gamma\) et \(\gamma'\) d'extrémités \(x\), on
peut définir le chemin consistant à emprunter d'abord \(\gamma\) puis
\(\gamma'\):
\[\gamma.\gamma':\fonction{[0,1]}{X}{t}{\begin{cases}\gamma(2t)&\text{si }t\le\frac{1}{2}\\
      \gamma'(2t-1)&\text{sinon}\end{cases}}\]

Cette loi n'est pas associative en l'état. Néanmoins elle induit bien
une loi de composition associative sur les classes d'équivalence de
chemins par homotopie. De plus, la classe du chemin défini par
\[\gamma^{-1}:\fonction{[0,1]}{X}{t}{\gamma(1-t)}\] est l'inverse de la
classe de \(\gamma\).

\begin{defn}
Si \(X\) est un espace topologique et \(x\in X\) un point, on appelle {\bf
  groupe fondamental} de \(X\) par rapport à \(x\) et on note \(\pi_1(X,x)\)
le groupe des classes de lacets dans \(X\) d'extrémités \(x\) à homotopie
près, muni de la concaténation.
\end{defn}

On notera que ce groupe ne dépend que de la composante connexe par
arcs de \(x\). Si \(X\) est connexe par arcs, on peut omettre la mention
de \(x\).

%Un bouquet connexe de sphères est la réunion de sphères reliées par des
%chemins.

\begin{prop}
Si \(X\) est le plan \(\C\) privé de \(n\) points \(z_1,...,z_n\),
alors \(\pi_1(X)\) est un groupe libre à \(n\) générateurs, et est
engendré par les lacets \(\gamma_i\), où \(\gamma_i\) contourne
uniquement \(z_i\).
\end{prop}

\subsubsection{Homologie}

\begin{defn}
Soit \(n\in\N\); on appelle {\bf simplexe} d'ordre \(n\) et on note
\(\Delta_n\) l'enveloppe convexe des vecteurs de la base canonique
\((e_0,...,e_n)\) de \(\R^{n+1}\).
\end{defn}

\begin{defn}
Soient \(X\) un espace topologique et \(A\) un anneau commutatif.
On note \(C_n(X;A)\) le \(A\)-module libre de base
\(\Sigma_n(X)=\mathcal{C}(\Delta_n,X)\) l'ensemble des applications
continues de \(\Delta_n\) dans \(X\). On note \(\d
C_*(X;A)=\bigoplus_{n\in\N}C_n(X;A)\).
\end{defn}

Le bord d'un simplexe d'ordre \(n\) est formée de \(n+1\) simplexes
d'ordre \(n-1\). On note \(\Delta_n^i\) la face opposée au sommet
\(e_i\). On définit l'opérateur \(n\)-ième face:
\(\partial_i:\fonction{C_n(X;A)}{C_{n-1}(X;A)}{\sigma}{\sigma_{|\Delta_n^i}}\).
On définit alors un opérateur différentiel par
\(d:\fonction{C_n(X;A)}{C_{n-1}(X;A)}{\sigma}
{\d\sum_{i=0}^n(-1)^i\partial_i(\sigma)}\).

On note du même symbole l'opérateur différentiel pour tous les ordres, et
on le prolonge en \[d:C_*(X;A)\longrightarrow C_*(X;A)\]

\begin{prop}
On a \(d\circ d=0\).
\end{prop}

\begin{defn}
On note \(Z_n(X;A)=\Ker d_{|C_n(X;A)}\subset C_n(X;A)\). Un élément de
\(Z_n(X;A)\) est appelé cycle.
On note \(B_n(X;A)=\Img d_{|C_{n+1}(X;A)}\subset C_n(X;A)\). Un élément de
\(B_n(X;A)\) est appelé bord.
\end{defn}

Comme \(d\circ d=0\), \(B_n(X;A)\subset Z_n(X;A)\).

\begin{defn}
On appelle {\bf module d'homologie} d'ordre \(n\) de \(X\) sur \(A\) et on
note \(H_n(X;A)\) le \(A\)-module
\(H_n(X;A)=\sfrac{Z_n(X;A)}{B_n(X;A)}\).
\end{defn}

\begin{center}\includegraphics{bouquet.eps}\end{center}

\begin{props}
On a les propriétés suivantes:
\begin{enumerate}
\item L'homologie est invariante par homéomorphisme, homotopie.
\item L'homologie d'une sphère \(\mathbb{S}^n\) est
  \(H_0(\mathbb{S}^n,A)=H_n(\mathbb{S}^n,A)=A\) et
  \(H_k(\mathbb{S}^n,A)=0\) pour \(k\neq n\) et \(k\neq 0\).
\item L'homologie d'un bouquet \(X\) de \(k\) sphères de dimension
  \(d\) est \(H_0(X;A)=A\), \(H_n(X;A)=A^k\) si \(d=n\) et
  \(H_n(X;A)=0\) sinon.
\end{enumerate}
\end{props}

%\begin{defn}
%Si \(Y\subset X\), alors on appelle homologie relative de \(X\) par
%rapport à \(Y\) par: \[H_n(X,Y;A)=H_n(X/Y;A)=\sfrac{H_n(X;A)}{H_n(Y;A)}\]
%\end{defn}

\subsection{Singularités des fonctions holomorphes}

\begin{rmq}
On parle ici de l'homologie réduite, qui diffère de l'homologie simple
par le fait qu'à l'ordre 0, on ne considère que les cycles
correspondant à un total des coefficients nul.
\end{rmq}

\subsubsection{Fonctions de Morse et fibre singulière}

\begin{defn}
On appelle fonction de Morse une fonction n'ayant que des points
singuliers non dégénérés isolés.
\end{defn}

\begin{defn}
Si \(f\) est une fonction de Morse de \(\C^n\supset U\) dans \(\C\), et
\(x\) un des points singuliers de \(f\), on appelle fibre non
singulière de \(f\) au voisinage de \(x\) la variété
\(f_{|B}^{-1}(y)\), où \(B\) est un voisinage ouvert de \(x\) sur
lequel le lemme de Morse s'applique et \(y\in
f(B)\smallsetminus\{f(x)\}\).
\end{defn}

\begin{prop}
La fibre non singulière ne dépend pas du choix de \(y\) et \(B\); elle
est rétracte à la sphère réelle \(\mathbb{S}^{n-1}\).
\end{prop}

\begin{rmq}
Si \(f\) possède un point singulier multiple, sa fibre non singulière,
appelée {\bf fibration de Milnor} et notée \(V_f\) qui se définit en
considérant un voisinage \(B\) suffisamment petit, est homotope à un
bouquet de sphères. Le nombre de sphères, égal à l'ordre de la
singularité, est appelé {\bf nombre de Milnor} de la singularité, et
noté \(\mu(f)\).
\end{rmq}

\subsubsection{Groupe de monodromie}

Soit \(f:\C^n\supset U\longrightarrow\C\) une fonction holomorphe
complexe. On suppose que \(f\) a \(k\) valeurs critiques
\(y_1,...,y_k\).

Soit \(y\in \C\smallsetminus\{y_1,...,y_k\}\), et soit
\(V_y=f^{-1}(y)\). Considérons un lacet \(\gamma\) à valeurs dans
\(\C\smallsetminus\{y_1,...,y_k\}\) d'extrémités \(y\). Le fibré en
bouquet de sphères \(V_{\gamma(t)}=f^{-1}(\gamma(t))\) au dessus de
\(\gamma(t)\) est localement trivial. On a alors une transformation
continue des variétés \(V_{\gamma(t)}\). Comme
\(\gamma(0)=\gamma(1)\), on obtient un homéomorphisme \(\phi_\gamma\)
de \(V_y\) dans lui-même. Cet homéomorphisme est invariant par
homotopie sur le chemin \(\gamma\) et ne dépend donc que de la classe
de \(\gamma\) dans le groupe fondamental
\(\pi_1(\C\smallsetminus\{y_i\},y)\). De plus
\(\phi_{\gamma\gamma'}=\phi_{\gamma'}\circ\phi_\gamma\). En passant à
l'homologie, on obtient un anti-homomorphisme:
\(\fonction{\pi_1(\C\smallsetminus\{y_i\},y)}{\Aut(H_{n-1}(V_y;A))}
{{[\gamma]}}{\phi_\gamma}\).


\begin{defn}
On appelle {\bf groupe de monodromie} de la fonction \(f\) l'image de
cet homomorphisme.
L'élément correspondant à un lacet qui contourne dans le sens direct
toutes les valeurs singulières est appelé {\bf monodromie
  classique}.
\end{defn}

\begin{exemple}
Soit \(\lambda>0\), et soit \(f:\fonction{\C}{\C}{z}{z^3-3\lambda^2
  z}\). La fonction \(f\) a deux points critiques \(\pm\lambda\)
correspondant aux valeurs critiques \(\mp2\lambda^3\). Prenons \(y=0\);
alors \(V_0=\{-\sqrt3\lambda,0,\sqrt3\lambda\}\). Le groupe
\(\pi_1(\C\smallsetminus\{\pm\lambda\})\) est engendré par les classes
de \(\gamma_1:t\longmapsto -2+2e^{2i\pi t}\) et \(\gamma_2:t\longmapsto
+2-2e^{2i\pi t}\).
Alors \(\gamma_1\) agit sur \(V_0\) en permutant \(0\) et
\(\sqrt3\lambda\), et \(\gamma_2\) agit sur \(V_0\) en permutant \(0\)
et \(-\sqrt3\lambda\). \(H_0(V_0;\Z)=\Z{[\sigma_0-\sigma_{-\sqrt3\lambda}]}\oplus
\Z{[\sigma_{+\sqrt3\lambda}-\sigma_0]}\),
où \(\sigma_z:\fonction{\Delta_0}{\C}{s}{z}\).
Dans cette base, \(\gamma_1\) et \(\gamma_2\) induisent les
endomorphismes de matrice respectivement \(\matrdeux{1}{0}{-1}{-1}\) et
\(\matrdeux{-1}{-1}{0}{1}\). Donc le groupe de monodromie de \(f\) est
\(\mathfrak{S}_3\).
\begin{center}\includegraphics{courbe.eps}\end{center}
\end{exemple}

\subsubsection{Cycle évanescent}

Soit \(f:\C^n\supset B\longrightarrow\C\) une fonction holomorphe
complexe, où \(B\) est une boule ouverte de centre \(0\). On suppose
que \(f\) n'a qu'un point critique en \(0\) et que \(f(0)=0\).

Si \(z\in\C\smallsetminus\{0\}\), alors \(V_z=f^{-1}(z)\) est une
variété analytique de dimension \(n-1\) rétracte à un bouquet de
sphères.

\begin{defn}
On appelle {\bf réseau de Milnor} de \(f\) l'espace
\(L_f=H_{n-1}(V_y;\Z)\) où \(y\in\C\smallsetminus\{0\}\).
\end{defn}

Il existe une famille continue d'applications \(f_t\) telle que
\begin{smliste}
\item \(f_0=f\)
\item pour \(t>0\), \(f_t\) n'a que des points critiques non dégénérés et
  les valeurs critiques sont deux à deux distinctes.
\end{smliste}

Fixons \(t>0\). Alors le nombre de points critiques de \(f_t\) est
égal à \(\mu(f)\). Notons-les \(x_i\), et \(y_i=f_t(x_i)\).
Soit \(y_0\in\C\) tel que pour tout \(i\), \(|y_0|>|y_i|\). Notons
\(E=\left\{y\in\C\smallsetminus\{y_1,...,y_\mu\}\right/|y|<|y_0|\}\).
Soient \(u_i\) des chemins dans \(E\) de \(y_i\) à \(y_0\) sans points doubles
et ne s'intersectant pas. Alors, pour \(\tau\) petit,
\(f_t^{-1}(u_i(\tau))\cap V\) est rétracte à une sphère réelle de
centre \(x_i\) \(\mathbb{S}^n\), où \(V\) est un voisinage de \(x_i\)
sur lequel s'applique le lemme de Morse. Par homotopie, cette sphère
\(S_i(\tau)\) se transporte en une sphère \(S_i=S_i(1)\) qui
correspond dans \(H_{n-1}(f_t^{-1}(y_0);\Z)\simeq L_f\) à un cycle
\(C_i\). Quand \(t\rightarrow 0\), \(S_i\) tend vers un point. C'est
pourquoi on appelle \(C_i\) un {\bf cycle évanescent.}

\begin{thm}
La famille \((C_1,...,C_\mu)\) forme une base de \(L_f\).
\end{thm}

\begin{defn}
On dit que c'est une base distinguée si les chemins arrivent en \(y_0\)
dans l'ordre donné par le sens direct à partir du bord du cercle..
\end{defn}

\begin{exemple}
On considère \(f:\fonction{\C}{\C}{z}{z^3}\). Son nombre de Milnor est
\(\mu=\mu(f)=2\). On peut prendre
\(f_t:\fonction{\C}{\C}{z}{z^3-3t^2z}\). Fixons \(t>0\). Alors
\(y_1=-t\) et \(y_2=+t\). Soient \(y_0=2i\) et pour \(j\in\{1,2\}\),
\(u_j\) le chemin de \(y_j\) à \(2i\) faisant un segment de \(y_j\) à
\(0\) et un autre de \(0\) à \(2i\) (ces chemins ne respectent pas
l'hypothèse de non intersection, mais on peut supposer qu'ils passent
«très près» de l'axe imaginaire pur). Considérons pour l'instant
\(y_1\). Pour \(\tau\) petit, \(S_1(\tau)\) est formée de deux points
\(s_j^1(\tau)<-t\) et \(s_j^2(\tau)>-t\). Pour \(\tau=\frac{1}{2}\),
\(S_1(\frac{1}{2})=\{-\sqrt3t,0\}\). Le chemin de \(0\) à \(2i\)
déforme \(S_1(\frac{1}{2})\) par homotopie, ce qui ne change pas sa
classe d'homologie (la condition \(\forall j\ |y_0|>|y_j|\) ne sert
qu'à pouvoir définir l'ordre). Le même raisonnement indique que \(S_2\)
est homotope à \(\{0,\sqrt3t\}\). Donc les cycles évanescents de \(f\)
sont \([\sigma_0-\sigma_{-\sqrt3\lambda}]\) et
\([\sigma_0-\sigma_{\sqrt3\lambda}]\).
\end{exemple}

\subsection{Somme directe et stabilisation}

On va ici définir une somme directe sur les fonctions holomorphes et
étudier l'effet sur leur réseau de Milnor. La somme avec une certaine
classe de fonctions sera appelée stabilisation et développée plus
avant.

\begin{defn}
Soient \(f:\C^n\supset U\longrightarrow\C\) et
\(g:\C^m\supset U'\longrightarrow\C\) telles que \(f(0)=g(0)=0\) soit
leur seul point critique. Alors on définit la somme directe de \(f\)
et \(g\) et on note \(f\oplus g\) l'application définie par \[f\oplus
g:\fonction{\C^{m+n}}{\C}{(x,y)}{f(x)+g(y)}\]
\end{defn}

\subsubsection{La forme d'intersection}

On se place dans la fibration de Milnor \(V_f\). Génériquement, deux
simplexes d'ordre \(n-1\) s'intersectent suivant une variété de
dimension 0, c'est à dire ici un nombre fini de points. Soient
\(\sigma_1\) et \(\sigma_2\) deux simplexes d'ordre \(n-1\), supposés
différentiables, dans la situation du cas générique, et \(x\) un point
d'intersection de \(\sigma_1\) et \(\sigma_2\). Soient
\((e^1_1,...,e^1_{n-1})\) et \((e^2_1,...,e^2_{n-1})\) des bases
directes respectivement de \(T_x\sigma_1\) et \(T_x\sigma_2\). Alors
\((e^1_1,...,e^1_{n-1},e^2_1,...,e^2_{n-1})\) forme une base de
\(T_xV_f\). Cette base peut être directe ou indirecte. Notons
\(\epsilon_{\sigma_1,\sigma_2}(x)=+1\) si elle est directe et
\(\epsilon_{\sigma_1,\sigma_2}(x)=-1\) si elle est indirecte.
On définit la forme d'intersection de \(\sigma_1\) et \(\sigma_2\)
par
\(\d(\sigma_1,\sigma_2)=\sum_{x\in\sigma_1\cap\sigma_2}\epsilon_{\sigma_1,\sigma_2}(x)\).

\begin{defn}
On appelle {\bf forme d'intersection} la forme bilinéaire induite sur
\(H_{n-1}(V_f,\Z)=L_f\).
\end{defn}

\begin{prop}
La forme d'intersection est une forme bilinéaire symétrique si \(n\)
est impair et antisymétrique si \(n\) est pair.
\end{prop}

\subsubsection{Somme directe et forme d'intersection}

On considère de nouveau deux fonctions \(f\) et \(g\). Soient
\((\delta_1,...,\delta_\mu)\) et \((\delta'_1,...,\delta'_{\mu'})\) des
bases de cycles évanescents de \(L_f\) et \(L_g\)
respectivement. Posons \(\Delta_{ij}=\delta_i\otimes\delta'_j\). La
famille \((\Delta_{ij})_{(i,j)\in\llbracket1,\mu\rrbracket\times
  \llbracket1,\mu'\rrbracket}\) forme une base de \(L_f\otimes L_g\).

On définit sur \(L_f\otimes L_g\) la forme \((\cdot,\cdot)\) par:
\[\left\{\begin{array}{llll}
    (\Delta_{ij_1},\Delta_{ij_2})&=&
      \sgn(j_2-j_1)^n(-1)^{nm+n(n-1)/2}(\delta'_{j_1},\delta'_{j_2})&
      \text{si }j_1\neq j_2\\
    (\Delta_{i_1j},\Delta_{i_2j})&=&
      \sgn(i_2-i_1)^m(-1)^{nm+m(m-1)/2}(\delta_{i_1},\delta_{i_2})&
      \text{si }i_1\neq i_2\\
    (\Delta_{i_1j_1},\Delta_{i_2j_2})&=&
      0&
      \text{si }(i_2-i_1)(j_2-j_1)<0\\
    (\Delta_{i_1j_1},\Delta_{i_2j_2})&=&
      \sgn(i_2-i_1)^{nm}(\delta_{i_1},\delta_{i_2})(\delta'_{j_1},\delta'_{j_2})&
      \text{si }(i_2-i_1)(j_2-j_1)>0\\
    (\Delta_{ij},\Delta_{ij})&=&
      (-1)^{(n+m-1)(n+m-2)/2}(1+(-1)^{n+m-1})&
  \end{array}\right.\]
où \((\delta_i,\delta_{i'})\) et \((\delta'_j,\delta'_{j'})\) désignent
les formes d'intersection respectivement sur \(L_f\) et \(L_g\).

\begin{thm}
Il existe un isomorphisme naturel entre \(L_f\otimes L_g\) muni de
cette forme et \(L_{f\oplus g}\) muni de sa forme d'intersection. Cet
isomorphisme transforme la base \((\Delta_{ij})_{(i,j)\in
  \llbracket1,\mu\rrbracket\times\llbracket1,\mu'\rrbracket}\)
ordonnée par l'ordre lexicographique "\(j\) puis \(i\)" en une base
distinguée de cycles évanescents.
\end{thm}

\subsubsection{Stabilisation}

On suppose maintenant que \(g\) est une forme quadratique non
dégénérée \(Q\). Alors \(\mu'=1\), et il existe un isomorphisme
naturel entre \(L_f\) et \(L_{f\otimes Q}\) transportant les bases
distinguées de \(L_f\) sur les bases distinguées de \(L_{f\otimes
  Q}\). La forme d'intersection se définit alors par, si
\((\delta_1,...,\delta_\mu)\) est une base distinguée de \(L_f\) et
\((\tilde\delta_1,...,\tilde\delta_\mu)\) la base distinguée correspondante de
\(L_{f\oplus Q}\):
\[(\tilde\delta_i,\tilde\delta_j)=\sgn(j-i)^m(-1)^{nm+m(m-1)/2}(\delta_i,\delta_j)\]
pour \(i\neq j\). Ceci se simplifie en
\((\tilde\delta_i,\tilde\delta_j)=(-1)^{m/2}(\delta_i,\delta_j)\) si
\(m\) est pair.

On constate qu'il y a exactement quatre manières de stabiliser
\(f\). Deux sont symétriques et correspondent à un nombre final
impair de variables, et deux sont antisymétriques et correspondent à
un nombre final pair de variables. Les deux formes symétriques
d'une part et les deux formes antisymétriques d'autre part sont
opposées.

Dans chacun de ces deux cas, le groupe de monodromie de la stabilisée
\(f\oplus Q\) ne dépend pas de \(m\): il existe un isomorphisme
canonique préservant la monodromie classique entre les groupes de
monodromie pour \(m\in2\Z\) d'une part et \(m-1\in2\Z\) d'autre part.
Dans le cas impair, le groupe de monodromie est engendré par des
éléments d'ordre \(2\). On l'appelle le groupe de réflexion de \(f\).
%et l'opérateur de monodromie classique élément de Coxeter de \(f\).

Si maintenant \(n+m\equiv 1\ \mod\ 4\), alors la forme d'intersection
induit sur \(L_f\) une forme bilinéaire \((\cdot,\cdot)_q\) appelée
forme  quadratique de \(f\). De plus, pour tout cycle évanescent
\(\Delta\), on a \((\Delta,\Delta)=2\).

En considérant de nouveau deux fonctions \(f\) et \(g\) quelconques,
on peut décrire la forme quadratique de \(f\oplus g\) en utilisant
l'isomorphisme entre \(L_{f\oplus g}\) et \(L_f\otimes L_g\) et la base
\((\Delta_{ij})\):
\[\left\{\begin{array}{llll}
    (\Delta_{ij_1},\Delta_{ij_2})_q&=&
      (\delta'_{j_1},\delta'_{j_2})_q&
      \text{si }j_1\neq j_2\\
    (\Delta_{i_1j},\Delta_{i_2j})_q&=&
      (\delta_{i_1},\delta_{i_2})_q&
      \text{si }i_1\neq i_2\\
    (\Delta_{i_1j_1},\Delta_{i_2j_2})_q&=&
      0&
      \text{si }(i_2-i_1)(j_2-j_1)<0\\
    (\Delta_{i_1j_1},\Delta_{i_2j_2})_q&=&
      (\delta_{i_1},\delta_{i_2})_q(\delta'_{j_1},\delta'_{j_2})_q&
      \text{si }(i_2-i_1)(j_2-j_1)>0\\
    (\Delta_{ij},\Delta_{ij})_q&=&
      2&
  \end{array}\right.\]

\begin{rmq}
Le réseau de Milnor, la forme quadratique, et le groupe de réflexion
%et l'élément de Coxeter
sont stables par de petites déformations
préservant le nombre de Milnor de la singularité.
\end{rmq}

\begin{exemple}
On poursuit l'étude de la fonction \(x\longmapsto x^3\). Ici,
\(n=1\). Pour obtenir la forme quadratique, prendre \(m=0\) convient
parfaitement, et limite les calculs. La forme quadratique est donc
égale à la forme d'intersection. Dans la base définie plus haut, elle
a pour matrice \(\matrdeux{2}{-1}{-1}{2}\). On cherche maintenant le
groupe de réflexion de \(f\). Pour cela, on prend encore une fois une
stabilisation par \(0\) variables. Les calculs sont donc les mêmes.
Donc le groupe de symétrie de \(f\) est \(\mathfrak{S}_3\).
\end{exemple}

\section{Application au produit de fusion}

Le paragraphe précédent avait pour but d'étudier les singularités du
potentiel de fusion tronqué, ce qui va maintenant nous permettre de
montrer des propriétés sur les algèbres de Verlinde.

On peut ainsi en déduire une démonstration de la conjecture de Zuber.

\begin{thm}
Soit \(N\le2\) et \(k\in\N\). Il existe un isomorphisme entre le
réseau de l'algèbre de Verlinde de \(SU(N)_k\) et le réseau de Milnor
de la singularité du potentiel de fusion tronqué
\(V_{N,k}^0(x_1,...,x_{N-1})\) transportant la forme bilinéaire
\(B_{N,k}\) sur la forme quadratique et transformant la base
\((\alpha_\lambda)_{\lambda\in P_{N,k}}\) en une base distinguée de
cycles évanescents. Cet isomorphisme induit un isomorphisme entre le
groupe de réflexion \(\Gamma_{N,k}\) et le groupe de réflexion de
\(V_{N,k}^0\).
%envoyant l'élément de Coxeter sur l'élément de Coxeter.
\end{thm}

Ce théorème relie les propriétés algébriques de l'algèbre de Verlinde
et les propriétés analytiques de son potentiel de fusion tronqué. Or,
contrairement à une représentation de groupe, le potentiel de fusion
tronqué peut être déformé continûment; on peut donc profiter de l'outil
topologique pour obtenir des conclusions.

\begin{thm}
Le potentiel de fusion tronqué \(V_{N+1,k}^0\) peut être déformé
continûment en une fonction stabilisée du potentiel de fusion tronqué
\(V_{k+1,N}^0\) par une famille de fonctions holomorphes ayant un
point critique isolé de nombre de Milnor constant.
\end{thm}

On peut prendre comme stabilisée la fonction:
\[F:\fonction{\C^N}{\C}{(x_1,...,x_N)}{V_{k+1,N}^0(x_1,...,x_k)+\sum_{i=k+1}^N{x_ix_{N+k-i+1}}}\]

Les constructions géométriques réalisées sur les singularités sont
invariantes par une telle transformation. On peut donc déduire de ces
deux théorèmes la {\bf dualité niveau-rang}:

{\large
\begin{cor}
{\bf Dualité niveau-rang} (conjecture de Zuber): il existe un isomorphisme
\[\psi:L(SU(N+1)_k)\longrightarrow L(SU(k+1)_N)\] compatible avec
les formes bilinéaires et les groupes de réflexion.
%et les éléments de Coxeter.
\end{cor}
}

\begin{thebibliography}{99}

\bibitem{Arnold}
\textsc{V. I. Arnold, S. M. Gusein-Zade et A. N. Varchenko}:
\emph{Singularités des applications différentiables, tome 2},
Birkhäuser, Basel (1988)

\bibitem{Carter}
\textsc{R. Carter, G. Segal, I. Macdonald}:
\emph{Lectures on Lie groups and Lie algebras}, London mathematical
society (1995)

\bibitem{Fulton}
\textsc{W. Fulton}: \emph{Young tableaux}, London mathematical society
  (1997)

\bibitem{Gepner}
\textsc{D. Gepner}:
\emph{Fusion rings and geometry}, Communications in mathematical
physics {\bf 141} 381-411 (1991)

\bibitem{GuseinZade}
\textsc{S. M. Gusein-Zade et A. Varchenko}: \emph{Verlinde algebras
  and the intersection form on vanishing cycles}, Selecta mathematica,
  New series {\bf 3} 79-97 (1997)

\bibitem{Serre}
\textsc{J.-P. Serre}:
\emph{Alg\`ebres de Lie semi-simples complexes} (1966)

\bibitem{Serre2}
\textsc{J.-P. Serre}:
\emph{Lie algebras and Lie groups}, Benjamin (1965)

\bibitem{Zuber}
\textsc{J.-B. Zuber}:
\emph{Graphs and reflection groups}, Communications in mathematical
physics {\bf 179} 265-294 (1996)
\end{thebibliography}


\end{document}
