[AUDIO_VIDE] [AUDIO_VIDE] Bonjour. Dans les premières séances du cours cinq, nous avons défini plusieurs notions de converge de suites de variables aléatoires. Je vous avais dit à l'époque qu'il y avait deux types de notions de convergence, les convergences qui décrivaient la proximité de variables aléatoires, et c'est ce que nous avons vu dans le cours cinq, et cela nécessite dans ce cas que les variables aléatoires soient définies sur le même espace de probabilité, mais je vous avais aussi dit qu'il y avait une autre notion de convergence qui décrit la proximité des lois des variables aléatoires. Eh bien c'est ce que vous allons voir aujourd'hui. Nous allons définir ce qu'on appelle la convergence en loi. Donc en fait, il faut garder en tête qu'elle va décrire la proximité des lois des variables aléatoires, et qu'en fait nous n'aurons même pas besoin d'imposer que les suites de variables aléatoires que nous considérons soient définies sur les mêmes espaces de probabilité. Nous allons nous intéresser uniquement aux lois de ces variables. En fait, nous avons vu un tel exemple il y a déjà longtemps, dans le cours deux, dans la séance un du cours deux, quand nous avons étudié certaines variables aléatoires discrètes, et nous avions vu que si nous regardions une suite de loi binomiale de variable aléatoire Xn, où chaque Xn suit une loi binomiale de paramètre n et a indice n, avec l'hypothèse que a indice n se comporte comme thêta sur n quand n tend vers l'infini, donc c'était je vous rappelle, une loi binomiale modélise la somme de variables aléatoires, de n variable aléatoire indépendante de Bernoulli de paramètre an, et donc an ici faut le voir comme la probabilité de réalisation d'un événement aléatoire, et cette probabilité donc supposée petite, puisque an qui se comporte comme thêta sur n, va tendre vers zéro quand n tend vers l'infini. Donc on regarde le comportement limite de ces lois binomiales, c'est-à-dire de, avec des probabilités de réalisation d'événement de plus en plus petites. Eh bien nous pouvons montrer que donc si ces probabilités sont petites dans cette asymptotique-là, pour tout j fixé dans grand N, la probabilité d'avoir Xn égale j, va tendre vers, quand n tend vers l'infini, vers la probabilité d'avoir grand Y égale j pour grand Y une loi de poisson de paramètre thêta, hein. C'est-à-dire que ici on aura exponentiel moins thêta, thêta puissance j sur factorielle j. Je rappelle qu'une loi binomiale prend ses valeurs, une loi binomiale de paramètre n prend ses valeurs dans l'ensemble zéro virgule etc, petit n, et donc quand n tend vers l'infini, dans la limite on aura une variable aléatoire qui peut prendre toute valeur entière. Alors voyez qu'ici, quand on définit cette convergence-là, on regarde juste la probabilité d'avoir Xn égale j, et la probabilité d'avoir Y égale j, en fait ici on ne définit même pas Y, en tout cas on le ne définit pas sur l'espace de probabilité où nous avons construit les variables Xn. Donc c'est juste une convergences des lois, donc ici donc les lois sont définies j par g, et donc on peut regarder j par j ces convergences. Eh bien nous allons essayer de généraliser cette notion, pour des suites de variables aléatoires réelles, et même pour des suites de vecteurs aléatoires. Donc la définition de la convergence en loi est la suivante, on va dire que la suite Xn donc soit de variable, soit de vecteurs aléatoires converge en loi vers X, X variable ou vecteur donc suivant les cas, et on va écrire Xn tend en loi vers X, avec un L comme ça au dessus de la flèche, si pour toute fonction continue bornée, ces deux hypothèses sont indispensables, donc je l'appelle petit f, on peut montrer que l'espérance de f(Xn) tend vers espérance de f(X). Donc si Xn est une suite de variables aléatoires réelles, les fonctions seront définies de R dans R, si Xn est suite de vecteurs aléatoires de R puissance D, les fonctions seront définies de R puissance D à valeur réelle. L'hypothèse est que ces fonctions, donc qu'on appelle les fonctions test, doivent être continues bornées. Et si on a cette classe de fonctions ça suffit à nous caractériser cette notion de convergence. Alors, si les variables aléatoires sont discrètes, bien sûr dans ce cas-là la continuité veut pas dire, de f, veut pas dire grand chose, mais il suffit de regarder dans ce cas-là les fonctions qui vallent un, bon on va supposer que ces variables aléatoires Xn et leur limite X prennent un nombre fini de valeurs, si elles sont discrètes, même on va prendre un nombre fini, je vais les appeler a petit k, donc pour un nombre K de valeurs, eh bien dans cas-là il va suffire de prendre f égale un si X égale à K et zéro sinon, pour en déduire que quand Xn converge en loi vers X, alors pour tout petit k appartenant à un, grand K, la suite des nombres réelles P probabilité d'avoir Xn égal à K, converge vers la probabilité d'avoir X égale à K. Donc cette définition-là englobe bien le cas de l'exemple que nous venons de rappeler, juste précédemment. Alors, puisque les variables sont discrètes, en fait, si l'on connait toutes les probabilités d'avoir Xn égale à K, ou X égale à K, on sait que cela suffit à caractériser la loi de Xn ou de X, et donc à en déduire que l'espérance de f(Xn) tend vers l'espérance de f(X) pour toute fonction f, il suffit je vous rappelle, d'écrire que l'espérance de f(Xn) par exemple, c'est la somme des f de a k, probabilité d'avoir Xn égal à k. Donc le cas discret que l'on connaissait déjà sur des exemples, est bien englobé par cette définition. Alors bien sûr si cette définition, iii aux cas discrets, ça n'aurait pas trop d'intérêt, hein, mais l'intérêt de cette classe, et ce qui est important ici c'est cette classe de fonctions test que l'on utilise, donc l'intérêt va se révéler quand on considère des variables aléatoires réelles, ou des vecteurs aléatoires de R puissance D. Alors, un exemple, est le suivant, donc on va supposer que la suite Xn est une suite de variables aléatoires de lois normales centrées et de variances sigma n au carré, hein, donc la variance de Xn c'est sigma n carré, et je suppose que sigma n carré converge, ou que sigma n pardon, converge vers un nombre sigma strictement positif. Ce qui m'entraîne que sigma n est strictement positif à partir d'un certain rang. Eh bien dans ce cas-là, on va montrer que la suite Xn converge en loi vers une variable aléatoire de loi normale centrée, et de variance sigma deux. Donc en fait on a le théorème qu'on aurait envie d'avoir, si sigma n carré tend vers sigma carré, eh bien les Xn convergent en loi vers X de loi normale centrée et de variance sigma deux. Bien. Alors voyez que là encore, je n'ai pas précisé les espaces de probabilité sur lesquels je travaille. Bien, donc définition, pour montrer ça, on calcule espérance de f(Xn) pour f continue bornée et on regarde sa limite quand n tend vers l'infini. Alors, par définition, l'espérance de f(Xn), c'est l'intégrale sur tout R de f(y) fois la densité de Xn. Et la densité de Xn c'est un sur racine de deux pi, sigma n, e de moins y deux sur deux sigma n carré, dy. Quand n tend vers l'infini, on sait que sigma n tend vers sigma, qui est strictement positif, donc on sait que la quantité ici qui est sous l'intégrale, la quantité f(y) un sur racine de deux pi, sigma n, e puissance moins y deux sur deux sigma n carré, converge vers f(y) un sur racine de deux pi, sigma, e puissance moins y deux sur deux sigma deux. Donc maintenant on aimerait faire converger les intégrales. Alors là il y a un théorème qui nous le dit, et je vous renvoie pour cela au cours cinq, voyez qu'ici nous avons des fonctions qui convergent donc simplement vers la fonction limite, et qui sont bornées, parce que nous avons supposé que f était bornée. Et, par ailleurs, cette fonction-là, bien évidemment, est bornée hein, l'exponentiel de moins y deux sur quelque chose ça s'écrase très violemment, quand y tend vers plus ou moins l'infini. Donc on peut appliquer le théorème de convergence dominée, pour en déduire que ces intégrales ici qui dépendent de n convergent quand n tend vers l'infini, vers cette intégrale-là, et on reconnait ici l'espérance de f d'une variable aléatoire de loi normale, centrée, et de variance sigma deux. Donc nous avons montré que l'espérance de f(Xn) convergeaient vers l'espérance de f(X). Et on a bien le résultat. Alors, un dernier résultat que nous allons voir dans cette séance est un résultat qui nous donne le lien entre toutes les convergences que nous avons vues dans le cours cinq, hein, ces convergences qui déterminaient la proximité des variables aléatoires, et la convergence en loi. Donc on suppose maintenant qu'on a une suite de variables aléatoires définies sur le même espace de probabilité, et que cette suite Xn converge en probabilité vers X. Je vous rappelle que c'était la convergence la plus faible des trois convergences que nous avons définies dans le cours cinq, à savoir convergence presque sûr, convergence en moyenne et convergence en probabilité. Donc, nous supposons ici que la suite Xn converge en probabilité vers X, eh bien, nous allons en déduire que Xn converge en loi vers X. Ce qui veut dire que la convergence en loi, est une convergence plus faible que toutes les convergences que nous avons définies dans le cours 5, c'est dans ce sens-là que c'est intéressant parce qu'on peut avoir des suites qui convergent en loi mais pas en probabilité, ni, presque sûrement, ni en moyenne, et nous verrons cela à la fin du cours, quand nous montrerons le théorème de la limite centrale, on aura un théorème, une convergence en loi, et on n'aura pas de convergence en probabilité. Bien. Donc, cette notion de convergence est fondamentale en probabilité. Alors, nous allons montrer, donc, cette proposition qui nous fait le lien entre la convergence en probabilité et la convergence en loi. Et vous voyez cette preuve, donc, je vais vous en faire la preuve sur papier, mais, les 2 idées à voir, c'est que premièrement, on va montrer que si Xn converge en probabilité vers X, et si f est continue, eh bien, f de Xn converge en probabilité vers f de X, c'est un résultat en soi, et deuxièmement, si, de plus, on suppose que f est bornée, nous montrerons que cela entraîne que f de Xn converge dans L 1 vers f de X, ce qui va entraîner en particulier, que l'espérance de f de Xn tend vers l'espérance de f de X, et comme cela sera vrai pour toute fonction continue bornée, eh bien, nous en déduirons que Xn converge en loi vers X. Donc, montrons maintenant cette preuve, en 2 temps, comme nous venons de l'expliquer. Premier temps, on suppose donc que f est continue, et on va montrer que f de Xn converge en proba vers f de X. Alors, je vous rappelle que cela veut que si on se fixe epsilon positif, nous voulons montrer que la probabilité d'avoir valeur absolue de f de Xn moins valeur absolue de X, plus grand que epsilon, tend vers 0, quand n tend vers l'infini. Alors, je vous rappelle que nous avons supposé que f était continue. Alors, f continue, ça ne suffit pas tout à fait, parce que vous voyez que quand on écrit f de Xn moins f de X, en fait, on pense f de Xn de oméga moins f de X de oméga, et quand oméga varie, eh bien, nous allons évidemment avoir aussi une variation de Xn de oméga, et X de oméga. Donc, on aurait besoin d'un peu plus que la continuité, on aurait besoin d'uniforme continuité. Or, ce que nous savons c'est que si une fonction est continue, elle est uniformément continue dès lors qu'on la restreint à un espace compact, c'est-à-dire à, par exemple, à un intervalle fermé borné. Donc, nous allons nous fixer un certain K positif, et nous savons que dans ce cas-là, f va être uniformément continue sur, par exemple,- 2K, + 2K, et nous allons utiliser ce que ça veut dire. Alors, ça veut dire quoi? Ça veut dire que il existe, alors, donc, je me suis déjà fixée epsilon positif, donc, K est fixé, l'intervalle- 2K, + 2K, est fixé, et nous savons, donc, qu'il existe êta positif, tel que quelque soit x et y avec, donc, pardon, appartenant à- 2K, + 2K, dès que x- y est plus petit que êta, j'ai que f de x moins f de y est plus petit, on va mettre des inégalités larges, que epsilon. Donc, ça, je vais l'encadrer en vert, c'est la caractérisation de l'uniforme continuité de f sur l'intervalle- 2K, 2K. Alors, une autre remarque que nous pouvons également faire, qui est une remarque d'analyse, est que si on sait que x est inférieur ou égal en norme à K, et si de plus, si x- y est plus petit que êta, mais si êta est assez petit, donc, au risque de diminuer le êta de la continuité uniforme, eh bien, cela, ça va entraîner que y est inférieur ou égal à K. Donc, si je m'impose, déjà, si je sais a priori que x est plus petit que K et je pourrais toujours trouver êta suffisamment petit, qui vérifie d'une part que y est, pardon, compris entre- 2K et + 2K, et d'autre part, que la propriété d'uniforme continuité qui est écrite dans l'encadré vert, est vraie. Bien. Donc, muni de toutes ces informations d'analyse, nous allons maintenant pouvoir revenir à notre problème qui est, je vous le rappelle, d'étudier cette probabilité d'avoir valeur absolue de f de Xn moins f de X plus grand qu'epsilon et de montrer qu'elle tend vers 0, quand n tend vers l'infini. Pour cela, nous allons considérer notre ensemble de oméga où f de Xn moins f de X est plus grand que epsilon, et nous allons le couper en 2, en disant qu'il est inclu dans l'ensemble, où des oméga qui vérifient la même propriété, mais, alors, intersecté avec valeur absolue de X, donc la limite X plus grand que K, union, notre même ensemble, f de Xn moins f de X plus grand que epsilon, intersecté avec valeur absolue de X inférieur ou égal à K. Alors, cet ensemble, ici, qui est une intersection, va être inclu dans l'ensemble où valeur absolue de X est plus grand que K, donc, ce premier ensemble, on va juste le majorer globalement, l'inclure dans X plus grand que K, et l'autre en revanche, on ne va pas y toucher pour l'instant. [AUDIO_VIDE] Simplement, rappelez-vous, on sait que si X est plus petit que K, et si Xn moins X est plus petit qu'un certain êta, eh bien, dans ce cas-là, f de Xn moins f de X est plus petit que epsilon. Je vous rappelle que nous avons vu à la page précédente, que si x moins y est plus petit que êta, et si x est plus petit que K, eh bien, f de x moins f de y est plus petit que epsilon. Donc, si nous avons Xn et X, dans notre cas, tel que X est plus petit que K, et Xn moins X est plus petit que êta, eh bien, nous aurions f de X moins f de Xn en valeur absolue plus petit que epsilon. Ce qui veut dire que nécessairement, si f de Xn moins f de X est plus grand que epsilon eh bien, sur l'ensemble où valeur absolue de X est plus petit que K, nous aurons valeur absolue de Xn moins X plus grand que êta. Donc, réfléchissez bien à ce que je suis en train de dire là. Nous allons pouvoir écrire que probabilité de f de Xn moins f de X en valeur absolue plus grand que epsilon, majorée en vertu des propriétés des probabilités par rapport à l'inclusion et la réunion, donc majorée par la probabilité de X plus grand que K, plus la probabilité de f de Xn moins f de X en valeur absolue plus grand que epsilon, intersecté avec valeur absolue de X plus petit que K. Et par ce que l'on vient de voir, nous savons que cette probabilité-là, ici, va être inférieur ou égal à la probabilité d'avoir Xn moins X plus grand que êta, le êta de la continuité uniforme qu'on a défini dans la page précédente, et X inférieur ou égal à K, ça, c'est ce qu'on vient de voir. Alors, bah là, vous voyez, on a presque fini, donc j'ai écrit cette probabilité en vert, mais vous voyez que l'ensemble, ici, valeur absolue de Xn moins X plus grand que êta et X plus petit que K, est majoré par l'ensemble Xn moins X plus grand que êta, ce qui va nous permettre d'écrire finalement que la probabilité de f de Xn moins f de X plus grand que epsilon, est inférieur ou égal à la probabilité d'avoir X plus grand que K Plus la probabilité d'avoir Xn moins X plus grand que Êta. Alors là nous avons presque fini, nous savons que cette quantité là, ici, tend vers 0 quand n tend vers l'infini, car Xn tend en proba vers X, c'est la définition, puisque Êta est strictement positif. Donc nous allons en déduire que la limite sup, c'est pas forcément que la quantité de gauche a une limite mais ça a toujours une limite sup, la limite sup quand n tend vers l'infini de la probabilité de f de Xn moins f de X plus grand que Epsilon est inférieure ou égale, je vais mettre une barre là à probabilité de valeur absolue de X plus grand que K. Maintenant nous allons faire tendre K vers l'infini. Et l'on sait que la probabilité que X soit plus grand que K tend vers 0 quand K tend vers plus l'infini. En effet, terme à terme, plus grand X est une valeur aléatoire à terme réel, la fonction indicatrice de X de Oméga plus grand que grand K, si Oméga est fixé, va tendre, cette indicatrice va tendre vers 0 quand K tend vers l'infini, les indicatrices sont des fonctions bornées, donc par théorème de convergence dominée, on en déduit que cette probabilité tend vers 0. donc là encore vous voyez on utilise le théorème de convergence dominée, en fait, vous pourrez remarquer qu'on l'a déjà utilisé plusieurs fois dans ce cours 6. Eh bien voilà, nous avons fini donc le terme de droite de mon inégalité ici tend vers 0 quand K tend vers l'infini. Ma quantité de gauche ne dépend pas de K et donc puisqu'elle est positive, on en déduit finalement que cette limite sup est une limite et donc la limite quand n tend vers l'infini de probabilité de f de Xn moins f de X en valeur absolue plus grand que Epsilon est égale à 0. Ce qui nous montre la première partie de la proposition à savoir que la suite f de Xn converge en proba vers f de X. Je vous rappelle que pour cela nous avons uniquement supposé que f était continue. Donc là c'est un P. Nous allons finir la preuve en montrant que si nous supposons de plus que f est bornée, eh bien f de Xn convergera non seulement en probabilité mais aussi en moyenne vers f de X. Ces 2 résultats sont intrinsèquement intéressants indépendamment de la proposition que l'on cherche à démontrer. Donc nous supposons que f est bornée, par un certain réel positif M ce qui va entraîner que pour tout Oméga valeur absolue de de Xn de Oméga va être majorée par grand M et de même valeur absolue de f de X sera majorée par grand M. Et nous savons de plus que f de Xn converge en probabilité vers f de X. et je vous rappelle que nous voulons montrer que tout ça entraîne que f de Xn converge dans L1, en moyenne dans L1, vers f de X. Alors pour ce faire, je vous rappelle que montrer la convergence, je l'écris encore en rouge, dans L1, c'est montrer que l'espérance de valeur absolue de f de Xn moins f de X tend vers 0 quand n tend vers l'infini, ça c'est ce que nous voulons montrer. Alors nous allons écrire f de Xn moins f de X et on a déjà une information sur l'ensemble où f de Xn moins f de X est plus grand que Epsilon, ensemble dont on sait qu'il tend que sa probabilité tend vers 0 quand n tend vers l'infini puisque f de Xn converge vers f de X en probabilité. bien, donc nous allons écrire une inégalité qui est immédiate à savoir que cet écart f de Xn moins f de X va être plus petit que Epsilon sur l'ensemble où il est plus petit que Epsilon donc ça c'est une tautologie on va dire. Là sur l'ensemble où f de Xn moins f de X est plus grand que Epsilon je vais majorer la différence f de Xn moins f de X par la somme des valeurs absolues f de Xn plus f de X, donc c'est multiplié par l'indicatrice de f de Xn moins f de X plus grand que Epsilon.Bien, donc on va décomposer suivant ces 2 ensembles. alors je majore l'indicatrice du premier terme par 1 donc le premier terme va être majoré par Epsilon plus alors le deuxième terme, on sait que f de Xn et f de X sont majorées en valeurs absolues par grand M. Donc je vais avoir 2 grands M indicatrices de f de Xn moins f de X plus grand que Epsilon. Vous voyez que la preuve est presque finie maintenant puisque si je prends de part et d'autre les probabilités, je vais avoir que les espérances pardon, que espérance de f de Xn moins f de X va être majorée par Epsilon plus 2 M, l'espérance d'une indicatrice c'est la probabilité, de f de Xn moins f de X plus grand que Epsilon. Or, maintenant, nous pouvons faire tendre n vers l'infini, puisque nous savons que f de Xn tend vers f de X en probabilité, nous savons que cette quantité là, cette probabilité là tend vers 0 quand n tend vers l'infini. Donc nous en déduisons, pour l'instant on a fixé un Epsilon positif, nous en déduisons, là encore, que pour tout Epsilon positif, donc on regarde alors les espérances de Xn moins f de X pour l'instant on sait pas encore si ça a une limite, mais ça a une limite sup donc a une limite sup en n qui est majorée par Epsilon. donc on peut faire tendre Epsilon vers 0, à gauche le terme ne dépend pas de Epsilon et à droite bien sûr ça tend vers 0 et donc puisque le terme de gauche est positif on en déduit donc que la limite sup est une limite et que la limite quand n tend vers l'infini de l'espérance de f de Xn moins f de X est égale à 0. Ceci nous caractérise la convergence en moyenne de f de Xn vers f de X, en particulier nous avons montré que l'espérance de f de Xn convergeait, là c'est un nombre, c'est une suite de nombre réels, bornés même puisqu'on sait que f est bornée, converge vers l'espérance de f de X. Et cela nous l'avons montré pour toute fonction continue bornée donc finalement tout ceci entraîne que Xn, la suite Xn, converge en loi vers X. Et cela termine la preuve de cette proposition qui est un peu longue mais qui est vraiment fondamentale puisqu'elle fait le lien entre toutes les convergences que nous avons vu dans le cours 5, et cette convergence que nous avons défini dans le cours 6 de convergence en loi. Bien, donc pour résumer je vous propose d'enregistrer le tableau suivant donc qui est la relation entre les modes de convergence que nous avons vu jusqu'à lors convergence en moyenne entraîne convergence en probabilité et on vient de voir que ça entraîne la convergence en loi. Nous avons vu également que la convergence presque sûr entraîne la convergence en probabilité. Bon, on vient de voir aujourd'hui j'aurais pu mettre une petite flèche en partie dans l'autre sens que si on avait convergence en probabilité avec des suites de variables aléatoires et une limite qui était bornée on pouvait en déduire la convergence en moyenne et on a vu grâce au théorème de convergence dominée que si on avait convergence presque sûr plus une hypothèse de domination indispensable je vous le rappelle, eh bien cela entraîne qu'on a la convergence en moyenne. dons ce schéma là vous résume en fait toutes ces notions de convergence que l'on a vus entre les cours 5 et les cours 6.