Famille exponentielle

Une famille exponentielle est un objet mathématique qui est, en probabilité et statistique, une classe de distributions de probabilité dont la forme générale est donnée par :

Ne doit pas être confondu avec loi exponentielle.

est la variable aléatoire, un paramètre et son paramètre naturel.

Propriétés algébriques

Les familles exponentielles présentent certaines propriétés algébriques remarquables.

La caractérisation d'une distribution en famille exponentielle permet de reformuler la distribution à l'aide de ce qu'on appelle des paramètres naturels.

En statistique fréquentiste, elles permettent d'obtenir facilement des statistiques d'échantillonnage, à savoir les statistiques suffisantes naturelles de la famille, qui résument un échantillon de données à l'aide d'un nombre réduit de valeurs.

En statistique bayésienne, elles possèdent des prieures conjuguées qui facilitent la mise à jour des distributions dites "subjectives".

De plus, la distribution prédictive a posteriori d'une variable aléatoire de famille exponentielle (à prieure conjuguée) peut toujours s'écrire en forme close (pour autant que le facteur de normalisation de la famille exponentielle puisse lui-même s'écrire en forme close). Il est à noter toutefois que souvent ces distributions ne sont pas elles-mêmes de famille exponentielle[pas clair]. Exemples courants : la loi t de Student, la loi bêta-binomiale ou la loi de Dirichlet multinomiale.

Les familles exponentielles apparaissent de façon naturelle dans la recherche de distributions lors d'applications statistiques, en particulier dans les méthodes bayesiennes.

La famille exponentielle comprend quantité de distributions parmi les plus courantes : normale, exponentielle, gamma, χ2, bêta, Dirichlet, Bernoulli, Bernoulli multinomiale, Poisson, Wishart, Wishart inverse, etc. D'autres distributions courantes ne forment une famille exponentielle que si certains paramètres sont fixes et de valeur connue, telles les distributions binomiale et multinomiale (pour un nombre de tirages fixe dans les deux cas), et binomiale négative (pour un nombre d'échecs fixe). Parmi les distributions d'usage courant qui ne sont pas de famille exponentielle, on peut citer la loi t de Student, la plupart des mixtures, ainsi que la famille des distributions uniformes de bornes non fixées.

Origine et terminologie

La notion de famille exponentielle a été développée en 1935/36 par Georges Darmois[1], E. J. G. Pitman[2] et Bernard Koopman [3].
Le terme classe exponentielle est parfois utilisé dans le même sens[4],[5].

À proprement parler, une distribution est définie par les valeurs spécifiques des constantes utilisées dans sa formulation : par exemple, la loi normale donne une distribution normale avec une moyenne et un écart-type . Une « famille » de distributions est définie par un ou plusieurs paramètres variables : par exemple les familles de Poisson . Cette famille peut être considérée comme exponentielle lorsque la fonction de densité/probabilité prend une forme algébrique particulière entre la variable aléatoire et les paramètres : la séparation des facteurs.

Dans la pratique cependant, on entend parler de la famille exponentielle, là où il faudrait citer les familles exponentielles ; de même qu'on parle de distribution pour dire "famille de distributions". Ainsi, nous disons couramment la distribution normale pour parler de la famille de distributions normales à moyenne et variance inconnues .

  • La célèbre distribution binomiale est en réalité une famille de distributions-sœurs caractérisées par un paramètre n (nombre de tirages) et un paramètre p (probabilité de succès).
  1. Si n et p ont tous deux reçu une valeur particulière (ex : n=20, p=0.1), est une distribution binomiale unique.
  2. Si n a reçu une valeur particulière (n=20), mais p peut varier, il s'agit d'une famille de distributions binomiales, caractérisée par le paramètre p. n est une constante et non un paramètre.
  3. Si n et p sont tous deux libres de varier, il s'agira d'une famille plus large de distributions binomiales, de paramètres n etp.

Les trois situations sont habituellement dénommées "la distribution binomiale", mais seule la seconde constitue une famille exponentielle.

  • Le cas de la distribution uniforme est à remarquer.
    • Parfois, l'expression "nombre aléatoire tiré d'une distribution uniforme" fait référence à la distribution uniforme continue entre 0 et 1. Cette même est décrite comme un cas particulier de la distribution Bêta. Comme la Bêta est de famille exponentielle, d'aucuns seraient tentés de conclure que l'Uniforme est aussi de famille exponentielle. Mais en réalité cet exemple n'est qu'une distribution uniforme particulière, et non une famille.
    • Quant à la famille de distributions uniformes, elle est caractérisée par la nature paramétrique d'une ou des deux bornes. Aucune de ces familles n'est une famille exponentielle.

Définition

Une famille exponentielle est un ensemble de distributions dont la loi de probabilité (discrète ou continue) peut s'écrire sous la forme de facteurs séparables :

, , et sont précisées.

Souvent, la densité s'écrira sous la forme alternative

ou même

La valeur est le paramètre de la famille.

La variable aléatoire peut représenter un vecteur de plusieurs mesures. Dans ce cas, est une fonction de plusieurs variables. Que soit scalaire ou vectoriel, et même s'il y a un paramètre unique, les fonctions et peuvent prendre la forme de vecteurs.

Forme canonique

La famille exponentielle est dite en forme canonique (ou naturelle) lorsque . Il est toujours possible de convertir une famille exponentielle en forme canonique, par la définition d'un paramètre transformé  :

La valeur η est un paramètre naturel de la famille.

La forme canonique n'est pas unique, puisque peut être multiplié par une constante non nulle, pourvu que soit multiplié par la constante inverse.

La fonction (alternativement ) est définie automatiquement par le choix des autres fonctions : elle assure que la distribution est normalisée (la somme ou l'intégrale sur toutes les valeurs doit donner une probabilité égale à 1). On notera que ces deux fonctions sont toujours des fonctions de . Ceci veut dire que si n'est pas bijective, c'est-à-dire si plusieurs valeurs de donnent la même valeur de , alors toutes les valeurs ayant la même image auront également la même valeur pour ou [pas clair].

Famille exponentielle vectorielle

La définition ci-dessus, bien qu'à première vue exprimée en termes d'un paramètre scalaire, reste valable pour un paramètre vecteur de réels . La distribution est dite de famille exponentielle vectorielle si la fonction de densité (ou de probabilité, pour les discrètes) s'écrit :

ou, en forme compacte :

La somme est écrite comme le produit scalaire des fonctions-vecteurs et .

On peut également rencontrer une forme alternative du type :

Comme précédemment, la famille exponentielle est sous forme canonique si , pour tout .

Famille exponentielle vectorielle courbe

Une famille exponentielle vectorielle est dite courbe si la dimension du vecteur paramètre est inférieure à la dimension du vecteur , le nombre de fonctions du vecteur paramètre dans la représentation factorisée.

Il est à noter que la plupart des distributions courantes de famille exponentielle ne sont pas courbes, de sorte que nombre d'algorithmes conçus pour la famille exponentielle supposent implicitement ou explicitement que la distribution n'est pas courbe.

La fonction de normalisation ou peut toujours s'écrire en fonction de , quelles que soient les transformations de en . La famille exponentielle suivante est en « forme naturelle » (paramétrée par son paramètre naturel) :

ou :

Variable vectorielle

De même qu'un paramètre scalaire est généralisable à un paramètre vectoriel, une variable aléatoire simple (scalaire) peut se généraliser à une distribution conjointe sur un vecteur de variables aléatoires : chaque notation scalaire est alors remplacée par un vecteur . Il est à noter que la dimension du vecteur aléatoire ne correspond pas nécessairement à la dimension du vecteur paramètre, ni (pour une fonction exponentielle courbe) à la dimension du paramètre naturel et de la statistique suffisante .

La distribution s'écrit alors :

ou :

Propriétés

Les fonctions T(x), η(θ) et A(η) qui apparaissent dans les définitions ne sont pas totalement arbitraires. Elles jouent un rôle important pour l'analyse statistique.

  • T(x) est une statistique suffisante (ou exhaustive) de la distribution. Une statistique suffisante est une fonction qui résume parfaitement les données mesurées x dans le cadre d'un échantillon tiré de cette distribution : même si un autre jeu de données y diffère complètement de x, mais que T(x) = T(y), alors la densité estimée à partir des observations sera la même, c.à.d. elle aura le même paramètre.

La dimension de T(x) égale le nombre de paramètres de η.

La statistique suffisante d'une collection de données indépendantes et identiquement distribuées (i.i.d.) est la somme des statistiques suffisantes individuelles. En estimation bayésienne, elle contient toute l'information nécessaire au calcul de la distribution a posteriori des paramètres, conditionnellement aux observations. En estimation classique, elle suffit pour construire un estimateur des paramètres.

  • η est le paramètre naturel de la distribution. L'ensemble des valeurs de η pour lesquelles la fonction fX(x|θ) est finie est appelé l' espace paramétrique naturel. On peut montrer que cet espace paramétrique naturel est toujours convexe.
  • A(η) est parfois appelée la fonction de log-partition parce qu'elle est le logarithme du facteur de normalisation a(η) (la "fonction de partition" des statisticiens)  :
ou
L'utilité de la fonction A apparaît quand il faut calculer la moyenne, la variance et les autres moments de la statistique suffisante T(x) : il suffit de dériver A(η).
Par exemple, on veut calculer l'espérance du logarithme d'une variable aléatoire Gamma. Comme ln(x) est une composante de la statistique suffisante de la distribution Gamma, l'espérance se calcule aisément en dérivant .
  • b(x) est la mesure de base. Elle sert au calcul d'une prieure non informative (= entropie maximale).

Factorisation

Un moyen de caractériser une famille exponentielle est sa factorisation en un produit de termes contenant chacun un seul type de variable, paramètres ou variables aléatoires. Ces facteurs sont présents soit directement, soit dans l'exponentiation (base ou exposant). De façon générale, les facteurs multipliés entre eux devront donc avoir une des formes suivantes :

f(x) et h(x) sont des fonctions quelconques de x, g(θ) et j(θ) sont des fonctions quelconques de θ ; et c est une expression quelconque "constante" (c.à.d. ne comportant ni x ni θ).

La forme est acceptable parce que qui se factorise dans l'exposant. De même pour .

Ces facteurs sont toutefois limités en nombre. Par exemple, l'expression est identique à , un produit de deux facteurs "autorisés". Pourtant, sa forme factorisée

n'a pas la forme requise. (Par contre, ce genre d'expression constitue une famille exponentielle courbe, qui permet plusieurs termes factorisés dans l'exposant.)

Une somme incluant les deux types de variables, comme par exemple le facteur [1+f(x)g(θ)], ne se prête pas toujours à la factorisation. C'est la raison pour laquelle la loi de Cauchy et la t de Student, par exemple, ne sont pas de famille exponentielle.

Exemples de factorisation

La distinction entre paramètres et constantes est fondamentale pour déterminer si une "distribution" est ou non de famille exponentielle.

Paramètre scalaire

La variable aléatoire normale de moyenne inconnue μ mais de variance σ2 constante a pour fonction de densité

En posant

on voit que c'est une famille exponentielle, à paramètre simple μ.

Si σ = 1, elle est en forme canonique, car alors η(μ) = μ.

Paramètre vectoriel

Dans le cas de la normale de moyenne inconnue μ et de variance inconnue σ2, la fonction de densité

est une famille exponentielle à paramètre vectoriel (μ , σ) qui s'écrit sous forme canonique en posant

Distribution discrète

La distribution binomiale à nombre de tirages n constant constitue un exemple de famille exponentielle discrète. Sa densité de probabilité

se factorise en

.

Son paramètre naturel vaut

qu'on appelle la fonction logit.

Tableau de familles exponentielles

Ce tableau reprend une sélection de distributions courantes et leur réécriture en famille exponentielle à paramètres naturels, de forme générale

On a privilégié la forme fonctionnelle avec une fonction de log-partition A(η), parce que les moments de la statistique suffisante se calculent facilement en dérivant cette dernière fonction. On a donné également la fonction A(θ).

En règle générale, le domaine de définition, ou support, reste constant parmi toutes les distributions d'une famille exponentielle. Ceci explique pourquoi la variation des paramètres fixés ci-dessus (comme la binomiale à nombre de tirages variable) rend la famille non exponentielle — le paramètre en question affecte le support (en l'occurrence, il modifie la valeur minimum ou maximum possible). C'est pour la même raison que la famille des Uniformes n'est pas non plus exponentielle.

La loi de Weibull à paramètre de forme k fixé est une famille exponentielle. Pourtant, le paramètre de forme ne modifie pas le support. Dans ce cas, c'est la forme particulière de sa fonction de densité (k apparaît dans l'exposant d'un exposant) qui empêche la factorisation de la Weibull si k varie.

  • Ne sont pas de famille exponentielle : les distributions F de Fisher-Snedecor, Cauchy, hypergéométrique et logistique. De même, la plupart des distributions qui résultent du mélange fini ou infini de distributions ne sont pas des familles exponentielles : les mélanges gaussiens, les distributions "à grosse queue" construites par composition telles la t de Student (composition d'une loi normale par une loi gamma), la Bêta-binomiale et la Dirichlet-multinomiale.


Distributionparamètre θparamètre naturel ηfonction réciproque θ(η)mesure de base
b(x)
statistique suffisante T(x)log-partition A(η)A(θ)
Bernoullip

(fonction logit)

(fonction logistique)

1 x
binomiale
(n constant)
p x
Poissonλ x λ
Binomiale négative
(r constant)
p ln(p) x r ln(1–p)
Exponentielleλ –λ 1 x
Pareto
(minimum xm constant)
α 1 ln(x)
   

   
Weibull
(k constant)
λ –λk xk
Laplace
(μ constant)
b 1 ln(2b)
Khi-carréν ln(x)

  

   
Normale
(variance constante)
μ σ η
Normaleμ , σ2
Log-normaleμ , σ2
Normale inverseμ, λ
Gamma-Normaleα, β, μ, λ
  

  


      

Gammar,λ 1

  
k,θ
Gamma inverse r, λ 1

  
Khi-carré inverse ν, σ2 1

  

      

Bêtaα, β

  


  
Dirichletα1,...,αk 1
  

      

Normale multivariée μ, Σ

      


      

WishartV, n 1

      


      


  

  • A(η) est donnée sous trois formes, afin de faciliter le calcul des moments.
  • NOTE: Se rappeler que Tr(A'B) = vec(A) • vec(B) ; autrement dit, la trace d'un produit matriciel est semblable à un produit scalaire. Les paramètres matriciels sont considérés comme des vecteurs dans la forme exponentielle. Par ailleurs, V et X sont symétriques.
Wishart inverseΨ, m 1

   


 


  

multinomiale
(n constant)
(= Multi-Bernoulli
si n=1)
version 1
p1,...,pk

avec


0 0
Multinomiale
(n constant) version 2
p1,...,pk–1

avec

La variante de la multinomiale résulte du fait que les paramètres pi sont contraints par . Il n'y a donc que k-1 paramètres indépendants.

  • Dans la version 1, on voit k paramètres naturels et une relation simple entre les paramètres standard et naturel. Cependant, k-1 seulement des paramètres naturels sont indépendants, et du coup l'ensemble des k paramètres naturels est non identifiable. La contrainte sur les paramètres normaux se transpose à l'identique sur les paramètres naturels.

Notez que la version 1 n'est pas une famille exponentielle standard. C'est une famille exponentielle courbe, puisque k-1 paramètres indépendants sont incorporés dans un espace k-dimensionnel. Les propriétés de base des familles exponentielles ne s'appliquent pas aux familles exponentielles courbes. Par exemple on voit que la fonction de log-partition A(x) a la valeur 0.

  • La version 2 montre une manière simple de rendre les paramètres identifiables en fixant pk. Cela force le dernier paramètre naturel à la valeur constante 0. Les autres formules sont écrites de façon à ne pas utiliser pk, de sorte que le modèle n'a bien que k-1 paramètres, tant sous forme normale que sous forme canonique.

Applications

Estimation classique : exhaustivité

Le théorème de Pitman–Koopman–Darmois montre que parmi les familles de distributions dont le domaine ne dépend pas du paramètre à estimer, seules les familles exponentielles offrent une statistique suffisante dont la dimension reste bornée quand la taille d'échantillon croît.

Concrètement, soient Xk, (où k = 1, 2, 3, ... n) des variables aléatoires indépendantes, identiquement distribuées. Il faut que leur distribution soit de famille exponentielle pour qu'existe une statistique suffisante T(X1, ..., Xn) dont le nombre de composantes scalaires n'augmente pas avec la taille d'échantillon n : sa dimension ne changera pas quand on collecte plus de données.

Estimation bayesienne : distributions conjuguées

En inférence bayésienne, une distribution a priori d'un paramètre à estimer est multipliée par une fonction de vraisemblance (puis normalisée) pour aboutir à une distribution a posteriori.

Une prieure conjuguée est une distribution a priori qui, après combinaison à la fonction de vraisemblance, donne une distribution a posteriori de même type, ce qui rend particulièrement facile le calcul de la postérieure. Par exemple, pour estimer la probabilité de succès p d'une loi binomiale, si on prend une distribution bêta comme prieure, la postérieure sera une autre distribution bêta. De même, l'estimation du paramètre d'une Poisson par une prieure Gamma donne une postérieure Gamma. Les prieures conjuguées sont souvent très pratiques, de par leur flexibilité.

Lorsque la fonction de vraisemblance est de famille exponentielle, il existe une prieure conjuguée, qui sera en général elle aussi de famille exponentielle. En règle générale, une fonction de vraisemblance ne sera pas de famille exponentielle, et donc il n'existera pas de prieure conjuguée. La postérieure devra être calculée par des méthodes numériques.

La prieure conjuguée π (pour "prior") sur le paramètre η d'une famille exponentielle est donnée par

  • ν > 0 représente le nombre virtuel d'observations fournies par la prieure.
  • (s étant la dimension de η) représente la contribution de ces pseudo-observations dans la statistique suffisante constituée de toutes les observations et pseudo-observations.

χ et ν sont des hyperparamètres (paramètres contrôlant des paramètres).

  • f(χ,ν) est la constante de normalisation, déterminée automatiquement par les autres fonctions, qui sert à assurer que π(η| χ,ν) est une fonction de densité.
  • A(η) (resp. a(η)) sont les mêmes fonctions que dans la distribution p(x| χ) pour laquelle π est prieure conjuguée.


Pour voir que cette distribution a priori est une prieure conjuguée, calculons-en la postérieure.

Soit la fonction de densité (ou de probabilité) d'une observation, de famille exponentielle, écrite en paramètre naturel :

La vraisemblance des données X = (x1, ...,xn) est donnée par :

Par conséquent, en appliquant la distribution a priori susdite :

on dérive la postérieure :

Ainsi, la postérieure a effectivement la même forme que la prieure :

Notons que les observations X n'entrent dans la formule que à travers , autrement dit la statistique suffisante des observations. Ceci confirme que la valeur de la statistique suffisante détermine complètement la distribution a posteriori. Les valeurs individuelles des observations ne sont pas nécessaires ; tout ensemble de données avec la même valeur pour la statistique suffisante produira la même distribution. Or, rappelons que la dimension de la statistique suffisante ne croît pas avec la taille d'échantillon : elle a au plus le nombre de composantes de η (à savoir, le nombre de paramètres de la distribution d'une seule donnée).

Les nouveaux hyperparamètres sont


La mise à jour bayesienne ne nécessite que de savoir le nombre d'observations et la valeur de la statistique suffisante des données.

Tests d'hypothèses : tests uniformément plus puissants

Pour une famille exponentielle à paramètre simple θ, si η(θ) est non-décroissant, le ratio de vraisemblance est une fonction monotone non-décroissante de la statistique suffisante T(x). En conséquence, il existe un test d'hypothèse "uniformément plus puissant" pour tester H0 : θθ0 contre H1 : θ < θ0.

Modèle linéaire généralisé

La famille exponentielle est à la base des fonctions de distribution utilisées dans le modèle linéaire généralisé, qui comprend la plupart des modèles de régression en statistique et en économétrie.

Calcul des cumulants de T par différenciation

La fonction génératrice des moments de T(x) est définie comme

Par conséquent, K(u|η) = A(η+u) – A(η) est la fonction génératrice des cumulants de T.

N.B. : Dans la sous-famille exponentielle naturelle (où T(x) = x), c'est la fonction génératrice des moments de x.

Par définition de la fonction génératrice des cumulants,

Les moments et cumulants d'ordre supérieur sont fournis par les dérivées supérieures. Cette technique est particulièrement utile lorsque T est une fonction compliquée, dont les moments sont difficiles à calculer par intégration.

Ce résultat est démontrable sans recourir à la théorie des cumulants.

Exemple : soit

.

Par contrainte de normalisation,

.

On dérive les deux côtés par rapport à η :

Par conséquent,

Exemples

Loi Gamma

La distribution Gamma est définie par la fonction de densité

Le tableau ci-dessus donne pour paramètre naturel

dont les réciproques sont

Les statistiques suffisantes sont (ln x, x), et la fonction de log-partition vaut

On cherche la moyenne de la statistique suffisante. Pour η1 :

ψ(x) est la fonction digamma (dérivée du log gamma).

De même, pour η2 :

Pour trouver la variance de x, il faut différencier à nouveau :

Tous ces calculs peuvent se faire par intégration, en partant de la fonction gamma, mais cela demande plus d'effort.

Loi logistique asymétrique

Soit une variable aléatoire réelle X de loi logistique asymétrique.

θ > 0 est un paramètre de forme. Cette densité se factorise comme suit :

C'est donc une famille exponentielle de paramètre naturel η = –θ, donc une statistique suffisante est T = log(1 + ex), et la fonction de log-partition vaut A(η) = –log(θ) = –log(–η).

Ainsi, par la première équation,

et par la seconde,

Dans cet exemple, l'usage de la méthode simplifie les calculs, une approche directe alourdissant grandement les égalités.

Loi de Wishart

La loi de Wishart est définie sur des matrices aléatoires. Ce dernier exemple aborde un cas où l'intégration serait particulièrement ardue. N.B. : la dérivation elle-même est difficile, car elle exige du calcul matriciel, mais l'intégration est pire.

Le tableau donne le paramètre naturel

dont la transformation réciproque est

.

Les statistiques suffisantes sont (X, ln|X|).

La fonction de log-partition est donnée sous différentes formes, afin de faciliter la différentiation et les transformations. On utilisera les formes suivantes :

Espérance de X (associé à η1)

La dérivée par rapport à η1 repose sur l'égalité calcul matriciel :

Dès lors :

car V est symétrique.

Espérance de ln|X| (associé à η2)

D'abord, on développe la partie de la log-partition qui contient la fonction gamma multivariée :

On introduit la fonction digamma .

Dès lors :

Ces deux espérances sont nécessaires pour dériver les équations d'adaptation variationnelle d'un réseau bayésien qui comporte une distribution de Wishart (laquelle est la prieure conjuguée de la normale multivariée).

Entropie maximale

Maximum entropy probability distribution (en)

On cherche la distribution dont l'entropie est maximale, conditionnellement à une série de contraintes sur les espérances. La réponse est une famille exponentielle.

L'entropie informationnelle d'une distribution de probabilité dF(x) se calcule par rapport à une autre distribution de probabilité (ou, de façon plus générale, une mesure positive), telle que les deux mesures soient mutuellement absolument continues. Soit une mesure de base dH(x) de même support que dF(x).

L'entropie de dF(x) relativement à dH(x) est définie comme

dF/dH et dH/dF sont les dérivées de Radon–Nikodym.

On note que la définition habituelle de l'entropie d'une distribution discrète sur un ensemble Y, à savoir , suppose implicitement que la mesure dH choisie est la mesure de comptage de Y.
De même, pour une distribution continue, H(x)=x donne


Soit un échantillon de quantités observables (variables aléatoires) Tj.
La distribution dF d'entropie maximale par rapport à dH, conditionnellement à ce que l'espérance de Tj soit égale à tj, sera un membre de la famille exponentielle ayant dH pour mesure de base et (T1, ..., Tn) pour statistique(s) suffisante(s).

Ce résultat se déduit par le calcul des variations à l'aide de multiplicateurs de Lagrange. La normalisation est garantie en imposant la contrainte T0 = 1. Les paramètres naturels de la distribution sont les multiplicateurs de Lagrange associés aux tj et le facteur de normalisation est le multiplicateur de Lagrange associé à T0.

Notes et références

  1. G. Darmois, « Sur les lois de probabilités à estimation exhaustive », C.R. Acad. Sci. Paris, vol. 200, , p. 1265–1266.
  2. (en) E. Pitman et J. Wishart, « Sufficient statistics and intrinsic accuracy », Mathematical Proceedings of the Cambridge Philosophical Society, vol. 32, no 4, , p. 567–579 (DOI 10.1017/S0305004100019307).
  3. (en) B Koopman, « On distribution admitting a sufficient statistic », Transactions of the American Mathematical Society, vol. 39, no 3, , p. 399–409 (DOI 10.2307/1989758, JSTOR 1989758, Math Reviews 1501854).
  4. Kupperman, M. (1958) "Probabilities of Hypotheses et Information-Statistics in Sampling from Exponential-Class Populations", Annals of Mathematical Statistics, 9 (2), 571–575 JSTOR:2237349.
  5. (en) Erling etersen, « Sufficiency et Exponential Families for Discrete Sample Spaces », Journal of the American statistique Association, vol. 65, no 331, , p. 1248–1255 (DOI 10.2307/2284291, JSTOR 2284291, Math Reviews 268992).

Voir aussi

Bibliographie

  • (en) E. L. Lehmann, Casella, G., Theory of Point Estimation, , 2nd ed., sec. 1.5 p.
  • (en) Robert W. Keener, Statistical Theory: Notes for a Course in Theoretical Statistics, Springer, , 27–28, 32–33 p.
  • (en) Ludwig Fahrmeier, Tutz, G., Multivariate statistical modelling based on generalized linear models, Springer, , 18–22, 345–349 p.

Liens externes


  • Portail des probabilités et de la statistique
Cet article est issu de Wikipedia. Le texte est sous licence Creative Commons - Attribution - Partage dans les Mêmes. Des conditions supplémentaires peuvent s'appliquer aux fichiers multimédias.