Théorème de Lochs

En mathématiques, et plus précisément en analyse, le théorème de Lochs, démontré en 1964 par Gustav Lochs, un élève de Kurt Reidemeister[1], est un résultat concernant la vitesse de convergence du développement en fraction continue d'un nombre réel typique.

Énoncé

Pour presque tous les nombres réels de l'intervalle ]0, 1[, le nombre m de termes du développement de ce réel en fraction continue permettant d'en obtenir les n premières décimales a le comportement asymptotique suivant :

(suite A086819 de l'OEIS)[2].

On peut interpréter ce résultat comme affirmant que chaque terme supplémentaire de la représentation en fraction continue d'un réel « typique » donne une précision d'un peu plus d'une décimale supplémentaire. La base dix est d'ailleurs la plus grande base pour laquelle la représentation positionnelle est moins précise (à ce sens) que celle en fraction continue : en base onze, la constante correspondante, , devient supérieure à 1.

L'inverse de cette limite,

(suite A062542 de l'OEIS),

est le double du logarithme décimal de la constante de Lévy.

Notes

  1. (de) Gustav Lochs, « Vergleich der Genauigkeit von Dezimalbruch und Kettenbruch », Abhandlungen aus dem Mathematischen Seminar der Universität Hamburg, vol. 27, , p. 142-144 (DOI 10.1007/BF02993063).
  2. (en) Eric W. Weisstein, « Lochs' Theorem », sur MathWorld.

Références

  • (en) Karma Dajani et Cor Kraaikamp, Ergodic theory of numbers, Cambridge University Press, 2002 (ISBN 978-0-88385034-3), p. 173 sur Google Livres
  • (en) C. Faivre, « A central limit theorem related to decimal and continued fraction expansion », Arch. Math., vol. 70, no 6, 1998, p. 455-463 DOI:10.1007/s000130050219
  • Portail de l'analyse
Cet article est issu de Wikipedia. Le texte est sous licence Creative Commons - Attribution - Partage dans les Mêmes. Des conditions supplémentaires peuvent s'appliquer aux fichiers multimédias.