Epsilon d'une machine

L'epsilon d'un microprocesseur (abrégé en eps) donne la limite supérieure de l'erreur d'approximation relative causé par l'arrondi des calculs de ce microprocesseur en arithmétique à virgule flottante. Cette valeur est une caractéristique de l'arithmétique des ordinateurs dans le domaine de l'analyse numérique, et par extension dans le sujet du calcul scientifique. L'epsilon est aussi appelé macheps ou unité d'arrondi[1]. Il est parfois noté à l'aide du symbole grec epsilon ou gras Romain u.

Pour les articles homonymes, voir eps.

Valeur pour les unités matérielles standard d'arithmétique à virgule flottante

Les valeurs d'epsilon standards suivantes s'appliquent pour le matériel implémentant les normes IEEE de calcul en virgule flottante:

IEEE 754 - 2008 Nom usuel type de donnée C++ Base Précision   Epsilon[notes 1]   Epsilon[notes 2]
binary16 demi-précision short 2 11 (un des bits est implicite) 2−11 ≈ 4.88e-04 2−10 ≈ 9.77e-04
binary32 simple précision float 2 24 (un des bits est implicite) 2−24 ≈ 5.96e-08 2−23 ≈ 1.19e-07
binary64 double précision double 2 53 (un des bits est implicite) 2−53 ≈ 1.11e-16 2−52 ≈ 2.22e-16
? précision étendue (en) _float80[2] 2 64 2−64 ≈ 5.42e-20 2−63 ≈ 1.08e-19
binary128 quadruple précision _float128[2] 2 113 (un des bits est implicite) 2−113 ≈ 9.63e-35 2−112 ≈ 1.93e-34
decimal32 simple précision décimale _Decimal32[3] 10 7 5 × 10−7 10−6
decimal64 double précision décimale _Decimal64[3] 10 16 5 × 10−16 10−15
decimal128 quadruple précision décimale _Decimal128[3] 10 34 5 × 10−34 10−33

Définition formelle

Une procédure d'arrondi est une procédure de choix de la représentation d'un nombre réel dans un système de numération en virgule flottante. Étant donné ce système de numération et une procédure d'arrondi, l’epsilon est le maximum de l'erreur d’approximation relative de la procédure d'arrondi choisie.

D’autres définitions et informations permettent de calculer l’epsilon à partir de l'erreur relative. Un système de numération à virgule flottante est caractérisé par une base et par une précision , qui donne le nombre de chiffres de composant la mantisse (y compris les éventuels bits implicites). Les nombres représentés avec un exposant sont espacés d'une valeur de . L'espacement change aux nombres qui sont des puissances entières de ; l'espacement du côté de plus grande magnitude est fois plus grand que l'espacement du côté de plus petite magnitude.

L'epsilon étant une borne pour l'erreur d'approximation relative, il ne dépend pas de l’exposant[4]. Pour le déterminer, il suffit donc de considérer le cas ou l’exposant est nul. Il suffit également de considérer les nombres positifs. Pour l'arrondi usuel, c’est-à-dire l’arrondi vers le nombre le plus proche, l'erreur d'approximation absolue est au plus la moitié de l'espacement, c'est-à-dire . Cette valeur est la plus grande valeur possible pour le numérateur de l'erreur relative. Le dénominateur de la formule est le nombre à arrondir, qui devrait être aussi petit que possible pour que l'erreur relative soit grande. La pire erreur relative se produit donc quand l'arrondi est appliqué à des nombres de la forme , où  est compris entre et . Tous ces nombres sont arrondis vers avec l'erreur relative . Le maximum est atteint pour à l'extrémité haute de cet intervalle. Le dénominateur, de valeur , est négligeable en comparaison du numérateur, on peut donc l’ignorer par commodité; l'epsilon est donc donné parla formule . L'erreur relative est la plus grande pour les nombres qui s'arrondissent vers , ce qui permet de nommer l'epsilon aussi parfois unité d'arrondi pour dénoter de manière informelle « l’erreur relative maximale possible lors de l'arrondi vers l'unité ».

Ainsi, l'espacement maximal entre nombre à virgule flottante normalisé x et un nombre normalisé adjacent est [5].

Modèle arithmétique

L'analyse numérique utilise l'epsilon de la machine pour étudier les effets de l'erreur d'arrondi. Les valeurs réelles des erreurs de l'arithmétique de la machine sont en général bien trop compliquées pour être étudiées directement ; un modèle simple est donc utilisé. La norme arithmétique de l'IEEE  définit que toutes les opérations en virgule flottante sont calculées en supposant qu'il est possible d'effectuer les opérations avec une précision infinie, puis en supposant que le résultat soit arrondi à un nombre à virgule flottante. Supposons que sont des nombres à virgule flottante, que  est une opération arithmétique sur des nombres à virgule flottante, telle que l'addition ou la multiplication, et que est l'opération effectuée avec une précision infinie. Selon la norme, l'ordinateur calcule Par définition de l'epsilon, l'erreur relative de l'arrondi est au plus de sa magnitude, de sorte que , en magnitude absolue, est égal au plus à epsilon. Les ouvrages de Demmel et Higham dans les références peuvent être consultés pour voir comment ce modèle est utilisé pour l'analyse des erreurs d'algorithmes comme l'élimination de Gauss.

Variantes de la définition

La norme IEEE ne définit pas les termes de machine epsilon (epsilon de la machine) ni d'unit roundoff (unité d'arrondi). Il en résulte qu'il existe des variantes pour les définitions qui sont parfois utilisées en pratique, ce qui peut mener à une certaine confusion.

La définition donnée ici pour machine epsilon est celle du professeur James Demmel dans ses notes de cours[6] et son logiciel d'algèbre linéaire LAPACK package[7], et par des articles de recherche scientifique sur le calcul numérique[8] et de certains logiciels de calcul scientifique[9]. La plupart des analystes numériques utilisent les termes (en anglais) machine epsilon et unit roundoff comme des termes synonymes, ayant la définition présentée ici.

La définition suivante est beaucoup plus répandue en-dehors du milieu universitaire : l'epsilon est défini comme le plus petit nombre qui, ajouté à un, donne un résultat différent de un. Avec cette définition, l'epsilon est égal à la valeur de l'unité à la dernière place (en) par rapport à 1, c'est-à-dire[10] pour la procédure d'arrondi au plus proche u. La prévalence de cette définition vient de son utilisation dans la norme ISO du langage C, en particulier la définition des constantes concernant les types à virgule flottante[11],[12] et celles équivalentes d'autres langages de programmation[13],[14]. Elle est également largement utilisée dans le monde des logiciels de calcul scientifique[15],[16],[17], dans la littérature sur les nombres et le calcul[5],[18],[19],[20] et dans d'autres ressources académiques[21],[22].

Comment déterminer l'epsilon

Dans les cas où les bibliothèques standard ne fournissent pas de valeurs pré-calculées (comme <float.h (en)> le fait avec FLT_EPSILON, DBL_EPSILON et LDBL_EPSILON en C et <limits> avec std::numeric_limits<T>::epsilon() en C++), la meilleure manière de déterminer l'epsilon d'une machine est de se référer à la table ci-dessus, et utiliser la formule de puissance appropriée. Le calcul est souvent donné comme un exercice dans les manuels d'apprentissage. Les exemples suivants utilisent la définition de la distance des nombres à virgule flottante à 1 plutôt que celle d'unité d'arrondi.

Notez que les résultats dépendent du type de nombre à virgule flottante (comme float, double, long double, ou types équivalents dans d'autres langages de programmation), du compilateur et des bibliothèques utilisés, et finalement de la plateforme où sera exécuté le programme.

Certains formats pris en charge par le microprocesseur peuvent ne pas être pris en charge par le compilateur choisi ou par le système d'exploitation. D'autres types sont parfois émulés par la bibliothèque d'exécution, y compris l'arithmétique à précision arbitraire, disponible dans certains langages et bibliothèques.

Au sens strict, le terme d'epsilon désigne la précision 1+eps directement prise en charge par le processeur (ou le coprocesseur), et non une précision 1+eps prise en charge par un compilateur spécifique pour un système d'exploitation spécifique, sauf s'il est connu pour utiliser le meilleur format disponible.

Les types à virgule flottante de la norme IEEE 754 ont la propriété, lorsque ils sont réinterprétés comme des entiers codés en complément à deux entier de la même taille, de croître de manière monotone sur les valeurs positives et de décroître de manière monotone sur les valeurs négatives (voir la représentation binaire des floats 32 bits (en)). De plus, si f(x) est l'interprétation de x en complément à 2 susmentionnée, alors 0 < |f(x)| < ∞, et |f(x+1) − f(x)| ≥ |f(x) − f(x-1)|. Dans les langages qui permettent la réinterprétation de type (en) tout en utilisant IEEE 754-1985, nous pouvons exploiter tout ceci pour calculer un epsilon en temps constant. Par exemple, en C:

typedef union {
  long long i64;
  double d64;
} dbl_64;
double machine_eps (double value)
{
    dbl_64 s;
    s.d64 = value;
    s.i64++;
    return s.d64 - value;
}

Le résultat est de même signe que value. Si l'on souhaite obtenir un résultat toujours positif, l'instruction de retour de cette routine peut être remplacée par :

    return (s.i64 < 0 ? value - s.d64 : s.d64 - value);

Pour les nombres à double précision en 64 bits, le résultat est 2.220446e-16, soit 2-52 comme prévu.

Approximation

L'algorithme suivant, très simple, peut être utilisé pour trouver une approximation de l'epsilon d'une machine, un facteur deux (un ordre de grandeur) de sa valeur réelle, par une recherche linéaire.

epsilon = 1.0;

tant que (1.0 + 0.5 * epsilon) ≠ 1.0:
   epsilon = 0.5 * epsilon

Voir aussi

  • Virgule flottante, discussion générale sur les questions relatives à l'exactitude dans l'arithmétique à virgule flottante
  • Unité du dernier emplacement (en) (ULP)

Notes et références

  1. selon le prof. Demmel, LAPACK, Scilab
  2. selon le prof. Higham; la norme C ISO; les constantes définies par les langages C, C++ et Python, Mathematica, MATLAB et Octave; divers manuels universitaires - voir ci-dessous pour la dernière définition
  1. Nicolas Louvet, Algorithmes compensés en arithmétique flottante : précision, validation, performances, , 195 p. (lire en ligne)
  2. Floating Types - Using the GNU Compiler Collection (GCC)
  3. Decimal Float - Using the GNU Compiler Collection (GCC)
  4. (en) David Goldberg, « What Every Computer Scientist Should Know About Floating-Point Arithmetic », ACM Computing Surveys, Association for Computing Machinery, (ISSN 0360-0300 et 1557-7341, DOI 10.1145/103162.103163, lire en ligne)_
    elle varie entre et
  5. Higham 2002.
  6. (en) « Basic Issues in Floating Point Arithmetic and Error Analysis » (consulté le )
  7. « LAPACK Users' Guide Third Edition »,
  8. David Goldberg, « What Every Computer Scientist Should Know About Floating-Point Arithmetic », ACM Computing Surveys, vol. 23, no 1, (lire en ligne)
  9. « Scilab documentation - number_properties - determine floating-point parameters »
  10. notez qu'ici p est défini comme la précision, càd le nombre total de bits de la mantisse en incluant le bit de poids fort implicite. C'est le cas notamment dans la table ci-dessus
  11. Jones, Derek M. (2009).
  12. « "float.h reference at cplusplus.com" »
    la documentation de référence de l’en-tête "float.h" exposant les fonctions de manipulation des nombres en virgule flottante en langage C
  13. « std::numeric_limits reference at cplusplus.com »
    une documentation de la bibliothèque standards du langage C++ concernant les valeurs extrêmes des types de données numériques que le langage utilise, qui sont calculés en fonction de la machine pour laquelle le programme est compilé
  14. « Python documentation - System-specific parameters and functions »
    Documentation du langage python sur les fonctions de sa bibliothèque qui exposent des valeurs qui dépendent du système sur lequel le programme python est exécuté
  15. « Mathematica documentation: $MachineEpsilon »
    la documentation d'une constante du logiciel de calcul mathématique Mathematica qui expose l’epsilon de la machine
  16. « Matlab documentation - eps - Floating-point relative accuracy »
    la documentation du logiciel de calcul Matlab qui documente la précision des calculs
  17. « Octave documentation - eps function »
    Documentation du logiciel octave documentant la fonction permettant de récupérer la valeur de l’epsilon
  18. Alfio Quarteroni, Riccardo Sacco et Fausto Saleri, Méthodes numériques pour le calcul scientifique,
  19. William H. Press, Saul A. Teukolsky, William T. Vetterling et Brian P. Flannery, Numerical Recipes, p. 890
  20. Gisela Engeln-Müllges et Fritz Reutter, Numerical Algorithms with C,
  21. Robert M. Corless, « The Machine Epsilon »,
  22. « MCS 471 Computer Problem 1 »,

Liens externes

  • Portail de l’informatique
Cet article est issu de Wikipedia. Le texte est sous licence Creative Commons - Attribution - Partage dans les Mêmes. Des conditions supplémentaires peuvent s'appliquer aux fichiers multimédias.