Tokenisation (sécurité informatique)

Dans le contexte de la sécurisation de données informatique, la tokenisation est le procédé permettant de remplacer une donnée critique par un élément équivalent qui n’aura aucune valeur intrinsèque ou signification exploitable une fois sortie du système.

Principe

Cet élément sera appelé Token. Ce principe de sécurisation des données consiste à séparer l’information du code qui la recouvre. Pour présenter un niveau de sécurité satisfaisant, un token doit être irréversible et généré de manière aléatoire. Le calcul du token se fait à partir d’aléas calculés par un logiciel ou par des dispositifs cryptographiques matériels. La restitution de la donnée originale est appelée détokenisation et n’est autorisée qu’au cours de process clairement identifiés et limitée à certaines applications, processes ou utilisateurs.

La tokenisation permet de réduire l’exposition des données sensibles à des applications, utilisateurs ou processes et ainsi limiter les risques de compromission.

Une fois tokenisées, les données critiques sont réputées désensibilisées, peuvent circuler et être traitées ou stockées dans les systèmes. En cas de subtilisation, ces tokens n’ont aucune valeur car ils ne peuvent pas être utilisés dans un système qui ne les auraient pas générés (cas d’un système fermé), ou dans un système qui n’aurait pas accès à la détokenisation (cas d’un système ouvert interopérant, exemple : système utilisant des tokens au standard EMVCo).

Usages

La tokenisation peut être utilisée pour la sécurisation de tout type de données : données de paiement (numéros de cartes, IBAN…), de santé (numéro de sécurité sociale, dossier médical…), d’identification (numéro de permis, de carte d’identité…), d’authentification (mot de passe…).

Selon les systèmes et les problématiques, le token peut porter ou non les mêmes caractéristiques que la donnée originale. Dans un contexte de sécurisation des données de paiement, les tokens conservent certaines caractéristiques des numéros de carte qu’ils remplacent : portion du BIN, longueur, validité à des contrôles spécifiques…

Le choix de la tokenisation comme alternative à d’autres procédés comme le chiffrement peut dépendre des contraintes réglementaires, des recommandations des autorités certificatrices et du degré de sensibilité des données.

Liens externes

  • Portail de la sécurité informatique
Cet article est issu de Wikipedia. Le texte est sous licence Creative Commons - Attribution - Partage dans les Mêmes. Des conditions supplémentaires peuvent s'appliquer aux fichiers multimédias.