Les Verts

Le terme Les Verts peut avoir différentes significations :

Politique

Les Verts (terme apparu en 1980) peut désigner un parti politique (ou les membres de ce parti politique) écologiste, présent dans plusieurs pays :

Football

L'expression Les Verts désigne :

Autres

Cet article est issu de Wikipedia. Le texte est sous licence Creative Commons - Attribution - Partage dans les Mêmes. Des conditions supplémentaires peuvent s'appliquer aux fichiers multimédias.