Bonjour,
On dit souvent que les Etats-Unis peuvent être considérés comme un continent
Pourquoi?


Répondre :

Parce que le terme « Amérique » désigne le continent où se trouvent les États-Unis. Mais, selon le contexte, il peut désigner les seuls États-Unis d’Amérique