Définition
Qu'est-ce que l'impérialisme ?
L’impérialisme ne se résume pas à une certaine configuration des relations internationales. C’est une ère nouvelle du capitalisme et donc de l’histoire de l’humanité, l’ère de la dictature totale des monopoles et du pourrissement des sociétés.
Publié le 13 mai