sexta-feira, 28 de março de 2008

Imperialismo

Bom dia. Continuando o texto anterior, eu gostaria de falar um pouco sobre o imperialismo.

Bem, eu imagino que a definição todos nós ja sabemos, o Imperialismo é a tentativa de domínio em vários aspectos, territorial, cultura e econômico de um país sobre o outro.

Os países imperialistas dominaram os povos de quase todo o planeta. Porém, a maior parte dos capitalistas e da população desses países acreditavam que suas ações eram justas e até boas à humanidade. Na visão deles suas atitudes visavam o progresso e ajudavam os países pobres a crescer.

O mundo estava sendo dominado pelas países da Europa (Alemanha, Reino Unido, França e outros), pelos EUA e pelo Japão, que cresciam aceleradamente.

Assim, no final do século XIX e começo do XX, esses países se lançaram numa grande disputa pela conquista global, criando uma rivalidade entre eles mesmos. Essa rivalidade se tornou o principal motivo da Primeira Guerra Mundial, dando início à uma nova era, onde os EUA se tornaram o centro do imperialismo mundial.

Um comentário:

Anônimo disse...

Uhuoool! Gúu moóoh intelectuaaal!fashfashfasiufhiufsa! Palmas pra ele! Mtoo boom o textoo Gúu!

Bejinhos pra todoos

XoXO ;*


ORLANDO BLOOM (L)¹²³