História, perguntado por KalinnaMestre9390, 5 meses atrás

Defire a inperialismo explique o papel da alemanha
nele quando invadiu a polonia no momento incial da guerra

Soluções para a tarefa

Respondido por dandaraaw2019
0

Resposta:

definição de imperialismo.

O Imperialismo é o nome dado para o conjunto de políticas que teve como objetivo promover a expansão territorial, econômica e/ou cultural de um país sobre outros.

A Alemanha, derrotada na Primeira Guerra Mundial, havia perdido seus territórios ultramarinos, a Alsácia Lorena e parte da Prússia. As altas indenizações impostas pelos Aliados causaram o colapso da moeda e desemprego em massa, fatores que, explorados pelos nazistas, contribuíram para o fortalecimento de Hitler no poder (assumido em 1933).

As relações entre a Alemanha e a Polônia já eram tensas desde a República de Weimar. Nenhum governo do Reich nem partido alemão concordava com a nova delimitação da fronteira leste do país (com um corredor polonês, neutro, separando o país da Prússia Oriental), imposta no Tratado de Versalhes.

Ambicionando as matérias-primas da Romênia, do Cáucaso, da Sibéria e da Ucrânia, Hitler começou a expansão para o Leste. Embora as potências ocidentais temessem o perigo nazista, permitiram seu crescimento como forma de bloqueio ao avanço comunista soviético.

Perguntas interessantes