História, perguntado por djovanaaselistre, 10 meses atrás

Qual o papel que os Estados Unidos passaram a desempenhar com o fim da
Primeira Guerra?

Soluções para a tarefa

Respondido por zazaque27
2

Resposta:

Estados Unidos defendiam a política de “portas abertas” como a melhor solução para a forte concorrência imperialista. Nesse âmbito, as autoridades do governo dos EUA acreditavam que todos os imperialistas tinham direitos iguais na exploração dos territórios afro-asiáticos.

Apesar dessa premissa conciliadora, os países europeus preferiam a guerra como solução. Nesse novo contexto, os Estados Unidos passaram a lucrar à custa da Primeira Guerra Mundial. Em um curto espaço do tempo, as nações europeias necessitavam de enormes quantidades de alimentos e armas para o conflito. Mesmo que permanecendo neutro, por uma questão de interesse e afinidade, o governo norte-americano exportava seus produtos apenas às nações integrantes da Tríplice Entente.

O comportamento solidário dos EUA logo se aprofundou, principalmente quando observamos o empréstimo de recursos financeiros para a guerra na Europa. Até esse momento, o conflito se transformava em um evento bastante lucrativo e benéfico para a economia norte-americana. No âmbito político, os Estados Unidos esperavam que a nação pudesse se fortalecer ainda mais ao possivelmente assumir a condição de intermediadora dos tratados de paz.

Tais projeções mudariam de rumo no ano de 1917. Naquele ano, os russos abandonaram a Tríplice Entente com o desenvolvimento da Revolução Russa. Para as potências centrais, essa seria a oportunidade ideal para vencer o conflito. Não por acaso, os alemães puseram em ação um ousado plano de atacar as embarcações que fornecessem mantimentos e armas para a Inglaterra. Nesse contexto, navios norte-americanos foram alvejados pelos submarinos da Alemanha.

Explicação:

Perguntas interessantes