História, perguntado por domingosemilly2g, 8 meses atrás

EUA se fortaleceram durante a guerra ?

Soluções para a tarefa

Respondido por annacecyliasantanape
0

Em 1914, o estouro da Primeira Guerra Mundial determinou o consumo de uma tensão que se desenvolvia entre as nações da Europa desde o século XIX. Antes da guerra, os Estados Unidos defendiam a política de “portas abertas” como a melhor solução para a forte concorrência imperialista. Nesse âmbito, as autoridades do governo dos EUA acreditavam que todos os imperialistas tinham direitos iguais na exploração dos territórios afro-asiáticos.

Apesar dessa premissa conciliadora, os países europeus preferiam a guerra como solução. Nesse novo contexto, os Estados Unidos passaram a lucrar à custa da Primeira Guerra Mundial. Em um curto espaço do tempo, as nações europeias necessitavam de enormes quantidades de alimentos e armas para o conflito. Mesmo que permanecendo neutro, por uma questão de interesse e afinidade, o governo norte-americano exportava seus produtos apenas às nações integrantes da Tríplice Entente.

O comportamento solidário dos EUA logo se aprofundou, principalmente quando observamos o empréstimo de recursos financeiros para a guerra na Europa. Até esse momento, o conflito se transformava em um evento bastante lucrativo e benéfico para a economia norte-americana. No âmbito político, os Estados Unidos esperavam que a nação pudesse se fortalecer ainda mais ao possivelmente assumir a condição de intermediadora dos tratados de paz.

Tais projeções mudariam de rumo no ano de 1917. Naquele ano, os russos abandonaram a Tríplice Entente com o desenvolvimento da Revolução Russa. Para as potências centrais, essa seria a oportunidade ideal para vencer o conflito. Não por acaso, os alemães puseram em ação um ousado plano de atacar as embarcações que fornecessem mantimentos e armas para a Inglaterra. Nesse contexto, navios norte-americanos foram alvejados pelos submarinos da Alemanha.

Perguntas interessantes