História, perguntado por biahns99, 4 meses atrás

Fale sobre o papel dos estados unidos para o fim da primeira guerra mundial!

Soluções para a tarefa

Respondido por Namjoonnie
0

Resposta:

Em 1917, os EUA decidiram entrar efetivamente (com soldados e presença física nos campos de batalha) na Primeira Guerra ao lado da Inglaterra e França. A presença dos EUA foi decisiva para a vitória da Entente, pois pegou os alemães e italianos desgastados, após 3 anos de guerra.

Perguntas interessantes