História, perguntado por biahns99, 5 meses atrás

fale sobre o papel dos estados unidos para o fim da primeira guerra mundial.

Soluções para a tarefa

Respondido por arturcostaartz
0

Resposta:

Em 1917, os EUA decidiram entrar efetivamente (com soldados e presença física nos campos de batalha) na Primeira Guerra ao lado da Inglaterra e França. A presença dos EUA foi decisiva para a vitória da Entente, pois pegou os alemães e italianos desgastados, após 3 anos de guerra.

Perguntas interessantes