História, perguntado por beatrizalves14, 1 ano atrás

a Inglaterra e a França só declararam guerra contra a Alemanha quando Hitler invadiu?

Soluções para a tarefa

Respondido por Deah
51
A Grã-Bretanha só compreendeu que a Alemanha nazista era uma ameaça quando esta anexou a Áustria e invadiu a Polônia em 1939.
Perguntas interessantes