Geografia, perguntado por souzaryane, 1 ano atrás

SOBRE O FIM DA SEGUNDA GUERRA MUNDIAL,É VERDADEIRO AFIRMAR QUE:
a) Estados Unidos e Grã-Bretanha foram os países derrotados e tiveram que reconhecer o domínio alemão na Europa
b) Embora a guerra tenha terminado em 1945,o Japão assinou sua rendição apensa em 1948
c) Alemanha,Itália e Japão saíram derrotados,marcando o fim dos governos fascistas na Europa
d) Japão,Estados Unidos e França foram os países que mais saíram fortalecidos politicamente após a Segunda Guerra Mundial

Soluções para a tarefa

Respondido por arthur0699
2
c) Alemanha,Itália e Japão saíram derrotados,marcando o fim dos governos fascistas na Europa


Respondido por samanthamoffy22
3
c) Alemanha,Itália e Japão saíram derrotados,marcando o fim dos governos fascistas na Europa 

Perguntas interessantes