História, perguntado por mariasolidademe, 1 ano atrás

Sobre o final da segunda guerra mundial,é verdadeiro afirmar que .A- Estados Unidos e Grã-Bretanha foram os países derrotados e tiveram que reconhecer o domínio alemão na Europa. B- Embora a guerra tenha terminado em 1945, o Japão assinou a rendição apenas 1948. C - Alemanha, Itália e Japão saíram derrotados, marcando o fim dos governos fascistas na Europa. D - Japão,Estados Unidos e França foram os países que mais saíram fortalecidos politicamente após a segunda guerra mundial.

Soluções para a tarefa

Respondido por camilabatista4
211
c- Alemanha, Itália e Japão saíram derrotados, marcando o fim dos governos fascistas na Europa 

mariasolidademe: obrigada
Respondido por BONDJR
67
C somente a resposta c está certa

mariasolidademe: obrigada
Perguntas interessantes