História, perguntado por alguemprecisando777, 9 meses atrás

Os estados Unidos tornou-se independente de qual país ?


lwerner1: Do Reino da Grã-Bretanha através do Tratado de Paris, que pôs fim à Guerra da Independência dos Estados Unidos.

Soluções para a tarefa

Respondido por rainaranogueira14
4

Resposta:

Inglaterra

Perguntas interessantes