História, perguntado por goberlacajadejessa, 1 ano atrás

quais foram os primeiros países que deu o reconhecimento internacional brasil


Unbornbard: Você está se referindo a Independência do Brasil?

Soluções para a tarefa

Respondido por catiapaixao75
1
RESPOSTA: Os países foram os Estados Unidos da América e a Inglaterra.

Perguntas interessantes