Por que os Estados Unidos foram o primeiro país a reconhecer a independência das colônias na América?
Soluções para a tarefa
Respondido por
5
Olá!!
Os Estados Unidos foi o primeiro país a reconhecer a Independência do Brasil, em 1824. No entanto, por trás dessa doutrina de não-intervenção e de não-colonização havia o interesse em diminuir a influência inglesa e em obter, com o reconhecimento, vantagens comerciais para os Estados Unidos.
Espero ter ajudado!!
Perguntas interessantes
Português,
8 meses atrás
Inglês,
8 meses atrás
Ed. Física,
8 meses atrás
Matemática,
11 meses atrás
Artes,
11 meses atrás
Biologia,
1 ano atrás
História,
1 ano atrás