História, perguntado por rodriguesisabelly470, 9 meses atrás

Quais foram os países que primeiro reconheceram a independência brasileira? Fizeram isso por serem “bonzinhos”? *
A)Os Estados Unidos e a Inglaterra. Não os E.U.A. defendiam o lema “A América para os americanos” e a Inglaterra exigiu a renovação do tratado de Comércio e Navegação.
B) Os Estados Unidos e a Inglaterra. Sim os E.U.A. defendiam o lema “A América para os americanos” e a Inglaterra não exigiu nada em troca da ajuda.
C) Os Espanha e Portugal. Sim, os E.U.A. defendiam o lema “A América para os americanos” e a Espanha exigiu a renovação do tratado de Comércio e Navegação.
D) Os Estados Unidos e a França. Não os E.U.A. defendiam o lema “A América para os americanos” e a França exigiu a renovação do tratado de Comércio e Navegação.​

Soluções para a tarefa

Respondido por kamillyalvesoliveira
0

Resposta:

Os primeiros países que reconheceram a independência do Brasil foram os Estados Unidos e o México.

Explicação:

Perguntas interessantes