História, perguntado por Helenacat, 11 meses atrás

Após a independência do Brasil, o Brasil se torna livre em todos os aspectos ?

Soluções para a tarefa

Respondido por Gabriela97C
0

Resposta:

Não. A independência do Brasil foi apenas política (em relação a Portugal). Economicamente o Brasil ainda é dependente, principalmente da Inglaterra.

Explicação:

Perguntas interessantes