História, perguntado por Joyce671, 1 ano atrás

Como os brasileiros aceitaram a independência do Brasil

Me ajudem por favor :(

Soluções para a tarefa

Respondido por deboravasques
1

De um ponto de vista mais crítico, o Brasil nunca se tornou independente. Segundo o Dicionário Aurélio, independência significa: Estado de não se achar sob domínio ou influência estranha. Se observarmos que quando nós deixamos de depender dos portugueses logo passamos a depender dos ingleses. Isso não mudou em nada o modelo de exploração que havia antes. Com o passar dos tempos e com a ascensão econômica dos EUA, a Doutrina Monroe passou a ser efetiva no Brasil, e nós passamos a depender dos norte-americanos até os dias atuais, infelizmente.



Joyce671: Obrigada :D
deboravasques: de nada
deboravasques: precisando e so fazer perguntas que lhe responderemos
Joyce671: Muito obrigada :) Você pode me da 4 benefícios que Dom João VI fez no Brasil??
Perguntas interessantes