O que aconteceu com os estados unidos após a inglaterra reconhecer sua independência?
Soluções para a tarefa
Respondido por
2
Resposta:
A Independência dos Estados Unidos foi declarada no dia 4 de julho de 1776 e colocou fim ao vínculo colonial que existia entre as Treze Colônias (nome pelo qual a região era conhecida nesse período) e a Inglaterra. Com essa conquista, os Estados Unidos transformaram-se na primeira nação do continente americano a ter sua independência.
A nova nação que surgiu foi construída em um modelo republicano e federalista e inspirada pelos ideais iluministas que defendiam as liberdades individuais e o livre comércio, por exemplo. De toda forma, a Independência dos EUA foi encabeçada pela elite colonial, insatisfeita com a forma como a Inglaterra tratava os colonos.
Perguntas interessantes