Química, perguntado por gustavo946995, 10 meses atrás

O que aconteceu com os estados unidos após a inglaterra reconhecer sua independência​?

Soluções para a tarefa

Respondido por yasmim2020camilo
2

Resposta:

A Independência dos Estados Unidos foi declarada no dia 4 de julho de 1776 e colocou fim ao vínculo colonial que existia entre as Treze Colônias (nome pelo qual a região era conhecida nesse período) e a Inglaterra. Com essa conquista, os Estados Unidos transformaram-se na primeira nação do continente americano a ter sua independência.

A nova nação que surgiu foi construída em um modelo republicano e federalista e inspirada pelos ideais iluministas que defendiam as liberdades individuais e o livre comércio, por exemplo. De toda forma, a Independência dos EUA foi encabeçada pela elite colonial, insatisfeita com a forma como a Inglaterra tratava os colonos.

Perguntas interessantes