Artes, perguntado por mikaelyernesto2, 6 meses atrás

quais são os principais países que fizeram parte da colonização do continente americano?

Soluções para a tarefa

Respondido por zeribeiro21
0

Resposta:

América foi descoberta pelos europeus, após esse acontecimento diversos países do velho continente se dirigiram para a nova terra. O continente americano foi colonizado principalmente por portugueses, ingleses, espanhóis, franceses e holandeses.

Explicação:

espero ter ajudado

Perguntas interessantes