História, perguntado por LuanDias001, 11 meses atrás

O que significa dizer que o Brasil foi colonizado por Portugal?

Soluções para a tarefa

Respondido por Alvinho2005
4
Significa que Portugal (antigamente) tinha tomado posse do Brasil

Espero ter te ajudado!
Perguntas interessantes