O que significa dizer que a África foi colonizada? Quais países colonizaram o continente?
Soluções para a tarefa
Respondido por
0
Significa que outros países foram lá com armamento e "fizeram" suas as terras lá em África e escravisaram os povos que viviam lá.
Entre os países que fizeram isso estão: Portugal França Espanha Inglaterra
Entre os países que fizeram isso estão: Portugal França Espanha Inglaterra
Perguntas interessantes
Química,
7 meses atrás
Química,
7 meses atrás
Matemática,
7 meses atrás
Biologia,
11 meses atrás
Biologia,
11 meses atrás
Filosofia,
1 ano atrás
Matemática,
1 ano atrás