Geografia, perguntado por umcaraaip5l5fv, 11 meses atrás

O que significa dizer que a África foi colonizada? Quais países colonizaram o continente?

Soluções para a tarefa

Respondido por jandiman01
0
Significa que outros países foram lá com armamento e "fizeram" suas as terras lá em África e escravisaram os povos que viviam lá.
Entre os países que fizeram isso estão: Portugal França Espanha Inglaterra
Perguntas interessantes