História, perguntado por luquinhasantosgarcia, 3 meses atrás

O Brasil nunca foi uma colônia dominada por países europeus. Sempre foi um país independente
Verdadeiro ou falso?

Soluções para a tarefa

Respondido por rayzinho452
1

Resposta:

falso

Explicação:

na história vemos que o Brasil foi dominado por países europeus e assim foi um império Português Por muitos anos

espero ter ajudado

Perguntas interessantes