Geografia, perguntado por yasmimsilvades87, 10 meses atrás

O que significa dizer que o Brasil é um país com profundas desigualdades sociais​

Anexos:

Soluções para a tarefa

Respondido por Ajudando1pessoas
2

Resposta:

Significa dizer que o Brasil é um país em que poucas pessoas têm muito e muitas tem pouco, de tal forma que uma grande parcela da população não tem renda suficiente nem mesmo para suas necessidades básicas de alimentação, moradia e educação.

Perguntas interessantes