Filosofia, perguntado por caiquebhii, 1 ano atrás

o que implica a seguinte afirmação o Brasil é um país racista

Soluções para a tarefa

Respondido por dhulygsilvapcuetl
0

Está na realidade de quem ve atentamente a situação não só do Brasil mas também do mundo, o racismo é, infelizmente, algo mais comum do que parece, vemos racismo para com os negros, homossexuais e até mesmo para quem tem uma baixa renda. Para perceber que o Brasil é um país racista não precisa de procurar muito, está claramente no dia a dia este fato.

Perguntas interessantes