Português, perguntado por arthur8523, 1 ano atrás

o que quer dizer brasil pós-colonial???


preciso de responda rápida por favor gente!!

Soluções para a tarefa

Respondido por vanessafonntoura
24

O termo Brasil pós-colonial é responsável pela perspectiva teórica, os efeitos políticos, literários, filosóficos, deixados pelo colonialismo.

O pós-colonialismo se refere a séries de teorias que analisam releituras do que resultou, os efeitos, da colonização. Pela perspectiva cultural que realiza essa leitura como parte de um processo global.

Ele se volta, indo de encontro, com a narrativa evolucionista eurocêntrica por tempo que justifica ideologicamente aspectos do processos de colonização.

Espero ter ajudado.

Perguntas interessantes