Geografia, perguntado por helobrtp8h50c, 10 meses atrás

por que dizemos que mesmo apos a colonizaçao, o brasil esteve mergulhado em concepçoes eurocentricas?

Soluções para a tarefa

Respondido por anacarolinaperespere
2

Resposta:

O eurocentrismo é uma visão de mundo centrada em valores europeus, colonizadores ou racistas. Assim, esse conceito descreve o processo em que a Europa se constitui como o centro de poder no mundo, principalmente com a colonização. Contudo, mesmo após o fim do período colonial, muitos aspectos sociais continuam eurocêntricos. Os importantes marcos do início do eurocentrismo são a colonização, a construção das Américas e o capitalismo moderno. A partir desses processos, países da Europa impuseram ao resto do mundo a sua cultura, sua economia e seu poder militar.

Com isso, a própria História passa a ser contada a partir de uma visão eurocêntrica. Por exemplo, é comum ouvirmos que europeus “descobriram” o continente americano. Inclusive, o nome “América” advém de Américo Vespúcio, um explorador italiano que supostamente teria chegado primeiro ao continente.

Perguntas interessantes