ENEM, perguntado por mariejeane6059, 1 ano atrás

Por que os intelectuais e as autoridades dos Estados unidos consideram importante aprimorar o ensino geográfico entre o cidadão do seu pais

Soluções para a tarefa

Respondido por vchinchilla22
9
É muito comum estabelecer-se uma relação direta entre o ensino de geografia. O ensino de geografia parte de uma idéia de mundo, mesmo que o seu aprendizado comece na escala local. Sem dúvida alguma, a idéia de mundo tem se modificado ao longo do tempo, paralelamente às conquistas que os homens, as sociedades, fizeram à superfície da Terra (mas que não se restringiram nem a ela, nem a esse planeta).


De qualquer maneira, foi depois dos grandes descobrimentos do século XV que se delineou uma configuração do mundo que, com posteriores acréscimos, chegaria à representação que fazemos dele atualmente, isto é, um mundo único, mas cuja unidade é fruto de uma imensa diversidade, em que as relações entre o natural e o social, resguardadas as características inerentes a cada um, produzem o espaço geográfico, geralmente entendido como sinônimo de mundo. 



Por sinal, em 2002, o intelectual Gore Vidal assinalou que, pós Segunda Guerra Mundial, se deixou de ensinar geografia para se manter a população estadunidense na ignorância.



Na nova era aprimorar o ensino da geografia é importante para os americanos como para qualquer outro pais, em um mundo globalizado a geografia é uma ferramenta para conhecer o espaço, assim através do conhecimento pleno do espaço global fica mais fácil entender os acontecimentos do mundo, os conflitos etnicos e religiosos,  procuram- se  brechas para enfrentar o terror, a degradação do meio ambiente, entre outras questões que são de muita importancia para um país considerado potencia mundial.

 
Perguntas interessantes