Geografia, perguntado por santtosanne828, 2 meses atrás

o que o brasil fez a partir dos anos 60 ? Explique

Soluções para a tarefa

Respondido por odetearaujo0805
0

Resposta:

Os anos 60 no Brasil foram feitos de revoluções e deixaram muitas lições para a história. Foi nessa década que a ditadura militar foi instaurada, especificamente no ano de 1964. Foi uma década marcada pela repressão, censura e violência. Uma época que, no âmbito político, foi muito marcada por falta de democracia.

Explicação:

espero ter lhe ajudado

ass:Raissa Fernanda

Perguntas interessantes