História, perguntado por Daiannyy5388, 10 meses atrás

o que aconteceu no brasil na decada de 70

Soluções para a tarefa

Respondido por anahcosta22
0

Resposta:

Na década de 70 foi quando ocorreu a crise do petróleo que levou os EUA, Brasil, Suécia e Reino Unido recessão. Esses países tiveram uma grande crise em suas economias e grandes dividas.

Em 70 o Brasil também era governado pela ditadura militar, onde o regime censurava todos os meios de comunicação e torturava e exilava pessoas.

Esses foram uns dos principais eventos que marcaram a década de 70 no Brasil.

Explicação:

Perguntas interessantes