Ed. Física, perguntado por claudialopes3reis, 6 meses atrás

De acordo com texto escreva com suas palavras qual a importância do futebol de campo para o brasil? *

Soluções para a tarefa

Respondido por chanleleh588
1

O futebol seguiu sendo fundamental para a sociedade brasileira. Protagonista em mudanças políticas, econômicas, sociológicas e antropológicas. O que acontecia em campo e nas arquibancadas era influenciado pelos rumos do país, mas também ajudava a reger o caminho.

Perguntas interessantes