Ed. Física, perguntado por antoniofilho39, 8 meses atrás

a importância do futebol no Brasil.

Soluções para a tarefa

Respondido por dayanneves3
2

Resposta:

O futebol seguiu sendo fundamental para a sociedade brasileira. Protagonista em mudanças políticas, econômicas, sociológicas e antropológicas. O que acontecia em campo e nas arquibancadas era influenciado pelos rumos do país, mas também ajudava a reger o caminho.

Explicação:

Bons estudos♡

Perguntas interessantes