Ed. Física, perguntado por mari982012, 4 meses atrás

Resumo da história do Futebol no Brasil e no mundo 10 linhas ​

Soluções para a tarefa

Respondido por zeliofortes8
2

Resposta:

a história do futebol no Brasil começou em 1895, pelas mãos dos ingleses, assim como na maioria dos outros países.

os primeiros clubes começaram a se formar neste período. assim como a fundação dos clubes, a prática também era restrita à elite branca.

as camadas mais pobres da população e até negros podiam apenas assistir. somente na década de 1920, os negros passaram a ser aceitos ao passo que o futebol se massifica, especialmente com a profissionalização em 1933.

Perguntas interessantes