Resumo da história do Futebol no Brasil e no mundo 10 linhas
Soluções para a tarefa
Respondido por
2
Resposta:
a história do futebol no Brasil começou em 1895, pelas mãos dos ingleses, assim como na maioria dos outros países.
os primeiros clubes começaram a se formar neste período. assim como a fundação dos clubes, a prática também era restrita à elite branca.
as camadas mais pobres da população e até negros podiam apenas assistir. somente na década de 1920, os negros passaram a ser aceitos ao passo que o futebol se massifica, especialmente com a profissionalização em 1933.
Perguntas interessantes