Explique a História do Futebol no Brasil.
Soluções para a tarefa
Respondido por
3
Resposta:
A história do futebol no Brasil começou em 1895, pelas mãos dos ingleses, assim como na maioria dos outros países. Os primeiros clubes começaram a se formar neste período. Assim como a fundação dos clubes, a prática também era restrita à elite branca. Diz-se que a primeira bola de futebol do país foi trazida em 1894 pelo paulista Charles William Miller. A aristocracia dominava as ligas de futebol, enquanto o esporte começava a ganhar as várzeas. As camadas mais pobres da população e até negros podiam apenas assistir. Somente na década de 1920, os negros passaram a ser aceitos ao passo que o futebol se massifica, especialmente com a profissionalização em 1933.
Perguntas interessantes
Geografia,
8 meses atrás
História,
8 meses atrás
Matemática,
8 meses atrás
Matemática,
1 ano atrás
Matemática,
1 ano atrás
Filosofia,
1 ano atrás
Matemática,
1 ano atrás