Biologia, perguntado por giovana2708, 8 meses atrás

sobre o campo no brasil


1Morena: oie
1Morena: posso responder
1Morena: mais me de mais detalhes

Soluções para a tarefa

Respondido por 1Morena
1

Resposta:

A história do futebol no Brasil começou em 1895, pelas mãos dos ingleses, assim como na maioria dos outros países. Os primeiros clubes começaram a se formar neste período. Assim como a fundação dos clubes, a prática também era restrita à elite branca. Diz-se que a primeira bola de futebol do país foi trazida em 1894 pelo paulista Charles William Miller. Os registros mais antigos sobre o Futebol praticado no Brasil, porém, datam de 1875, em Curitiba.[1] A aristocracia dominava as ligas de futebol, enquanto o esporte começava a ganhar as várzeas. As camadas mais pobres da população e até negros podiam apenas assistir. Somente na década de 1920, os negros passaram a ser aceitos ao passo que o futebol se massifica, especialmente com a profissionalização em 1933.

Explicação:

bjs

Perguntas interessantes