Ed. Física, perguntado por pietra19122008, 10 meses atrás

História do futebol?​

Soluções para a tarefa

Respondido por rahramos1212
0

Resposta:

A história do futebol no Brasil começou em 1895, pelas mãos dos ingleses, assim como na maioria dos outros países. Os primeiros clubes começaram a se formar neste período. Assim como a fundação dos clubes, a prática também era restrita à elite branca. Diz-se que a primeira bola de futebol do país foi trazida em 1894 pelo paulista Charles William Miller. Os registros mais antigos sobre o Futebol praticado no Brasil, porém, datam de 1875, em Curitiba. A aristocracia dominava as ligas de futebol, enquanto o esporte começava a ganhar as várzeas. As camadas mais pobres da população e até negros podiam apenas assistir. Somente na década de 1920, os negros passaram a ser aceitos ao passo que o futebol se massifica, especialmente com a profissionalização em 1933.

Alguns clubes, principalmente fora do eixo Rio de Janeiro e São Paulo, ainda resistiam à modernização e continuavam amadores. Mas com o passar do tempo, quase todos foram se acomodando à nova realidade. Diversos clubes tradicionais e consagrados abandonaram a elite do futebol, ou até mesmo o esporte por completo.

Durante os governos, principalmente de Vargas, foi feito um grande esforço para alavancar o futebol no país. A construção do Maracanã e a Copa do Mundo do Brasil (1950), por exemplo, foram na Era Vargas. A vitória no Mundial de 1958, com um time comandado pelos negros Didi e Pelé, pelos mestiços Vavá e Garrincha e pelo capitão Bellini, ratificou o futebol como principal elemento da identificação nacional, já que reúne pessoas de todas as cores, condições sociais, credos e diferentes regiões do país.


pietra19122008: obg linda
rahramos1212: por nada gata
pietra19122008: vamos ser amigas?
Perguntas interessantes