Ed. Física, perguntado por josimeireazevedo23, 11 meses atrás

um pequeno texto sobre a historia futebol no brasil

Soluções para a tarefa

Respondido por carlotalaporta2
5

Resposta:

A história do futebol no Brasil começou em 1895, pelas mãos dos ingleses, assim como na maioria dos outros países. Os primeiros clubes começaram a se formar neste período. Assim como a fundação dos clubes, a prática também era restrita à elite branca. Diz-se que a primeira bola de futebol do país foi trazida em 1894 pelo paulista Charles William Miller. A aristocracia dominava as ligas de futebol, enquanto o esporte começava a ganhar as várzeas. As camadas mais pobres da população e até negros podiam apenas assistir. Somente na década de 1920, os negros passaram a ser aceitos ao passo que o futebol se massifica, especialmente com a profissionalização em 1933.

Alguns clubes, principalmente fora do eixo Rio de Janeiro e São Paulo, ainda resistiam à modernização e continuavam amadores. Mas com o passar do tempo, quase todos foram se acomodando à nova realidade. Diversos clubes tradicionais e consagrados abandonaram a elite do futebol, ou até mesmo o esporte por completo.

Durante os governos, principalmente de Vargas, foi feito um grande esforço para alavancar o futebol no país. A construção do Maracanã e a Copa do Mundo do Brasil (1950), por exemplo, foram na Era Vargas. A vitória no Mundial de 1958, com um time comandado pelos negros Didi e Pelé, o mestiço Garrincha e pelo capitão paulista Bellini, ratificou o futebol como principal elemento da identificação nacional, já que reúne pessoas de todas as cores, condições sociais, credos e diferentes regiões do país.

Perguntas interessantes