Fale o que você sabe sobre a história Do Futebol
Soluções para a tarefa
Respondido por
2
Resposta:
Tudo começou em 1863, quando duas associações de jogos de bola (futebol association e futebol tipo rugby) se separaram, porque os partidários do "rugby" não aceitavam um jogo em que era proibido segurar a bola com as mãos.
Explicação:
SE EU TIVER AJUDADO POEM COMO MELHOR RESPOSTA... E BONS ESTUDOS!!!!
❤ ❤ ❤ ❤ ❤ ❤ ❤ ❤ ❤ ❤ ❤ ❤ ❤ ❤ ❤ ❤ ❤ ❤ ❤ ❤ ❤ ❤ ❤ ❤ ❤ ❤ ❤ ❤ ❤ ❤ ❤
Respondido por
0
Olá
Boa tarde
A história do futebol no Brasil começou em 1895, pelas mãos dos ingleses, assim como na maioria dos outros países. Os primeiros clubes começaram a se formar neste período. Assim como a fundação dos clubes, a prática também era restrita à elite branca. Diz-se que a primeira bola de futebol do país foi trazida em 1894 pelo paulista Charles William Miller. Os registros mais antigos sobre o Futebol praticado no Brasil, porém, datam de 1875, em Curitiba.[1] A aristocracia dominava as ligas de futebol, enquanto o esporte começava a ganhar as várzeas. As camadas mais pobres da população e até negros podiam apenas assistir. Somente na década de 1920, os negros passaram a ser aceitos ao passo que o futebol se massifica, especialmente com a profissionalização em 1933.
Alguns clubes, principalmente fora do eixo Rio de Janeiro e São Paulo, ainda resistiam à modernização e continuavam amadores. Mas com o passar do tempo, quase todos foram se acomodando à nova realidade. Diversos clubes tradicionais e consagrados abandonaram a elite do futebol, ou até mesmo o esporte por completo.
Durante os governos, principalmente de Vargas, foi feito um grande esforço para alavancar o futebol no país. A construção do Maracanã e a Copa do Mundo do Brasil (1950), por exemplo, foram na Era Vargas. A vitória no Mundial de 1958, com um time comandado pelos negros Didi e Pelé, pelos mestiços Vavá e Garrincha e pelo capitão Bellini, ratificou o futebol como principal elemento da identificação nacional, já que reúne pessoas de todas as cores, condições sociais, credos e diferentes regiões do país.
Espero ter ajudado
Bons estudos
Boa tarde
A história do futebol no Brasil começou em 1895, pelas mãos dos ingleses, assim como na maioria dos outros países. Os primeiros clubes começaram a se formar neste período. Assim como a fundação dos clubes, a prática também era restrita à elite branca. Diz-se que a primeira bola de futebol do país foi trazida em 1894 pelo paulista Charles William Miller. Os registros mais antigos sobre o Futebol praticado no Brasil, porém, datam de 1875, em Curitiba.[1] A aristocracia dominava as ligas de futebol, enquanto o esporte começava a ganhar as várzeas. As camadas mais pobres da população e até negros podiam apenas assistir. Somente na década de 1920, os negros passaram a ser aceitos ao passo que o futebol se massifica, especialmente com a profissionalização em 1933.
Alguns clubes, principalmente fora do eixo Rio de Janeiro e São Paulo, ainda resistiam à modernização e continuavam amadores. Mas com o passar do tempo, quase todos foram se acomodando à nova realidade. Diversos clubes tradicionais e consagrados abandonaram a elite do futebol, ou até mesmo o esporte por completo.
Durante os governos, principalmente de Vargas, foi feito um grande esforço para alavancar o futebol no país. A construção do Maracanã e a Copa do Mundo do Brasil (1950), por exemplo, foram na Era Vargas. A vitória no Mundial de 1958, com um time comandado pelos negros Didi e Pelé, pelos mestiços Vavá e Garrincha e pelo capitão Bellini, ratificou o futebol como principal elemento da identificação nacional, já que reúne pessoas de todas as cores, condições sociais, credos e diferentes regiões do país.
Espero ter ajudado
Bons estudos
Perguntas interessantes
Matemática,
6 meses atrás
Biologia,
6 meses atrás
Pedagogia,
9 meses atrás
História,
9 meses atrás
Administração,
1 ano atrás
História,
1 ano atrás