História, perguntado por ta1talindilor, 1 ano atrás

Como surgiu a Alemanha?Porque?Por favor respondam rápido e copiem o site!Obrigado a todos!

Soluções para a tarefa

Respondido por veracristino
0

História da Alemanha 


A região da Alemanha foi inicialmente habitada por tribos finesas e, em seguida, pelos celtas. Porém, estes últimos foram expulsos para regiões ocidentais pelas tribas germânicas (bárbaros) que chegaram ao território por volta de 800 AC.

O mais poderoso dos estados, fundado na Gália pelos germânicos no início da Idade Média, o reino dos francos, foi erguido por Carlos Magno.

Após o tratado de Verdun (845), passou a existir o reino da Germânia. Independente, este reino tornou-se uma monarquia eletiva.

Em 936, o imperador germânico Otho, o Grande, conquistou regiões na Itália, aumentando sua influência junto ao estado papal. Usou este poder para fazer-se coroar imperador. A Alemanha passou a ser chamada de sacro Império Romano Germânico.

A autoridade dos imperadores germânicos, na Idade Média, era apenas simbólica, pois a Alemanha passou a ser apenas uma espécie de estado feudal. Os senhores feudais possuiam o poder de fato na região, decidindo sobre as ações políticas, jurídicas e econômicas em seus feudos.

No século XVI, durante a reforma protestante, a Alemanha foi abalada pelas lutas religiosas. Seu território foi praticamente dividido em duas partes: Alemanha do Norte (protestante) e Alemanha do Sul (católica).

No começo do século XIX a região foi conquistada pelos franceses sob o comando de Napoleão Bonaparte. O sacro Império Romano Germânico foi abolido e em seu lugar foi criada a Confederação do Reno, que foi dissolvida pelo Congresso de Viena e reconstituída em novas bases com o nome de Confederação Germânica (1815).

No final do século XIX a Alemanha foi unificada, formando um estado, com a atuação diplomática do chanceler Otto von Bismarck.

Entre os anos de 1914 e 1918, a Alemanha, em conjunto com o Império Austro-Húngaro e Itália, formaram a Tríplice Aliança na Primeira Guerra Mundial. Derrotada, a Alemanha condenada, pelo Tratado de Versalhes, a pagar os prejuízos de guerra, perdeu territórios e teve suas forças armadas reduzidas.

Na década de 1930, Hitler assumiu o poder na Alemanha e implanta o nazismo. Investiu pesado no militarismo, conduzindo a Alemanha, em 1939, à Segunda Guerra Mundial, em conjunto com Itália e Japão. Mais uma vez derrotada, a Alemanha saiu arrasada do conflito.

Após a Segunda Guerra, a Alemanha foi dividida em duas partes: Alemanha Ocidental (capitalista) e Oriental (socialista). A reunificação ocorreu apenas em 1990, com a queda do Muro de Berlim e a crise do socialismo.

Atualmente, a Alemanha é um país democrático e com uma economia forte. Integrante da Comunidade Europeia, é um dos países mais desenvolvidos do mundo.

o site é: Sua Pesquisa.com


Perguntas interessantes