História, perguntado por Usuário anônimo, 5 meses atrás

Pra você politicamente o que significa Aliança com os EUA e Rompimento com URSS.

Soluções para a tarefa

Respondido por mateuscosta3006
1

Resposta: As Relações entre Brasil, Estados Unidos e Alemanha, se iniciaram no inicio do século XX, no momento em que a Grã-Bretanha estava perdendo espaço na América.

Nesse período, os Estados Unidos tinham uma política de “América para os Americanos”, onde o Continente Americano seria dos próprios americanos, não havendo com isso a interferência dos países europeus na América.

A Alemanha olhava para a América como uma nova oportunidade de novos mercados, pois os outros continentes, já estavam dominados pelas “grandes potências”, e a América Latina era ainda um mercado aberto, ainda mais com o declínio da posição britânica no continente.

Com o fim da Primeira Guerra Mundial, a Grã-Bretanha tinha dificuldades em readquirir a força que tinha antes da Grande Guerra na América Latina, assim a Grã-Bretanha aceitou mais facilmente a predominância dos Estados Unidos na região. Em 1930, os norte-americanos, já eram a principal potência política, econômica e em alguns países até cultural no continente.

Num primeiro momento as relações econômicas do Brasil com a Alemanha foram boas, principalmente nos primeiros anos da década de 1930,

As relações do Brasil no governo Vargas, para parte da historiografia brasileira, foram de uma “política de barganha”, e essa imagem, foi mais forte no meados da década de 1930. Nesse período a Alemanha conseguiu um crescimento na participação no comércio exterior do Brasil, sendo um exemplo disso, os Acordos de Compensação de 1934 e 1936, no qual os alemães importavam algodão, café, laranja, couro, tabaco e carne enlatada em grandes quantidades, e o Brasil importava da Alemanha produtos manufaturados.

Explicação: Espero ter ajudado.

Perguntas interessantes