História, perguntado por leleloca, 7 meses atrás

Os Franceses fizeram o que com as terras ocupadas?

Soluções para a tarefa

Respondido por lenabeatriz15
1

Resposta:Desde a chegada dos portugueses no Brasil, em 1500, os territórios recém-descobertos despertaram grandes interesses de outros povos europeus. No presente texto iremos abordar as tentativas de invasões francesas no território colonial brasileiro, que na época pertencia à metrópole Portugal.

A França foi o primeiro reino europeu que contestou o Tratado de Tordesilhas (1494), que dividiu as terras descobertas na América entre Portugal e Espanha. O litoral brasileiro era constantemente frequentado pelos franceses desde o período da extração do pau-brasil. Os franceses, nessa época, mantinham permanentes contatos com os povos indígenas e dessa relação articulavam acordos e alianças com esses povos.

No século XVI, mais especificamente no ano de 1555, os franceses fundaram a chamada França Antártica, na baía de Guanabara (atual Rio de Janeiro). Lá construíram uma sociedade com influências protestantes, uma vez que, no século XVI, milhares de protestantes europeus vieram em fuga da Europa para a América em consequência da perseguição católica durante a Contrarreforma religiosa (conjunto de medidas tomadas pela Igreja Católica com o surgimento das religiões protestantes).

espero ter ajudado

Explicação:


leleloca: ajudou muito obrigado
lenabeatriz15: pornada
Perguntas interessantes