História, perguntado por rs6592431, 9 meses atrás

o que os franceses levavam o Brasil​

Soluções para a tarefa

Respondido por anacarla13347
0

Os franceses tinham como objetivo principal fundar uma colônia em território brasileiro para poder participar ativamente do lucrativo e novo mercado da exploração colonial.

Respondido por fabianykevillyn33
1

Resposta:

Os franceses tinham como objetivo principal fundar uma colônia em território brasileiro para poder participar ativamente do lucrativo e novo mercado da exploração colonial. - Franceses protestantes queriam também fundar uma colônia no Brasil para viverem longe da perseguição religiosa que sofriam na França.

Perguntas interessantes