Geografia, perguntado por romeofeuilloy, 8 meses atrás

o que os françeses modificaram na cultura brasileira.

Soluções para a tarefa

Respondido por estebankai222
1

O que os franceses trouxeram de cultura para o Brasil?

Os franceses fazem parte da história do Brasil desde o seu descobrimento. Mas, apesar do intenso comércio e das tentativas de colonizações, a maior influência foi no campo do pensamento e das artes, principalmente por conta dos portugueses, que trouxeram a cultura francesa para a colônia.


estebankai222: Quero que tudo dê um obrigado na resposta, por favor.
romeofeuilloy: ja fiz
Respondido por wedna66
1

Resposta:

resposta na imagem acima

Anexos:
Perguntas interessantes