Sociologia, perguntado por ketllysofia0987, 11 meses atrás

para você qual é a importância das culturas no Brasil?​

Soluções para a tarefa

Respondido por juliocesarjulio729
1

Resposta:

São as naturezas é a cultura mais importante do Brasil

Explicação:

Espero ter ajudado


ketllysofia0987: obrigada
juliocesarjulio729: d nada
marcosvinnicius24: não sei rsrsrsrs rsrsrsrs
Perguntas interessantes