História, perguntado por EllenRochaLessa, 1 ano atrás

Qual a importância da arte no Brasil???


roberto222:   Para os brasileiros,nao tenho a resposta,,mas o q é arte?á meu ver é um sentimento q tomou forma, é um espelho q reflete os sentimentos das pessoas q conseguem refletir sua imagem interior na obra esposta,,para os brasileiros eu gostaria q a arte fosse a fonte de inspiraçao para paz,a fonte de inspiraçao pra o respeito,fonte de inspiraçao para compreenção e principalmente eu desejo q a arte fosse vista por todos nós em cada atitude dos seres humanos, comprendida e melhor ainda respeitada indep

Soluções para a tarefa

Respondido por zangiroli12345678911
1
a arte no Brasil e importante para saber de nossa ciltura 

zangiroli12345678911: cultura *
Perguntas interessantes