Artes, perguntado por kauafontes1, 1 ano atrás

oque falar sobre a naturalismo no brasil?

Soluções para a tarefa

Respondido por juliakellysg
1
 Naturalismo no Brasil,foi um movimento cultural relacionado as artes plásticas, literatura e teatro.Surgiu na França, na segunda metade do século XIX.Os escritores brasileiros abordaram a realidade social brasileira,destacando a vida nos cortiços, o preconceito, a diferenciação social.O principal representante do naturalismo na literatura brasileira foi Aluísio de Azevedo destacando sua clássica obra O cortiço 
Perguntas interessantes