Artes, perguntado por Dracula11, 1 ano atrás

O que quer dizer naturalismo

Soluções para a tarefa

Respondido por brendaleemariasilva1
3
Naturalismo é um movimento artístico-cultural que atingiu às artes plásticas, literatura e teatro em meados do século XIX. O Naturalismo é considerado uma ramificação radical do Realismo, pois também tem o objetivo de retratar a realidade assim como ela é.
Perguntas interessantes