Português, perguntado por silvinhasantos75, 1 ano atrás

o que retrata o naturalismo brasileiro

Soluções para a tarefa

Respondido por rodrigosamuelmozdqa6
2

Naturalismo é um movimento artístico-cultural que atingiu às artes plásticas, literatura e teatro em meados do século XIX. O Naturalismo é considerado uma ramificação radical do Realismo, pois também tem o objetivo de retratar a realidade assim como ela é.

Perguntas interessantes