oque falar sobre a naturalismo no brasil?
Soluções para a tarefa
Respondido por
1
Naturalismo no Brasil,foi um movimento cultural relacionado as artes plásticas, literatura e teatro.Surgiu na França, na segunda metade do século XIX.Os escritores brasileiros abordaram a realidade social brasileira,destacando a vida nos cortiços, o preconceito, a diferenciação social.O principal representante do naturalismo na literatura brasileira foi Aluísio de Azevedo destacando sua clássica obra O cortiço
Perguntas interessantes
Português,
8 meses atrás
Sociologia,
8 meses atrás
Biologia,
8 meses atrás
ENEM,
1 ano atrás
Geografia,
1 ano atrás