Artes, perguntado por maria15duda16, 11 meses atrás

o que foi o realismo no Brasil ​

Soluções para a tarefa

Respondido por liviinha98745
3

Resposta:

realismo

Explicação:

O Realismo foi um movimento antiburguês, no qual denunciava as falsas bases que sustentavam as relações burguesas da época. Com a introdução do estilo realista, assim como do naturalista, o romance, no Brasil, ganhou um novo alcance: a observação. Começou-se a escrever buscando a verdade, e não mais para ocupar os ócios dos leitores.[1]

Perguntas interessantes