Artes, perguntado por Annesi, 9 meses atrás

Onde nasceu a pintura no Brasil?

Soluções para a tarefa

Respondido por nortewalquiria
1

A pintura aparece no Brasil ainda na época do seu descobrimento. Era a maneira encontrada pelos colonizadores europeus de registrarem a nova terra, com imagens da natureza e dos índios. Os próprios índios já se utilizavam dessa arte para pintar os seus corpos, as paredes e objetos...

Espero ter ajudado! Bons estudos!

Perguntas interessantes