Artes, perguntado por gabrielly877, 1 ano atrás

oque voce pode dizer sobre o início do teatro no brasil?

Soluções para a tarefa

Respondido por lawannyalves6
7

o teatro brasileiro Surgiu em Portugal e começou a fazer do brasil a sua colônia com intuito de catequizar os indios e trouxeram nova religião catolica mais uma cultura diferente que incluia literatura e o teatro. O teatro realmente nacional só veio a estabilizar em meados no seculo XIX

Perguntas interessantes