História, perguntado por tainaMendes11, 1 ano atrás

Muitos filmes do cinema e da tv tratam como herois soldados que passam o filme inteiro matando e destruindo . Nos assistimos a esses filmes desde crianças . Sera que eles , sem que percebamos , nos acostumam a guerra? Sera que eles nos ensinam a aceitar a guerra e a violência , e ate nos levam a gostar delas ? Explique

Soluções para a tarefa

Respondido por manu131016
13
Os filmes não influenciam tanto como o mundo, se a pessoa ver o filme e depois vê uma reportagem dependendo da reportagem ela pode ou não ser influênciada mais não significa que acostumou com a situação
Perguntas interessantes