Direito, perguntado por dafinysm2256, 1 ano atrás

O que e ter direito de viver decentemente no brasil

Soluções para a tarefa

Respondido por naah036
74
Significa viver com dignidade: educação, trabalho, comida na mesa e acesso a médicos.
Uma vida decente requer limpeza completa e rigorosa: na aparência, na atitude, na fala e no trato. 
Se não for assim, não é possível dizer que se vive mas, sim, sobrevive-se... muitas vezes a duras penas... 
Perguntas interessantes