Direito, perguntado por pbonanii, 4 meses atrás

Sobre os direitos humanos no Brasil

Soluções para a tarefa

Respondido por AparanasUmestudante
0

Resposta:

Os direitos humanos são um importante instrumento de proteção a toda e qualquer pessoa no mundo. Por isso, são garantidos por inúmeros tratados e documentos jurídicos em diversos países, um deles o Brasil. Neste texto falaremos especificamente sobre os direitos humanos no Brasil.

Nosso país conta com uma série de ferramentas para garantir que os direitos humanos sejam estendidos a todos os nossos cidadãos. Mas infelizmente na prática ainda não atingimos este objetivo.

Confira como surgiram os direitos humanos no Brasil e quais são os principais desafios enfrentados para que esses direitos sejam assegurados a todos.

Anexos:
Perguntas interessantes