Uma das missões Apolo colocou um refletor na Lua o qual permite que a distância da Terra ao nosso satélite natural seja hoje medida com grande precisão em
qualquer ponto da órbita. A medição é feita enviando um feixe de laser, que se reflete nesse espelho e é depois captado na Terra. A distância é então calculada a partir do intervalo de tempo entre a emissão e a recepção do laser. Sendo a velocidade da luz no vácuo c = km/s, e supondo que o menor intervalo de tempo que se consegue medir com essa técnica seja da ordem de s, o erro da determinação da distância Terra-Lua será, em cm, igual a:
a) 60
b) 45
c) 30
d) 15
e) 10
Soluções para a tarefa
Respondido por
3
ΔS = ΔV×ΔT
ΔS =
Bom, eu aprendi que o erro da determinação de medidas, é igual á metade da sua menor medida (apesar de não ser norma, costuma-se adotar como incerteza de uma medida, o valor da metade da menor divisão da escala do instrumento, a qual denominamos de incerteza absoluta)
Como estamos considerando o tempo na ordem de dez elevado à menos nove e a distância em centímetros, a conclusão foi que a distância mínima que nós conseguimos calcular a cada inda e vinda do laser é de 30 cm.
Metade da menor medida ⇒ 30/2 = 15 cm
Talvez tenha alguma explicação parecida, que utiliza outras ideias, fórmulas, se eu achar algo depois eu edito a resposta para deixa-lá mais completa
builtfences:
Obrigada <3 tava me matando com essa
Perguntas interessantes
Pedagogia,
10 meses atrás
Matemática,
10 meses atrás
História,
1 ano atrás
Matemática,
1 ano atrás
Biologia,
1 ano atrás