Física, perguntado por builtfences, 1 ano atrás

Uma das missões Apolo colocou um refletor na Lua o qual permite que a distância da Terra ao nosso satélite natural seja hoje medida com grande precisão em
qualquer ponto da órbita. A medição é feita enviando um feixe de laser, que se reflete nesse espelho e é depois captado na Terra. A distância é então calculada a partir do intervalo de tempo entre a emissão e a recepção do laser. Sendo a velocidade da luz no vácuo c =  3.10^{5} km/s, e supondo que o menor intervalo de tempo que se consegue medir com essa técnica seja da ordem de 10^{-9} s, o erro da determinação da distância Terra-Lua será, em cm, igual a:
a) 60
b) 45
c) 30
d) 15
e) 10

Soluções para a tarefa

Respondido por jvitor20
3
c = 3*10^{5} km = 3*10^{10} cm
ΔS = ΔV×ΔT
ΔS = 3*10^{10}*10^{-9} = 30 cm

Bom, eu aprendi que o erro da determinação de medidas, é igual á metade da sua menor medida (apesar de não ser norma, costuma-se adotar como incerteza de uma medida, o valor da metade da menor divisão da escala do instrumento, a qual denominamos de incerteza absoluta) 
Como estamos considerando o tempo na ordem de dez elevado à menos nove e a distância em centímetros, a conclusão foi que a distância mínima que nós conseguimos calcular a cada inda e vinda do laser é de 30 cm.

Metade da menor medida ⇒ 30/2 = 15 cm
Talvez tenha alguma explicação parecida, que utiliza outras ideias, fórmulas, se eu achar algo depois eu edito a resposta para deixa-lá mais completa 

builtfences: Obrigada <3 tava me matando com essa
jvitor20: Tranquilo, qualquer coisa procure na internet por ''Teoria dos Erros'', caso tenha problemas com medidas, incertezas e erros.
jvitor20: Provavelmente nada lá será muiti
jvitor20: Ops muito * estranho, já que a maioria das coisas é dada no ensino médio mesmo
Perguntas interessantes