Física, perguntado por gabsfranco, 1 ano atrás

quantos minutos um raio de luz solar demora pata chegar a terra (a distancia do sol a terra e de aproximadamente 150 000 000 km e a velocidade da luz e de 300 000 km / s .)

Soluções para a tarefa

Respondido por LoGaan
1
Primeiro tem que interpretar a questão, identificar as unidades que o exercício dá e depois usar a fórmula de velocidade escalar média: 

( Vm = Δs /    Δt) 
            |          |
   Variação     Variação
 da posição    do tempo

No caso do exercício, a questão nos informa Vm (velocidade escalar média, que é a velocidade da luz no vácuo (300 000 km/s)) e  nos informa também ∆s que é a distância da terra até sol (149 000 000 km) e quer saber  Δt que é a variação do tempo (No exercício está sendo chamado de intervalo de tempo).

Agora só 'jogar' na fórmula inicial:
Vm = Δs ÷ Δt

300000 = 149000000 ÷  Δt

 - Agora ISOLA o  Δt que queremos descobrir. Passa o 149000000 para  para antes do sinal de igual, deixando o  Δt 'sozinho'. Isso divide os dois números:

300000 ÷ 149000000 = Δt
496,66 = Δt

Pronto, encontramos o que queriamos (o intervalo de tempo Δt)
Δt = 496,66. Mas tem mais um problema. Esse resultado está em SEGUNDOS. Tesmo que passar para minutos. Basta dividir ele por 60:

496,66 ÷ 60 = 8,27 min. <-- Isto é o que o exercício pediu

Tentei explicar, espero que tenha entendido.
Perguntas interessantes