Física, perguntado por sweetdoup, 4 meses atrás

De um ponto 50 m acima do solo, lança-se verticalmente para cima um objeto com velocidade inicial de 15 m/s, num local onde g = 10 m/s. Calcule o intervalo de tempo para que o objeto atinja o solo, contando a partir do lançamento.

eu sei que a resposta tem que ser 5, mas não sei como chegar nisso, me ajuda pfvkk​

Soluções para a tarefa

Respondido por EdivamJunior
0
Δs = vot + at^2 /2

50 = -15.t +10t^2 /2

50 = -15t +5t^2

10 = -3t +t^2

t^2 -3t - 10 = 0

Δ = (-3)^2 -4.1.(-10)

Δ = 9+40

Δ = 49

t = (-(-3)+-7)/2

t = (3+-7)/2

t = (3+7)/2

t = 5s

t = -4/2 = -2s :. t>0


t = 5 segundos

Respondido por peeh94
1

Explicação:

Opa, vamos lá.

Temos que o espaço inicial do objeto é 50 m...

anotarei isso.

Vo=15m/s

g=10m/s²

So=50 m

okay, agora podemos escrever as formulas do movimento...

temos que a velocidade é calculada da seguinte forma

V=15-10t

e o espaço:

S=50+15t-5t^2

igualando a equação do espaço a zero... pois será o espaço dele final.

obs: apenas adotei o referencial em que o chão é a origem do eixo cartesiano

0=50+15t-5t²

dividiremos tudo por -5

t²-3t-10=0

agora, basta resolver.

Δ=9-4.1.(-40)

Δ=49

a raiz quadrada de delta é igual a 7, podemos substituir na formula de bhaskara.

t=\frac{3+/- 7}{2}\\\\t1=\frac{3+7}{2} \\\\t1 =5s\\\\t2=\frac{3-7}{2} \\\\t2=-2s

logo a resposta é 5 segundos... pois não existe tempo negativo

solved :/


sweetdoup: obrigada!!!
Perguntas interessantes