Matemática, perguntado por GiovannaCapucci, 1 ano atrás

Demonstrem que a distancia de um ponto P (x,y) à origem O (0,0) é igual a \sqrt{ x^{2} +y^{2} ?

Soluções para a tarefa

Respondido por ProfRafael
379
P(x,y) \\ O(0,0) \\ D= \sqrt{(x_{b}-x_{a})^{2}+(y_{b}-y_{a})^{2}}  \\ D=   \sqrt{(x-0)^{2}+(y-0)^{2}} \\ D=  \sqrt{(x)^{2}+(y)^{2}} \\ D=  \sqrt{x^{2}+y^{2}} \\  \\ C.Q.D. \\

Espero ter ajudado.
Respondido por numero20
45

A distância entre os pontos é calculada por: D = √x²+y².

Esta questão está relacionada com Teorema de Pitágoras. O Teorema de Pitágoras envolve o triângulo retângulo, que é um triângulo que possui um ângulo interno igual a 90º. Nesse triângulo, temos cateto adjacente, cateto oposto e hipotenusa, onde todas são relacionas através da seguinte expressão:

a^2+b^2=c^2

Onde c é a hipotenusa e a e b são os catetos.

Nesse caso, veja que a distância entre dois pontos pode ser dividida em uma componente horizontal e uma componente vertical. Essas componentes são equivalentes as diferenças entre os valores de X e Y das coordenadas. Como um desses pontos é (0,0), podemos utilizar o Teorema de Pitágoras para representar essa distância. Portanto:

D=\sqrt{x^2+y^2}

Quer mais conteúdo para estudar? Acesse:

https://brainly.com.br/tarefa/6119781

https://brainly.com.br/tarefa/6843202

https://brainly.com.br/tarefa/923974

Anexos:
Perguntas interessantes