Informática, perguntado por Aqualung, 5 meses atrás

(Python 3.x)
Escreva um programa que leia as coordenadas de x e y de pontos no R² e calcule sua distância da origem (0,0).

Soluções para a tarefa

Respondido por ArmaMardita
4

Resposta:

x = 7

y = 6

a = (7 ** 2 + 6 ** 2) ** (1/2)

print(a)

Explicação:

Em Geometria Analítica e Álgebra Linear, a norma, comprimento, tamanho ou módulo (também chamado de intensidade na Física) de um vetor é o seu comprimento, que pode ser calculado por meio da distância de seu ponto final a partir da origem, no nosso caso (0,0).

Considere o seguinte vetor no plano, ou seja, no espaço bidimensional, ou R2:  

Aqui este vetor se inicia na origem (0, 0) e vai até as coordenadas (x = 7) e (y = 6)

a = 7² + 6² ** 1/2

o resultado é a radiciação dos elevados.

modelo 2

x1 = int(input(f'Informe x1 => '))

y1 = int(input(f'Informe y1 => '))

# elevar à uma fracão corresponde a tirar a raiz tendo como com indice

#  número indicado no denominador

distancia = int((((0 - x1) ** 2) + ((0 - y1) ** 2)) ** (1 / 2))

print(f'A distância entre a origem (0,0) e o ponto de'

     f' coordenadas ({x1},{y1})é: {distancia}')

#

# Demonstrando o cálculo

print(f'x2 - x1 = {0 - x1}, \n'

     f'y2 - y1 = {0 - y1}')

print(f'(x2 - x1) ** 2 = {(0 - x1) ** 2}, \n'

     f'(y2 - y1) ** 2 = {(0 - y1) ** 2}')

print(f'Distância da origem = {distancia}')

Perguntas interessantes