Supondo que os computadores A e B estão conectados por um meio de comunicação serial, que consegue transmitir 1Mbps (1.000.000 bits por segundo). Quantos segundos serão necessários para transmitir um arquivo de 100MB (Megabytes), sem considerar a sobrecarga de protocolos de controle? Considere a unidade Megabyte como sendo 1.000.000 bytes. Informe somente o resultado numérico, sem unidade.
Soluções para a tarefa
Respondido por
1
Resposta:
100 segundos
minima de 2 minutos
rubensalphaeomega58:
Mais prq? tem alguma conta ou coisa assim?
Perguntas interessantes
Português,
7 meses atrás
História,
7 meses atrás
Química,
7 meses atrás
Matemática,
9 meses atrás
Matemática,
1 ano atrás