Informática, perguntado por rubensalphaeomega58, 9 meses atrás

Supondo que os computadores A e B estão conectados por um meio de comunicação serial, que consegue transmitir 1Mbps (1.000.000 bits por segundo). Quantos segundos serão necessários para transmitir um arquivo de 100MB (Megabytes), sem considerar a sobrecarga de protocolos de controle? Considere a unidade Megabyte como sendo 1.000.000 bytes. Informe somente o resultado numérico, sem unidade.

Soluções para a tarefa

Respondido por eduardabarros14
1

Resposta:

100 segundos

minima de 2 minutos


rubensalphaeomega58: Mais prq? tem alguma conta ou coisa assim?
Perguntas interessantes