Lógica, perguntado por leiddymary, 3 meses atrás

Originado pela Unicode Consortium, visa a oportunizar que os computadores representem e manipulem textos de forma consistente nos mais variados sistemas de escrita existentes. Abrange mais de 100.000 caracteres, podendo utilizar um, dois ou mais bytes para representar caracteres. Tal afirmação se refere ao:
a.

EBCDIC (8 bits por caractere).
b.

UNICODE (5 ou menos bits).
c.

ASCII (7 bits por caractere).
d.

UNICODE (16, 32 ou mais bits).
e.

ASCII (10 bits por caractere).

Soluções para a tarefa

Respondido por sauloslira
11

Resposta:

e. UNICODE (16, 32 ou mais bits).

Explicação:

De acordo com Edelweiss e Livi (2014), códigos mais simples armazenam os caracteres

em bytes (conjuntos de 8 bits). Para códigos com representação de caracteres,

existe uma convenção em que cada caractere tem associado a si uma sequência própria

de zeros e uns.

Há três códigos que se destacam:

● ASCII (7 bits por caractere): American Standard Code for Information Interchange,

utilizado por grande parte dos microcomputadores e em alguns periféricos

de equipamentos de grande porte.

● EBCDIC (8 bits por caractere): Extended Binary Coded Decimal Interchange

Code, utiliza um byte para a representação de cada caractere. Na representação

do conjunto de caracteres ASCII padrão, o bit mais significativo (bit mais à

esquerda) do byte é sempre igual a 0.

● UNICODE (16, 32 ou mais bits): originado pela Unicode Consortium, visa a

oportunizar que os computadores representem e manipulem textos de forma

consistente nos mais variados sistemas de escrita existentes. Abrange mais de

100.000 caracteres, podendo utilizar um, dois ou mais bytes para representar

caracteres.

Respondido por 10marcelopes10
3

Resposta:

UNICODE (16, 32 ou mais bits).

Explicação:

Perguntas interessantes