Ed
anteontem
Para entender quantos caracteres podem ser representados por 2 bytes em uma tabela de codificação como a UTF-16, precisamos considerar que 1 byte é igual a 8 bits. Portanto, 2 bytes equivalem a 16 bits. Com 16 bits, podemos representar \(2^{16}\) combinações diferentes, o que resulta em 65.536 combinações. Isso significa que a UTF-16 pode representar até 65.536 caracteres diferentes com 2 bytes. Analisando as alternativas: a) 128 caracteres - Incorreto. b) 256 caracteres - Incorreto. c) 65.536 caracteres - Correto. d) 1.024 caracteres - Incorreto. Portanto, a alternativa correta é: c) 65.536 caracteres.
Mais perguntas desse material