Saltar al contenido

Codificación de información de texto. Codificación de información. Cifrado de información en la PC.

Codificación de información de texto.  Codificación de información.  Cifrado de información en la PC.

Buen día, querido usuario. En este artículo hablaremos de temas como: Codificación de información, Codificación de información de texto, Cifrado de información en una computadora.

Cifrado de información en una computadora.

Hoy una computadora personal puede hacer esto procesar información numérica, textual, gráfica, de audio y video… Toda la información en una computadora se representa en un código binario, es decir, se utiliza un alfabeto de dos caracteres 0 y 1. Es en un código binario que es más fácil representar la información como un impulso eléctrico, su ausencia ( 0) y su presencia (1).

Este tipo de codificación generalmente se llama binaria, y el alfabeto de codificación binaria de ceros y unos, que lleva una carga semántica en una computadora, generalmente se llama lenguaje de máquina.

Nota

Cada dígito de un código binario ocupa un espacio de memoria igual a 1 bit, respectivamente, dos dígitos son 2 bits, tres – 3 bits, etc.

Tipo de informacion
Código binario
Numérico 1001001111
Texto 1010011101
Gráfico 1100101011
Sonido 1010010011
vídeo 1110010101

Para calcular la cantidad de información, por ejemplo, para un número, debe representar este número en código binario y contar el número de ceros y unos.

Codificación de información de texto.

Hoy en día, una gran cantidad de usuarios usa una computadora procesa la información del texto, que consta de: letras, números, signos de puntuación y otros elementos.

Normalmente, para codificar un carácter, utilice 1 byte memoria que es de 8 bits. Según la teoría de la probabilidad, utilizando una fórmula simple que conecta el número de eventos posibles (K) y la cantidad de información (I), es posible calcular cuántos no son idénticos los caracteres se pueden codificar: K = 2 ^ I = 28 = 256

Nota

Xa codificación de información de texto suele utilizar un alfabeto de 256 caracteres …

El principio de esta codificación es que cada carácter (letra, signo) también tiene su propio código binario de 00000000 a 11111111 se puede presentar información de texto en código decimal de 0 a 255.

Tienes que recordarlo hoy por codificación de letras del alfabeto rusoutilice cinco tablas de codificación diferentes (KOI – 8, CP1251, CP866, Mac, ISO), recuerde que los textos codificados con una tabla no se mostrarán correctamente en otra codificación. Esto se puede ver en tabla de codificación de caracteres unificada

Diferentes símbolos corresponden a un código binario en diferentes tablas:

Código binario
Código decimal KOI8 CP1251 CP866 Mas ISO
11000010
194
segundo
EN
T.

Hoy transcodificación de documentos de texto no es el usuario el que se preocupa, sino los programas integrados en los procesadores de texto y los procesadores de texto. A principios de 1997, Microsoft Office comenzó a admitir la nueva codificación Unicode. En Unicode, puede no codifica 256 caracteres a, 65536, esto se logró por el hecho de que para cada carácter se comenzaron a asignar 2 bytes. Hoy en día, las dos tablas más populares son Windows (CP1251) y Unicode.

Resolvemos problemas.

Problema número 1.Supongamos que tenemos dos textos que contienen el mismo número de caracteres. Un texto está escrito en ruso, su alfabeto (32 caracteres) y el segundo está permitido en ucraniano, su alfabeto (16 caracteres). ¿De quién es el texto que contiene más información?

Decisión

I = K * a (el volumen de información de texto es igual al producto del número de caracteres por el peso de la información de un carácter). Debido a que ambos textos tienen el mismo número de caracteres (K), la diferencia depende del contenido de información de un carácter del alfabeto (a). 2 ^ a1 = 32, es decir, a1 = 5 bits.2 ^ a2 = 16, es decir a2 = 4 bits I1 = K * 5 bits, I2 = K * 4 bits Esto significa que el texto escrito en ruso contiene 5/4 veces más información.

Problema número 2.El tamaño del mensaje, que contiene 2048 caracteres, era 1/512 de MB. Determina la cardinalidad del alfabeto.

Decisión

I = 1/512 * 1024 * 1024 * 8 = 16384 bits. – transfiere el volumen de información del mensaje en bits. a = I / K = 16384/1024 = 16 bits – recae en un carácter del alfabeto. 2 ^ 16 = 65536 caracteres: el poder del alfabeto utilizado. Este es el alfabeto utilizado en la codificación Unicode, que se ha convertido en un estándar internacional para representar información simbólica en una computadora.