/ / La codificación es ... Sistemas de signos: Codificación de la información

La codificación es ... Sistemas de signos: Codificación de la información

La codificación de la información es increíblemente ampliaÁrea de conocimiento. Por supuesto, está directamente relacionado con el desarrollo de la tecnología digital. En muchas instituciones educativas modernas, el tema más popular es la codificación de la información. Hoy estudiaremos las principales interpretaciones de este fenómeno en relación con diversos aspectos del funcionamiento de la computadora. Intentaremos responder a la pregunta: "¿Codificar un proceso, un método, una herramienta o todos estos fenómenos al mismo tiempo?"

Ceros y unos

Casi cualquier tipo de datos quemostrados en la pantalla de una computadora, de una forma u otra representan un código binario que consta de ceros y unos. Este es el método más simple y de "bajo nivel" para cifrar información que permite que una PC procese datos. El código binario es universal: lo entienden todas las computadoras sin excepción (de hecho, para eso fue creado: para estandarizar el uso de información en formato digital).

La codificación es un proceso

La unidad base que utiliza binario.la codificación es un bit (de la frase "dígito binario" - "doble dígito"). Es 0 o 1. Como regla general, los bits no se usan individualmente, sino que se combinan en secuencias de 8 dígitos - bytes. Cada uno de ellos, por lo tanto, puede contener hasta 256 combinaciones de ceros y unos (2 a la 8ª potencia). Como regla general, no se utilizan bytes únicos para registrar cantidades significativas de información, sino cantidades más grandes con los prefijos "kilo", "mega", "giga", "tera", etc. .

Codificación de texto

Самый распространенный вид цифровых данных - это texto ¿Cómo se codifica? Este es un proceso bastante fácil de explicar. Una letra, signo de puntuación, dígito o carácter se puede codificar mediante uno o varios bytes, es decir, la computadora los ve como una secuencia única de ceros y unos, y luego los muestra en la pantalla de acuerdo con el algoritmo de reconocimiento. Hay dos estándares mundiales principales para el "cifrado" de texto de computadora: ASCII y UNICODE.

En el sistema ASCII, cada carácter está codificado únicamenteun byte. Es decir, con este estándar se pueden "cifrar" hasta 256 caracteres, lo que es más que suficiente para mostrar caracteres de la mayoría de los alfabetos del mundo. Por supuesto, todos los sistemas de letras nacionales que existen en la actualidad no encajarán en este recurso. Por tanto, cada alfabeto tiene su propio “subsistema” de cifrado. La información se codifica mediante sistemas de signos adaptados a los estándares nacionales de escritura. Sin embargo, cada uno de estos sistemas, a su vez, forma parte del estándar global ASCII, aceptado internacionalmente.

Codificación gráfica

Dentro del sistema ASCII, este mismo recurso de 256signos se divide en dos partes. Los primeros 128 son caracteres reservados para el alfabeto inglés (letras de la a a la z), así como números, signos de puntuación básicos y algunos otros símbolos. Los segundos 128 bytes están reservados, a su vez, para los sistemas de letras nacionales. Este es el "subsistema" para alfabetos distintos del inglés: ruso, hindi, árabe, japonés, chino y muchos otros.

Cada uno de ellos se presenta como un separado.tablas de codificación. Es decir, puede suceder (y esto suele suceder) que la misma secuencia de bits sea responsable de diferentes letras y símbolos en dos tablas "nacionales" separadas. Además, debido a las peculiaridades del desarrollo del sector de TI en diferentes países, incluso ellos difieren. Por ejemplo, para el idioma ruso los dos sistemas de codificación más comunes son Windows-1251 y KOI-8. El primero apareció más tarde (así como el propio sistema operativo, que está en consonancia con él), pero ahora es utilizado prioritariamente por muchos especialistas en TI. Por lo tanto, para que una computadora pueda leer texto en ruso de manera confiable, debe poder reconocer correctamente ambas tablas. Pero, por regla general, no hay problemas con esto (si la PC tiene un sistema operativo moderno).

Métodos de codificación de texto todo el tiempo.están mejorando. Además del sistema ASCII de "un solo byte", que sólo puede procesar valores de 256 caracteres, también existe un sistema UNICODE de "doble byte". Es fácil calcular que permite codificar texto en una cantidad igual a 2 elevado a 16, es decir, 65 mil 536. A su vez, tiene recursos para codificar simultáneamente casi todos los alfabetos nacionales existentes en el mundo. El uso de UNICODE no es menos común que el uso del estándar ASCII "clásico".

Codificación de gráficos

Arriba definimos cómo se “cifran”textos y cómo se utilizan los bytes. ¿Qué pasa con las fotografías e imágenes digitales? También bastante sencillo. Al igual que ocurre con el texto, los mismos bytes desempeñan el papel principal en la codificación de gráficos por ordenador.

El proceso de imagen digital en general.similar a los mecanismos sobre los cuales opera un televisor. En una pantalla de televisión, si se mira de cerca, la imagen se compone de muchos puntos individuales, que juntos forman figuras reconocibles a simple vista a cierta distancia. La matriz de televisión (o proyector CRT) recibe las coordenadas horizontales y verticales de cada punto del transmisor y construye gradualmente la imagen. El principio de codificación de gráficos por computadora funciona exactamente de la misma manera. El "cifrado" de imágenes por bytes se basa en especificar las coordenadas correspondientes a cada uno de los puntos de la pantalla (así como el color de cada uno de ellos). Es decir en términos simples. Por supuesto, la codificación gráfica es un proceso mucho más complejo que la codificación de texto.

Sistemas de codificación de información.

El método de asignar las coordenadas correspondientes a puntos yLos parámetros de color se denominan "raster". Muchos formatos de archivos de gráficos por computadora tienen nombres similares. Las coordenadas de cada punto de la imagen, así como su color, se registran en uno o más bytes. ¿Qué determina su número? Principalmente sobre cuántos tonos de color hay que “cifrar”. Un byte, como usted sabe, son 256 valores. Si tenemos suficientes matices para construir un cuadro, nos conformaremos con este recurso. En concreto, podremos tener 256 tonos de gris a nuestra disposición. Y esto será suficiente para codificar casi cualquier imagen en blanco y negro. A su vez, este recurso claramente no será suficiente para las imágenes en color: el ojo humano, como se sabe, es capaz de distinguir hasta varias decenas de millones de colores. Por lo tanto, se necesita una "reserva" no de 256 valores, sino de cientos de miles de veces más. ¿Por qué no se utiliza un byte para codificar puntos, sino varios? Según los estándares actuales, puede haber 16 (se pueden "cifrar 65 mil 536 colores") o 24 (16 millones 777 mil 216 tonos).

A diferencia de los estándares textuales, la diversidadque son comparables al número de idiomas del mundo, con los gráficos las cosas son algo más sencillas. Los formatos de archivo más comunes (como JPEG, PNG, BMP, GIF, etc.) generalmente se reconocen igualmente bien en la mayoría de las computadoras.

No hay nada difícil en entender por qué.principios, se lleva a cabo la codificación de información gráfica. El noveno grado de cualquier escuela secundaria rusa, por regla general, incluye un curso de informática, donde se analizan dichas tecnologías con cierto detalle en un lenguaje muy simple y comprensible. También existen programas de formación especializados para adultos, organizados por universidades, liceos o escuelas.

La codificación es

Por tanto, el hombre ruso moderno tieneDónde adquirir conocimientos sobre códigos que tienen importancia práctica en gráficos por computadora. Y si desea adquirir conocimientos básicos por su cuenta, puede adquirir materiales educativos accesibles. Estos incluyen, por ejemplo, el capítulo “Codificación de información gráfica (noveno grado, libro de texto “Informática y TIC” escrito por N. D. Ugrinovich).

Codificación de datos de audio

El ordenador se utiliza habitualmente paraescuchar música y otros archivos de audio. Al igual que en el caso del texto y los gráficos, cualquier sonido en una PC sigue siendo los mismos bytes. Estos, a su vez, son "descifrados" por la tarjeta de audio y otros microcircuitos y convertidos en sonido audible. El principio es aproximadamente el mismo que en el caso de los discos de gramófono. En ellos, como se sabe, cada sonido corresponde a una ranura microscópica en el plástico, que el lector reconoce y luego hace sonar. Todo es similar en una computadora. Sólo el papel de ranuras lo desempeñan los bytes, cuya naturaleza, como en el caso del texto y las imágenes, es codificación binaria.

Sistemas de codificación

Si en el caso de imágenes de ordenadorSi el elemento único es un punto, entonces al grabar sonido se produce el llamado "recuento". Como regla general, se escriben dos bytes en él, lo que genera hasta 65 mil 536 microoscilaciones sonoras. Sin embargo, a diferencia de lo que ocurre al construir imágenes, para mejorar la calidad del sonido no se consigue añadiendo bytes adicionales (obviamente hay más que suficientes), sino aumentando el número de “muestras”. Aunque algunos sistemas de audio utilizan números de bytes tanto mayores como menores. Cuando se realiza la codificación de audio, la unidad de medida estándar para la "densidad de flujo" de bytes es un segundo. Es decir, las microoscilaciones codificadas con 8 mil muestras por segundo serán obviamente de menor calidad que una secuencia de sonidos codificadas con 44 mil “muestras”.

La estandarización internacional para archivos de audio, al igual que para los gráficos, está bien desarrollada. Existen varios formatos de medios de audio estándar: MP3, WAV, WMA, que se utilizan en todo el mundo.

Codificación de vídeo

Una especie de "esquema híbrido" en el queEl cifrado de sonido se combina con la codificación de imágenes y se utiliza en vídeos de computadora. Normalmente, las películas y los clips constan de dos tipos de datos: el sonido en sí y la secuencia de vídeo que lo acompaña. Describimos anteriormente cómo se "cifra" el primer componente. El segundo es un poco más difícil. Los principios aquí son diferentes a los incluidos en la codificación gráfica analizada anteriormente. Pero gracias a la universalidad del "concepto" de bytes, la esencia de los mecanismos es bastante clara y lógica.

Recordemos cómo funciona el cine.No es más que una secuencia de fotogramas individuales (normalmente 24 de ellos). Los vídeos de ordenador están estructurados exactamente de la misma manera. Cada cuadro es una imagen. Definimos anteriormente cómo se construye usando bytes. A su vez, la secuencia de video contiene un área determinada de código que le permite vincular fotogramas individuales entre sí. Una especie de sustituto del cine digital. Un fotograma se considera una unidad de medida independiente para una transmisión de vídeo (similar a los puntos para las imágenes y las muestras para el sonido, como en el formato "película" del cine y los vídeos). Este último en un segundo, según los estándares aceptados, puede ser 25 o 50.

Al igual que con el audio, hayLos estándares internacionales comunes de archivos de video son MP4, 3GP, AVI. Los productores de cine y vídeo intentan producir medios que sean compatibles con la mayor cantidad de computadoras posible. Los formatos de archivo especificados se encuentran entre los más populares y se pueden abrir en casi cualquier PC moderno.

Compresión de datos

Los datos de la computadora se almacenan envarios medios: discos, unidades flash, etc. Como dijimos anteriormente, los bytes, por regla general, están "cubiertos" con los prefijos "mega", "giga", "tera", etc. archivos codificados es el siguiente: que es imposible colocarlos dados los recursos disponibles en el disco. Luego se utilizan varios tipos de métodos de compresión de datos. Básicamente, también están codificando. Esta es otra posible interpretación del término.

Hay dos mecanismos principales para la compresión de datos.Según el primero de ellos, la secuencia de bits se escribe en forma “empaquetada”. Es decir, el ordenador no puede leer el contenido de los archivos (reproducirlo como texto, imagen o vídeo) a menos que realice el procedimiento de “desempaquetado”. Un programa que comprime datos de esta manera se llama archivador. El principio de su funcionamiento es bastante sencillo. El archivo de datos, como uno de los métodos más populares mediante los cuales se puede codificar la información, es obligatorio para estudiar informática a nivel escolar.

Como recordamos, el proceso de “cifrar” archivos enbytes está estandarizado. Tomemos el estándar ASCII. Para, por ejemplo, cifrar la palabra "hola", necesitamos 6 bytes, según el número de letras. Esta es exactamente la cantidad de espacio que ocupará el archivo con este texto en el disco. ¿Qué pasa si escribimos la palabra "hola" 100 veces seguidas? Nada especial: para esto necesitamos 600 bytes, respectivamente, la misma cantidad de espacio en disco. Sin embargo, podemos utilizar un archivador, que creará un archivo en el que, en un número mucho menor de bytes, se “cifrará” el comando, con un aspecto similar a este: “hola, multiplica por 100”. Habiendo contado el número de letras de este mensaje, llegamos a la conclusión de que para escribir dicho archivo solo necesitamos 19 bytes. Y la misma cantidad de espacio en disco. Al "descomprimir" el archivo comprimido, se produce el "descifrado" y el texto adquiere su forma original con "100 saludos". Por lo tanto, utilizando un programa especial que utiliza un mecanismo de codificación especial, podemos ahorrar una cantidad significativa de espacio en disco.

El proceso descrito anteriormente es bastante universal: no importa qué sistemas de signos se utilicen, siempre es posible codificar información con fines de compresión mediante el archivo de datos.

¿Cuál es el segundo mecanismo?Hasta cierto punto es similar a lo que se utiliza en los archivadores. Pero su diferencia fundamental es que el archivo comprimido puede visualizarse en una computadora sin el procedimiento de "desempacar". ¿Cómo funciona este mecanismo?

Como recordamos, en su forma original la palabra "hola"ocupa 6 bytes. Sin embargo, podemos usar un truco y escribirlo así: “prvt”. Salen 4 bytes. Ya sólo queda “enseñar” al ordenador a añadir esas letras que hemos eliminado mientras mostramos el archivo. Hay que decir que en la práctica no es necesario organizar un proceso de “formación”. Los mecanismos básicos para reconocer caracteres faltantes se incluyen en la mayoría de los programas de PC modernos. Es decir, la mayor parte de los archivos con los que tratamos a diario están, de una forma u otra, ya “cifrados” mediante este algoritmo.

Por supuesto, también existen sistemas “híbridos”codificación de información, lo que permite la compresión de datos y al mismo tiempo se utilizan ambos enfoques anteriores. Y es probable que sean incluso más eficientes en términos de ahorro de espacio en disco que cada uno individualmente.

Por supuesto, usando la palabra "hola", dijimossólo los principios básicos de funcionamiento de los mecanismos de compresión de datos. En realidad son mucho más complicados. Varios sistemas de codificación de información pueden ofrecer mecanismos increíblemente complejos para "comprimir" archivos. Sin embargo, vemos cómo es posible ahorrar espacio en disco sin degradar la calidad de la información en la PC. El papel de la compresión de datos es especialmente importante cuando se utilizan imágenes, audio y vídeo: estos tipos de datos exigen más recursos de disco que otros.

¿Qué otros “códigos” existen?

Como dijimos al principio, la codificación esEste es un fenómeno complejo. Ahora que entendemos los principios básicos de la codificación de datos digitales basada en bytes, podemos pasar a otra área. Se asocia con el uso de códigos informáticos con significados ligeramente diferentes. Aquí, por "código" entenderemos no una secuencia de ceros y unos, sino una colección de varias letras y símbolos (que, como ya sabemos, están formados por 0 y 1), que tiene un significado práctico para la vida moderna. hombre.

Código de programa

La base de cualquier programa informático escódigo. Está escrito en un lenguaje que una computadora puede entender. La PC, descifrando el código, ejecuta ciertos comandos. La característica distintiva de un programa de computadora de otros tipos de datos digitales es que el código que contiene es capaz de "descifrarse" a sí mismo (el usuario solo necesita iniciar este proceso).

Codificación de información gráfica grado 9.

Otra característica de los programas es la relativaflexibilidad del código utilizado. Es decir, una persona puede asignar las mismas tareas a una computadora utilizando un conjunto bastante grande de "frases" y, si es necesario, en otro idioma.

Código de marcado del documento

Otro campo de aplicación prácticamente importantecódigo de letras: creación y formato de documentos. Como regla general, simplemente mostrar caracteres en la pantalla no es suficiente desde el punto de vista de la importancia práctica del uso de una PC. En la mayoría de los casos, el texto debe construirse utilizando una fuente de cierto color y tamaño, acompañada de elementos adicionales (como, por ejemplo, tablas). Todos estos parámetros se configuran, como en el caso de los programas, en lenguajes especiales comprensibles para el ordenador. La PC, al reconocer los "comandos", muestra los documentos exactamente como el usuario desea. Además, los textos se pueden formatear de la misma forma, al igual que los programas, utilizando diferentes conjuntos de “frases” e incluso en diferentes idiomas.

Sin embargo, existe una diferencia fundamental entre los códigos.para documentos y programas informáticos. Consiste en que los primeros no son capaces de descifrarse a sí mismos. Abrir archivos con textos formateados siempre requiere programas de terceros.

Cifrado de datos

Otra interpretación del término "código"En relación con las computadoras, esto es cifrado de datos. Arriba utilizamos esta palabra como sinónimo del término "codificación", y esto es aceptable. En este caso, por cifrado entenderemos un tipo diferente de fenómeno. Es decir, la codificación de datos digitales para prohibir el acceso a ellos por parte de otras personas. La protección de archivos informáticos es el área de actividad más importante en el campo de las tecnologías de la información. En realidad, esta es una disciplina científica separada; también incluye la informática escolar. Codificar archivos para evitar el acceso no autorizado es una tarea cuya importancia se enseña a los ciudadanos de los países modernos desde la infancia.

codificación binaria

¿Cómo son los mecanismos por los cuales¿Están los datos cifrados? En principio es tan sencillo y claro como todos los anteriores que hemos considerado. La codificación es un proceso que se puede explicar fácilmente en términos de principios básicos de lógica.

Digamos que necesitamos enviar un mensaje."Ivanov va a Petrov" para que nadie pueda leerlo. Confiamos en que la computadora encripte el mensaje y vea el resultado: "10-3-1-15-16-3-10-5-7-20-11-17-6-20-18-3-21". Este código, por supuesto, es muy sencillo: cada dígito corresponde al número de serie de las letras de nuestra frase en el alfabeto. "I" ocupa el décimo lugar, "B" está en el tercer lugar, "A" está en el primer lugar, etc. Pero los sistemas de codificación informáticos modernos pueden cifrar datos de tal manera que será increíblemente difícil encontrar la clave. .