Medidas de información a nivel sintáctico. Medidas de información sintácticas, semánticas y pragmáticas.

NIVELES DE PROBLEMAS DE TRANSMISIÓN DE INFORMACIÓN

Al implementar procesos de información, la información siempre se transfiere en el espacio y el tiempo desde la fuente de información al receptor (destinatario). En este caso, para transmitir información se utilizan diversos signos o símbolos, por ejemplo, lenguaje natural o artificial (formal), lo que permite expresarla de alguna forma denominada mensaje.

Mensaje- una forma de representar información en forma de un conjunto de signos (símbolos) utilizados para la transmisión.

Un mensaje como conjunto de signos desde el punto de vista de la semiótica (del griego. semeión - signo, atributo), una ciencia que estudia las propiedades de los signos y los sistemas de signos, se puede estudiar en tres niveles:

1) sintáctico, donde se consideran las propiedades internas de los mensajes, es decir, las relaciones entre signos, que reflejan la estructura de un sistema de signos determinado. Las propiedades externas se estudian a nivel semántico y pragmático;

2) semántico, donde se analizan las relaciones entre los signos y los objetos, acciones, cualidades que denotan, es decir, el contenido semántico del mensaje, su relación con la fuente de información;

3) pragmático, donde se considera la relación entre el mensaje y el destinatario, es decir, el contenido del mensaje para el consumidor, su relación con el destinatario.

Así, teniendo en cuenta una cierta relación entre los problemas de transmisión de información y los niveles de estudio de los sistemas de signos, se dividen en tres niveles: sintáctico, semántico y pragmático.

Problemas nivel sintáctico se refieren a la creación de fundamentos teóricos para la construcción de sistemas de información, cuyos principales indicadores de desempeño estarían cerca del máximo posible, así como a la mejora de los sistemas existentes para aumentar la eficiencia de su uso. Se trata de problemas puramente técnicos de mejora de los métodos de transmisión de mensajes y sus portadores materiales: las señales. En este nivel, consideran los problemas de entregar mensajes al destinatario como un conjunto de caracteres, teniendo en cuenta el tipo de medio y método de presentación de la información, la velocidad de transmisión y procesamiento, el tamaño de los códigos de presentación de información, la confiabilidad y precisión de la conversión de estos códigos, etc., abstrayéndose completamente del contenido semántico de los mensajes y su finalidad prevista. En este nivel, la información considerada sólo desde una perspectiva sintáctica suele denominarse datos, ya que el lado semántico no importa.

La teoría de la información moderna estudia principalmente problemas en este nivel. Se basa en el concepto de “cantidad de información”, que es una medida de la frecuencia de uso de signos, que de ninguna manera refleja ni el significado ni la importancia de los mensajes que se transmiten. En este sentido, a veces se dice que la teoría de la información moderna se encuentra en el nivel sintáctico.

Problemas nivel semántico están asociados a formalizar y tener en cuenta el significado de la información transmitida, determinando el grado de correspondencia entre la imagen del objeto y el objeto mismo. En este nivel se analiza la información que refleja la información, se consideran conexiones semánticas, se forman conceptos e ideas, se revela el significado y contenido de la información y se lleva a cabo su generalización.

Los problemas a este nivel son extremadamente complejos, ya que el contenido semántico de la información depende más del destinatario que de la semántica del mensaje presentado en cualquier idioma.

A nivel pragmático, nos interesan las consecuencias de recibir y utilizar esta información por parte del consumidor. Los problemas en este nivel están asociados con la determinación del valor y la utilidad del uso de la información cuando el consumidor desarrolla una solución para lograr su objetivo. La principal dificultad aquí es que el valor y la utilidad de la información pueden ser completamente diferentes para diferentes destinatarios y, además, depende de una serie de factores, como, por ejemplo, la puntualidad de su entrega y uso. Los altos requisitos de velocidad de entrega de información a menudo vienen dictados por el hecho de que las acciones de control deben llevarse a cabo en tiempo real, es decir, al ritmo del cambio en el estado de los objetos o procesos controlados. Los retrasos en la entrega o el uso de la información pueden tener consecuencias catastróficas.

Medida sintáctica de información.

Como medida sintáctica, la cantidad de información representa el volumen de datos.

ACERCA DE volumen de datos V d en un mensaje “entrada” se mide por el número de caracteres (dígitos) en este mensaje. Como mencionamos, en el sistema numérico binario la unidad de medida es el bit. En la práctica, junto con esta unidad de medida de datos "más pequeña", a menudo se utiliza una unidad más grande: byte igual a 8 bits. Por conveniencia, se utilizan como metros kilo (10 3), mega (10 6), giga (10 9) y tera (10 12) bytes, etc. El volumen de mensajes escritos breves, libros gruesos, música, imágenes y productos de software se mide en bytes familiares. Está claro que esta medida no puede caracterizar de ninguna manera qué y por qué contienen estas unidades de información. Mide la novela de L.N. Guerra y paz de Tolstoi es útil, por ejemplo, para saber si cabe en el espacio libre de un disco duro. Esto es tan útil como medir el tamaño de un libro (alto, grosor y ancho) para juzgar si cabe en una estantería, o pesarlo para ver si un maletín puede soportar el peso combinado.

Entonces. Una medida sintáctica de información claramente no es suficiente para caracterizar un mensaje: en nuestro ejemplo meteorológico, en el último caso, el mensaje del amigo contenía una cantidad de datos distinta de cero, pero no contenía la información que necesitábamos. La conclusión sobre la utilidad de la información se desprende de considerar el contenido del mensaje. Para medir el contenido semántico de la información, es decir su cantidad a nivel semántico, introducimos el concepto de “tesauro del destinatario de la información”.

Un tesauro es una colección de información y conexiones entre ellas que tiene el destinatario de la información. Podemos decir que un tesauro es el conocimiento acumulado del destinatario.

En un caso muy simple, cuando el destinatario es un dispositivo técnico - una computadora personal, el tesauro está formado por el "armamento" de la computadora - programas y dispositivos integrados en ella que le permiten recibir, procesar y presentar mensajes de texto en diferentes idiomas, utilizando diferentes alfabetos, fuentes, así como información de audio y video de la red local o mundial. Si su computadora no tiene una tarjeta de red, no puede esperar que reciba mensajes de otros usuarios de la red de ninguna forma. La falta de controladores con fuentes rusas no le permitirá trabajar con mensajes en ruso, etc.

Si el destinatario es una persona, su tesauro es también una especie de armamento intelectual de una persona, un arsenal de sus conocimientos. También forma una especie de filtro para los mensajes entrantes. El mensaje recibido se procesa utilizando el conocimiento existente para obtener información. Si el diccionario de sinónimos es muy rico, entonces el arsenal de conocimientos es profundo y diverso y le permitirá extraer información de casi cualquier mensaje; Un tesauro pequeño y con pocos conocimientos puede ser una barrera para comprender mensajes que requieren una mejor preparación.


Tengamos en cuenta, sin embargo, que comprender el mensaje por sí solo no es suficiente para influir en la toma de decisiones: debe contener la información necesaria para ello, que no está en nuestro tesauro y que queremos incluir en él. En el caso del tiempo, nuestro tesauro no tenía la información meteorológica más reciente y “actual” para el área universitaria. Si un mensaje que recibimos cambia nuestro diccionario de sinónimos, nuestra elección de solución también puede cambiar. Este cambio en el tesauro sirve como medida semántica de la cantidad de información y medida única de la utilidad del mensaje recibido.

Formalmente, la cantidad de información semántica. Es, incluido posteriormente en el tesauro está determinado por la proporción del tesauro del destinatario S i, y el contenido de la información transmitida en el mensaje “a” S. En la figura 1 se muestra una vista gráfica de esta dependencia.

Consideremos casos en los que la cantidad de información semántica Es igual o cercano a cero:

en s i= 0 el destinatario no percibe la información entrante;

A las 0< Si< S 0 получатель воспринимает, но не понимает поступившую в сообщении информацию;

en s i-» ∞el destinatario tiene conocimientos exhaustivos y la información entrante no puede reponer su tesauro.

Arroz. Dependencia de la cantidad de información semántica del tesauro del destinatario

Con diccionario de sinónimos S i> S 0 cantidad de información semántica Es, recibido de un mensaje adjunto β información Screce rápidamente al principio con el crecimiento del propio tesauro del destinatario, y luego - a partir de un cierto valor S i - cae . La caída en la cantidad de información útil para el destinatario se debe a que su base de conocimientos se ha vuelto bastante sólida y cada vez es más difícil sorprenderlo con algo nuevo.

Esto se puede ilustrar con el ejemplo de los estudiantes que estudian informática económica y leen materiales de sitios web sobre propiedad intelectual corporativa. . Al principio, cuando se forman los primeros conocimientos sobre los sistemas de información, la lectura aporta poco: muchos términos incomprensibles, abreviaturas e incluso los títulos no son del todo claros. La perseverancia en la lectura de libros, la asistencia a conferencias y seminarios y la comunicación con profesionales ayuda a reponer el tesauro. Con el tiempo, leer los materiales del sitio se vuelve divertido y útil, y al final de su carrera profesional, después de escribir muchos artículos y libros, será mucho menos frecuente obtener nueva información útil de un sitio popular.

Podemos hablar de lo que es óptimo para la información dada. S el tesauro del destinatario, en el que recibirá la máxima información Es, así como la información óptima en el mensaje “en” para este tesauro Sj. En nuestro ejemplo, cuando el destinatario es una computadora, un sinónimo óptimo significa que su hardware y software instalado perciben e interpretan correctamente para el usuario todos los símbolos contenidos en el mensaje “a” que transmiten el significado de la información. S. Si el mensaje contiene caracteres que no corresponden al contenido del tesauro, parte de la información se perderá y el valor Es disminuirá.

Por otro lado, si sabemos que el destinatario no puede recibir mensajes de texto en ruso (su computadora no tiene los controladores necesarios), y ni él ni nosotros hemos estudiado idiomas extranjeros en los que se puede enviar nuestro mensaje para transmitir. Para obtener la información necesaria podemos recurrir a la transliteración: escribir textos en ruso utilizando letras de un alfabeto extranjero que el ordenador del destinatario entienda bien. De esta manera cotejaremos nuestra información con el tesauro informático disponible para el destinatario. El mensaje se verá feo, pero el destinatario podrá leer toda la información necesaria.

Por tanto, la cantidad máxima de información semántica proviene de un mensaje. β el destinatario adquiere al acordar su contenido semántico S c tesauro Si,(en Si = Sj opt). La información del mismo mensaje puede tener un contenido significativo para un usuario competente pero carecer de significado para un usuario incompetente. La cantidad de información semántica en un mensaje recibido por el usuario es una cantidad individual y personalizada, a diferencia de la información sintáctica. Sin embargo, la información semántica se mide de la misma manera que la sintáctica: en bits y bytes.

Una medida relativa de la cantidad de información semántica es el coeficiente de contenido C, que se define como la relación entre la cantidad de información semántica y su volumen de datos. Enfermedad venérea, contenido en el mensaje β:

C = Es/Vd

Conferencia 2 sobre la disciplina “Informática y TIC”

Para medir el contenido semántico de la información, es decir su cantidad en el nivel semántico, la medida del tesauro (propuesta por Yu. I. Shrader), que conecta las propiedades semánticas de la información con la capacidad del usuario para aceptar el mensaje entrante, ha recibido el mayor reconocimiento. Para ello se utiliza el concepto de tesauro de usuario.

Tesauro Es una colección de información disponible para un usuario o sistema.

Dependiendo de la relación entre el contenido semántico de la información S y el tesauro del usuario S p, la cantidad de información semántica cambia 1 taza, percibido por el usuario y posteriormente incluido por él en su tesauro. La naturaleza de esta dependencia se muestra en la Fig. 1.5. Consideremos dos casos límite cuando la cantidad de información semántica 1 taza es igual a 0:

  • cuando S p ->0 el usuario no percibe ni comprende la información entrante;
  • cuando S p ->1 el usuario lo sabe todo y no necesita la información entrante.

Arroz. 1.5.

El consumidor adquiere la máxima cantidad de información/es semántica/s al coordinar su contenido semántico S con su tesauro S p(S p = S popt), cuando la información entrante es comprensible para el usuario y le proporciona información previamente desconocida (no en su tesauro). En consecuencia, la cantidad de información semántica en un mensaje, la cantidad de nuevos conocimientos recibidos por el usuario, es un valor relativo. El mismo mensaje puede tener un contenido significativo para un usuario competente y carecer de significado para un usuario incompetente. Una medida relativa de la cantidad de información semántica puede ser el coeficiente de contenido C, discutido anteriormente.

El enfoque pragmático (axiológico) de la información se basa en un análisis de su valor desde el punto de vista del consumidor. Por ejemplo, la información que es de indudable valor para un biólogo tendrá un valor cercano a cero para un programador. El valor de la información está asociado al tiempo, ya que con el tiempo envejece y su valor, y por tanto su “cantidad”, disminuye. Por tanto, el enfoque pragmático evalúa el aspecto del contenido de la información. Es de particular importancia a la hora de utilizar información para la gestión, ya que su cantidad está estrechamente relacionada con la eficacia de la gestión en el sistema.

Medida pragmática de información. Determina la utilidad de la información (valor) para que el usuario logre la cadena prevista. Esta medida es también un valor relativo, determinado por las peculiaridades del uso de esta información en un sistema particular.

Es recomendable medir el valor de la información en las mismas unidades (o cerca de ellas) en las que se mide la función objetivo.

El enfoque algorítmico está asociado con el deseo de introducir una medida universal de información. A. N. Kolmogorov propuso una característica cuantitativa que refleja la complejidad (tamaño) de un programa y permite la producción de cualquier mensaje.

Dado que existen diferentes formas de especificar e implementar un algoritmo utilizando diferentes computadoras y lenguajes de programación, para mayor precisión se especifica una determinada máquina específica, por ejemplo Máquina de Turing. En este caso, como característica cuantitativa del mensaje, podemos tomar el número mínimo de estados internos de la máquina necesarios para reproducir un mensaje determinado.

Los diferentes enfoques para evaluar la cantidad de información obligan, por un lado, a utilizar diferentes tipos de unidades de información para caracterizar diversos procesos de información y, por otro lado, a vincular estas unidades tanto en el nivel lógico como en el físico. Por ejemplo, el proceso de transmisión de información medida en una unidad está asociado con el proceso de almacenamiento de información, dónde se mide en otras unidades, etc., por lo que la elección de una unidad de información es una tarea muy urgente.

en la mesa 1.3 se comparan las medidas de información introducidas.

Tabla 1.3

Comparación de medidas de información.

El término " información"viene del latín" información", que significa aclaración, conciencia, presentación. Desde la posición de la filosofía materialista, la información es un reflejo del mundo real con la ayuda de información (mensajes). Mensaje es una forma de presentar información en forma de voz, texto, imágenes, datos digitales, gráficos, tablas, etc. En un sentido amplio información es un concepto científico general que incluye el intercambio de información entre personas, el intercambio de señales entre naturaleza viva e inanimada, personas y dispositivos.

La informática considera la información como información, datos y conceptos conceptualmente interconectados que cambian nuestras ideas sobre un fenómeno u objeto en el mundo circundante. Junto con la información en informática, el concepto “ datos" Demostremos en qué se diferencian.

Datos Se pueden considerar como signos u observaciones registradas que por alguna razón no se utilizan, sino que sólo se almacenan. Si se utilizan para reducir la incertidumbre (obtener información) sobre un objeto, los datos se convierten en información. Los datos existen objetivamente y no dependen de la persona ni de su conocimiento. Los mismos datos de una persona pueden convertirse en información, porque... contribuyeron a reducir la incertidumbre del conocimiento de una persona, pero para otra seguirán siendo datos.

Ejemplo 1

Escribe 10 números de teléfono en una hoja de papel como una secuencia de 10 números y enséñaselos a tus compañeros de estudios. Él percibirá estos números como datos, porque... no le proporcionan ninguna información.

Luego, frente a cada número, indique el nombre de la empresa y tipo de actividad. Los números que antes eran incomprensibles para su compañero de estudios ganarán certeza y pasarán de ser datos a información que podría utilizar en el futuro.

Los datos se pueden dividir en hechos, reglas e información actual. Los hechos responden a la pregunta “Yo sé que…”. Ejemplos de hechos:

  • Moscú es la capital de Rusia;
  • Dos por dos son cuatro;
  • El cuadrado de la hipotenusa es igual a la suma de los cuadrados de los catetos.

Las reglas responden a la pregunta "Sé cómo...". Ejemplos de reglas:

  • Reglas para calcular las raíces de una ecuación cuadrática;
  • Instrucciones para utilizar el cajero automático;
  • Leyes de Tránsito.

Los hechos y las reglas representan datos suficientes del uso a largo plazo.

Son bastante estáticos, es decir. no modificable con el tiempo.

Uno de los tipos de información más importantes es la información económica. Su rasgo distintivo es su conexión con los procesos de gestión de equipos de personas y organizaciones. La información económica acompaña los procesos de producción, distribución, intercambio y consumo de bienes y servicios materiales. Una parte importante de ella está relacionada con la producción social y puede denominarse información de producción.

Cuando se trabaja con información, siempre hay una fuente y un consumidor (destinatario). Los caminos y procesos que aseguran la transmisión de mensajes desde la fuente de información hasta su consumidor se denominan comunicaciones de información.

1.2.2. Formularios de adecuación de la información

Para un consumidor de información, una característica muy importante es su adecuación.

En la vida real, es casi imposible que se pueda confiar en la total idoneidad de la información. Siempre hay algún grado de incertidumbre. La exactitud de la toma de decisiones del consumidor depende del grado de adecuación de la información al estado real de un objeto o proceso.

Ejemplo 2

Ha completado con éxito la escuela y desea continuar su educación en economía. Después de hablar con amigos, aprenderá que se puede obtener una formación similar en diferentes universidades. Como resultado de tales conversaciones, recibe información muy contradictoria que no le permite tomar una decisión a favor de una opción u otra, es decir la información recibida es inadecuada al estado real de las cosas.

Para obtener información más fiable, compras una guía para solicitantes de universidades, de la que recibes información completa. En este caso, podemos decir que la información que recibiste del directorio refleja adecuadamente las áreas de estudio de las universidades y te ayuda a hacer tu elección final.

La adecuación de la información se puede expresar de tres formas: semántico, sintáctico, pragmático.

Adecuación sintáctica

Adecuación sintáctica muestra las características formales y estructurales de la información y no afecta el contenido semántico.

Adecuación semántica (nocional)

Adecuación semántica Determina el grado de correspondencia entre la imagen del objeto y el objeto mismo. El aspecto semántico se refiere a tener en cuenta el contenido semántico de la información. En este nivel se analiza la información que refleja la información y se consideran las conexiones semánticas. En informática, se establecen conexiones semánticas entre códigos para representar información. Esta forma sirve para formar conceptos e ideas, identificar el significado, contenido de la información y su generalización.

Adecuación pragmática (del consumidor)

Adecuación pragmática refleja la relación entre la información y su consumidor, la correspondencia de la información con el objetivo de gestión, que se implementa sobre su base. Las propiedades pragmáticas de la información aparecen sólo si existe unidad de información (objeto), usuario y objetivo de gestión. El aspecto pragmático de la consideración está asociado con el valor y la utilidad de utilizar la información para que el consumidor desarrolle una solución para lograr su objetivo. Desde este punto de vista, se analizan las propiedades de consumo de la información. Esta forma de adecuación está directamente relacionada con el uso práctico de la información, con su cumplimiento de la función objetivo del sistema.

1.2.3. Información de medición

Para medir la información se introducen dos parámetros:

Estos parámetros tienen diferentes expresiones e interpretaciones según la forma de adecuación que se considere. Cada forma de adecuación corresponde a su propia medida de la cantidad de información y volumen de datos (Fig. 1).

Arroz. 1. Medidas de información

Medidas sintácticas de información.

Las medidas sintácticas de la cantidad de información tratan con información impersonal que no expresa una relación semántica con el objeto.

La cantidad de datos en un mensaje se mide por la cantidad de caracteres (bits) en este mensaje.

  • En diferentes sistemas numéricos, un dígito tiene un peso diferente y la unidad de medida de los datos cambia en consecuencia: en el sistema numérico binario la unidad de medida es el bit ( dígito binario
  • - dígito binario). Junto con esta unidad de medida, se utiliza ampliamente la unidad de medida ampliada "byte", igual a 8 bits.

En el sistema numérico decimal, la unidad de medida es dit (lugar decimal).

Ejemplo 3

Determinar la cantidad de información I a nivel sintáctico es imposible sin considerar el concepto de incertidumbre del estado del sistema (entropía del sistema). De hecho, la obtención de información sobre un sistema siempre va asociada a un cambio en el grado de desconocimiento del receptor sobre el estado de ese sistema. Consideremos este concepto.

Permitir que el consumidor tenga alguna información preliminar (a priori) sobre el sistema antes de recibir información. a . Una medida de su ignorancia del sistema es la función Ja), que a su vez sirve como medida de la incertidumbre del estado del sistema. Esta medida fue denominada entropía.

Si el consumidor tiene información completa sobre el sistema, entonces la entropía es 0. Si el consumidor tiene total incertidumbre sobre algún sistema, entonces la entropía es un número positivo. A medida que se adquiere nueva información, la entropía disminuye. Después de recibir algún mensaje b el destinatario adquirió alguna información adicional, lo que redujo su ignorancia a priori de modo que a posteriori (después de recibir el mensaje b

) la incertidumbre del estado del sistema se ha vuelto. Después de recibir algún mensaje Entonces la cantidad de información del sistema recibida en el mensaje. , , se definirá como

es decir, la cantidad de información se mide por un cambio (reducción) en la incertidumbre del estado del sistema. Si la incertidumbre finita llega a cero, entonces el conocimiento inicial incompleto será reemplazado por el conocimiento completo y la cantidad de información. En otras palabras, la entropía del sistema. Ja)

Puede considerarse como una medida de información faltante. llega a cero, entonces el conocimiento inicial incompleto será reemplazado por el conocimiento completo y la cantidad de información. En otras palabras, la entropía del sistema. Entropía del sistema. , teniendo norte

(1)

estados posibles, según la fórmula de Shannon, es igual a ¿Dónde está la probabilidad de que el sistema esté en i

-ésima condición.

(2)

Para el caso en que todos los estados del sistema sean igualmente probables, es decir sus probabilidades son iguales, su entropía está determinada por la relación

La entropía de un sistema en el sistema numérico binario se mide en bits.

Un sistema que describe el proceso de lanzar una moneda al aire tiene dos estados igualmente probables. Si tiene que adivinar qué lado cayó encima, primero tendrá total incertidumbre sobre el estado del sistema. Para obtener información sobre el estado del sistema, se hace la pregunta: "¿Es esto una cabeza?" Con esta pregunta estás intentando descartar la mitad de los estados desconocidos, es decir.

reducir la incertidumbre en 2 veces. Cualquiera que sea la respuesta "Sí" o "No", obtendrá total claridad sobre el estado del sistema. Por tanto, la respuesta a la pregunta contiene 1 bit de información. Dado que después de la primera pregunta hubo total claridad, la entropía del sistema es igual a 1. La misma respuesta la da la fórmula (2), porque log2 2=1.

Ejemplo 5.

Juego "Adivina el número". Debe adivinar el número deseado del 1 al 100. Al comenzar a adivinar, tiene total incertidumbre sobre el estado del sistema. Al adivinar, es necesario hacer preguntas no al azar, sino de tal manera que la respuesta reduzca la incertidumbre del conocimiento a la mitad, recibiendo así aproximadamente 1 bit de información después de cada pregunta. Por ejemplo, primero debe hacer la pregunta: "¿El número es mayor que 50?" El enfoque "correcto" para adivinar permite adivinar el número en 6 o 7 preguntas. Si aplicamos la fórmula (2), resulta que la entropía del sistema es igual a log2 · 100 = 6,64.

Ejemplo 6.
El alfabeto Tumbo-Jumbo contiene 32 caracteres diferentes. ¿Cuál es la entropía del sistema? En otras palabras, es necesario determinar cuánta información lleva cada símbolo.

Si suponemos que cada carácter aparece en palabras con la misma probabilidad, entonces la entropía es log2 32=5.

Los más utilizados son los logaritmos binarios y decimales. Las unidades de medida en estos casos serán bit y dit, respectivamente. Coeficiente (grado) de contenido de información.

(concisión) de un mensaje está determinada por la relación entre la cantidad de información y la cantidad de datos, es decir

Cuanto mayor sea el coeficiente de contenido de información Y, menor será la cantidad de trabajo para convertir información (datos) en el sistema. Por lo tanto, se esfuerzan por aumentar el contenido de la información, para lo cual se están desarrollando métodos especiales para una codificación óptima de la información.

Medida semántica de información. Para medir el contenido semántico de la información, es decir Por su cantidad a nivel semántico, la medida del tesauro propuesta por Yu.I Schneider recibió el mayor reconocimiento. Conecta las propiedades semánticas de la información principalmente con la capacidad del usuario para aceptar el mensaje entrante. Para ello se utiliza el concepto "".

diccionario de sinónimos de usuario S y el tesauro del usuario sp cambia la cantidad de información semántica percibida por el usuario y posteriormente incluida por él en su tesauro. La naturaleza de esta dependencia se muestra en la Fig. 2. Considere dos casos límite cuando la cantidad de información semántica es igual a 0:

El consumidor adquiere la máxima cantidad de información semántica al acordar su contenido semántico S con tu diccionario de sinónimos , cuando la información entrante es comprensible para el usuario y le proporciona información previamente desconocida (no en su tesauro).

En consecuencia, la cantidad de información semántica en un mensaje, la cantidad de nuevos conocimientos recibidos por el usuario, es un valor relativo. El mismo mensaje puede tener contenido significativo para un usuario competente y carecer de sentido (ruido semántico) para un usuario incompetente.

o.

Arroz. 2. Dependencia de la cantidad de información semántica percibida por el consumidor de su tesauro

Al evaluar el aspecto semántico (contenido) de la información, uno debe esforzarse por armonizar los valores. S Y sp.

Una medida relativa de la cantidad de información semántica puede ser el coeficiente de contenido. CON , que se define como la relación entre la cantidad de información semántica y su volumen

Medida pragmática de información.

La medida pragmática de la información sirve para determinar su utilidad(valores) para que el usuario logre el objetivo. Esta medida es también un valor relativo, determinado por las peculiaridades del uso de esta información en un sistema particular. Es recomendable medir el valor de la información en las mismas unidades (o cerca de ellas) en las que se mide la función objetivo.

Ejemplo 7

En un sistema económico, las propiedades pragmáticas (valor) de la información pueden determinarse por el aumento en el efecto económico del funcionamiento logrado mediante el uso de esta información para gestionar el sistema:

¿Dónde está el valor del mensaje de información para el sistema de control? ;

- efecto económico esperado a priori del funcionamiento del sistema de control;

El efecto esperado del funcionamiento del sistema, siempre que la información contenida en el mensaje se utilice para el control.

A modo de comparación, presentamos las medidas de información ingresadas en la tabla.

1.

Tabla 1. Unidades de información y ejemplos

Medidas de información

Unidades de medida
Ejemplos

(para el área de computadoras)

Sintáctico:

a) Enfoque de Shannon

b) enfoque informático

a) grado de reducción de la incertidumbre

a) probabilidad de un evento

b) bit, byte, KB, etc.

Semántico

a) diccionario de sinónimos

b) indicadores económicos

a) paquete de software de aplicación, computadora personal, redes informáticas, etc.

b) rentabilidad, productividad, tasa de depreciación, etc.

Pragmático

Valor en uso

Capacidad de memoria, rendimiento de la computadora, velocidad de transferencia de datos, etc.

Valor monetario

Tiempo para procesar información y tomar decisiones.

1.2.4. Propiedades de información

La posibilidad y eficacia de utilizar la información está determinada por propiedades básicas como: representatividad, contenido, suficiencia, accesibilidad, relevancia, actualidad, exactitud, confiabilidad, estabilidad.
La representatividad de la información está asociada a la corrección de su selección y formación para reflejar adecuadamente las propiedades del objeto.

Las cosas más importantes aquí son:

  • la exactitud del concepto a partir del cual se formula el concepto original;
  • validez de la selección de características y conexiones esenciales del fenómeno mostrado.

La violación de la representatividad de la información a menudo conduce a errores importantes.

Contenido la información refleja una capacidad semántica igual a la relación entre la cantidad de información semántica en un mensaje y el volumen de datos procesados, es decir, . A medida que aumenta el contenido de la información, aumenta el rendimiento semántico del sistema de información, ya que para obtener la misma información es necesario convertir una cantidad menor de datos.

Junto con el coeficiente de contenido. do , reflejando el aspecto semántico, también se puede utilizar el coeficiente de contenido de información, caracterizado por la relación entre la cantidad de información sintáctica (según Shannon) y la cantidad de datos. .

Adecuación(integridad) de la información significa que contiene una composición (conjunto de indicadores) mínima pero suficiente para tomar la decisión correcta. El concepto de integridad de la información está asociado con su contenido semántico (semántica) y pragmática. Como incompleto, es decir. Tanto la información insuficiente para tomar la decisión correcta como la información excesiva reducen la efectividad de las decisiones tomadas por el usuario.

Disponibilidad La información a la percepción del usuario está asegurada mediante la implementación de procedimientos adecuados para su adquisición y transformación.

Por ejemplo, en un sistema de información, la información se transforma en una forma accesible y fácil de usar. Esto se logra, en particular, coordinando su forma semántica con el tesauro del usuario. La información está determinada por el grado de preservación del valor de la información para la gestión en el momento de su uso y depende de la dinámica de cambios en sus características y del intervalo de tiempo transcurrido desde la aparición de esta información.

Oportunidad información significa su llegada a más tardar en un momento predeterminado, consistente con el momento de resolver la tarea.

Exactitud La información está determinada por el grado de proximidad de la información recibida al estado real del objeto, proceso, fenómeno, etc.

  • Para la información mostrada por un código digital, se conocen cuatro conceptos de clasificación de precisión:
  • precisión formal, medida por el valor unitario del dígito menos significativo de un número;
  • precisión real, determinada por el valor de la unidad del último dígito del número, cuya precisión está garantizada;
  • la máxima precisión que se puede obtener en las condiciones específicas de funcionamiento del sistema;

la precisión requerida, determinada por el propósito funcional del indicador. Credibilidad

La información está determinada por su propiedad de reflejar objetos de la vida real con la precisión necesaria. La confiabilidad de la información se mide por la probabilidad de confianza de la precisión requerida, es decir la probabilidad de que el valor de un parámetro mostrado por la información difiera del valor real de este parámetro dentro de la precisión requerida. Sostenibilidad

La información refleja su capacidad para responder a cambios en los datos de origen sin violar la precisión requerida.

La estabilidad de la información, así como la representatividad, están determinadas por la metodología elegida para su selección y formación.

En conclusión, cabe señalar que parámetros de calidad de la información como representatividad, contenido, suficiencia, accesibilidad y estabilidad están enteramente determinados en el nivel metodológico del desarrollo de los sistemas de información. Los parámetros de relevancia, puntualidad, precisión y confiabilidad también se determinan en mayor medida a nivel metodológico, sin embargo, su valor está significativamente influenciado por la naturaleza del funcionamiento del sistema, principalmente su confiabilidad. Al mismo tiempo, los parámetros de relevancia y precisión están estrictamente relacionados, respectivamente, con los parámetros de puntualidad y confiabilidad.. La actividad informativa consiste en una variedad de acciones que se realizan con información. Entre ellas se encuentran acciones relacionadas con la búsqueda, recepción, procesamiento, transmisión, almacenamiento y protección de información.

El intercambio de información entre personas, la reacción del cuerpo humano a los fenómenos naturales, la interacción de una persona y un sistema automatizado son todos ejemplos de procesos de información.

Proceso recopilación incluye:

  • medición de parámetros;
  • registro de parámetros en forma de datos para su posterior procesamiento;
  • transformación de datos a la forma utilizada en el sistema (codificación, reducción a la forma deseada e entrada en el sistema de procesamiento).

Para que los datos se midan y registren, debe haber hardware que convierta las señales en una forma que el sistema receptor pueda entender (compatible). Por ejemplo, para registrar la temperatura del paciente o la humedad del suelo para un tratamiento posterior, se necesitan sensores especiales. También se necesita hardware para registrar estos datos en el medio o transferirlos.

El almacenamiento de información es necesario para que los mismos datos puedan usarse repetidamente. Para garantizar el almacenamiento de información, se necesita hardware para escribir datos en un medio físico y leerlos desde el medio.

Proceso intercambio La información implica la presencia de una fuente y un consumidor (receptor) de información. El proceso de liberar información de una fuente se llama transferir, y el proceso de obtención de información del consumidor se llama recepción. Así, el proceso de intercambio implica la presencia de dos procesos de transmisión y recepción interconectados.

Los procesos de transmisión y recepción pueden ser unidireccionales, bidireccionales o alternativamente bidireccionales.

Los caminos y procesos que aseguran la transmisión de mensajes desde la fuente de información hasta su consumidor se denominan comunicaciones de información.

Arroz. 3. Proceso de intercambio de información

Las fuentes y consumidores de información pueden ser personas, animales, plantas y dispositivos automáticos. Desde la fuente hasta el consumidor, la información se transmite en forma de mensajes. La recepción y transmisión de mensajes se realiza en forma de señales. Una señal es un cambio en el entorno físico que muestra un mensaje. La señal puede ser sonora, luminosa, olfativa (olfato), eléctrica, electromagnética, etc.

El codificador convierte el mensaje de una forma comprensible para la fuente en señales del medio físico a través del cual se transmite el mensaje.

El dispositivo decodificador realiza la operación inversa y convierte las señales del medio a una forma comprensible para el consumidor.

Los portadores materiales de los mensajes transmitidos pueden ser compuestos químicos naturales (olidos y probados), vibraciones mecánicas del aire o membranas telefónicas (durante la transmisión del sonido), fluctuaciones de la corriente eléctrica en los cables (telégrafo, teléfono), ondas electromagnéticas del rango óptico (percibidas). por el ojo humano), ondas electromagnéticas del rango de radio (para transmitir sonido e imágenes de televisión).

En el cuerpo humano y animal, la información se transmite a través del sistema nervioso en forma de corrientes eléctricas débiles o mediante compuestos químicos especiales (hormonas) transportados en la sangre. Los canales de comunicación se caracterizan. rendimiento

- la cantidad de datos transmitidos por unidad de tiempo. Depende de la velocidad de conversión de la información en los dispositivos transceptores y de las propiedades físicas de los propios canales. El rendimiento está determinado por las capacidades de la naturaleza física del canal.

En informática, los procesos de información están automatizados y utilizan métodos de hardware y software que llevan las señales a una forma compatible.

Todas las etapas de procesamiento y transmisión requieren dispositivos de transmisión y recepción con hardware compatible adecuado.
Los datos después de la recepción se pueden grabar en medios de almacenamiento para almacenarlos hasta el siguiente proceso.

Por tanto, un proceso de información puede consistir en una serie de transformaciones y almacenamiento de datos en una nueva forma.

Los procesos de información en el mundo moderno tienden a automatizarse en una computadora. Está apareciendo un número cada vez mayor de sistemas de información que implementan procesos de información y satisfacen las necesidades de los consumidores de información. El almacenamiento de datos en directorios de computadoras le permite copiar información rápidamente, colocarla en diferentes medios y entregársela a los usuarios en diferentes formas. Los procesos de transmisión de información a largas distancias también están experimentando cambios. La humanidad está avanzando gradualmente hacia la comunicación a través de redes globales.

Tratamiento

  • es el proceso de convertir información de un tipo a otro.
  • Para realizar el tratamiento son necesarias las siguientes condiciones:
  • tecnología que define las reglas (métodos) para la transformación de datos

El proceso de procesamiento finaliza con la recepción de nueva información (en forma, contenido, significado), que se denomina resultante información.

El proceso de procesamiento de información se parece al proceso de producción material.
La producción de bienes requiere materias primas (materiales de partida), medio ambiente y herramientas de producción (taller y máquinas), tecnología para fabricar los bienes.

Todos los aspectos individuales del proceso de información descrito anteriormente están estrechamente interconectados.

Al realizar un proceso de información en una computadora, se distinguen cuatro grupos de acciones con datos: entrada, almacenamiento, procesamiento y salida.

El procesamiento implica transformar datos en algún entorno de software. Cada entorno de software tiene un conjunto de herramientas con las que se puede operar con datos. Para llevar a cabo el procesamiento, es necesario conocer la tecnología de trabajo en el medio ambiente, es decir. Tecnología para trabajar con herramientas ambientales.

Para que el procesamiento sea posible, es necesario introducir datos, es decir, transferido del usuario al ordenador. Para este fin se diseñan diversos dispositivos de entrada.

Para garantizar que los datos no se pierdan y puedan reutilizarse, los datos se registran en una variedad de dispositivos de almacenamiento de información.

Para ver los resultados del procesamiento de la información, se debe mostrar, es decir. transmitido desde la computadora al usuario utilizando una variedad de dispositivos de salida.

1.2.6. Codificación de información numérica

Conceptos generales

El sistema de codificación se utiliza para reemplazar el nombre de un objeto con un símbolo (código) para garantizar un procesamiento de información conveniente y más eficiente. Sistema de codificación

- un conjunto de reglas para codificar objetos.

  • El código se basa en un alfabeto formado por letras, números y otros símbolos. El código se caracteriza por:
  • longitud: el número de posiciones en el código;

estructura: el orden de disposición en el código de los símbolos utilizados para indicar un atributo de clasificación. El procedimiento para asignar una designación de código a un objeto se llama

codificación.

Introducción a los sistemas numéricos.

Los números se pueden representar en diferentes sistemas numéricos. Para escribir números, se pueden utilizar no solo números, sino también letras (por ejemplo, escribir números romanos - XXI, MCMXCIX). Dependiendo de la forma en que se representan los números, los sistemas numéricos se dividen en Y posicional.

En un sistema numérico posicional, el valor cuantitativo de cada dígito de un número depende del lugar (posición o dígito) en el que está escrito uno u otro dígito de este número. Las posiciones numéricas están numeradas desde 0 de derecha a izquierda. Por ejemplo, al cambiar la posición del número 2 en el sistema numérico decimal, puede escribir números decimales de diferentes tamaños, por ejemplo, 2 (el número 2 está en la posición 0 y significa dos unidades); 20 (el número 2 está en la 1ª posición y significa dos decenas); 2000 (el número 2 está en la 3ª posición y significa dos mil); 0,02, etc. Mover la posición de un dígito a un dígito adyacente aumenta (disminuye) su valor 10 veces.

En un sistema numérico no posicional, los números no cambian su valor cuantitativo cuando cambia su ubicación (posición) en un número. Un ejemplo de sistema no posicional es el sistema romano, en el que, independientemente de la ubicación, el mismo símbolo tiene el mismo significado (por ejemplo, el símbolo X en el número XVX significa diez, sin importar dónde aparezca).

El número (p) de diferentes símbolos utilizados para representar un número en el sistema numérico posicional se llama base sistemas numéricos. Los valores de los dígitos van de 0 a p-1.

En el sistema numérico decimal p=10 y se utilizan 10 dígitos para escribir cualquier número: 0, 1, 2, ... 9.

Para una computadora, el más adecuado y confiable resultó ser el sistema numérico binario (p=2), en el que se utilizan secuencias de dígitos (0 y 1) para representar números. Es conveniente utilizar la representación de información utilizando dos sistemas numéricos más:

  • octal (p=8, es decir, cualquier número se representa con 8 dígitos: 0,1, 2,...7);
  • hexadecimal (p=16, los caracteres utilizados son números - 0, 1, 2, ..., 9 y letras - A, B, C, D, E, F, reemplazando los números 10,11, 12, 13, 14, 15 respectivamente).

La correspondencia de códigos para sistemas numéricos decimal, binario y hexadecimal se presenta en la Tabla 2.

Tabla 2. Correspondencia entre códigos de sistemas numéricos decimal, binario y hexadecimal

Decimal

Binario

hexadecimal

En general, cualquier número N en el sistema numérico posicional se puede representar como:

donde k es el número de dígitos de un número entero particular del número N;

- (k–1)ésimo dígito de la parte entera del número N, escrito en el sistema numérico con base p;

Enésimo dígito de la parte fraccionaria del número N, escrito en el sistema numérico con base p;

n - el número de dígitos en la parte fraccionaria del número N;

El número máximo que se puede representar en k dígitos.

El número mínimo que se puede representar en n dígitos.

Teniendo k dígitos en la parte entera y n dígitos en la parte fraccionaria, puedes escribir un total de números diferentes.

Teniendo en cuenta estas notaciones, escribir el número N en cualquier sistema numérico posicional con base p tiene la forma:

Ejemplo 8

Cuando p = 10, escribir el número en el sistema numérico decimal es 2466,675 10, donde k = 4, n = 3.

Cuando p = 2, el número escrito en binario es 1011,112, donde k = 4, n = 2.

Los sistemas numéricos binario y hexadecimal tienen las mismas propiedades que el decimal, solo que para representar números no se utilizan 10 dígitos, sino solo dos en el primer caso y 10 dígitos y 6 letras en el segundo caso. En consecuencia, el dígito de un número no se llama decimal, sino binario o hexadecimal.

Las leyes básicas para realizar operaciones aritméticas en sistemas numéricos binarios y hexadecimales se observan de la misma manera que en decimal.

A modo de comparación, considere la representación de números en diferentes sistemas numéricos como una suma de términos en los que se tiene en cuenta el peso de cada dígito.

Ejemplo 9

En sistema numérico decimal

En el sistema numérico binario

En sistema numérico hexadecimal

Existen reglas para convertir números de un sistema numérico a otro.

Formas de representar números en una computadora.

  • Las computadoras utilizan dos formas de representar números binarios:
  • forma natural o forma de punto fijo;

forma normal o forma de punto flotante (punto).

En forma natural (con punto fijo), todos los números se representan como una secuencia de dígitos con una posición constante de la coma para todos los números, separando la parte entera de la parte fraccionaria.

Ejemplo 10

En el sistema numérico decimal hay 5 dígitos en la parte entera de un número y 5 dígitos en la parte fraccionaria de un número. Los números escritos en dicha cuadrícula de bits, por ejemplo, tienen la forma: +00564.24891; -10304.00674, etc. El número máximo que se puede representar en dicha cuadrícula de bits será 99999,99999..

Si se utiliza un sistema numérico con base p y hay k dígitos en la parte entera y n dígitos en la parte fraccionaria del número, entonces el rango de números significativos N, cuando se representan en forma de coma fija, está determinado por la relación :

Ejemplo 11

Cuando p =2, k =10, n =6, el rango de números significativos estará determinado por la siguiente relación:

En forma normal (punto flotante) Cada número se representa como dos grupos de números. El primer grupo de números se llama. mantisa, segundo - en orden, y el valor absoluto de la mantisa debe ser menor que 1 y el orden debe ser un número entero.

En general, un número en coma flotante se puede representar como:< 1);

donde M es la mantisa del número (| M |

r – orden de los números (r - entero);

p – base del sistema numérico.

Ejemplo 12

Los números dados en el ejemplo 3 son +00564.24891; -10304.00674 se representará en forma de coma flotante mediante las siguientes expresiones:

La forma normal de representación tiene una amplia gama de números que se muestran y es la principal en las computadoras modernas. El signo de un número se codifica como un dígito binario. En este caso, el código 0 significa el signo “+”, el código 1 significa el signo “-”.

Si se utiliza un sistema numérico con base p y hay m dígitos en la mantisa y s dígitos en el orden (sin tener en cuenta los dígitos con signo del orden y la mantisa), entonces el rango de números significativos N cuando se presenta en forma normal está determinada por la relación:

Ejemplo 13

Con p =2, m =10, s =6, el rango de números significativos se determinará aproximadamente de a

Formatos para representar números en una computadora. Una secuencia de varios bits o bytes a menudo se denomina campo

datos. Los bits de un número (en una palabra, en un campo, etc.) se numeran de derecha a izquierda, comenzando desde el dígito 0.

La computadora puede procesar campos de longitud constante y variable.

Campos de longitud constante:

palabra – 2 bytes

media palabra – 1 byte

palabra doble – 4 bytes

palabra extendida – 8 bytes. Campos de longitud variable

Puede tener un tamaño de 0 a 256 bytes, pero debe ser igual a un número entero de bytes.

Los números de coma fija suelen venir en formato de palabra y media palabra.

Números de coma flotante: formato de palabra doble y extendida.

Ejemplo 14

El número –193 en el sistema decimal corresponde al número –11000001 en el sistema binario. Presentemos este número en dos formatos.

La forma natural de representar este número (punto fijo) requiere una palabra con capacidad de 2 bytes. (Tabla 3).

Tabla 3

signo de número

En forma normal, el número -19310 en notación decimal es -0,193x103, y en notación binaria el mismo número es -0,11000001x21000. La mantisa que representa el número 193, escrita en forma binaria, tiene 8 posiciones. Entonces el exponente del número es 8, entonces la potencia de 2 es 8 (10002). El número 8 también se escribe en forma binaria. La forma normal de representar este número (punto flotante) requiere una palabra doble, es decir 4 bytes (Tabla 4).

Tabla 4

La forma natural de representar este número (punto fijo) requiere una palabra con capacidad de 2 bytes. (Tabla 3).

Orden mantisa

signo de número

El signo del número está escrito en el bit 31 situado más a la izquierda. Se asignan 7 bits para registrar el orden de un número (del 24 al 30). Estas posiciones contienen el número 8 en forma binaria. Para grabar la mantisa se asignan 24 bits (de 0 a 23). La mantisa se escribe de izquierda a derecha.

Conversión de cualquier sistema posicional al sistema numérico decimal

Conversión de cualquier sistema numérico posicional, como el utilizado en una computadora con base p = 2; 8; 16, al sistema numérico decimal se convierte de acuerdo con la fórmula (1).

Ejemplo 15

Convierte un número binario al sistema numérico decimal.

Sustituyendo los dígitos binarios correspondientes del número original en la fórmula de conversión (1), encontramos:

Ejemplo 16

Ejemplo 17

Convierte el número al sistema numérico decimal.

Al traducir, se tuvo en cuenta que en el sistema numérico 16 la letra A reemplaza el valor 10.

Convertir un número entero de decimal a otro sistema numérico posicional

Consideremos la traducción inversa: del sistema decimal a otro sistema numérico. Por simplicidad, nos limitaremos a convertir solo números enteros.

La regla general de traducción es la siguiente: es necesario dividir el número N entre p. El resto resultante dará un dígito en el primer dígito de la notación p-aria del número N. Luego divida el cociente resultante por p una vez más y recuerde nuevamente el resto resultante: este será el dígito del segundo dígito, etc. Esta división secuencial continúa hasta que el cociente es menor que la base del sistema numérico - p. Este último cociente será el dígito más alto.

Ejemplo 18

Actuamos según la regla anterior (Fig. 4). La primera división da el cociente 10 y el resto 0. Este es el dígito menos significativo. La segunda división da el cociente - 5 y el resto - 1. La tercera división da el cociente - 2 y el resto - 0. La división continúa hasta que el cociente sea cero. El quinto cociente es 0. El resto es 1. Este resto es el dígito más significativo del número binario resultante. Aquí termina la división. Ahora escribimos el resultado, comenzando desde el último cociente, luego reescribimos todos los restos. Como resultado obtenemos:

Arroz. 4. Convertir un número decimal a binario usando el método de división

1.2.7. Codificación de datos de texto

Los datos de texto son una colección de caracteres alfabéticos, numéricos y especiales grabados en algún medio físico (papel, disco magnético, imagen en una pantalla).

Al presionar una tecla en el teclado, se envía una señal a la computadora en forma de un número binario, que se almacena en una tabla de códigos. Una tabla de códigos es una representación interna de símbolos en una computadora. La tabla ASCII (Código estándar americano para el intercambio de información) ha sido adoptada como estándar en todo el mundo.

Para almacenar el código binario de un carácter, se asignan 1 byte = 8 bits. Dado que cada bit tiene el valor 1 o 0, el número de combinaciones posibles de unos y ceros es igual a. Esto significa que con 1 byte puedes obtener 256 combinaciones de códigos binarios diferentes y utilizarlas para mostrar 256 caracteres diferentes. Estos códigos forman la tabla ASCII. Para acortar las entradas y facilitar el uso de estos códigos de caracteres, la tabla utiliza un sistema numérico hexadecimal que consta de 16 caracteres: 10 dígitos y 6 letras latinas: A, B, C, D, E, F. Al codificar caracteres, el número se escribe la primera columna y luego la fila en cuya intersección se encuentra este símbolo.

La codificación de cada carácter por el 1er byte está asociada con el cálculo de la entropía del sistema de símbolos (ver ejemplo 6). Al desarrollar un sistema de codificación de caracteres, tomamos en cuenta que era necesario codificar 26 letras minúsculas del alfabeto latino (inglés) y 26 letras mayúsculas, números del 0 al 9, signos de puntuación, caracteres especiales y signos aritméticos. Estos son los llamados símbolos internacionales. Esto equivale a unos 128 caracteres. Otros 128 códigos están destinados a codificar caracteres del alfabeto nacional y algunos caracteres adicionales. En ruso hay 33 letras minúsculas y 33 mayúsculas. El número total de caracteres a codificar es mayor o menor que . Suponiendo que todos los símbolos ocurren con la misma probabilidad, la entropía del sistema será 7< H < 8. Поскольку для кодирования используется целое число бит, то 7 бит будет мало. Поэтому для кодирования каждого символа используется по 8 бит. Как было сказано выше, 8 бит позволяют закодировать символов. Это число дало название единице измерения объема данный «байт».

Ejemplo 19

La letra latina S en la tabla ASCII está representada por el código hexadecimal - 53. Cuando presiona la letra S en el teclado, su equivalente se escribe en la memoria de la computadora: el código binario 01010011, que se obtiene reemplazando cada dígito hexadecimal con su equivalente binario.

En este caso, el número 5 se reemplaza con el código 0101 y el número 3 con el código 0011. Cuando se muestra la letra S en la pantalla de la computadora, se produce la decodificación: su imagen se construye utilizando este código binario.

¡Prestar atención! Cualquier carácter de la tabla ASCII se codifica con 8 dígitos binarios o 2 dígitos hexadecimales (1 dígito está representado por 4 bits).

La tabla (Fig. 5) muestra la codificación de caracteres en el sistema numérico hexadecimal. Los primeros 32 caracteres son caracteres de control y están destinados principalmente a transmitir comandos de control. Pueden variar según el software y el hardware. La segunda mitad de la tabla de códigos (128 a 255) no está definida por el estándar americano y está destinada a caracteres nacionales, pseudografías y algunos símbolos matemáticos. Diferentes países pueden utilizar diferentes versiones de la segunda mitad de la tabla de códigos para codificar las letras de su alfabeto.

¡Prestar atención! Los números se codifican utilizando el estándar ASCII en dos casos: durante la entrada/salida y si aparecen en el texto.

A modo de comparación, considere el número 45 para dos opciones de codificación.

Cuando se usa en texto, este número requerirá 2 bytes para su representación, porque cada dígito estará representado por su propio código de acuerdo con la tabla ASCII (Fig. 4). En hexadecimal el código sería 34 35, en binario sería 00110100 00110101, lo que requeriría 2 bytes.

Arroz. 5. Tabla de códigos ASCII (fragmento)

1.2.8. Codificación de información gráfica.

Entendiendo el color en una computadora

Los datos gráficos son varios tipos de gráficos, diagramas, diagramas, dibujos, etc. Cualquier imagen gráfica se puede representar como una determinada composición de áreas de color. El color determina la propiedad de los objetos visibles que el ojo percibe directamente.

En la industria informática, la visualización de cualquier color se basa en tres de los llamados colores primarios: azul, verde y rojo. Para designarlos se utiliza la abreviatura RGB (Rojo - Verde - Azul).

Todos los colores que se encuentran en la naturaleza se pueden crear mezclando y variando la intensidad (brillo) de estos tres colores. Una mezcla del 100% de cada color produce el blanco. Una mezcla del 0% de cada color produce negro.

El arte de reproducir el color en una computadora agregando tres colores RGB primarios en proporciones variables se llama mezcla aditiva.

El ojo humano puede percibir una gran cantidad de colores. El monitor y la impresora sólo pueden reproducir una parte limitada de este rango.

Debido a la necesidad de describir los diversos procesos físicos de reproducción del color en una computadora, se han desarrollado varios modelos de color. La gama de colores que se pueden reproducir y la forma en que se muestran varían entre monitores e impresoras, según los modelos de color utilizados.

Los modelos de color se describen utilizando matemáticas y le permiten representar diferentes tonos de color mezclando varios colores primarios.

Los colores pueden aparecer diferentes en la pantalla del monitor que cuando se imprimen. Esta diferencia se debe a que para la impresión se utilizan modelos de color distintos a los del monitor.

Entre los modelos de color, los más famosos son RGB, CMYK, HSB, LAB.

modelo RGB

El modelo RGB se llama aditivo porque a medida que aumenta el brillo de los colores componentes, aumenta el brillo del color resultante.

El modelo de color RGB se utiliza comúnmente para describir los colores mostrados por monitores, escáneres y filtros de color. No se utiliza para mostrar la gama de colores en un dispositivo de impresión.

El color en el modelo RGB se representa como la suma de tres colores básicos: rojo (rojo), verde (verde) y azul (azul) (Fig. 6). RGB es bueno para reproducir colores en el rango del azul al verde, pero algo peor para reproducir tonos amarillos y naranjas.

En el modelo RGB, cada color base se caracteriza por su brillo (intensidad), que puede tomar 256 valores discretos de 0 a 255. Por lo tanto, puedes mezclar colores en diferentes proporciones, variando el brillo de cada componente. Así, puedes conseguir

256x256x256 = 16.777.216 colores.

Cada color se puede asociar a un código que contiene los valores de brillo de los tres componentes. Se utilizan representaciones de código decimal y hexadecimal.

Arroz. 6. Combinaciones de colores básicos del modelo RGB

La notación decimal consta de tres grupos de tres números decimales separados por comas, por ejemplo, 245.155.212. El primer número corresponde al brillo del componente rojo, el segundo al verde y el tercero al azul.

El código de color en formato hexadecimal es 0xХХХХХХ. El prefijo 0x indica que estamos ante un número hexadecimal. El prefijo va seguido de seis dígitos hexadecimales (0, 1, 2,...,9, A, B, C, D, E, F). Los primeros dos dígitos son un número hexadecimal que representa el brillo del componente rojo, el segundo y tercer par corresponden al brillo de los componentes verde y azul.

Ejemplo 20

El brillo máximo de los colores base le permite visualizar el blanco. Esto corresponde al código 255.255.255 en representación decimal y al código 0xFFFFFF en representación hexadecimal.

El brillo mínimo (o) corresponde al negro. Esto corresponde al código 0,0,0 en representación decimal y al código 0x000000 en representación hexadecimal.

La mezcla de colores rojo, verde y azul con brillo diferente pero igual da una escala de 256 tonos (gradaciones) de gris, del negro al blanco. Las imágenes en escala de grises también se denominan imágenes en escala de grises.

Dado que el brillo de cada uno de los componentes básicos de un color sólo puede tomar 256 valores enteros, cada valor se puede representar como un número binario de 8 bits (una secuencia de 8 ceros y unos, (), es decir, un byte). En el modelo RGB, la información sobre cada color requiere 3 bytes (un byte para cada color base) o 24 bits de memoria para almacenamiento. Dado que todos los tonos de gris se forman mezclando tres componentes del mismo brillo, solo se requiere 1 byte para representar. cualquiera de los 256 tonos de gris.

modelo CMYK

El modelo CMYK describe la mezcla de tintas en un dispositivo de impresión. Este modelo utiliza tres colores básicos: cian (Cyan), magenta (Magenta) y amarillo (Yellow). Además, se utiliza el color negro (negro) (Fig. 7). Las letras mayúsculas resaltadas en las palabras forman la abreviatura de la paleta.

Arroz. 7. Combinaciones de colores básicos del modelo CMYK.

Cada uno de los tres colores base CMYK se obtiene restando al blanco uno de los colores base RGB. Por ejemplo, el cian se obtiene restando el rojo del blanco y el amarillo se obtiene restando el azul. Recordemos que en el modelo RGB el color blanco se representa como una mezcla de rojo, verde y azul de máximo brillo. Luego, los colores base del modelo CMYK se pueden representar usando fórmulas para restar los colores base del modelo RGB de la siguiente manera:

Cian = RGB - R = GB = (0,255,255)

Amarillo = RGB - B = RG = (255,255,0)

Magenta = RGB - G = RB = (255,0,255)

Debido a que los colores base CMYK se obtienen restando los colores base RGB del blanco, se denominan sustractivos.

Los colores base CMYK son colores brillantes y no son muy adecuados para reproducir colores oscuros. Entonces, al mezclarlos, en la práctica el resultado no es un negro puro, sino un color marrón sucio. Por lo tanto, el modelo de color CMYK también incluye negro puro, que se utiliza para crear tonos oscuros, así como para imprimir elementos de imagen en negro.

Los colores CMYK sustractivos no son tan puros como los colores RGB aditivos.

No todos los colores del modelo CMYK se pueden representar en el modelo RGB y viceversa. Cuantitativamente, la gama de colores CMYK es más pequeña que la gama de colores RGB. Esta circunstancia es de fundamental importancia, y no se debe únicamente a las características físicas del monitor o dispositivo de impresión.

Modelo HSB

El modelo HSB se basa en tres parámetros: H – matiz o tono (Hue), S – saturación (Saturation) y B – brillo (Brightness). Es una variante del modelo RGB y también se basa en el uso de colores básicos.

De todos los modelos actualmente en uso, este modelo se acerca más a la forma en que el ojo humano percibe el color. Le permite describir los colores de una manera intuitivamente clara. A menudo utilizado por artistas.

En el modelo HSB, la saturación caracteriza la pureza del color. La saturación cero corresponde al color gris y la saturación máxima corresponde a la versión más brillante de ese color. Se entiende por brillo el grado de iluminación.

Gráficamente, el modelo HSB se puede representar como un anillo a lo largo del cual se ubican las tonalidades de colores (Fig. 8).

Arroz. 8. Representación gráfica del modelo HSB.

Laboratorio modelo

El modelo Lab se utiliza para el dispositivo de impresión. Es más avanzado que el modelo CMYK, que carece de muchos tonos. En la figura 2 se muestra una representación gráfica del modelo de laboratorio. 9.

Arroz. 9. Representación gráfica del modelo Lab.

El modelo Lab se basa en tres parámetros: L - brillo (Luminosidad) y dos parámetros de color - a y b. El parámetro a contiene colores desde el verde oscuro hasta el gris y el rosa brillante. El parámetro b contiene colores desde el azul claro hasta el gris y el amarillo brillante.

Codificación de información gráfica.

Las imágenes gráficas se almacenan en formatos de archivos gráficos.

Las imágenes son una colección de elementos gráficos (elemento de imagen) o, en definitiva, píxeles (píxel). Para describir una imagen, es necesario determinar una forma de describir un píxel.

Una descripción de color de píxel es esencialmente un código de color según un modelo de color particular. El color de un píxel se describe mediante varios números. Estos números también se denominan canales. En el caso de los modelos RGB, CMYK y Lab, estos canales también se denominan canales de color.

En una computadora, la cantidad de bits asignados a cada píxel para representar la información del color se llama profundidad de color o profundidad de bits. La profundidad del color determina cuántos colores puede representar un píxel. Cuanto mayor sea la profundidad del color, mayor será el tamaño del archivo que contiene la descripción de la imagen.

Ejemplo 21

Si la profundidad del color es de 1 bit, entonces un píxel sólo puede representar uno de los dos colores posibles: blanco o negro. Si la profundidad de color es de 8 bits, entonces el número de colores posibles es 2. Con una profundidad de color de 24 bits, el número de colores supera los 16 millones.

Las imágenes RGB, CMYK, Lab y en escala de grises suelen contener 8 bits por canal de color. Dado que RGB y Lab tienen tres canales de color, la profundidad de color en estos modos es 8?3 = 24. CMYK tiene cuatro canales y por lo tanto la profundidad de color es 8?4 = 32. En imágenes de medios tonos solo hay un canal, por lo tanto su color la profundidad es 8 .

Formatos de archivos gráficos

El formato del archivo de gráficos está relacionado con el método de codificación de la imagen gráfica.

Actualmente existen más de dos docenas de formatos de archivos gráficos, por ejemplo, BMP, GIF, TIFF, JPEG, PCX, WMF, etc. Hay archivos que, además de imágenes estáticas, pueden contener clips de animación y/o sonido, por ejemplo. ejemplo, GIF, PNG, AVI, SWF, MPEG, MOV, etc. Una característica importante de estos archivos es la capacidad de representar los datos que contienen en forma comprimida.

formato VMR(Imagen de mapa de bits: mapa de bits independiente del dispositivo de Windows) es un formato de Windows y es compatible con todos los editores gráficos que se ejecutan bajo su control. Se utiliza para almacenar imágenes de mapa de bits para usar en Windows. Capaz de almacenar colores tanto indexados (hasta 256 colores) como RGB (16 millones de tonos).

formato gif(Formato de intercambio de gráficos): el formato de intercambio de gráficos utiliza el algoritmo de compresión de información sin pérdidas LZW y está diseñado para guardar imágenes rasterizadas con no más de 256 colores.

formato PNG(Portable Network Graphics): se desarrolló un formato de gráficos portátil para la red para reemplazar el formato GIF. El formato PNG le permite guardar imágenes con una profundidad de color de 24 bits o incluso 48 bits, y también le permite incluir canales de máscara para controlar la transparencia del degradado, pero no admite capas. PNG no comprime imágenes con calidad con pérdida como JPEG.

formato JPEG(Grupo conjunto de expertos en fotografía): el formato de un grupo conjunto de expertos en fotografía está diseñado para el almacenamiento compacto de imágenes multicolores con calidad fotográfica. Los archivos en este formato tienen la extensión jpg, jpe o jpeg.

A diferencia de GIF, el formato JPEG utiliza un algoritmo de compresión con pérdida, que logra una relación de compresión muy alta (desde unidades hasta cientos de veces).

1.2.9. Codificación de información de audio.

concepto de sonido

Desde principios de los años 90, las computadoras personales pueden trabajar con información de audio. Cualquier computadora que tenga una tarjeta de sonido, un micrófono y parlantes puede grabar, guardar y reproducir información de audio.

El sonido es una onda sonora con amplitud y frecuencia que cambian continuamente (Fig. 10).

Arroz. 10. Onda sonora

Cuanto mayor es la amplitud de la señal, más fuerte es para una persona; cuanto mayor es la frecuencia (T) de la señal, mayor es el tono. La frecuencia de una onda sonora se expresa en Hercios (Hz, Hz) o el número de vibraciones por segundo. El oído humano percibe sonidos en el rango (aproximadamente) de 20 Hz a 20 kHz, lo que se denomina rango de audiofrecuencia.

Especificaciones de calidad de sonido

Profundidad de codificación de audio- el número de bits por señal de sonido.

Las tarjetas de sonido modernas ofrecen una profundidad de codificación de audio de 16, 32 o 64 bits. El número de niveles (gradaciones de amplitud) se puede calcular mediante la fórmula

Niveles de señal (gradaciones de amplitud)

Frecuencia de muestreo– es el número de mediciones de niveles de señal en 1 segundo

Una medición por segundo corresponde a una frecuencia de 1 Hz

1000 mediciones en 1 segundo - 1 kHz

El número de mediciones puede estar en el rango de 8000 a 48.000(8kHz – 48kHz)

8 kHz corresponde a la frecuencia de transmisión de radio,

48 kHz: calidad de sonido de CD de audio.

Métodos de codificación de audio.

Para que una computadora procese una señal de audio continua, debe convertirse en una secuencia de pulsos eléctricos (unos y ceros binarios). Sin embargo, a diferencia de los datos numéricos, textuales y gráficos, las grabaciones sonoras no tenían el mismo historial de codificación tan largo y probado. Como resultado, los métodos para codificar información de audio mediante código binario están lejos de estar estandarizados. Muchas empresas han desarrollado sus propios estándares corporativos, pero en general se pueden distinguir dos áreas principales.

Método FM (modulación de frecuencia) se basa en el hecho de que teóricamente cualquier sonido complejo se puede descomponer en una secuencia de señales armónicas simples de diferentes frecuencias, cada una de las cuales representa una sinusoide regular y, por lo tanto, se puede describir mediante parámetros numéricos, es decir, un código. En la naturaleza, las señales sonoras tienen un espectro continuo, es decir, son analógicas. Su descomposición en series armónicas y su representación en forma de señales digitales discretas se lleva a cabo mediante dispositivos especiales: convertidores analógicos a digitales (ADC). La conversión inversa para reproducir audio codificado numéricamente se realiza mediante convertidores de digital a analógico (DAC). El proceso de conversión de sonido se muestra en la Figura 11.

Arroz. 11. Proceso de conversión de sonido.

Con tales conversiones, las pérdidas de información asociadas con el método de codificación son inevitables, por lo que la calidad de la grabación de sonido no suele ser del todo satisfactoria. Al mismo tiempo, este método de codificación proporciona un código compacto y, por lo tanto, encontró aplicación en aquellos años en los que los recursos informáticos eran claramente insuficientes.

Método de tabla de ondas La síntesis se corresponde mejor con el nivel actual de desarrollo tecnológico. En pocas palabras, podemos decir que en algún lugar de las tablas preparadas previamente se almacenan muestras de sonidos para muchos instrumentos musicales diferentes (aunque no solo para ellos). En tecnología, estas muestras se denominan muestras. Los códigos numéricos expresan el tipo de instrumento, su número de modelo, tono, duración e intensidad del sonido, la dinámica de su cambio, algunos parámetros del entorno en el que se produce el sonido, así como otros parámetros que caracterizan las características del sonido. Dado que se utilizan sonidos "reales" como muestras, la calidad del sonido obtenido como resultado de la síntesis es muy alta y se acerca a la calidad del sonido de los instrumentos musicales reales.

Formatos básicos de archivos de audio

Formato MIDI (interfaz digital de instrumentos musicales)– interfaz digital de instrumentos musicales. Creado en 1982 por los principales fabricantes de instrumentos musicales electrónicos: Yamaha, Roland, Korg, E-mu, etc. Inicialmente, estaba destinado a reemplazar el control de instrumentos musicales mediante señales analógicas, que era aceptado en ese momento, por el control mediante información. mensajes transmitidos a través de una interfaz digital. Posteriormente se convirtió en el estándar de facto en el campo de los instrumentos musicales electrónicos y los módulos de síntesis por ordenador.

formato de archivo de audio WAV, representar un sonido arbitrario tal como es, en forma de una representación digital de la vibración del sonido original o de la onda (onda) del sonido, por lo que en algunos casos la tecnología para crear dichos archivos se denomina tecnología de ondas. Le permite trabajar con sonidos de cualquier tipo, forma y duración.

La representación gráfica de un archivo WAV es muy conveniente y se usa a menudo en editores de sonido y programas secuenciadores para trabajar con ellos y su posterior conversión (esto se discutirá en el siguiente capítulo). Este formato fue desarrollado por Microsoft y todos los sonidos estándar de Windows tienen la extensión WAV.

Formato MP3. Es uno de los formatos de almacenamiento de audio digital desarrollado por Fraunhofer IIS y THOMPSON (1992), posteriormente aprobado como parte de los estándares de audio y vídeo comprimido MPEG1 y MPEG2. Este esquema es el más complejo de la familia MPEG Layer 1/2/3. Requiere más tiempo de computadora para codificar en comparación con otros y proporciona una mayor calidad de codificación. Se utiliza principalmente para la transmisión de audio en tiempo real a través de enlaces de red y para la codificación de audio de CD.

1.2.10. Codificación de información de vídeo.

Principios de codificación de video.

Video traducido del latín significa "Miro, veo". Cuando la gente habla de vídeo, se refiere principalmente a una imagen en movimiento en una pantalla de televisión o en un monitor de ordenador.

La cámara de vídeo convierte la imagen óptica de la escena transmitida en una secuencia de señales eléctricas. Estas señales transportan información sobre el brillo y el color de áreas individuales de la imagen. Con el fin de conservarlos para su posterior reproducción, se pueden grabar en cinta magnética en formato analógico o digital.

En la grabación analógica, los cambios en la magnetización de una cinta de vídeo son similares a la forma de una onda de luz o de sonido. Las señales analógicas, a diferencia de las digitales, son continuas en el tiempo.

Una señal digital es una secuencia de combinaciones de códigos de pulsos eléctricos.

La información representada digitalmente se mide en bits. El proceso de convertir una señal continua en un conjunto de palabras en código se llama conversión de analógico a digital.

La conversión de señal analógica a digital se realiza en tres etapas. En la etapa de muestreo (Fig. 12), una señal continua está representada por una secuencia de muestras de sus valores instantáneos. Estas lecturas se toman a intervalos regulares.

Arroz. 12. Discretización

Siguiente etapa– cuantificación (Fig. 13). Todo el rango de valores de señal se divide en niveles. El valor de cada muestra se reemplaza por el valor redondeado del nivel de cuantificación más cercano, su número de serie.

Arroz. 13. Cuantización de nivel

Codificación Completa el proceso de digitalización de la señal analógica (Fig. 14), que ahora tiene un número finito de valores. Cada valor corresponde al número de serie del nivel de cuantificación. Este número se expresa en unidades binarias. Dentro de un intervalo de muestreo, se transmite una palabra de código.

Arroz. 14. Codificación digital

Por lo tanto, la información de la imagen presentada en formato digital se puede transferir al disco duro de una computadora para su posterior procesamiento y edición sin ninguna conversión adicional.

El vídeo por computadora se caracteriza por los siguientes parámetros:

número de fotogramas por segundo (15, 24, 25...);

flujo de datos (kilobytes/s);

formato de archivo (avi, mov...);

método de compresión (Microsoft Video para Windows, MPEG, MPEG-I, MPEG-2, Moution JPEG).

Formatos de información de vídeo

El formato AVI es un formato de vídeo sin comprimir que se crea cuando se digitaliza una imagen. Este es el formato que consume más recursos, pero al digitalizar en él, la pérdida de datos es mínima. Por lo tanto, brinda más oportunidades para editar, aplicar efectos y cualquier otro procesamiento de archivos. Sin embargo, hay que tener en cuenta que, de media, un segundo de una imagen digital ocupa entre 1,5 y 2 MB de espacio en el disco duro.

El formato MPEG es una abreviatura del nombre del grupo de expertos ISO (Moving Picture Expert Group), que desarrolla estándares para codificar y comprimir datos de video y audio. Hoy en día se conocen varios tipos de formatos MPEG.

MPEG-1 – para grabar vídeo y audio sincronizados en CD-ROM, teniendo en cuenta una velocidad máxima de lectura de aproximadamente 1,5 Mbit/s. Los parámetros de calidad de los datos de vídeo procesados ​​por MPEG-1 son en muchos aspectos similares a los del vídeo VHS convencional, por lo que este formato se utiliza principalmente cuando resulta inconveniente o poco práctico utilizar medios de vídeo analógicos estándar;

MPEG-2: para procesar imágenes de vídeo de calidad comparable a la de la televisión, con una capacidad del sistema de transmisión de datos de 3 a 15 Mbit/s. Muchos canales de televisión funcionan con tecnologías basadas en MPEG-2; una señal comprimida de acuerdo con esta norma se transmite a través de satélites de televisión y se utiliza para archivar grandes volúmenes de material de vídeo;

MPEG-3: para uso en sistemas de televisión de alta definición (HDTV) con una velocidad de flujo de datos de 20 a 40 Mbit/s; pero luego pasó a formar parte del estándar MPEG-2 y ya no se utiliza por separado;

MPEG-4 – para trabajar con representación digital de datos multimedia para tres áreas: multimedia interactiva (incluidos productos distribuidos en discos ópticos y a través de la red), aplicaciones gráficas (contenido sintético) y televisión digital

En la tabla (Tabla 5) se proporciona información de referencia sobre la representación de números en una computadora.

1.2.11. Tabla 5. Representación de información numérica, textual y gráfica en una computadora.

Conclusiones

Este tema examina el concepto de información y varias formas de codificarla en una computadora.

Se muestran las diferencias entre información y datos. Se introduce el concepto de adecuación de la información y se presentan sus principales formas: sintáctica, semántica y pragmática. Para estos formularios, se dan medidas de evaluación cuantitativa y cualitativa. Se consideran las principales propiedades de la información: representatividad, contenido, suficiencia, relevancia, actualidad, exactitud, confiabilidad, estabilidad. El proceso de información se presenta como un conjunto de etapas principales de transformación de la información.

Se presta mucha atención a la codificación de diversos tipos de información en una computadora. Se dan los principales formatos para representar información numérica, textual, gráfica, sonora y de video en una computadora. Las características de los formatos considerados se indican en función del tipo de información.

Preguntas de autoevaluación

  1. ¿Cuál es la diferencia entre información y datos?
  2. ¿Qué es la adecuación y en qué formas se manifiesta?
  3. ¿Qué medidas de información existen y cuándo deben utilizarse?
  4. Explicar la medida sintáctica de la información.
  5. Explique la medida semántica de la información.
  6. Habla de una medida pragmática de información.
  7. ¿Qué indicadores de calidad de la información existen?
  8. ¿Qué es un sistema de codificación de información?
  9. ¿Cómo te imaginas el proceso de información?
  10. ¿Qué es un sistema de codificación y cómo se caracteriza?
  11. ¿Qué sistemas numéricos se conocen y cuál es su diferencia?
  12. ¿Qué sistemas numéricos se utilizan en las computadoras?
  13. ¿Qué razón se puede utilizar para representar un número en el sistema numérico posicional?
  14. ¿Qué formas de representación numérica se utilizan en una computadora y cuál es su diferencia?
  15. Dé ejemplos de formatos de representación numérica para formas de punto fijo y punto flotante.
  16. ¿Cómo se realiza la conversión de cualquier sistema numérico posicional al sistema numérico decimal? Dar ejemplos.
  17. ¿Cómo se convierte un número entero de decimal a otro sistema numérico posicional? Dar ejemplos.
  18. ¿Cómo se codifica la información del texto? Dar ejemplos.
  19. ¿Cuál es la esencia de codificar información gráfica?
  20. Cuéntanos sobre el modelo RGB para codificar información gráfica.
  21. ¿Cuándo se utiliza el modelo de codificación de gráficos CMYK?
  22. ¿En qué se diferencia del modelo RGB?
  23. ¿Qué formatos conoces para presentar información gráfica en una computadora y sus características? Nombre del taller

    Anotación

    Presentaciones Nombre del taller
    Título de la presentación

Esta medida de la cantidad de información opera con información impersonal que no expresa una relación semántica con el objeto. A nivel sintáctico, se tienen en cuenta el tipo de medio y el método de presentación de la información, la velocidad de transmisión y procesamiento y el tamaño de los códigos de presentación de la información.

Volumen de datos(V D) se entiende en el sentido técnico de la palabra como el volumen de información de un mensaje o como la cantidad de memoria necesaria para almacenar un mensaje sin ningún cambio.

El volumen de información de un mensaje se mide en bits y es igual al número de dígitos binarios (“0” y “1”) con los que está codificado el mensaje.

En la práctica informática, la palabra "bit" también se utiliza como unidad de medida para la capacidad de la memoria. Una celda de memoria de 1 bit puede estar en dos estados (“encendido” y “apagado”) y se puede escribir en ella un dígito binario (0 o 1). Está claro que un bit es una unidad de medida de información demasiado pequeña, por lo que se utilizan múltiplos. La unidad básica de medida de la información es byte. 1 byte es igual a 8 bits. Una celda de 1 byte puede contener 8 dígitos binarios, es decir, 256 = 2. Se pueden almacenar 8 números diferentes en un byte. Para medir cantidades de información aún mayores, se utilizan las siguientes cantidades:

Ejemplo 1.Es importante tener una idea de cuánta información puede contener un kilobyte, un megabyte o un gigabyte.

· Con codificación de texto binario, cada letra, signo de puntuación y espacio ocupa 1 byte.

· En la página de un libro de formato medio hay aproximadamente 50 líneas, cada línea tiene unos 60 caracteres, por lo que una página completamente llena tiene un volumen de 50 x 60 = 3000 bytes ≈3 Kilobytes.

· Todo el libro en formato medio ocupa ≈ 0,5 Megabytes. Un número de un periódico de cuatro páginas pesa 150 kilobytes. Si una persona habla 8 horas al día sin descanso, dentro de 70 años hablará alrededor de 10 Gigabytes de información.

· Un marco en blanco y negro (con 32 gradaciones de brillo para cada punto) contiene aproximadamente 300 KB de información, un marco en color ya contiene alrededor de 1 MB de información.

· Película para televisión de 1,5 horas de duración con una frecuencia de 25 fotogramas por segundo - 135 GB.

cantidad de información a nivel sintáctico se define a través del concepto de entropía del sistema.

Deje que el consumidor tenga alguna información preliminar (a priori) sobre el sistema α antes de recibir información. La medida de su ignorancia del sistema es la función H(α), llamada entropía sistema, que al mismo tiempo sirve como medida de la incertidumbre del estado del sistema.

Después de recibir algún mensaje β, el destinatario adquirió cierta información adicional I β (α), lo que redujo su ignorancia a priori de modo que la incertidumbre del estado del sistema después de recibir el mensaje β se convirtió en H β (α).

Entonces la cantidad de información I β (α) ξ que el sistema recibe en el mensaje β se determinará como

Iβ(α)=H(α)-Hβ(α).

aquellos. la cantidad de información se mide por un cambio (reducción) en la incertidumbre del estado del sistema. Si la incertidumbre final H β (α) se vuelve cero, entonces el conocimiento inicial incompleto será reemplazado por un conocimiento completo y la cantidad de información I β (α) = H (α). En otras palabras, la entropía del sistema H(a) puede considerarse como una medida de información faltante.

La entropía H(α) de un sistema α que tiene N estados posibles, según la fórmula de Shannon, es igual a:

donde P i es la probabilidad de que el sistema esté en el i-ésimo estado. Para el caso en que todos los estados del sistema sean igualmente probables, es decir sus probabilidades son iguales a P i =, su entropía está determinada por la relación

Ejemplo 2. A menudo, la información está codificada con códigos numéricos en uno u otro sistema numérico, esto es especialmente cierto cuando se presenta información en una computadora. Naturalmente, el mismo número de dígitos en diferentes sistemas numéricos puede transmitir un número diferente de estados del objeto mostrado, que se puede representar como una relación.

donde N es el número de todos los estados posibles mostrados;
m - base del sistema numérico (variedad de símbolos utilizados en el alfabeto);
n es el número de bits (caracteres) del mensaje.

Supongamos que un mensaje de n bits que utiliza m símbolos diferentes se transmite a través de un canal de comunicación. Dado que el número de todas las combinaciones de códigos posibles será N=m", entonces, con la misma probabilidad de que aparezca cualquiera de ellas, la cantidad de información adquirida por el suscriptor como resultado de recibir el mensaje será

I = log N = n log m - fórmula de Hartley.

Si tomamos m como base del logaritmo, entonces I = n. En este caso, la cantidad de información (sujeto a un completo desconocimiento a priori por parte del suscriptor del contenido del mensaje) será igual a la cantidad de datos I = V D recibidos a través del canal de comunicación.

Los más utilizados son los logaritmos binarios y decimales. Las unidades de medida en estos casos serán respectivamente poco Y dicho.

Coeficiente(grado) contenido de la información (concisión) de un mensaje está determinada por la relación entre la cantidad de información y la cantidad de datos, es decir

A medida que Y aumenta, la cantidad de trabajo para transformar la información (datos) en el sistema disminuye. Por lo tanto, se esfuerzan por aumentar el contenido de la información, para lo cual se están desarrollando métodos especiales para una codificación óptima de la información.

Fin del trabajo -

Este tema pertenece a la sección:

Conferencia 1. Introducción. Concepto de informática

La estructura de la informática.. La informática en el sentido amplio es la unidad de varios.. La informática en el sentido estricto se puede representar como si consta de tres partes interconectadas de medios técnicos..

Si necesitas material adicional sobre este tema, o no encontraste lo que buscabas, te recomendamos utilizar la búsqueda en nuestra base de datos de obras:

Qué haremos con el material recibido:

Si este material te resultó útil, puedes guardarlo en tu página en las redes sociales:

Todos los temas de esta sección:

Concepto de informática
El término informática se originó en los años 60. en Francia para nombrar el campo que se ocupa del procesamiento automatizado de información utilizando computadoras electrónicas. Francés

Sociedad de la información
Cultura de la información: la capacidad de trabajar con información de manera intencionada y utilizar tecnología de la información informática, tecnologías modernas para recibirla, procesarla y transmitirla.

Historia del desarrollo del mercado de servicios de información.
Desde mediados de los años 50. Se inició la formación de un mercado estable de servicios de información. Los principales proveedores de servicios de información fueron: servicios de información de carácter académico, profesional y científico.

Información, mensajes, señales.
La información, junto con la materia y la energía, es el concepto principal de nuestro mundo y, por tanto, no puede definirse en sentido estricto. Sólo podemos enumerar sus principales propiedades, tales como:

Medida semántica de información.
Para medir el contenido semántico de la información, es decir su cantidad a nivel semántico, la medida del tesauro, que conecta las propiedades semánticas de la información con sp

Medida pragmática de información.
Esta medida determina la utilidad de la información (valor) para que el usuario logre la cadena prevista. Esta medida también es un valor relativo, debido a las peculiaridades del uso de esta información.

Características cualitativas de la información.
La posibilidad y eficacia del uso de la información está determinada por indicadores básicos de calidad del consumidor como representatividad, contenido, suficiente

Codificar información de texto
Actualmente, la mayoría de los usuarios utilizan una computadora para procesar información textual, que consta de símbolos: letras, números, signos de puntuación, etc. Tradicionalmente, para este fin

Codificación de información gráfica.
La información gráfica se puede presentar de dos formas: analógica o discreta. Un lienzo pictórico cuyo color cambia continuamente: aquí es cuando

Imagen rasterizada
Con una lupa, puede ver que una imagen gráfica en blanco y negro, por ejemplo de un periódico, consta de pequeños puntos que forman un patrón determinado: una trama. En Francia en el siglo XIX.

modelo CMYK
Este modelo se basa en la reproducción sustractiva del color (típica de los objetos reflectantes). Cada uno de los colores primarios lleva asociado un color adicional (complementario al principal).

Modos gráficos
Hay varios modos para presentar gráficos en color: a todo color (True Color): se utilizan 256 valores (ocho dígitos binarios) para codificar el brillo de cada componente.

Imágenes vectoriales y fractales
Una imagen vectorial es un objeto gráfico que consta de segmentos y arcos elementales. El elemento básico de la imagen es la línea. Como cualquier objeto, tiene

Codificación de información de audio.
De oído, una persona percibe ondas elásticas que tienen una frecuencia en el rango de 16 Hz a 20 kHz (1 Hz - 1 vibración por segundo). De acuerdo con esto, las ondas elásticas en cualquier medio cuyas frecuencias sean

Conversión de información de audio de digital a analógico y de analógico a digital
Las ondas sonoras se convierten en una señal eléctrica alterna analógica mediante un micrófono. Ingresa a un convertidor analógico a digital (ADC), un dispositivo que convierte la señal a digital.

Opciones de muestreo
La frecuencia es el número de mediciones de amplitud de señal analógica por segundo.

Si la frecuencia de muestreo no es más del doble de la frecuencia del borde superior
Compresión de información

La codificación se divide en tres grandes grupos: compresión (códigos eficientes), codificación resistente a errores y criptografía.
Los códigos diseñados para comprimir información se dividen, a su vez, en

Compresión sin pérdidas
utilizado para empaquetar imágenes gráficas. Este método se basa en las peculiaridades de la percepción humana de las imágenes. Para el ojo humano, el brillo es más importante que la información del color.

Revoluciones de la información
En la historia del desarrollo de la civilización, se han producido varias revoluciones de la información: transformaciones de las relaciones sociales debido a cambios fundamentales en el campo del procesamiento de la información. La consecuencia de estas transformaciones

Concepto de sistema de información
Se entiende por sistema cualquier objeto que se considera simultáneamente como un todo único y como un conjunto de elementos heterogéneos unidos en aras de la consecución de objetivos marcados. Sistemas

Etapas del desarrollo de sistemas de información.
La historia del desarrollo de los sistemas de información y los propósitos de su uso en diferentes períodos se presentan en la Tabla 1: Tabla 1. Cambios en el enfoque para el uso de los sistemas de información.

Procesos en IP
Los procesos que aseguran el funcionamiento de un SI de cualquier valor se pueden representar convencionalmente en forma de diagrama.

El SI consta de bloques: · entrada de información de fuentes externas o internas;
Estructura del sistema de información

La estructura general de un SI puede considerarse como un conjunto de subsistemas, independientemente del ámbito de aplicación. Por tanto, la estructura de cualquier SI se puede presentar de la siguiente manera.
Obsolescencia de TI

Es bastante natural para TI que se vuelva obsoleto y sea reemplazado por cosas nuevas.
Ejemplo. La tecnología de procesamiento por lotes de programas en una computadora grande en un centro informático ha sido reemplazada por tecnología

Metodología de uso de TI
El procesamiento centralizado de información en computadoras en centros informáticos fue la primera tecnología históricamente establecida. Se crearon grandes centros de cómputo (CC) de uso colectivo

El sistema de comando de una computadora es un conjunto de comandos que una computadora determinada puede ejecutar.
La secuencia de comandos propuesta por la computadora para su ejecución se llama programa.

A pesar de la diversidad de las computadoras modernas, su estructura se basa en lógicas comunes.
Bloques básicos de PC y su significado

Arroz. Diagrama de bloques de un microprocesador de computadora personal (MP). esto es central
Autobuses de expansión

Bus ISA (arquitectura estándar de la industria): bus de datos de 16 bits y bus de direcciones de 24 bits, frecuencia de funcionamiento de 16 MHz, pero puede
El MP realiza las siguientes funciones: · lectura y decodificación de comandos del OP;

· leer datos del OP y registros de los adaptadores VU;
· recibir y procesar solicitudes y comandos de adaptadores en

estructura MP
Los microprocesadores constan de dos partes: · una parte operativa, que contiene la unidad de control, ALU y MPPS, con excepción de varios registros de direcciones;

· interfaz, que contiene registros de direcciones MPP,
memoria caché

La memoria caché es una memoria de alta velocidad que sirve como buffer entre la RAM y el MP y permite aumentar la velocidad de las operaciones. El usuario no puede acceder a los registros de caché; de ahí el nombre "caché"
Estructura física del OP

El OP contiene RAM y ROM, es decir, RAM y ROM.
La RAM está diseñada para almacenar información (programas y datos) directamente involucrada en la etapa actual de funcionamiento de la PC.

Estructura lógica del OP
La distribución de un área de RAM de un megabyte se muestra en la Fig. 3.4. La estructura lógica de todo el OP se muestra en la Fig. 3.5. Cada celda de memoria tiene su propia dirección única (diferente de todas las demás).

Unidades de disco de memoria externa
Los dispositivos de almacenamiento en disco son dispositivos de acceso directo. El acceso rápido a cualquier parte del disco se consigue mediante: rotación rápida del disco (flexible - aproximadamente 300 rpm, duro - aprox.

Dispositivos terminales de vídeo
El terminal de vídeo consta de un monitor de vídeo (pantalla) y un controlador de vídeo (adaptador). Los controladores de video son parte de la unidad del sistema de la PC (ubicada en una tarjeta de video instalada en el conector de la placa base

Impresoras
Las impresoras (dispositivos de impresión) son dispositivos para generar datos desde una computadora, convertir códigos ASCII de información en los símbolos gráficos correspondientes (letras, números, signos, etc.) y fijarlos.

Escáneres
Un escáner es un dispositivo para ingresar información en una computadora directamente desde un documento en papel. Puede ingresar textos, diagramas, imágenes, gráficos, fotografías y otra información gráfica.

Peso de los escáneres
Supercomputadora

Las supercomputadoras incluyen potentes computadoras multiprocesador con velocidades de cientos de millones, decenas de miles de millones de operaciones por segundo.
Existen las siguientes formas principales de interacción entre las computadoras de los suscriptores.

1. Proceso terminal remoto: proporciona acceso desde el terminal de una de las computadoras del suscriptor al proceso.
Modelo de interoperabilidad de sistemas abiertos

La variedad de fabricantes de redes BC y software de red ha generado el problema de combinar redes de diferentes arquitecturas. Para ello se desarrolló un modelo de arquitectura de sistemas abiertos.
Abierto

Protocolos de red informática
Al intercambiar información en la red, cada nivel del modelo de interacción de sistemas abiertos reacciona a su propio encabezado, es decir, la interacción se produce entre los niveles de una sola línea del modelo de diferentes maneras.

Redes de área local
El objetivo principal de cualquier red informática es proporcionar información y recursos informáticos a los usuarios conectados a ella.

Desde este punto de vista, la LAN puede considerarse una primicia.
Topologías LAN básicas

La topología de LAN es un diagrama geométrico promediado de conexiones de nodos de red.
El avión puede considerarse como un conjunto de nodos: dispositivos conectados directamente al frente.

Medio de transmisión física de LAN
El medio de transmisión físico de una LAN se puede representar mediante tres tipos.

1. Par trenzado. Consta de dos cables aislados trenzados entre sí. Torcer los cables reduce la influencia de factores externos.
Métodos de acceso al medio de transmisión.

Un método de acceso al medio de transmisión es un método que garantiza la ejecución de un conjunto de reglas según las cuales los nodos de la red obtienen acceso a un recurso de la red.
Hay dos clases principales.

Métodos para combinar LAN
Las razones para utilizar varios métodos para combinar una LAN son las siguientes: las capacidades técnicas de la LAN se han agotado, es necesario crear otra LAN, conectar nuevos usuarios y fusionarla con una LAN existente.

Internet mundial
El software de aplicación sirve como herramientas de software para resolver problemas funcionales y es la clase más grande de software. Esta clase incluye productos de software que procesan información.

Protección de software
La protección del software persigue los siguientes objetivos: · restricción del acceso no autorizado a los programas o su destrucción y robo deliberados;




Desplazarse hacia arriba