Medida sintáctica de información. Medida semántica de información. Medidas de información a nivel sintáctico.

Al implementar procesos de información Siempre hay una transferencia de información en el espacio y el tiempo desde la fuente de información al receptor (destinatario). En este caso, para transmitir información se utilizan diversos signos o símbolos, por ejemplo, lenguaje natural o artificial (formal), lo que permite expresarla de alguna forma denominada mensaje.

Mensaje– una forma de representación de información en forma de un conjunto de signos (símbolos) utilizados para la transmisión.

Un mensaje como conjunto de signos desde el punto de vista de la semiótica ( del griego setneion - signo, signo) - una ciencia que estudia las propiedades de los signos y los sistemas de signos - se puede estudiar en tres niveles:

1) sintáctico , donde se consideran las propiedades internas de los mensajes, es decir, las relaciones entre signos, que reflejan la estructura de un sistema de signos determinado. Propiedades externas estudiado en los niveles semántico y pragmático. En este nivel, consideran los problemas de entregar mensajes al destinatario como un conjunto de caracteres, teniendo en cuenta el tipo de medio y método de presentación de la información, la velocidad de transmisión y procesamiento, el tamaño de los códigos de presentación de información, la confiabilidad y precisión de la conversión de estos códigos, etc., abstrayéndose completamente del contenido semántico de los mensajes y su finalidad prevista. En este nivel, la información considerada sólo desde una perspectiva sintáctica suele denominarse datos, ya que el lado semántico no importa.

La teoría de la información moderna estudia principalmente problemas en este nivel. Se basa en el concepto de “cantidad de información”, que es una medida de la frecuencia de uso de los signos, que de ninguna manera refleja ni el significado ni la importancia. mensajes transmitidos. En este sentido, a veces se dice que teoría moderna La información está en el nivel sintáctico.

2) semántico , donde se analizan las relaciones entre los signos y los objetos, acciones y cualidades que denotan, es decir, el contenido semántico del mensaje, su relación con la fuente de información. Los problemas a nivel semántico están asociados a formalizar y tener en cuenta el significado de la información transmitida, determinando el grado de correspondencia entre la imagen del objeto y el objeto mismo. En este nivel Se analiza la información que refleja la información, se examinan las conexiones semánticas, se forman conceptos e ideas, se revela el significado y contenido de la información y se lleva a cabo su generalización.

3) pragmático , donde se considera la relación entre el mensaje y el destinatario, es decir, el contenido del mensaje para el consumidor, su relación con el destinatario.

En este nivel, son de interés las consecuencias de recibir y utilizar esta información por parte del consumidor. Los problemas en este nivel están asociados con la determinación del valor y la utilidad del uso de la información cuando el consumidor desarrolla una solución para lograr su objetivo. La principal dificultad aquí es que el valor y la utilidad de la información pueden ser completamente diferentes para diferentes destinatarios y, además, depende de una serie de factores, como, por ejemplo, la puntualidad de su entrega y uso.


Para cada uno de los niveles de problemas de transferencia de información discutidos anteriormente, existen diferentes enfoques para medir la cantidad de información y diferentes medidas de información. Las medidas de información se distinguen en consecuencia. nivel sintáctico, nivel semántico y nivel pragmático.

Medidas de información a nivel sintáctico. Cuantificación La información en este nivel no está relacionada con el lado del contenido de la información, sino que opera con información impersonal que no expresa una relación semántica con el objeto. debido a esto esta medida permite evaluar los flujos de información en objetos de naturaleza tan diferente como los sistemas de comunicación, computadoras, sistemas de control, sistema nervioso organismo vivo, etc.

Para medir información a nivel sintáctico se introducen dos parámetros: la cantidad de información (datos) - V d(enfoque de volumen) y cantidad de información – I(enfoque de entropía).

Volumen de información V d (enfoque de volumen). Al implementar procesos de información, la información se transmite en forma de mensaje, que es un conjunto de caracteres de un alfabeto. Al mismo tiempo, cada nuevo símbolo en un mensaje aumenta la cantidad de información representada por una secuencia de caracteres de este alfabeto. Si ahora la cantidad de información contenida en un mensaje de un carácter se toma como uno, entonces el volumen de información (datos) V d en cualquier otro mensaje será igual al número de caracteres (bits) de este mensaje. Dado que la misma información puede ser representada por muchos de diferentes maneras(usando diferentes alfabetos), entonces la unidad de medida de la información (datos) cambiará en consecuencia.

Entonces, en sistema decimal en notación, un dígito tiene un peso igual a 10 y, en consecuencia, la unidad de medida de información será dicho (lugar decimal norte norte dicho. Por ejemplo, el número de cuatro dígitos 2009 tiene un volumen de datos de V d = 4 dit.

EN sistema binario en notación, un dígito tiene un peso igual a 2 y, en consecuencia, la unidad de medida de información será poco (bit (dígito binario) – dígito binario). En este caso, un mensaje en el formulario norte-El número de dígitos tiene volumen de datos V d = norte poco. Por ejemplo, ocho bits código binario 11001011 tiene un volumen de datos Vd = 8 bits.

en moderno tecnología informática junto con unidad minima mediciones de datos poco la unidad de medida ampliada se usa ampliamente byte, igual a 8 bits. Son precisamente ocho bits los que se necesitan para codificar cualquiera de los 256 caracteres del alfabeto del teclado de computadora (256 = 2 8).

Al trabajar con grandes volúmenes Se utiliza más información para calcular su cantidad. unidades grandes medidas:

1 kilobyte (KB) = 1024 bytes = 2 10 bytes,

1 Megabyte (MB) = 1024 KB = 2 20 bytes = 1.048.576 bytes;

1 Gigabyte (GB) = 1024 MB = 2 30 bytes = 1.073.741.824 bytes;

EN últimamente Debido al aumento en el volumen de información procesada, se están utilizando unidades derivadas como:

1 Terabyte (TB) = 1024 GB = 2 40 bytes = 1.099.511.627.776 bytes;

1 petabyte (PB) = 1024 TB = 2 50 bytes = 1.125.899.906.842.624 bytes.

Cabe señalar que en el sistema de medición de información binaria (computadora), a diferencia del sistema métrico, las unidades con los prefijos “kilo”, “mega”, etc. se obtienen multiplicando la unidad base no por 10 3 = 1000, 10 6 = 1.000.000, etc., y en 2 10 = 1024, 2 20 = 1.048.576, etc.

Cantidad de información I (enfoque de entropía). En la teoría de la información y la codificación, se adopta un enfoque de entropía para medir la información. Este enfoque se basa en que el hecho de obtener información siempre va asociado a una disminución de la diversidad o incertidumbre (entropía) del sistema. En base a esto, la cantidad de información en un mensaje se define como una medida para reducir la incertidumbre del estado de un sistema determinado después de recibir el mensaje. La incertidumbre se puede interpretar en términos de lo poco que sabe el observador sobre un sistema determinado. Una vez que un observador ha identificado algo en un sistema físico, la entropía del sistema disminuye porque, para el observador, el sistema se ha vuelto más ordenado.

Así, con el enfoque de la entropía Se entiende por información el valor cuantitativo de la incertidumbre que ha desaparecido durante cualquier proceso (ensayo, medición, etc.). En este caso, se introduce la entropía como medida de incertidumbre. norte, y la cantidad de información es igual a:

I = H abr – H aps

donde, H apr – entropía a priori sobre el estado del sistema o proceso en estudio;

H aps – entropía posterior.

A posteriori (de lat. a posteriori – de lo que sigue) – provenientes de la experiencia (pruebas, mediciones).

A priori (de lat. a priori - del anterior) es un concepto que caracteriza el conocimiento que precede a la experiencia (pruebas) y es independiente de ella.

En el caso de que durante la prueba se elimine la incertidumbre existente (se obtiene un resultado específico, es decir, H = 0), la cantidad de información recibida coincide con la entropía inicial.

Consideremos como sistema en estudio una fuente discreta de información (fuente mensajes discretos), con lo que queremos decir sistema fisico, teniendo un conjunto finito de estados posibles ( y yo}, i = .

Listo A = (a 1, a 2, ..., a n) Los estados de un sistema en teoría de la información se denominan alfabeto abstracto o alfabeto de una fuente de mensaje.

Estados individuales un 1, un 2,..., un n Se llaman letras o símbolos del alfabeto.

Un sistema de este tipo puede adoptar aleatoriamente uno de un conjunto finito de estados posibles en cualquier momento dado. un yo. Al mismo tiempo dicen que varios estados se realizan debido a su elección por parte de la fuente.

El destinatario de la información (mensaje) tiene una cierta idea sobre la posible ocurrencia de ciertos eventos. Estas representaciones en caso general no son fiables y se expresan por las probabilidades con las que espera tal o cual evento. La medida general de incertidumbre (entropía) se caracteriza por cierta dependencia matemática de estas probabilidades; la cantidad de información en el mensaje está determinada por cuánto disminuye la medida de incertidumbre después de recibir el mensaje.

Expliquemos esta idea con un ejemplo.

Digamos que tenemos 32 cartas diferentes. La posibilidad de elegir una carta de la baraja es 32. Antes de tomar una decisión, es natural suponer que las posibilidades de elegir una determinada carta son las mismas para todas las cartas. Al tomar una decisión, eliminamos esta incertidumbre. En este caso, la incertidumbre se puede caracterizar por el número de elecciones posibles igualmente probables. Si ahora definimos la cantidad de información como una medida para eliminar la incertidumbre, entonces la información obtenida como resultado de la elección se puede caracterizar por el número 32. Sin embargo, es más conveniente utilizar no este número en sí, sino el logaritmo de la estimación de base 2 obtenida anteriormente:

donde m es el número de elecciones posibles igualmente probables (cuando m=2, obtenemos información en un bit). Es decir, en nuestro caso

H = registro 2 32 = 5.

El enfoque esbozado pertenece al matemático inglés R. Hartley (1928). Tiene una interpretación interesante. Se caracteriza por una serie de preguntas con respuestas de “sí” o “no” para determinar qué tarjeta eligió una persona. 5 de estas preguntas son suficientes.

Si al elegir una carta la posibilidad de que aparezca cada carta no es la misma (diferentemente probable), entonces obtenemos un enfoque estadístico para medir la información propuesto por K. Shannon (1948). En este caso, la medida de información se mide mediante la fórmula:

Dónde p yo– probabilidad de elección iº carácter del alfabeto.

Es fácil ver que si las probabilidades página 1, ..., pn son iguales entonces cada uno de ellos es igual 1/N, y la fórmula de Shannon se convierte en la fórmula de Hartley.

Medidas de información a nivel semántico. Medir el contenido semántico de la información, es decir, su cantidad por nivel semántico, la más extendida es la medida del tesauro, que conecta las propiedades semánticas de la información con la capacidad del usuario para aceptar el mensaje entrante. De hecho, para comprender y utilizar la información recibida, el destinatario debe tener ciertos conocimientos. El completo desconocimiento del tema no permite extraer información útil de mensaje recibido sobre este tema. A medida que crece el conocimiento sobre un tema, también aumenta el número información útil, extraído del mensaje.

Si nombramos el conocimiento que tiene el destinatario sobre este tema un tesauro (es decir, un determinado conjunto de palabras, conceptos, nombres de objetos conectados por conexiones semánticas), entonces la cantidad de información contenida en un determinado mensaje se puede evaluar por el grado de cambio en el tesauro individual bajo la influencia de este mensaje. .

Tesauro- un conjunto de información disponible para un usuario o sistema.

En otras palabras, la cantidad de información semántica extraída por el destinatario de los mensajes entrantes depende del grado de preparación de su tesauro para percibir dicha información.

Dependiendo de la relación entre el contenido semántico de la información. S y el tesauro del usuario S p la cantidad de información semántica cambia Es, percibido por el usuario y posteriormente incluido por él en su tesauro. La naturaleza de esta dependencia se muestra en la Fig. 2.1. Consideremos dos casos límite cuando la cantidad de información semántica I c es igual a 0:

a) cuando S p = 0, el usuario no percibe (no comprende) la información entrante;

b) cuando S -> ∞ el usuario “lo sabe todo” y no necesita la información entrante.

Arroz. 1.2. Dependencia de la cantidad de información semántica,

percibido por el consumidor, desde su tesauro Yo c =f(S p)

Cantidad máxima El consumidor adquiere información semántica coordinando su contenido semántico S con su tesauro S p (S = S p opt), cuando la información entrante es comprensible para el usuario y le proporciona información previamente desconocida (no en su tesauro).

En consecuencia, la cantidad de información semántica en un mensaje, la cantidad de nuevos conocimientos recibidos por el usuario, es un valor relativo. El mismo mensaje puede tener un contenido significativo para un usuario competente y carecer de significado para un usuario incompetente.

Al evaluar el aspecto semántico (contenido) de la información, es necesario esforzarse por armonizar los valores de S y Sp.

Una medida relativa de la cantidad de información semántica puede ser el coeficiente de contenido C, que se define como la relación entre la cantidad de información semántica y su volumen:

C = I s / V d

Medidas de información a nivel pragmático. Esta medida determina la utilidad de la información para lograr el objetivo del usuario. Esta medida es también un valor relativo, determinado por las peculiaridades del uso de esta información en un sistema particular.

Uno de los primeros científicos rusos que abordó el problema de la evaluación de la información a un nivel pragmático fue A.A. Kharkevich, quien propuso tomar como medida del valor de la información la cantidad de información necesaria para lograr el objetivo, es decir, calcular el incremento en la probabilidad de lograr el objetivo. Entonces, si antes de recibir información la probabilidad de lograr el objetivo era p 0, y después de recibirla - p 1, entonces el valor de la información se determina como el logaritmo de la relación p 1 / p 0:

I = log 2 p 1 – log 2 p 0 = log 2 (p 1 /p 0)

Así, el valor de la información se mide en unidades de información, en en este caso en pedazos.

Niveles y estructura informacion economica. Niveles sintácticos, semánticos y pragmáticos de la información económica. Elementos estructurales de la información económica: detalles, indicadores, unidades constitutivas de información (CUI), documentos, matrices y bases de datos.

El tema de este curso es marketing información cómo componente información económica.

Información económica es un conjunto de información que caracteriza las relaciones de producción en la sociedad. Esta información puede registrarse, almacenarse, transmitirse, procesarse y utilizarse en los procesos de planificación, contabilidad, control y análisis de un sistema o proceso económico.

La información económica incluye información diversa sobre la composición y valores de los recursos laborales, materiales y financieros y el estado del objeto de gestión en un momento determinado. La información económica le permite obtener información sobre las actividades de empresas y organizaciones a través de diversos indicadores económicos. Información de cualquier área temática tienen una serie de propiedades características.

Nota características de la información económica:

1. Multidimensionalidad – gran número y el volumen de datos, sin los cuales es imposible una gestión de alta calidad de los procesos económicos.

2. Visualización numérica: la información económica, por regla general, refleja la producción y las actividades económicas utilizando un sistema de indicadores naturales y de costos. Se expresan mediante datos numéricos, por lo que son muy utilizados cuando se trabaja con información económica. tipos numéricos datos y métodos para trabajar con estos tipos.

3. Periodicidad: la mayoría de los procesos productivos y económicos se caracterizan por la repetibilidad cíclica de sus etapas constituyentes (mes, trimestre, año) y, en consecuencia, es característica la repetibilidad de la información que refleja los procesos en estas etapas.

4. Gráfico y vista de tabla información económica. Los documentos económicos suelen adoptar la forma de tablas y gráficos, por lo que los procesadores de hojas de cálculo se utilizan ampliamente para procesar información económica.

5. Diversidad de fuentes y consumidores.

Estas características de la información económica predeterminan la necesidad científica y técnica y viabilidad económica uso de fondos tecnologías de la información durante su recolección, acumulación, transmisión y procesamiento, lo que a su vez requiere que especialistas puedan determinar la estructura y volumen de la información procesada.

En el proceso de utilización en los sistemas económicos y de gestión, la información pasa por varias fases de existencia:

La información asimilada es la representación de mensajes en la mente de una persona, superpuestos al sistema de sus conceptos y valoraciones;


Información documentada: información registrada en forma simbólica en cualquier medios fisicos;

Información transmitida- información considerada en el momento de su transmisión desde la fuente al receptor receptor. Durante el proceso de transmisión, la información pasa a través de varios convertidores: dispositivos de codificación y decodificación, computadoras que procesan información, sistemas de comunicación, redes informáticas etc.

La información son datos que circulan entre individuos. elementos estructurales sistema económico o entre los propios sistemas. Existen diferentes niveles de consideración de la información: sintáctico, semántico y pragmático.

nivel sintáctico estudia la estructura de los signos y las relaciones entre ellos en los mensajes informativos. En este nivel se analiza la estructura de símbolos y signos en los documentos, formatos de detalles, estructura de matrices de información, etc. En el nivel sintáctico se utiliza el término “datos” y se relaciona el volumen de datos con el número de. copias de documentos, número de registros en la base de datos, etc. Los datos de entrada recibidos son la base para procesar la información, obteniendo datos de salida que sirven como base para la toma de decisiones.

Nivel semántico Determina el contenido semántico general de la información y permite establecer relaciones entre elementos separados información. La semántica estudia las relaciones entre los signos y los objetos que denotan, sin tener en cuenta el destinatario de los signos. ella esta estudiando patrones generales construcción de cualquier sistema de signos considerado en sintáctica. Hay semántica lógica y estructural. Semántica lógica considera los sistemas de signos como medios para expresar significado, estableciendo una relación entre la estructura de las combinaciones de signos y sus capacidades expresivas. Semántica estructural- una sección de lingüística estructural dedicada a describir el significado de las expresiones lingüísticas y sus operaciones. Análisis semántico- un conjunto de operaciones que sirven para representar el significado de un texto en lenguaje natural en forma de registro en algún lenguaje semántico (semántico) formalizado. El análisis semántico modela el proceso de comprensión humana del texto. Cuanto más definido sea el estado del sistema para el destinatario de la información, mayor será el contenido informativo del mensaje. A nivel semántico, el contenido de la información se basa en el tesauro del sistema.

Tesauro(diccionario) incluye un conjunto de conceptos básicos, términos, definiciones y estructuras de datos consistentes. nivel lógico representaciones en bases de datos, etc. Al mismo tiempo, el contenido informativo de los mensajes depende en gran medida de la capacidad del destinatario para ampliar su tesauro.

Nivel pragmático Determina el valor de la información para la toma de decisiones de gestión, para el sistema de gestión en su conjunto. Pragmática estudia la percepción de expresiones significativas de un sistema de signos de acuerdo con las capacidades de resolución del perceptor. La pragmática teórica considera algunas hipótesis sobre las propiedades y la estructura de la inteligencia, que se formulan a partir de datos de la neurofisiología, la psicología experimental, la biónica, la teoría del perceptrón, etc. La pragmática aplicada incluye investigaciones dedicadas al análisis empírico de la comprensión de las personas de diversas expresiones lingüísticas, el estudio del ritmo y la versificación y el desarrollo de sistemas de recuperación de información.

Así, existen tres niveles de consideración de cualquier mensaje informativo, tres niveles de abstracción de las características de actos específicos de intercambio de información. En pragmático A nivel, para identificar la utilidad de la información, se consideran todos los elementos del intercambio de información. En semántico nivel, distrayendo la atención del destinatario de la información, el objetivo final del aprendizaje es significado semántico mensaje, su adecuación a los objetos descritos. el mas estrecho es sintáctico nivel: el nivel de estudiar solo los signos en sí y las relaciones entre ellos.

La tarea de la información económica es proporcionar una descripción adecuada de algún estado del sistema económico u objeto considerado. Por tanto, se imponen una serie de requisitos a la información económica.

Integridad de la información para la toma de decisiones y la implementación de funciones de gestión. . La integridad se determina en relación con las funciones de gestión. La información puede estar incompleta en términos de volumen y composición de la información. La falta de información no permite tomar decisiones de gestión correctas. La integridad de la información significa su suficiencia para comprender y tomar decisiones.

Exactitud y fiabilidad de la información. Estas características determinan el grado en que el valor de la información se acerca al valor real. La confiabilidad refleja la evaluación probabilística de la información. Hay ciertos niveles exactitud del uso de los datos recibidos.

Valor La información depende de qué problemas se resuelven con su ayuda.

Relevancia y eficiencia. La relevancia muestra el grado de correspondencia entre el estado real de un objeto económico y el estado del sistema de información. La falta de cambios oportunos en la información reflejada en el sistema de información conduce a la interrupción de los procesos de gestión. La eficiencia determina la velocidad de introducción de cambios en el sistema de información sobre el estado del área en cuestión. Es importante tener información actualizada cuando se trabaja en condiciones en constante cambio.

Perceptibilidad- la información se convierte claro Y comprensible si se expresa en el lenguaje, temas comprensibles objetos a los que está destinado.

Para medir el contenido semántico de la información, es decir su cantidad a nivel semántico, la más reconocida es la medida del tesauro, que conecta las propiedades semánticas de la información con la capacidad del usuario para aceptar el mensaje entrante. Para ello se utiliza el concepto diccionario de sinónimos del usuario.

Tesauro Es una colección de información disponible para un usuario o sistema.

Dependiendo de la relación entre el contenido semántico de la información. S y el tesauro del usuario S p la cantidad de información semántica cambia yo, percibido por el usuario y posteriormente incluido por él en su tesauro. La naturaleza de esta dependencia se muestra en la Fig. 2.2. Consideremos dos casos límite cuando la cantidad de información semántica yo c es igual a 0:

en S p 0 el usuario no percibe ni comprende la información entrante;

en Sp; el usuario lo sabe todo, pero no necesita la información entrante.

Arroz. 2.2. Dependencia de la cantidad de información semántica. percibido por el consumidor, desde su tesauro Ic=f(Esp)

Cantidad máxima de información semántica yo c el consumidor adquiere al acordar su contenido semántico S con tu diccionario de sinónimos S p (S p = S p opt), cuando la información entrante es comprensible para el usuario y le proporciona información previamente desconocida (no en su tesauro).

En consecuencia, la cantidad de información semántica en un mensaje, la cantidad de nuevos conocimientos recibidos por el usuario, es un valor relativo. El mismo mensaje puede tener contenido significativo para un usuario competente y carecer de sentido (ruido semántico) para un usuario incompetente.

Al evaluar el aspecto semántico (contenido) de la información, es necesario esforzarse por armonizar los valores. S Y sp.

Una medida relativa de la cantidad de información semántica puede ser el coeficiente de contenido. CON, que se define como la relación entre la cantidad de información semántica y su volumen:

Medida pragmática de información.

Esta medida determina la utilidad de la información (valor) para que el usuario logre su objetivo. Esta medida es también un valor relativo, determinado por las peculiaridades del uso de esta información en un sistema particular. Es recomendable medir el valor de la información en las mismas unidades (o cercanas a ellas) en las que se mide. función objetivo.



Ejemplo 2.5. En un sistema económico, las propiedades pragmáticas (valor) de la información pueden determinarse por el aumento en el efecto económico del funcionamiento logrado mediante el uso de esta información para gestionar el sistema:

Inb(g)=P(g /b)-P(g),

Dónde Inb(g)-valor del mensaje de información b para el sistema de control g,

P(g)- efecto económico esperado a priori del funcionamiento del sistema de control g ,

P(g/b)- el efecto esperado del funcionamiento del sistema g, siempre que la información contenida en el mensaje b se utilice para el control.

A modo de comparación, presentamos las medidas de información introducidas en la Tabla 2.1.

Tabla 2.1. Unidades de información y ejemplos.

CALIDAD DE LA INFORMACIÓN

La posibilidad y eficacia de utilizar la información está determinada por las necesidades básicas del consumidor: indicadores de calidad, como representatividad, significado, suficiencia, accesibilidad, relevancia, actualidad, precisión, confiabilidad, sostenibilidad.

  • Representatividad La información está asociada a la corrección de su selección y formación para reflejar adecuadamente las propiedades del objeto. Las cosas más importantes aquí son:
  • la exactitud del concepto a partir del cual se formula el concepto original;
  • validez de la selección de características y conexiones esenciales del fenómeno mostrado.
  • La violación de la representatividad de la información a menudo conduce a errores importantes.
  • Contenido la información refleja una capacidad semántica igual a la relación entre la cantidad de información semántica en un mensaje y el volumen de datos procesados, es decir, C=Ic/Vd.

A medida que aumenta el contenido de la información, aumenta el valor semántico. rendimiento sistema de información, ya que para obtener la misma información se requiere convertir una menor cantidad de datos.

Junto con el coeficiente de contenido C, que refleja el aspecto semántico, también se puede utilizar el coeficiente de contenido de información, caracterizado por la relación del número información sintáctica(según Shannon) a volumen de datos Y=I/Vd.

  • Suficiencia (integridad) información significa que contiene información mínima pero suficiente para su aceptación. la decisión correcta composición (conjunto de indicadores). El concepto de integridad de la información está asociado con su contenido semántico (semántica) y pragmática. Como incompleto, es decir. insuficiente para tomar la decisión correcta y la información redundante reduce la efectividad de las decisiones tomadas por el usuario.
  • Disponibilidad La información a la percepción del usuario está asegurada mediante la implementación de procedimientos adecuados para su adquisición y transformación. Por ejemplo, en un sistema de información, la información se transforma en una forma accesible y fácil de usar. Esto se logra, en particular, coordinando su forma semántica con el diccionario de sinónimos del usuario.
  • Pertinencia La información está determinada por el grado de preservación del valor de la información para la gestión en el momento de su uso y depende de la dinámica de cambios en sus características y del intervalo de tiempo transcurrido desde la aparición de esta información.
  • Oportunidad información significa su llegada a más tardar en un momento predeterminado, consistente con el momento de resolver la tarea.
  • Exactitud La información está determinada por el grado de proximidad de la información recibida a estado real objeto, proceso, fenómeno, etc. Para obtener información mostrada código digital, se conocen cuatro conceptos de clasificación de precisión:
  • precisión formal, medida por el valor unitario del dígito menos significativo de un número;
  • precisión real, determinada por el valor de la unidad del último dígito del número, cuya precisión está garantizada;
  • máxima precisión que se puede obtener en condiciones operativas específicas del sistema;

Credibilidad La información está determinada por su capacidad para reflejar de manera realista. instalaciones existentes con la precisión requerida. La confiabilidad de la información se mide por la probabilidad de confianza de la precisión requerida, es decir, la probabilidad de que el valor de un parámetro mostrado por la información difiera del valor real de este parámetro dentro de la precisión requerida.

Sostenibilidad La información refleja su capacidad para responder a cambios en los datos de origen sin violar la precisión requerida. La estabilidad de la información, así como la representatividad, está determinada por la metodología elegida para su selección y formación.

En conclusión, cabe señalar que parámetros de calidad de la información como representatividad, contenido, suficiencia, accesibilidad y estabilidad están enteramente determinados en el nivel metodológico de desarrollo. sistemas de información. Los parámetros de relevancia, puntualidad, precisión y confiabilidad también se determinan en mayor medida a nivel metodológico, pero su valor está significativamente influenciado por la naturaleza del funcionamiento del sistema, principalmente su confiabilidad. Al mismo tiempo, los parámetros de relevancia y precisión están estrictamente relacionados con los parámetros de puntualidad y confiabilidad, respectivamente.

Como ya se señaló, el concepto de información puede considerarse bajo diversas restricciones impuestas a sus propiedades, es decir, en varios niveles consideración. Hay principalmente tres niveles: sintáctico, semántico y pragmático. En consecuencia, en cada uno de ellos se utilizan diferentes estimaciones para determinar la cantidad de información.

A nivel sintáctico, para estimar la cantidad de información se utilizan métodos probabilísticos, que tienen en cuenta únicamente las propiedades probabilísticas de la información y no tienen en cuenta otras (contenido semántico, utilidad, relevancia, etc.). Desarrollado a mediados del siglo XX. Los métodos matemáticos y, en particular, probabilísticos permitieron formular un enfoque para evaluar la cantidad de información como medida para reducir la incertidumbre del conocimiento.

Este enfoque, también llamado probabilístico, postula el principio: si algún mensaje conduce a una disminución de la incertidumbre de nuestro conocimiento, entonces podemos decir que dicho mensaje contiene información. En este caso, los mensajes contienen información sobre cualquier evento que pueda ocurrir con diferentes probabilidades.

Fórmula para determinar la cantidad de información para eventos con diferentes probabilidades y obtenida de fuente discreta La información fue ofrecida por el científico estadounidense K. Shannon en 1948. Según esta fórmula, la cantidad de información se puede determinar de la siguiente manera:

Dónde I– cantidad de información; norte– número de eventos posibles (mensajes); p yo– probabilidad de eventos individuales (mensajes).

La cantidad de información determinada mediante la fórmula (2.1) toma sólo un valor positivo. Dado que la probabilidad de eventos individuales es menor que uno, entonces, en consecuencia, la expresión log 2, - es un valor negativo y para obtener un valor positivo para la cantidad de información en la fórmula (2.1) se coloca un signo "menos" antes del signo de suma.

Si la probabilidad de ocurrencia de eventos individuales es la misma y forman grupo completo eventos, es decir:

luego la fórmula (2.1) se transforma en la fórmula de R. Hartley:

En las fórmulas (2.1) y (2.2), la relación entre la cantidad de información I y, en consecuencia, la probabilidad (o número) de eventos individuales se expresa mediante un logaritmo.

El uso de logaritmos en las fórmulas (2.1) y (2.2) se puede explicar de la siguiente manera. Para simplificar el razonamiento, utilizamos la relación (2.2). Asignaremos secuencialmente al argumento. norte valores seleccionados, por ejemplo, de una serie de números: 1, 2, 4, 8, 16, 32, 64, etc. Para determinar qué evento norte Ocurrieron eventos igualmente probables, para cada número de la serie es necesario realizar secuencialmente operaciones de selección a partir de dos eventos posibles.

si, cuando norte= 1 el número de operaciones será igual a 0 (la probabilidad del evento es igual a 1), con norte= 2, el número de operaciones será igual a 1, cuando norte= 4 el número de operaciones será igual a 2, cuando norte= 8, el número de operaciones será 3, etc. Así, obtenemos la siguiente serie de números: 0, 1, 2, 3, 4, 5, 6, etc., que pueden considerarse correspondientes a los valores de la función. I en relación (2.2).

La secuencia de valores numéricos que acepta el argumento. norte, es una serie conocida en matemáticas como una serie de números que forman una progresión geométrica, y la secuencia de valores numéricos que toma la función I, será una serie que formará una progresión aritmética. Así, el logaritmo en las fórmulas (2.1) y (2.2) establece una relación entre las series que representan progresiones geométricas y aritméticas, que es bastante conocida en matemáticas.

Cuantificar (evaluar) cualquier cantidad fisica es necesario determinar la unidad de medida, que en teoría de la medición se llama medidas .


Como ya se señaló, la información debe codificarse antes de su procesamiento, transmisión y almacenamiento.

La codificación se realiza utilizando alfabetos especiales (sistemas de signos). En informática, que estudia los procesos de recepción, procesamiento, transmisión y almacenamiento de información mediante sistemas informáticos (informáticos), se utiliza principalmente la codificación binaria, que utiliza un sistema de signos que consta de dos símbolos 0 y 1. Por este motivo, en las fórmulas ( 2.1) y (2.2) el número 2 se utiliza como base del logaritmo.

Con base en el enfoque probabilístico para determinar la cantidad de información, estos dos símbolos del sistema de signos binarios pueden considerarse como dos eventos posibles diferentes, por lo tanto, se toma como unidad de cantidad de información la cantidad de información que contiene un mensaje que reduce la incertidumbre del conocimiento a la mitad (antes de recibir los eventos, su probabilidad es 0,5, después de recibir – 1, la incertidumbre disminuye en consecuencia: 1/0,5 = 2, es decir, 2 veces). Esta unidad de medida de información se llama bit (de la palabra inglesa dígito binario– dígito binario). Así, como medida para evaluar la cantidad de información a nivel sintáctico, proporcionada codificación binaria, un bit recibido.

La siguiente unidad de medida más grande de la cantidad de información es el byte, que es una secuencia formada por ocho bits, es decir:

1 byte = 2 3 bits = 8 bits.

En informática, las unidades para medir la cantidad de información que son múltiplos de bytes también se utilizan ampliamente, pero a diferencia del sistema métrico de medidas, donde se utiliza el coeficiente 10n como multiplicadores de unidades múltiples, donde n = 3, 6 , 9, etc., en múltiples unidades de medida de la cantidad de información se utiliza el coeficiente 2n. Esta elección se explica por el hecho de que la computadora opera principalmente con números no en el sistema numérico decimal, sino en el sistema numérico binario.

Las unidades para medir la cantidad de información que son múltiplos de un byte se ingresan de la siguiente manera:

1 kilobyte (KB) = 210 bytes = 1024 bytes;

1 megabyte (MB) = 210 KB = 1024 KB;

1 gigabyte (GB) = 210 MB = 1024 MB;

1 terabyte (TB) = 210 GB = 1024 GB;

1 petabyte (PB) = 210 TB = 1024 TB;

1 exabyte (Ebyte) = 210 PB = 1024 PB.

Las unidades de medida de la cantidad de información, cuyos nombres contienen los prefijos "kilo", "mega", etc., no son correctas desde el punto de vista de la teoría de la medición, ya que estos prefijos se utilizan en el sistema métrico de medidas. , en el que se utiliza un coeficiente como multiplicadores de múltiples unidades 10 n, donde n = 3, 6, 9, etc. Para eliminar esta incorrección, la organización internacional Comisión Electrotécnica Internacional, que está creando estándares para la industria de la tecnología electrónica, ha aprobado una serie de nuevos prefijos para unidades de medida de la cantidad de información: kibi, mebi, gibi, tebi, peti, exbi. Sin embargo, las antiguas designaciones para unidades de medida de la cantidad de información todavía se utilizan y pasará tiempo hasta que los nuevos nombres se utilicen ampliamente.

El enfoque probabilístico también se utiliza para determinar la cantidad de información presentada mediante sistemas de signos. Si consideramos los caracteres del alfabeto como un conjunto posibles mensajes N, la cantidad de información que contiene un carácter del alfabeto se puede determinar mediante la fórmula (2.1). Si cada carácter del alfabeto aparece con la misma probabilidad en el texto del mensaje, se puede utilizar la fórmula (2.2) para determinar la cantidad de información.

Cuanta más información contenga un carácter del alfabeto, mayor será el número de caracteres incluidos en este alfabeto. La cantidad de caracteres incluidos en el alfabeto se llama potencia del alfabeto. La cantidad de información (volumen de información) contenida en un mensaje codificado mediante un sistema de signos y que contiene una cierta cantidad Los signos (símbolos) se determinan mediante la fórmula:

Dónde V– volumen de información del mensaje; I= log2N, volumen de información de un símbolo (signo); A– número de símbolos (signos) del mensaje; norte– potencia del alfabeto (número de caracteres del alfabeto).




Arriba