Niveles y estructura de la información económica. Niveles sintácticos, semánticos y pragmáticos de la información económica. Niveles de problemas de transmisión de información.

Conferencia No. 7

Tema: Medidas de información: sintáctica, semántica, pragmática..

La información es información sobre objetos y fenómenos del medio ambiente, sus parámetros, propiedades y estados, que reducen el grado de incertidumbre y conocimiento incompleto sobre ellos.

La informática considera la información como información interconectada que cambia nuestras ideas sobre un fenómeno u objeto en el mundo circundante. Desde este punto de vista, la información puede considerarse como un conjunto de conocimientos sobre datos fácticos y las dependencias entre ellos.

Durante el procesamiento, la información puede cambiar de estructura y forma. Un signo de estructura son los elementos de información y sus relaciones. Los formularios para presentar información pueden ser diferentes. Los principales son: simbólico (basado en el uso de varios símbolos), texto (el texto son símbolos dispuestos en un orden determinado), gráfico (varios tipos de imágenes), sonido.

En la práctica cotidiana, conceptos como información y datos suelen considerarse sinónimos. De hecho, existen diferencias entre ellos. Los datos son información presentada en una forma conveniente para su procesamiento. Los datos pueden presentarse en forma de texto, gráficos o audiovisuales. La representación de datos se denomina lenguaje de la informática, que es un conjunto de símbolos, convenciones y reglas que se utilizan para comunicar, mostrar y transmitir información en formato electrónico.

La comunicación de información es un proceso que asegura la transmisión de mensajes desde la fuente de información hasta su consumidor. Para los consumidores de información, una característica importante es la idoneidad.

La adecuación de la información es un cierto nivel de correspondencia creada con la ayuda de la información de la imagen recibida con una imagen, proceso o fenómeno real.

Una de las características más importantes de la información es su adecuación. La exactitud de la toma de decisiones depende del grado de adecuación de la información.

La adecuación de la información se puede expresar de tres formas: sintáctica, semántica y pragmática.

La adecuación sintáctica refleja las características formales y estructurales de la información sin afectar su contenido semántico. A nivel sintáctico se tiene en cuenta el tipo de medio y método de presentación de la información, la velocidad de su transmisión y procesamiento, el tamaño de los códigos de representación de la información, la confiabilidad y precisión de la conversión de estos códigos, etc. desde tales posiciones se suele llamar datos.

La adecuación semántica determina el grado de correspondencia entre la imagen de un objeto y el objeto mismo. Aquí se tiene en cuenta el contenido semántico de la información. En este nivel se analiza la información reflejada en la información y se consideran las conexiones semánticas. Así, la adecuación semántica se manifiesta en presencia de unidad de información y del usuario. Esta forma sirve para formar conceptos e ideas, identificar el significado, contenido de la información y su generalización.

La adecuación pragmática refleja la correspondencia de la información con el objetivo de gestión implementado sobre su base. Las propiedades pragmáticas de la información aparecen cuando existe una unidad de información, usuario y objetivo de gestión. En este nivel se analizan las propiedades de consumo de la información relacionadas con el uso práctico de la información y su cumplimiento de la función objetivo del sistema.

Cada forma de adecuación tiene su propia medida de la cantidad de información.

La medida sintáctica de información opera con información impersonal que no expresa una relación semántica con el objeto. En este nivel, la cantidad de datos de un mensaje se mide por la cantidad de caracteres de ese mensaje. En las computadoras modernas, la unidad mínima de medida de datos es un bit: un dígito binario. También se utilizan ampliamente unidades de medida más grandes: byte, igual a 8 bits; kilobyte equivale a 1024 bytes; un megabyte equivale a 1024 kilobytes, etc.

La medida de información semántica se utiliza para medir el contenido semántico de la información. La medida más utilizada aquí es la medida del tesauro, que conecta las propiedades semánticas de la información con la capacidad del usuario para aceptar el mensaje entrante. Un tesauro es una colección de información disponible para un usuario o sistema. El consumidor recibe la máxima cantidad de información semántica cuando coordina su contenido semántico con su tesauro, cuando la información entrante es comprensible para el usuario y contiene información previamente desconocida. Asociado con la medida semántica de la cantidad de información está el coeficiente de contenido, definido como la relación entre la cantidad de información semántica y la cantidad total de datos.

Esta medida de la cantidad de información opera con información impersonal que no expresa una relación semántica con el objeto. A nivel sintáctico, se tienen en cuenta el tipo de medio y el método de presentación de la información, la velocidad de transmisión y procesamiento y el tamaño de los códigos de presentación de la información.

Volumen de datos(V D) se entiende en el sentido técnico de la palabra como el volumen de información de un mensaje o como la cantidad de memoria necesaria para almacenar un mensaje sin ningún cambio.

El volumen de información de un mensaje se mide en bits y es igual al número de dígitos binarios (“0” y “1”) con los que está codificado el mensaje.

En la práctica informática, la palabra "bit" también se utiliza como unidad de medida para la capacidad de la memoria. Una celda de memoria de 1 bit puede estar en dos estados (“encendido” y “apagado”) y se puede escribir en ella un dígito binario (0 o 1). Está claro que un bit es una unidad de medida de información demasiado pequeña, por lo que se utilizan múltiplos. La unidad básica de medida de la información es byte. 1 byte es igual a 8 bits. Una celda de 1 byte puede contener 8 dígitos binarios, es decir, 256 = 2. Se pueden almacenar 8 números diferentes en un byte. Para medir cantidades de información aún mayores, se utilizan las siguientes cantidades:

Ejemplo 1.Es importante tener una idea de cuánta información puede contener un kilobyte, un megabyte o un gigabyte.

· Con codificación de texto binario, cada letra, signo de puntuación y espacio ocupa 1 byte.

· En la página de un libro de formato medio hay aproximadamente 50 líneas, cada línea tiene unos 60 caracteres, por lo que una página completamente llena tiene un volumen de 50 x 60 = 3000 bytes ≈3 Kilobytes.

· Todo el libro en formato medio ocupa ≈ 0,5 Megabytes. Un número de un periódico de cuatro páginas pesa 150 kilobytes. Si una persona habla 8 horas al día sin descanso, dentro de 70 años hablará unos 10 Gigabytes de información.

· Un marco en blanco y negro (con 32 gradaciones de brillo para cada punto) contiene aproximadamente 300 KB de información, un marco en color ya contiene alrededor de 1 MB de información.

· Película para televisión de 1,5 horas de duración con una frecuencia de 25 fotogramas por segundo - 135 GB.

cantidad de información a nivel sintáctico se define a través del concepto de entropía del sistema.

Deje que el consumidor tenga alguna información preliminar (a priori) sobre el sistema α antes de recibir información. La medida de su ignorancia del sistema es la función H(α), llamada entropía sistema, que al mismo tiempo sirve como medida de la incertidumbre del estado del sistema.

Después de recibir algún mensaje β, el destinatario adquirió cierta información adicional I β (α), lo que redujo su ignorancia a priori de modo que la incertidumbre del estado del sistema después de recibir el mensaje β se convirtió en H β (α).

Entonces la cantidad de información I β (α) ξ que el sistema recibe en el mensaje β se determinará como

Iβ(α)=H(α)-Hβ(α).

aquellos. la cantidad de información se mide por un cambio (reducción) en la incertidumbre del estado del sistema. Si la incertidumbre final H β (α) se vuelve cero, entonces el conocimiento inicial incompleto será reemplazado por un conocimiento completo y la cantidad de información I β (α) = H (α). En otras palabras, la entropía del sistema H(a) puede considerarse como una medida de información faltante.

La entropía H(α) de un sistema α que tiene N estados posibles, según la fórmula de Shannon, es igual a:

donde P i es la probabilidad de que el sistema esté en el i-ésimo estado. Para el caso en que todos los estados del sistema sean igualmente probables, es decir sus probabilidades son iguales a P i =, su entropía está determinada por la relación

Ejemplo 2. A menudo, la información está codificada con códigos numéricos en uno u otro sistema numérico, esto es especialmente cierto cuando se presenta información en una computadora. Naturalmente, el mismo número de dígitos en diferentes sistemas numéricos puede transmitir un número diferente de estados del objeto mostrado, que se puede representar como una relación.

donde N es el número de todos los estados posibles mostrados;
m - base del sistema numérico (variedad de símbolos utilizados en el alfabeto);
n es el número de bits (caracteres) del mensaje.

Supongamos que un mensaje de n bits que utiliza m símbolos diferentes se transmite a través de un canal de comunicación. Dado que el número de todas las combinaciones de códigos posibles será N=m", entonces, con la misma probabilidad de que aparezca cualquiera de ellas, la cantidad de información adquirida por el suscriptor como resultado de recibir el mensaje será

I = log N = n log m - fórmula de Hartley.

Si tomamos m como base del logaritmo, entonces I = n. En este caso, la cantidad de información (sujeto a un completo desconocimiento a priori por parte del suscriptor del contenido del mensaje) será igual a la cantidad de datos I = V D recibidos a través del canal de comunicación.

Los más utilizados son los logaritmos binarios y decimales. Las unidades de medida en estos casos serán respectivamente poco Y dicho.

Coeficiente(grado) contenido de la información (concisión) de un mensaje está determinada por la relación entre la cantidad de información y la cantidad de datos, es decir

A medida que aumenta Y, disminuye la cantidad de trabajo para transformar la información (datos) en el sistema. Por lo tanto, se esfuerzan por aumentar el contenido de la información, para lo cual se están desarrollando métodos especiales para una codificación óptima de la información.

Fin del trabajo -

Este tema pertenece a la sección:

Conferencia 1. Introducción. Concepto de informática

La estructura de la informática.. La informática en el sentido amplio es la unidad de varios.. La informática en el sentido estricto se puede representar como si consta de tres partes interconectadas de medios técnicos..

Si necesitas material adicional sobre este tema, o no encontraste lo que buscabas, te recomendamos utilizar la búsqueda en nuestra base de datos de obras:

Qué haremos con el material recibido:

Si este material te resultó útil, puedes guardarlo en tu página en las redes sociales:

Todos los temas de esta sección:

Concepto de informática
El término informática se originó en los años 60. en Francia para nombrar el campo que se ocupa del procesamiento automatizado de información utilizando computadoras electrónicas. Francés

Sociedad de la información
Cultura de la información: la capacidad de trabajar con información de manera intencionada y utilizar tecnología de la información informática, tecnologías modernas para recibirla, procesarla y transmitirla.

Historia del desarrollo del mercado de servicios de información.
Desde mediados de los años 50. Se inició la formación de un mercado estable de servicios de información. Los principales proveedores de servicios de información fueron: servicios de información de carácter académico, profesional y científico.

Información, mensajes, señales.
La información, junto con la materia y la energía, es el concepto principal de nuestro mundo y, por tanto, no puede definirse en sentido estricto. Sólo podemos enumerar sus principales propiedades, tales como:

Medida semántica de información.
Para medir el contenido semántico de la información, es decir su cantidad a nivel semántico, la medida del tesauro, que conecta las propiedades semánticas de la información con sp

Medida pragmática de información.
Esta medida determina la utilidad de la información (valor) para que el usuario logre la cadena prevista. Esta medida también es un valor relativo, debido a las peculiaridades del uso de esta información.

Características cualitativas de la información.
La posibilidad y eficacia del uso de la información está determinada por indicadores básicos de calidad del consumidor como representatividad, contenido, suficiente

Codificar información de texto
Actualmente, la mayoría de los usuarios utilizan una computadora para procesar información textual, que consta de símbolos: letras, números, signos de puntuación, etc. Tradicionalmente, para este fin

Codificación de información gráfica.
La información gráfica se puede presentar de dos formas: analógica o discreta. Un lienzo pictórico cuyo color cambia continuamente: aquí es cuando

Imagen rasterizada
Con una lupa, puede ver que una imagen gráfica en blanco y negro, por ejemplo de un periódico, consta de pequeños puntos que forman un patrón determinado: una trama. En Francia en el siglo XIX.

modelo CMYK
Este modelo se basa en la reproducción sustractiva del color (típica de los objetos reflectantes). Cada uno de los colores primarios lleva asociado un color adicional (complementario al principal).

Modos gráficos
Hay varios modos para presentar gráficos en color: a todo color (True Color): se utilizan 256 valores (ocho dígitos binarios) para codificar el brillo de cada componente.

Imágenes vectoriales y fractales
Una imagen vectorial es un objeto gráfico que consta de segmentos y arcos elementales. El elemento básico de la imagen es la línea. Como cualquier objeto, tiene

Codificación de información de audio.
De oído, una persona percibe ondas elásticas que tienen una frecuencia en el rango de 16 Hz a 20 kHz (1 Hz - 1 vibración por segundo). De acuerdo con esto, las ondas elásticas en cualquier medio cuyas frecuencias sean

Conversión de información de audio de digital a analógico y de analógico a digital
Las ondas sonoras se convierten en una señal eléctrica alterna analógica mediante un micrófono. Ingresa a un convertidor analógico a digital (ADC), un dispositivo que convierte la señal a digital.

Opciones de muestreo
La frecuencia es el número de mediciones de amplitud de señal analógica por segundo.

Si la frecuencia de muestreo no es más del doble de la frecuencia del borde superior
Compresión de información

La codificación se divide en tres grandes grupos: compresión (códigos eficientes), codificación resistente a errores y criptografía.
Los códigos diseñados para comprimir información se dividen, a su vez, en

Compresión sin pérdidas
Una de las formas más sencillas de comprimir información es la codificación grupal. Según este esquema, una serie de cantidades repetidas (por ejemplo, un número) se reemplazan por una única cantidad.

Compresión con pérdida
utilizado para empaquetar imágenes gráficas. Este método se basa en las peculiaridades de la percepción humana de las imágenes. Para el ojo humano, el brillo es más importante que la información del color.

Revoluciones de la información
En la historia del desarrollo de la civilización, se han producido varias revoluciones de la información: transformaciones de las relaciones sociales debido a cambios fundamentales en el campo del procesamiento de la información. La consecuencia de estas transformaciones

Concepto de sistema de información
Se entiende por sistema cualquier objeto que se considera simultáneamente como un todo único y como un conjunto de elementos heterogéneos unidos en aras de la consecución de objetivos marcados. Sistemas

Etapas del desarrollo de sistemas de información.
La historia del desarrollo de los sistemas de información y los propósitos de su uso en diferentes períodos se presentan en la Tabla 1: Tabla 1. Cambios en el enfoque para el uso de los sistemas de información.

Procesos en IP
Los procesos que aseguran el funcionamiento de un SI de cualquier valor se pueden representar convencionalmente en forma de diagrama.

El SI consta de bloques: · entrada de información de fuentes externas o internas;
Estructura del sistema de información

La estructura general de un SI puede considerarse como un conjunto de subsistemas, independientemente del ámbito de aplicación. Por tanto, la estructura de cualquier SI se puede presentar de la siguiente manera.
Obsolescencia de TI

El sistema de comando de una computadora es un conjunto de comandos que una computadora determinada puede ejecutar.
La secuencia de comandos propuesta por la computadora para su ejecución se llama programa.

A pesar de la diversidad de las computadoras modernas, su estructura se basa en lógicas comunes.
Bloques básicos de PC y su significado

Arroz. Diagrama de bloques de un microprocesador de computadora personal (MP). esto es central
Autobuses de expansión

Bus ISA (arquitectura estándar de la industria): bus de datos de 16 bits y bus de direcciones de 24 bits, frecuencia de funcionamiento de 16 MHz, pero puede
Autobuses locales

Los buses locales están conectados directamente al bus MP, operan a la frecuencia del reloj MP y brindan comunicación con algunos dispositivos de alta velocidad externos al MP: memoria principal y externa
Propósito y tipos de MP

El MP realiza las siguientes funciones: · lectura y decodificación de comandos del OP;
· leer datos del OP y registros de los adaptadores VU;

· recibir y procesar solicitudes y comandos de adaptadores en
estructura MP

Los microprocesadores constan de dos partes: · una parte operativa, que contiene la unidad de control, ALU y MPPS, con excepción de varios registros de direcciones;
· interfaz, que contiene registros de direcciones MPP,

memoria caché
La memoria caché es una memoria de alta velocidad que sirve como buffer entre la RAM y el MP y permite aumentar la velocidad de las operaciones. El usuario no puede acceder a los registros de caché; de ahí el nombre "caché"

Estructura física del OP
El OP contiene RAM y ROM, es decir, RAM y ROM.

La RAM está diseñada para almacenar información (programas y datos) directamente involucrada en la etapa actual de funcionamiento de la PC.
Estructura lógica del OP

La distribución de un área de RAM de un megabyte se muestra en la Fig. 3.4. La estructura lógica de todo el OP se muestra en la Fig. 3.5. Cada celda de memoria tiene su propia dirección única (diferente de todas las demás).
Unidades de disco de memoria externa

Los dispositivos de almacenamiento en disco son dispositivos de acceso directo. El acceso rápido a cualquier parte del disco se consigue mediante: rotación rápida del disco (flexible - aproximadamente 300 rpm, duro - aprox.
Un escáner es un dispositivo para ingresar información en una computadora directamente desde un documento en papel. Puede ingresar textos, diagramas, imágenes, gráficos, fotografías y otra información gráfica.

Peso de los escáneres
Supercomputadora

Las supercomputadoras incluyen potentes computadoras multiprocesador con velocidades de cientos de millones, decenas de miles de millones de operaciones por segundo.
Un modelo típico de supercomputadora del año 2000 tiene

Computadoras portátiles
Las computadoras portátiles son una subclase de computadoras personales en rápido crecimiento. Según los expertos, en 1998 más del 50% de los usuarios utilizarán máquinas portátiles, y en

Proceso de transferencia de información
Cualquier red de comunicación debe incluir los siguientes componentes: transmisor, medio de transmisión, receptor.

Un transmisor es un dispositivo que es una fuente de datos.
Formas de interacción entre computadoras de suscriptores.

Existen las siguientes formas principales de interacción entre las computadoras de los suscriptores.
1. Proceso terminal remoto: proporciona acceso desde el terminal de una de las computadoras del suscriptor al proceso.

Modelo de interoperabilidad de sistemas abiertos
La variedad de fabricantes de redes BC y software de red ha generado el problema de combinar redes de diferentes arquitecturas. Para ello se desarrolló un modelo de arquitectura de sistemas abiertos.

Abierto
Protocolos de red informática

Al intercambiar información en la red, cada nivel del modelo de interacción de sistemas abiertos reacciona a su propio encabezado, es decir, la interacción se produce entre los niveles de una sola línea del modelo de diferentes maneras.
Redes de área local

El objetivo principal de cualquier red informática es proporcionar información y recursos informáticos a los usuarios conectados a ella.
Desde este punto de vista, la LAN puede considerarse una primicia.

Topologías LAN básicas
Las razones para utilizar varios métodos para combinar una LAN son las siguientes: las capacidades técnicas de la LAN se han agotado, es necesario crear otra LAN, conectar nuevos usuarios y fusionarla con una LAN existente.

Internet mundial
Internet es una red que conecta redes individuales. La estructura lógica de Internet es una especie de asociación virtual que tiene su propio espacio virtual. Celdas básicas

software del sistema
El software del sistema es un conjunto de programas y paquetes de software para garantizar el funcionamiento de una computadora y redes informáticas.

El software del sistema tiene como objetivo: · crear un entorno operativo para
Kit de herramientas de tecnología de programación

Las herramientas de tecnología de programación respaldan el proceso de desarrollo del programa e incluyen software especializado, que son herramientas de desarrollo. Software de esta clase con
Paquetes de aplicaciones

El software de aplicación sirve como herramientas de software para resolver problemas funcionales y es la clase más grande de software. Esta clase incluye productos de software que procesan información.
Protección de software

La protección del software persigue los siguientes objetivos: · restricción del acceso no autorizado a los programas o su destrucción y robo deliberados;

· exclusión de copias no autorizadas Para medir el contenido semántico de la información, es decir su cantidad en el nivel semántico, la medida del tesauro (propuesta por Yu. I. Schrader), que conecta las propiedades semánticas de la información con la capacidad del usuario para aceptar el mensaje entrante, ha recibido el mayor reconocimiento. Para ello se utiliza el concepto de tesauro de usuario.

Tesauro Es una colección de información disponible para un usuario o sistema. Dependiendo de la relación entre el contenido semántico de la información S y el tesauro del usuario S p, la cantidad de información semántica cambia 1 taza, percibido por el usuario y posteriormente incluido por él en su tesauro. La naturaleza de esta dependencia se muestra en la Fig. 1.5. Consideremos dos casos límite cuando la cantidad de información semántica

  • 1 taza
  • es igual a 0:

cuando S p ->0 el usuario no percibe ni comprende la información entrante;

cuando S p ->1 el usuario lo sabe todo y no necesita la información entrante. Arroz. 1.5.(S p = S popt), cuando la información entrante es comprensible para el usuario y le proporciona información previamente desconocida (no en su tesauro). En consecuencia, la cantidad de información semántica en un mensaje, la cantidad de nuevos conocimientos recibidos por el usuario, es un valor relativo. El mismo mensaje puede tener un contenido significativo para un usuario competente y carecer de significado para un usuario incompetente. Una medida relativa de la cantidad de información semántica puede ser el coeficiente de contenido C, discutido anteriormente.

El enfoque pragmático (axiológico) de la información se basa en un análisis de su valor desde el punto de vista del consumidor. Por ejemplo, la información que es de indudable valor para un biólogo tendrá un valor cercano a cero para un programador. El valor de la información está asociado al tiempo, ya que con el tiempo envejece y su valor, y por tanto su “cantidad”, disminuye. Por tanto, el enfoque pragmático evalúa el aspecto del contenido de la información. Es de particular importancia a la hora de utilizar información para la gestión, ya que su cantidad está estrechamente relacionada con la eficacia de la gestión en el sistema.

Medida pragmática de información. Determina la utilidad de la información (valor) para que el usuario logre la cadena prevista. Esta medida es también un valor relativo, determinado por las peculiaridades del uso de esta información en un sistema particular.

Es recomendable medir el valor de la información en las mismas unidades (o cerca de ellas) en las que se mide la función objetivo.

El enfoque algorítmico está asociado con el deseo de introducir una medida universal de información. A. N. Kolmogorov propuso una característica cuantitativa que refleja la complejidad (tamaño) de un programa y permite la producción de cualquier mensaje.

Dado que existen diferentes formas de especificar e implementar un algoritmo utilizando diferentes computadoras y lenguajes de programación, para mayor precisión se especifica una determinada máquina específica, por ejemplo Máquina de Turing. En este caso, como característica cuantitativa del mensaje, podemos tomar el número mínimo de estados internos de la máquina necesarios para reproducir un mensaje determinado.

Los diferentes enfoques para evaluar la cantidad de información obligan, por un lado, a utilizar diferentes tipos de unidades de información para caracterizar diversos procesos de información y, por otro lado, a vincular estas unidades tanto en el nivel lógico como en el físico. Por ejemplo, el proceso de transmisión de información medida en una unidad está asociado con el proceso de almacenamiento de información, dónde se mide en otras unidades, etc., por lo que la elección de una unidad de información es una tarea muy urgente.

en la mesa 1.3 Se comparan las medidas de información introducidas.

Tabla 1.3

Comparación de medidas de información.

Para medir la información se introducen dos parámetros: la cantidad de información I y la cantidad de datos V d.

Estos parámetros tienen diferentes expresiones e interpretaciones según la forma de adecuación que se considere.

Adecuación sintáctica. Muestra las características formales y estructurales de la información y no afecta su contenido semántico. A nivel sintáctico se tiene en cuenta el tipo de medio y método de presentación de la información, la velocidad de transmisión y procesamiento, el tamaño de los códigos para presentar información, la confiabilidad y precisión de la conversión de estos códigos, etc.

La información considerada únicamente desde una posición sintáctica se suele denominar datos, ya que el lado semántico no importa.

Adecuación semántica (nocional). Esta forma determina el grado de correspondencia entre la imagen del objeto y el objeto mismo. El aspecto semántico implica tener en cuenta el contenido semántico de la información. En este nivel se analiza la información que refleja la información y se consideran las conexiones semánticas. En informática, se establecen conexiones semánticas entre códigos para representar información. Esta forma sirve para formar conceptos e ideas, identificar el significado, contenido de la información y su generalización.

Adecuación pragmática (del consumidor). Refleja la relación entre la información y su consumidor, la correspondencia de la información con el objetivo de gestión, que se implementa sobre su base. Las propiedades pragmáticas de la información aparecen sólo si existe unidad de información (objeto), usuario y objetivo de gestión.

Aspecto pragmático La consideración está asociada con el valor, la utilidad de utilizar la información cuando el consumidor desarrolla una solución para lograr su objetivo. Desde este punto de vista, se analizan las propiedades de consumo de la información. Esta forma de adecuación está directamente relacionada con el uso práctico de la información, con su cumplimiento de la función objetivo del sistema.

Cada forma de adecuación corresponde a su propia medida de la cantidad de información y volumen de datos (Fig. 2.1).

Arroz. 2.1.

Medidas de información

2.2.1. Medida sintáctica de información. Medida sintáctica

cantidad de información opera con información impersonal que no expresa una relación semántica con el objeto.

  • El volumen de datos V d en un mensaje se mide por el número de caracteres (bits) de este mensaje. En diferentes sistemas numéricos, un dígito tiene un peso diferente y la unidad de medida de los datos cambia en consecuencia: en el sistema numérico binario la unidad de medida es el bit ( poco
  • - dígito binario - dígito binario);

En el sistema numérico decimal, la unidad de medida es dit (lugar decimal).

Ejemplo. Un mensaje en sistema binario en forma de código binario de ocho bits 10111011 tiene un volumen de datos V d = 8 bits.

Un mensaje en el sistema decimal en forma de número de seis dígitos 275903 tiene un volumen de datos de V d = 6 dit.

La cantidad de información está determinada por la fórmula:

donde H (α) es entropía, es decir la cantidad de información se mide por un cambio (reducción) en la incertidumbre del estado del sistema.

La entropía de un sistema H (α), que tiene N estados posibles, según la fórmula de Shannon, es igual a:

donde p i es la probabilidad de que el sistema esté en el i-ésimo estado.

Para el caso en que todos los estados del sistema sean igualmente probables, su entropía está determinada por la relación

donde N es el número de todos los estados posibles mostrados;

m - base del sistema numérico (variedad de símbolos utilizados en el alfabeto);

n es el número de bits (caracteres) del mensaje.

2.2.2. Medida semántica de información. Para medir el contenido semántico de la información, es decir Su cantidad a nivel semántico, la medida del tesauro, que conecta las propiedades semánticas de la información con la capacidad del usuario para aceptar el mensaje entrante, ha recibido el mayor reconocimiento. Para ello se utiliza el concepto.

diccionario de sinónimos de usuario

Un tesauro es una colección de información disponible para un usuario o sistema.

  • Dependiendo de la relación entre el contenido semántico de la información S y el tesauro del usuario S p, cambia la cantidad de información semántica I c percibida por el usuario y posteriormente incluida por él en su tesauro. La naturaleza de esta dependencia se muestra en la Fig. 2.2:
  • cuando S p = 0 el usuario no percibe ni comprende la información entrante;

cuando S p → ∞ el usuario lo sabe todo, no necesita la información entrante.

Al evaluar el aspecto semántico (contenido) de la información, es necesario esforzarse por armonizar los valores de S y S p.

Una medida relativa de la cantidad de información semántica puede ser el coeficiente de contenido C, que se define como la relación entre la cantidad de información semántica y su volumen:

2.2.3. Medida pragmática de información.

Esta medida determina la utilidad de la información (valor) para que el usuario logre su objetivo. Esta medida es también un valor relativo, determinado por las peculiaridades del uso de la información en un sistema particular. Es recomendable medir el valor de la información en las mismas unidades (o cerca de ellas) en las que se mide la función objetivo.

A modo de comparación, presentamos las medidas de información ingresadas en la tabla. 2.1.

Tabla 2.1. Unidades de información y ejemplos.

Medida de información Unidades de medida Ejemplos (para el campo de la informática)
Sintáctico:

Enfoque de Shannon

enfoque informático

Grado de reducción de la incertidumbre probabilidad de evento
Unidades de presentación de información. Bit, byte, KB, etc.
Semántico · exclusión de copias no autorizadas Paquete de software de aplicación, computadora personal, redes informáticas, etc.
Indicadores económicos Rentabilidad, productividad, tasa de depreciación, etc.
Pragmático Valor en uso Valor monetario
Capacidad de memoria, rendimiento de la computadora, velocidad de transferencia de datos, etc. Tiempo para procesar información y tomar decisiones.

Interacción de información. Métodos de transmisión de información. Clasificación de la información.

Concepto de información. Propiedades de la información. Formularios para presentar información.

Información (del latín informatio - "explicación, presentación, conciencia") - información sobre algo, independientemente de la forma de su presentación.

La información se puede dividir en tipos según varios criterios:

a modo de percepción:

Visual: percibido por los órganos de la visión.

Auditivo: percibido por los órganos auditivos.

Táctil: percibido por receptores táctiles.

Olfativo: percibido por los receptores olfativos.

Gustativo: percibido por las papilas gustativas.

según forma de presentación:

Texto: transmitido en forma de símbolos destinados a denotar lexemas de la lengua.

Numérico: en forma de números y signos que indican operaciones matemáticas.

Gráfico: en forma de imágenes, objetos, gráficos.

Sonido: oral o en forma de grabación y transmisión de lexemas lingüísticos por medios auditivos.

por finalidad:

Masa: contiene información trivial y opera con un conjunto de conceptos comprensibles para la mayor parte de la sociedad.

Especial: contiene un conjunto específico de conceptos; cuando se usa, se transmite información que puede no ser comprensible para la mayor parte de la sociedad, pero que es necesaria y comprensible dentro del grupo social reducido donde se usa esta información.

Secreto: transmitido a un círculo reducido de personas y a través de canales cerrados (protegidos).

Personal (privado): un conjunto de información sobre una persona que determina el estatus social y los tipos de interacciones sociales dentro de la población.

por valor:

Relevante: información que es valiosa en un momento dado.

Confiable: información obtenida sin distorsión.

Comprensible: información expresada en un lenguaje comprensible para aquellos a quienes está destinada.

Completo: información suficiente para tomar una decisión o comprensión correcta.

Útil: la utilidad de la información la determina el sujeto que la recibió en función del alcance de las posibilidades de su uso.

en verdad:

verdadero

En informática, el tema del estudio de la información son precisamente los datos: métodos de creación, almacenamiento, procesamiento y transmisión.

La transferencia de información es el proceso de su transferencia espacial desde una fuente a un destinatario (destinatario). El hombre aprendió a transmitir y recibir información incluso antes que a almacenarla. El habla es un método de transmisión que nuestros ancestros lejanos usaban en contacto directo (conversación); todavía lo usamos ahora. Para transmitir información a largas distancias es necesario utilizar procesos de información mucho más complejos.



Para llevar a cabo dicho proceso, la información debe formatearse (presentarse) de alguna manera. Para presentar información se utilizan varios sistemas de signos: conjuntos de símbolos semánticos predeterminados: objetos, imágenes, palabras escritas o impresas en lenguaje natural. La información semántica sobre cualquier objeto, fenómeno o proceso presentado con su ayuda se denomina mensaje.

Obviamente, para transmitir un mensaje a distancia, la información debe transferirse a algún tipo de medio móvil. Los transportistas pueden desplazarse por el espacio utilizando vehículos, como ocurre con las cartas enviadas por correo. Este método garantiza una total fiabilidad de la transmisión de información, ya que el destinatario recibe el mensaje original, pero requiere un tiempo considerable para la transmisión. Desde mediados del siglo XIX, los métodos de transmisión de información se han generalizado utilizando un portador de información que se propaga naturalmente: las vibraciones electromagnéticas (vibraciones eléctricas, ondas de radio, luz). Los dispositivos que implementan el proceso de transferencia de datos forman sistemas de comunicación. Dependiendo del método de presentación de la información, los sistemas de comunicación se pueden dividir en signos (telégrafo, telefax), sonido (teléfono), video y sistemas combinados (televisión). El sistema de comunicación más desarrollado en nuestro tiempo es Internet.

Las unidades de información se utilizan para medir diversas características asociadas con la información.

Muy a menudo, la medición de la información se refiere a medir la capacidad de la memoria de la computadora (dispositivos de almacenamiento) y medir la cantidad de datos transmitidos a través de canales de comunicación digitales. Menos comúnmente medida es la cantidad de información.

Bit (dígito binario en inglés - número binario; también un juego de palabras: bit en inglés - pieza, partícula): una unidad de medida de la cantidad de información, igual a un dígito en el sistema numérico binario. Designado según GOST 8.417-2002

Claude Shannon en 1948 propuso utilizar la palabra bit para denotar la unidad más pequeña de información:

Un bit es el logaritmo binario de la probabilidad de eventos igualmente probables o la suma de los productos de la probabilidad por el logaritmo binario de la probabilidad de eventos igualmente probables; ver entropía de la información.

Bit: unidad básica de medida de la cantidad de información, igual a la cantidad de información contenida en una experiencia que tiene dos resultados igualmente probables; ver entropía de la información. Esto es idéntico a la cantidad de información en la respuesta a una pregunta que permite responder “sí” o “no” y nada más (es decir, la cantidad de información que le permite responder sin ambigüedades a la pregunta planteada).

Medida sintáctica de información.

El surgimiento de la ciencia de la información como ciencia se remonta a finales de los años 50 de nuestro siglo, cuando el ingeniero estadounidense R. Hartley intentó introducir una medida cuantitativa de la información transmitida a través de canales de comunicación. Consideremos una situación de juego simple. Antes de recibir un mensaje sobre el resultado del lanzamiento de una moneda, una persona se encuentra en un estado de incertidumbre sobre el resultado del siguiente lanzamiento. El mensaje del socio proporciona información que elimina esta incertidumbre. Tenga en cuenta que el número de resultados posibles en la situación descrita es 2, son iguales (igualmente probables) y cada vez que la información transmitida eliminó por completo la incertidumbre que surgió. Hartley tomó la "cantidad de información" transmitida a través de un canal de comunicación sobre dos resultados iguales y eliminando la incertidumbre al influir en uno de ellos, como una unidad de información llamada "bit".

Medida semántica de información.

Una nueva etapa en la expansión teórica del concepto de información está asociada con la cibernética, la ciencia del control y la comunicación en los organismos vivos, la sociedad y las máquinas. Manteniendo las posiciones del enfoque de Shannon, la cibernética formula el principio de unidad de información y control, que es especialmente importante para analizar la esencia de los procesos que ocurren en sistemas biológicos y sociales autónomos y autoorganizados. El concepto desarrollado en los trabajos de N. Wiener asume que el proceso de control en los sistemas mencionados es un proceso de procesamiento (transformación) por algún dispositivo central de información recibida de fuentes de información primaria (receptores sensoriales) y transmitiéndola a aquellas partes de el sistema donde es percibido por sus elementos como una orden para realizar tal o cual acción. Después de la acción en sí, los receptores sensoriales están listos para transmitir información sobre la situación cambiada para realizar un nuevo ciclo de control. Así se organiza un algoritmo cíclico (secuencia de acciones) para gestionar y hacer circular información en el sistema. Es importante que el papel principal aquí lo desempeñe el contenido de la información transmitida por los receptores y el dispositivo central. La información, según Wiener, es "una designación de contenido recibido del mundo exterior en el proceso de nuestra adaptación a él y la adaptación de nuestros sentidos a él".

Medida pragmática de información.

En los conceptos pragmáticos de información, este aspecto es central, lo que lleva a la necesidad de tener en cuenta el valor, la utilidad, la eficiencia, la economía de la información, es decir. aquellas de sus cualidades que influyen decisivamente en el comportamiento de los sistemas cibernéticos autoorganizados, autónomos y con propósito (biológicos, sociales, hombre-máquina).

Uno de los representantes más brillantes de las teorías pragmáticas de la información es el modelo conductual de comunicación: el modelo conductista de Ackoff-Miles. El punto de partida de este modelo es la aspiración objetivo del destinatario de la información de resolver un problema específico. Un destinatario está en un "estado dirigido a una meta" si se esfuerza por lograr algo y tiene caminos alternativos de efectividad desigual para lograr la meta. Un mensaje transmitido al destinatario es informativo si cambia su "estado intencional".

Dado que el "estado orientado a objetivos" se caracteriza por una secuencia de posibles acciones (alternativas), la efectividad de la acción y la importancia del resultado, el mensaje transmitido al destinatario puede afectar los tres componentes en diversos grados. De acuerdo con esto, la información transmitida se diferencia según su tipo en “informar”, “instruir” y “motivar”. Así, para el destinatario, el valor pragmático del mensaje radica en el hecho de que le permite delinear una estrategia de comportamiento para lograr el objetivo mediante la construcción de respuestas a las preguntas: ¿qué, cómo y por qué hacer en cada paso siguiente? Para cada tipo de información, el modelo conductista propone su propia medida, y el valor pragmático general de la información se determina en función de la diferencia entre estas cantidades en el "estado orientado a objetivos" antes y después de su cambio a un nuevo "estado objetivo". -Estado orientado”.




Arriba