Método de valoración cuantitativa de la información: estadística, semántica, pragmática y estructural. Medidas de información sintácticas, semánticas y pragmáticas.

Tema 2. Conceptos básicos de representación y procesamiento de información en una computadora.

Literatura

1. Informática en Economía: Libro de texto/Ed. SER. Odintsova, A.N. Romanova. – M.: Libro de texto universitario, 2008.

2. Informática: Curso Básico: Libro de Texto/Ed. SV Simónovich. – San Petersburgo: Peter, 2009.

3. Informática. Curso general: Libro de texto/Coautor: A.N. Guda, MA. Butakova, N.M. Nechitailo, A.V. Chernov; bajo general ed. V.I. Kolesnikova. – M.: Dashkov y K, 2009.

4. Informática para economistas: Libro de texto/Ed. Matyushka V.M. - M.: Infra-M, 2006.

5. Informática económica: Introducción al análisis económico de los sistemas de información - M.: INFRA-M, 2005.

Medidas de información (sintáctica, semántica, pragmática)

Se pueden utilizar varios enfoques para medir la información, pero los más utilizados son estadístico(probabilístico), semántico yp pragmático métodos.

Estadístico El método (probabilístico) para medir información fue desarrollado por K. Shannon en 1948, quien propuso considerar la cantidad de información como una medida de la incertidumbre del estado del sistema, eliminada como resultado de la recepción de información. La expresión cuantitativa de la incertidumbre se llama entropía. Si, después de recibir un determinado mensaje, el observador ha adquirido información adicional sobre el sistema INCÓGNITA, entonces la incertidumbre ha disminuido. La cantidad adicional de información recibida se define como:

¿Dónde está la cantidad adicional de información sobre el sistema? incógnita, recibido en forma de mensaje;

Incertidumbre inicial (entropía) del sistema. incógnita;

Incertidumbre finita (entropía) del sistema. INCÓGNITA, que se produce después de la recepción del mensaje.

Si el sistema incógnita puede estar en uno de los estados discretos, cuyo número norte, y la probabilidad de encontrar el sistema en cada uno de ellos es igual y la suma de las probabilidades de todos los estados es igual a uno, entonces la entropía se calcula usando la fórmula de Shannon:

¿Dónde está la entropía del sistema X?

A- la base del logaritmo, que determina la unidad de medida de la información;

norte– el número de estados (valores) en los que puede estar el sistema.

La entropía es una cantidad positiva y, dado que las probabilidades son siempre menores que uno y su logaritmo es negativo, el signo menos en la fórmula de K. Shannon hace que la entropía sea positiva. Así, se toma como medida de la cantidad de información la misma entropía, pero con signo opuesto.

La relación entre información y entropía se puede entender de la siguiente manera: obtener información (su aumento) simultáneamente significa reducir la ignorancia o la incertidumbre de la información (entropía)

Así, el enfoque estadístico tiene en cuenta la probabilidad de que aparezcan los mensajes: el mensaje que es menos probable se considera más informativo, es decir, menos esperado. La cantidad de información alcanza su valor máximo si los eventos son igualmente probables.

R. Hartley propuso la siguiente fórmula para medir información:

yo=log2n ,

Dónde norte- número de eventos igualmente probables;

I– una medida de información en un mensaje sobre la ocurrencia de uno de norte eventos

La medida de la información se expresa en su volumen. En la mayoría de los casos, esto se refiere a la cantidad de memoria de la computadora y la cantidad de datos transmitidos a través de los canales de comunicación. Se considera unidad la cantidad de información en la que la incertidumbre se reduce a la mitad; poco .

Si se utiliza el logaritmo natural () como base del logaritmo en la fórmula de Hartley, entonces la unidad de medida de información es nat ( 1 bit = ln2 ≈ 0,693 nat). Si se utiliza el número 3 como base del logaritmo, entonces: tratar, si 10, entonces - dijo (Hartley).

En la práctica, se utiliza con mayor frecuencia una unidad más grande: byte(byte) igual a ocho bits. Se eligió esta unidad porque puede usarse para codificar cualquiera de los 256 caracteres del alfabeto del teclado de computadora (256=28).

Además de los bytes, la información se mide en medias palabras (2 bytes), palabras (4 bytes) y palabras dobles (8 bytes). También se utilizan ampliamente unidades de medida de información aún mayores:

1 kilobyte (KB - kilobyte) = 1024 bytes = 210 bytes,

1 Megabyte (MB - megabyte) = 1024 KB = 220 bytes,

1 GB (GB - gigabyte) = 1024 MB = 230 bytes.

1 Terabyte (TB - terabyte) = 1024 GB = 240 bytes,

1 Petabyte (PByte - petabyte) = 1024 TB = 250 bytes.

En 1980, el matemático ruso Yu Manin propuso la idea de construir una computadora cuántica, en relación con la cual apareció una unidad de información como. cúbit ( bit cuántico, qubit ) – “bit cuántico” es una medida para medir la cantidad de memoria en una forma teóricamente posible de computadora que utiliza medios cuánticos, por ejemplo, espines de electrones. Un qubit no puede tomar dos valores diferentes ("0" y "1"), sino varios, correspondientes a combinaciones normalizadas de dos estados de espín terrestres, lo que da un mayor número de combinaciones posibles. Así, 32 qubits pueden codificar unos 4 mil millones de estados.

Enfoque semántico. Una medida sintáctica no es suficiente si es necesario determinar no el volumen de datos, sino la cantidad de información necesaria en el mensaje. En este caso se considera el aspecto semántico, que permite determinar el contenido de la información.

Para medir el contenido semántico de la información, se puede utilizar el tesauro de su destinatario (consumidor). La idea del método del tesauro fue propuesta por N. Wiener y desarrollada por nuestro científico nacional A.Yu. Schrader.

Tesauro llamado cuerpo de información que tiene el destinatario de la información. Correlacionar el diccionario de sinónimos con el contenido del mensaje recibido permite saber cuánto reduce la incertidumbre.

Dependencia del volumen de información semántica de un mensaje del tesauro del destinatario

Según la dependencia presentada en el gráfico, si el usuario no tiene ningún tesauro (conocimiento sobre la esencia del mensaje recibido, es decir =0), o la presencia de dicho tesauro que no ha cambiado como resultado de la llegada del mensaje (), entonces la cantidad de información semántica que contiene es igual a cero. El tesauro óptimo () será aquel en el que el volumen de información semántica será máximo (). Por ejemplo, la información semántica en un mensaje entrante en en un idioma extranjero desconocido habrá cero, pero la misma situación será en el caso si el mensaje ya no es noticia, ya que el usuario ya lo sabe todo.

Medida pragmática información determina su utilidad en el logro de los objetivos del consumidor. Para ello, basta con determinar la probabilidad de lograr el objetivo antes y después de recibir el mensaje y compararlas. El valor de la información (según A.A. Kharkevich) se calcula mediante la fórmula:

¿Dónde está la probabilidad de lograr el objetivo antes de recibir el mensaje?

La probabilidad de lograr el objetivo es el campo de recepción del mensaje;

En la base de datos, la información se registra y reproduce utilizando medios léxicos especialmente creados y basados ​​en reglas y restricciones sintácticas aceptadas.

El análisis sintáctico establece los parámetros más importantes de los flujos de información, incluidas las características cuantitativas necesarias, para seleccionar un conjunto de medios técnicos para recopilar, registrar, transmitir, procesar, acumular, almacenar y proteger información.

El análisis sintáctico de los flujos de información servidos precede necesariamente a todas las etapas del diseño de sistemas de información.

El análisis semántico le permite estudiar información desde el punto de vista del contenido semántico de elementos individuales, para encontrar formas de correspondencia lingüística (lenguaje humano, lenguaje informático) con reconocimiento inequívoco de los mensajes ingresados ​​​​en el sistema.

Se realiza un análisis pragmático para determinar la utilidad de la información utilizada para la gestión, identificando el significado práctico de los mensajes utilizados para desarrollar acciones de control.

La información permanente permanece sin cambios o sufre pequeños ajustes durante un período de tiempo más o menos largo. Se trata de información diversa de referencia, estándares, precios, etc.

La información variable refleja los resultados de las operaciones productivas y económicas, corresponde a su dinamismo y, por regla general, participa en un ciclo tecnológico de procesamiento mecánico.

Al ingresar y procesar información, se utilizan modos interactivos y por lotes.

El modo por lotes era más común en la práctica de la solución centralizada de problemas económicos, cuando una gran parte estaba ocupada por las tareas de informar sobre la producción y las actividades económicas de los objetos económicos en diferentes niveles de gestión. La organización del proceso informático en modo por lotes se construyó sin acceso del usuario a la computadora.

Sus funciones se limitaban a preparar datos originales para un conjunto de tareas interrelacionadas con la información y transferirlos al centro de procesamiento, donde se formó un paquete que incluía una tarea informática para el procesamiento, programas, fuentes, precios estándar y datos de referencia. El paquete se ingresó en la computadora y se implementó automáticamente sin la participación del usuario u operador, lo que permitió minimizar el tiempo requerido para completar un determinado conjunto de tareas. Actualmente, el modo por lotes se implementa en correo electrónico o actualizaciones masivas de bases de datos.

El modo interactivo proporciona la interacción directa del usuario con el sistema informático y de información; puede ser en forma de solicitud o diálogo con el sistema.

El modo de solicitud es necesario para que los usuarios interactúen con el sistema a través de un número significativo de dispositivos terminales de abonado, incluidos aquellos ubicados a una distancia considerable del centro de procesamiento.

Ejemplo: El problema de reservar billetes de transporte.

El sistema de información implementa servicios masivos y opera en modo de tiempo compartido, en el que varios usuarios independientes que utilizan terminales tienen acceso directo y prácticamente

acceso simultáneo al sistema de información. Este modo le permite de manera diferencial, en un orden estrictamente establecido, brindar a cada usuario tiempo para comunicarse con el sistema y salir del mismo una vez finalizada la sesión.

El modo de diálogo permite al usuario interactuar directamente con el sistema informático y de información al ritmo de trabajo que le resulte aceptable, implementando un ciclo repetitivo de emisión de una tarea, recepción y análisis de una respuesta.

Más sobre el tema: Aspectos sintácticos, semánticos y pragmáticos del proceso de información:

  1. Estructura de las actividades de información masiva: recopilación, procesamiento, ordenación, transmisión, percepción, transformación, almacenamiento y uso de información masiva. Información potencial, aceptada y real. Aspectos semánticos, sintácticos y pragmáticos de los textos de información masiva.
  2. Unidades y métodos de conceptualización en aspectos semánticos, sintácticos y pragmáticos.
  3. 7.CRITERIOS DE ADECUACIÓN DEL TEXTO PERIODISTA ASPECTOS SEMÁNTICOS, SINTAXICOS Y PRAGMATICOS DE UN TEXTO PERIODISTA ESPECIFICIDAD DE LA EFECTIVIDAD DE UN TEXTO PERIODISTA

Medida sintáctica de información.

Esta medida de la cantidad de información opera con información impersonal que no expresa una relación semántica con el objeto. Volumen de datos Vd en este caso, el mensaje se mide por el número de caracteres (bits) del mensaje. En diferentes sistemas numéricos, un dígito tiene un peso diferente y la unidad de medida de los datos cambia en consecuencia.

Por ejemplo, en el sistema numérico binario la unidad de medida es el bit. (dígito bit-binario - dígito binario). Un bit es la respuesta a una única pregunta binaria (“sí” o “no”; “0” o “1”), transmitida a través de canales de comunicación mediante una señal. Así, la cantidad de información contenida en un mensaje en bits está determinada por el número de palabras binarias del lenguaje natural, el número de caracteres de cada palabra y el número de señales binarias necesarias para expresar cada carácter.

En las computadoras modernas, junto con la unidad mínima de medida de datos "bit", se usa ampliamente la unidad de medida ampliada "byte", igual a 8 bits. En el sistema numérico decimal, la unidad de medida es el “bit” (lugar decimal).

cantidad de información que a nivel sintáctico es imposible determinarlo sin considerar el concepto de incertidumbre del estado del sistema (entropía del sistema). De hecho, la obtención de información sobre un sistema siempre va asociada a un cambio en el grado de desconocimiento del destinatario sobre el estado de este sistema, es decir la cantidad de información se mide por un cambio (reducción) en la incertidumbre del estado del sistema.

Coeficiente (grado) de contenido de información.(concisión) de un mensaje está determinada por la relación entre la cantidad de información y la cantidad de datos, es decir

Y= I/Vd, con 0

Con aumento Y Se reduce la cantidad de trabajo para transformar la información (datos) en el sistema. Por lo tanto, se esfuerzan por aumentar el contenido de la información, para lo cual se están desarrollando métodos especiales para una codificación óptima de la información.

Medida semántica de información.

Para medir el contenido semántico de la información, es decir su cantidad a nivel semántico, la más reconocida es la medida del tesauro, que conecta las propiedades semánticas de la información con la capacidad del usuario para aceptar el mensaje entrante. Para ello se utiliza el concepto diccionario de sinónimos del usuario.

Tesauro es una colección de información disponible para un usuario o sistema.

Dependiendo de la relación entre el contenido semántico de la información. S y el tesauro del usuario sp la cantidad de información semántica cambia Yo, percibido por el usuario y posteriormente incluido por él en su tesauro.

La naturaleza de esta dependencia se muestra en la Fig. 1. Considere dos casos límite cuando la cantidad de información semántica yo es igual a 0:

en sp= 0 el usuario no percibe ni comprende la información entrante;

En sp el usuario lo sabe todo y no necesita la información entrante.

Para medir la información se introducen dos parámetros: la cantidad de información I y la cantidad de datos V d.

Estos parámetros tienen diferentes expresiones e interpretaciones según la forma de adecuación que se considere.

Adecuación sintáctica. Muestra las características formales y estructurales de la información y no afecta su contenido semántico. A nivel sintáctico se tiene en cuenta el tipo de medio y método de presentación de la información, la velocidad de transmisión y procesamiento, el tamaño de los códigos para presentar información, la confiabilidad y precisión de la conversión de estos códigos, etc.

La información considerada únicamente desde una posición sintáctica se suele denominar datos, ya que el lado semántico no importa.

Adecuación semántica (nocional). Esta forma determina el grado de correspondencia entre la imagen del objeto y el objeto mismo. El aspecto semántico implica tener en cuenta el contenido semántico de la información. En este nivel se analiza la información que refleja la información y se consideran las conexiones semánticas. En informática, se establecen conexiones semánticas entre códigos para representar información. Esta forma sirve para formar conceptos e ideas, identificar el significado, contenido de la información y su generalización.

Adecuación pragmática (del consumidor). Refleja la relación entre la información y su consumidor, la correspondencia de la información con el objetivo de gestión, que se implementa sobre su base. Las propiedades pragmáticas de la información aparecen sólo si existe unidad de información (objeto), usuario y objetivo de gestión.

Aspecto pragmático La consideración está asociada con el valor, la utilidad de utilizar la información cuando el consumidor desarrolla una solución para lograr su objetivo. Desde este punto de vista, se analizan las propiedades de consumo de la información. Esta forma de adecuación está directamente relacionada con el uso práctico de la información, con su cumplimiento de la función objetivo del sistema.

Cada forma de adecuación corresponde a su propia medida de la cantidad de información y volumen de datos (Fig. 2.1).

Arroz. 2.1.

Medidas de información

2.2.1. Medida sintáctica de información. Medida sintáctica

cantidad de información opera con información impersonal que no expresa una relación semántica con el objeto.

  • El volumen de datos V d en un mensaje se mide por el número de caracteres (bits) de este mensaje. En diferentes sistemas numéricos, un dígito tiene un peso diferente y la unidad de medida de los datos cambia en consecuencia: en el sistema numérico binario la unidad de medida es el bit ( poco
  • - dígito binario - dígito binario);

En el sistema numérico decimal, la unidad de medida es dit (lugar decimal).

Ejemplo. Un mensaje en sistema binario en forma de código binario de ocho bits 10111011 tiene un volumen de datos V d = 8 bits.

Un mensaje en el sistema decimal en forma de número de seis dígitos 275903 tiene un volumen de datos de V d = 6 dits.

La cantidad de información está determinada por la fórmula:

donde H (α) es entropía, es decir la cantidad de información se mide por un cambio (reducción) en la incertidumbre del estado del sistema.

donde p i es la probabilidad de que el sistema esté en el i-ésimo estado.

Para el caso en que todos los estados del sistema sean igualmente probables, su entropía está determinada por la relación

donde N es el número de todos los estados posibles mostrados;

m - base del sistema numérico (variedad de símbolos utilizados en el alfabeto);

n es el número de bits (caracteres) del mensaje.

2.2.2. Medida semántica de información.

Para medir el contenido semántico de la información, es decir su cantidad a nivel semántico, la más reconocida es la medida del tesauro, que conecta las propiedades semánticas de la información con la capacidad del usuario para aceptar el mensaje entrante. Para ello se utiliza el concepto diccionario de sinónimos de usuario.

Un tesauro es una colección de información disponible para un usuario o sistema.

Dependiendo de la relación entre el contenido semántico de la información S y el tesauro del usuario S p, cambia la cantidad de información semántica I c percibida por el usuario y posteriormente incluida por él en su tesauro. La naturaleza de esta dependencia se muestra en la Fig. 2.2:

  • cuando S p = 0 el usuario no percibe ni comprende la información entrante;
  • cuando S p → ∞ el usuario lo sabe todo, no necesita la información entrante.

Arroz. 2.2.

Dependencia de la cantidad de información semántica percibida por el consumidor de su tesauro I c = f (S p)

Al evaluar el aspecto semántico (contenido) de la información, es necesario esforzarse por armonizar los valores de S y S p.

Una medida relativa de la cantidad de información semántica puede ser el coeficiente de contenido C, que se define como la relación entre la cantidad de información semántica y su volumen:

2.2.3. Medida pragmática de información.

Esta medida determina la utilidad de la información (valor) para que el usuario logre su objetivo. Esta medida es también un valor relativo, determinado por las peculiaridades del uso de la información en un sistema particular. Es recomendable medir el valor de la información en las mismas unidades (o cerca de ellas) en las que se mide la función objetivo.

A modo de comparación, presentamos las medidas de información ingresadas en la tabla. 2.1. Tabla 2.1.

Unidades de información y ejemplos. Medida de información Unidades de medida
Ejemplos (para el campo de la informática)

Sintáctico:

Enfoque de Shannon

enfoque informático Grado de reducción de la incertidumbre
probabilidad de evento Unidades de presentación de información.
Bit, byte, KB, etc. Tesauro Semántico
Paquete de software de aplicación, computadora personal, redes informáticas, etc. Indicadores económicos
Rentabilidad, productividad, tasa de depreciación, etc. Pragmático Valor en uso
Valor monetario Capacidad de memoria, rendimiento de la computadora, velocidad de transferencia de datos, etc.

Interacción de información. Métodos de transmisión de información. Clasificación de la información.

Concepto de información. Propiedades de la información. Formularios para presentar información.

Información (del latín informatio - “explicación, presentación, conciencia”) - información sobre algo, independientemente de la forma de su presentación.

La información se puede dividir en tipos según varios criterios:

a modo de percepción:

Visual: percibido por los órganos de la visión.

Auditivo: percibido por los órganos auditivos.

Táctil: percibido por receptores táctiles.

Olfativo: percibido por los receptores olfativos.

Gustativo: percibido por las papilas gustativas.

según forma de presentación:

Texto: transmitido en forma de símbolos destinados a denotar lexemas de la lengua.

Numérico: en forma de números y signos que indican operaciones matemáticas.

Gráfico: en forma de imágenes, objetos, gráficos.

Sonido: oral o en forma de grabación y transmisión de lexemas lingüísticos por medios auditivos.

por finalidad:

Masa: contiene información trivial y opera con un conjunto de conceptos comprensibles para la mayor parte de la sociedad.

Especial: contiene un conjunto específico de conceptos; cuando se usa, se transmite información que puede no ser comprensible para la mayor parte de la sociedad, pero que es necesaria y comprensible dentro del grupo social reducido donde se usa esta información.

Secreto: transmitido a un círculo reducido de personas y a través de canales cerrados (protegidos).

Personal (privado): un conjunto de información sobre una persona que determina el estatus social y los tipos de interacciones sociales dentro de la población.

por valor:

Relevante: información que es valiosa en un momento dado.

Confiable: información obtenida sin distorsión.

Comprensible: información expresada en un lenguaje comprensible para aquellos a quienes está destinada.

Completo: información suficiente para tomar una decisión o comprensión correcta.

Útil: la utilidad de la información la determina el sujeto que la recibió en función del alcance de las posibilidades de su uso.

en verdad:

verdadero

En informática, el tema del estudio de la información son precisamente los datos: métodos de creación, almacenamiento, procesamiento y transmisión.

La transferencia de información es el proceso de su transferencia espacial desde una fuente a un destinatario (destinatario). El hombre aprendió a transmitir y recibir información incluso antes que a almacenarla. El habla es un método de transmisión que nuestros ancestros lejanos usaban en contacto directo (conversación); todavía lo usamos ahora. Para transmitir información a largas distancias es necesario utilizar procesos de información mucho más complejos.



Para llevar a cabo dicho proceso, la información debe formatearse (presentarse) de alguna manera. Para presentar información se utilizan varios sistemas de signos: conjuntos de símbolos semánticos predeterminados: objetos, imágenes, palabras escritas o impresas en lenguaje natural. La información semántica sobre cualquier objeto, fenómeno o proceso presentado con su ayuda se denomina mensaje.

Obviamente, para transmitir un mensaje a distancia, la información debe transferirse a algún tipo de medio móvil. Los transportistas pueden desplazarse por el espacio utilizando vehículos, como ocurre con las cartas enviadas por correo. Este método garantiza una total fiabilidad de la transmisión de información, ya que el destinatario recibe el mensaje original, pero requiere un tiempo considerable para la transmisión. Desde mediados del siglo XIX, los métodos de transmisión de información se han generalizado utilizando un portador de información que se propaga naturalmente: las vibraciones electromagnéticas (vibraciones eléctricas, ondas de radio, luz). Los dispositivos que implementan el proceso de transferencia de datos forman sistemas de comunicación. Dependiendo del método de presentación de la información, los sistemas de comunicación se pueden dividir en signos (telégrafo, telefax), sonido (teléfono), video y sistemas combinados (televisión). El sistema de comunicación más desarrollado en nuestro tiempo es Internet.

Las unidades de información se utilizan para medir diversas características asociadas con la información.

Muy a menudo, la medición de la información se refiere a medir la capacidad de la memoria de la computadora (dispositivos de almacenamiento) y medir la cantidad de datos transmitidos a través de canales de comunicación digitales. Menos comúnmente medida es la cantidad de información.

Bit (dígito binario en inglés - número binario; también un juego de palabras: bit en inglés - pieza, partícula): una unidad de medida de la cantidad de información, igual a un dígito en el sistema numérico binario. Designado según GOST 8.417-2002

Claude Shannon en 1948 propuso utilizar la palabra bit para denotar la unidad más pequeña de información:

Un bit es el logaritmo binario de la probabilidad de eventos igualmente probables o la suma de los productos de la probabilidad por el logaritmo binario de la probabilidad de eventos igualmente probables; ver entropía de la información.

Bit: unidad básica de medida de la cantidad de información, igual a la cantidad de información contenida en una experiencia que tiene dos resultados igualmente probables; ver entropía de la información. Esto es idéntico a la cantidad de información en la respuesta a una pregunta que permite responder “sí” o “no” y nada más (es decir, la cantidad de información que le permite responder sin ambigüedades a la pregunta planteada).

Medida sintáctica de información.

El surgimiento de la ciencia de la información como ciencia se remonta a finales de los años 50 de nuestro siglo, cuando el ingeniero estadounidense R. Hartley intentó introducir una medida cuantitativa de la información transmitida a través de canales de comunicación. Consideremos una situación de juego simple. Antes de recibir un mensaje sobre el resultado del lanzamiento de una moneda, una persona se encuentra en un estado de incertidumbre sobre el resultado del siguiente lanzamiento. El mensaje del socio proporciona información que elimina esta incertidumbre. Tenga en cuenta que el número de resultados posibles en la situación descrita es 2, son iguales (igualmente probables) y cada vez que la información transmitida eliminó por completo la incertidumbre que surgió. Hartley tomó la "cantidad de información" transmitida a través de un canal de comunicación sobre dos resultados iguales y eliminando la incertidumbre influyendo en uno de ellos, como una unidad de información llamada "bit".

Medida semántica de información.

Una nueva etapa en la expansión teórica del concepto de información está asociada con la cibernética, la ciencia del control y la comunicación en los organismos vivos, la sociedad y las máquinas. Manteniendo las posiciones del enfoque de Shannon, la cibernética formula el principio de unidad de información y control, que es especialmente importante para analizar la esencia de los procesos que ocurren en sistemas biológicos y sociales autónomos y autoorganizados. El concepto desarrollado en los trabajos de N. Wiener asume que el proceso de control en los sistemas mencionados es un proceso de procesamiento (transformación) por algún dispositivo central de información recibida de fuentes de información primaria (receptores sensoriales) y transmitiéndola a aquellas partes de el sistema donde es percibido por sus elementos como una orden para realizar tal o cual acción. Después de la acción en sí, los receptores sensoriales están listos para transmitir información sobre la situación cambiada para realizar un nuevo ciclo de control. Así se organiza un algoritmo cíclico (secuencia de acciones) para gestionar y hacer circular información en el sistema. Es importante que aquí el papel principal lo desempeñe el contenido de la información transmitida por los receptores y el dispositivo central. La información, según Wiener, es "una designación de contenido recibido del mundo exterior en el proceso de nuestra adaptación a él y la adaptación de nuestros sentidos a él".

Medida pragmática de información.

En los conceptos pragmáticos de información, este aspecto es central, lo que lleva a la necesidad de tener en cuenta el valor, la utilidad, la eficiencia, la economía de la información, es decir. aquellas de sus cualidades que influyen decisivamente en el comportamiento de los sistemas cibernéticos autoorganizados, autónomos y con propósito (biológicos, sociales, hombre-máquina).

Uno de los representantes más brillantes de las teorías pragmáticas de la información es el modelo conductual de comunicación: el modelo conductista de Ackoff-Miles. El punto de partida de este modelo es la aspiración objetivo del destinatario de la información de resolver un problema específico. Un destinatario está en un "estado dirigido a una meta" si se esfuerza por lograr algo y tiene caminos alternativos de efectividad desigual para lograr la meta. Un mensaje transmitido al destinatario es informativo si cambia su "estado intencional".

Dado que el "estado orientado a objetivos" se caracteriza por una secuencia de posibles acciones (alternativas), la efectividad de la acción y la importancia del resultado, el mensaje transmitido al destinatario puede afectar los tres componentes en diversos grados. De acuerdo con esto, la información transmitida se diferencia según su tipo en “informar”, “instruir” y “motivar”. Así, para el destinatario, el valor pragmático del mensaje radica en el hecho de que le permite delinear una estrategia de comportamiento para lograr el objetivo mediante la construcción de respuestas a las preguntas: ¿qué, cómo y por qué hacer en cada paso siguiente? Para cada tipo de información, el modelo conductista propone su propia medida, y el valor pragmático general de la información se determina en función de la diferencia entre estas cantidades en el "estado orientado a objetivos" antes y después de su cambio a un nuevo "estado objetivo". -Estado orientado”.




Arriba