Transferencia de información. Fundamentos de la informática. ¿Cómo es posible y cómo se produce la transferencia de información a través de redes inalámbricas (redes móviles, wi-fi, bluetooth, etc.), si se explica claramente?

Proceso de información- el proceso de recibir, crear, recopilar, procesar, acumular, almacenar, buscar, distribuir y utilizar información. . Las personas familiarizadas con la informática, por supuesto, conocen este término, y no sólo ellas. Se puede argumentar que los procesos de información son la base de la vida tal como la conocemos. Este artículo presenta el algoritmo básico del proceso de información y diversas formas de su ejecución.

El proceso de información como concepto científico.

Cualquier acción realizada con información se denomina proceso de información. El papel principal aquí lo desempeña la recopilación, procesamiento, creación, almacenamiento y transmisión de información. A lo largo de su historia, la humanidad ha desarrollado estos y otros procesos, así como industrias relacionadas. Uno de los principales criterios para el desarrollo de la sociedad fue la mejora de los procesos de información. Arte, religión, escritura, encriptación, imprenta, derechos de autor, telégrafo, radioelectrónica, computadoras, Internet: esto es solo la parte principal de los logros de la humanidad en el campo del trabajo con información.
Cabe señalar que a pesar de la aparente certeza, la comunidad científica continúa debatiendo sobre la universalidad del propio término “información”. En particular, “información” no es sinónimo de “datos”, aunque en el habla coloquial suele ser así. “Datos” es información interpretada, procesada y registrada de forma comprensible, producto del proceso de información. Es decir, la información es un recurso, los datos son un producto final procesado que ha sido procesado por el proceso de información. Pero como cualquier producto, los datos se consumen para obtener algún resultado. En su forma más simple, puedes imaginar el siguiente diagrama:

FUENTE INFORMACIÓN RECEPTOR/PROCESADOR DATOS
estrella xxx Luz, radio y otras ondas. Telescopio y computadora Temperatura, brillo, tamaño, rango, etc.
Extranjero Discurso en un idioma desconocido. Traductor Discurso en lenguaje comprensible.

Los procesos de información son inherentes a todos los organismos biológicos del planeta, desde los más simples hasta los humanos. Pero el hombre creó sistemas informáticos y canales de información específicos, lo que dio lugar a un tipo especial de ellos: la informática. A pesar del esquema unificado del algoritmo de procesamiento de información, tanto en la naturaleza como en informática, son bastante diferentes en esencia. Y las diferencias están principalmente en la interpretación.
En particular, si colocas a una persona, un perro, una serpiente, una flor en una habitación y le das una señal de voz a través de un altavoz, la reacción de todos será fundamentalmente diferente, lo que significa que a partir de la misma información, cada procesador producirá completamente diferente. datos. En particular, tanto un perro como una serpiente son capaces de oír, pero si un perro puede al menos entender de alguna manera las órdenes de una persona, una serpiente es incapaz de hacerlo. La flor ni siquiera podrá percibir una señal sonora, aunque en principio es capaz de recibir y procesar información; algunas plantas pueden incluso moverse después del sol o si las molestan. Entonces el siguiente diagrama es la posibilidad de interpretación:

Elementos básicos del proceso de información.

Proceso de información– son acciones secuenciales integradas en un algoritmo, realizadas con información presentada en cualquier forma (datos digitales/analógicos, rumores, teorías, hechos, observaciones, etc.) para lograr un determinado objetivo (cualquiera). Este algoritmo consta de una serie de pasos que pueden diferir significativamente en una situación determinada, pero el concepto general es el siguiente:



Principales tipos de procesos de información.

Recopilación de información. Encontrar y recopilar información primaria, extrayéndola de su “entorno”. A veces, quizás incluso sin un objetivo final concreto. La información obtenida como resultado de la recopilación puede ser utilizada por varios procesadores para diferentes propósitos. Así, los arqueólogos que realizan excavaciones recogen todos los objetos que encuentran que les parecen interesantes, pero sólo después de un análisis cuidadoso se convertirán en algún tipo de datos científicos, y el resultado del análisis puede resultar completamente inesperado, y además de Se pueden descubrir fragmentos de cántaros antiguos, depósitos de materiales útiles y fósiles.

buscar información. Encontrar información más o menos específica sobre un tema específico para un propósito específico a partir de fuentes específicas. En este caso, la búsqueda se produce entre información previamente recopilada y posiblemente procesada por alguien, y no del “entorno”. Para la búsqueda se utilizan principalmente varias bases de datos (lugares para almacenar información), por ejemplo, una pregunta en la red de búsqueda "cómo cocinar borscht".

Procesamiento de información. Conjunto de acciones encaminadas a una u otra transformación de la información inicial en nueva información. Probablemente el proceso de información más importante y complejo. Aunque a veces en la sociedad puede resultar difícil distinguirlo de otros, por ejemplo de la presentación de información, el procesamiento de la información siempre tiene la tarea de lograr algo nuevo a partir de la información existente, creando de hecho un nuevo objeto de información. Un escritor que escribe sus pensamientos en papel en realidad presenta la información, pero el procesamiento tuvo lugar en su cerebro un poco antes: a partir de su propio conocimiento, experiencia y emociones, creó palabras que finalmente presentó en forma de texto.

Presentación de información. Cambiar la información fuente a una forma conveniente y relevante para su uso en la situación actual. Se encuentra con mayor frecuencia en informática: en la memoria de la computadora, toda la información se almacena en forma de código binario, pero se presenta al usuario en forma de datos gráficos y sonidos. Pero muy a menudo una persona presenta información, por ejemplo, compilando fichas a partir de documentos dispersos, traduciendo textos extranjeros o reproduciendo música a partir de notas en papel.

Almacenamiento de información. Quizás el tipo de proceso de información más utilizado. De una forma u otra, todos los objetos biológicos almacenan información, al menos en forma de genoma. El almacenamiento de información se divide en dos tipos principales: a largo plazo y a corto plazo. Por supuesto, están destinados a fines completamente diferentes. Sólo se pueden considerar para el almacenamiento de información aquellas acciones que en última instancia deban conducir a la reutilización de la información almacenada.

Transferencia de información. Entrega de información de una fuente a un consumidor sin la participación real del transmisor en ninguna otra parte del proceso de información. Absolutamente cualquier objeto puede actuar como transmisor, tanto biológico (un mensajero con un despacho, un perro ladrando a un extraño en el patio) como cualquier medio físico o repetidor (un libro, un transmisor de radio, una tarjeta flash). La transferencia de información no siempre es idéntica a la comunicación, ya que aquí el objeto transmisor es sólo una herramienta.

Protección de la información. Cualquier acción que utilice algún medio adicional para proteger la información del uso por parte de otra parte. La protección de la información es relevante solo en sistemas de información complejos con muchos participantes, ya que es necesaria únicamente para evitar que un elemento no deseado utilice cierta información. De hecho, la única forma de proteger la información es el cifrado de un tipo u otro. Sería incorrecto llamar a ocultar información una forma de protegerla, ya que la información oculta no requiere protección porque no participa en ningún proceso.
Uso de la información. El proceso de información más voluminoso. Es la toma de decisiones informadas en diversos tipos de actividad humana en el sentido más amplio.

Lista de fuentes:

  1. Norma estatal de la Federación de Rusia “Protección de la información. El procedimiento para crear sistemas automatizados en un diseño seguro" (GOST R 51583-2000 cláusula 3.1.10).
  2. ISO/IEC/IEEE 24765-2010 Ingeniería de sistemas y software p 3.704

Proceso de información, concepto actualizado: 22 de septiembre de 2018 por: Roman Boldyrev

Esquema de transmisión de información. Canal de transmisión de información. Velocidad de transferencia de información.

Hay tres tipos de procesos de información: almacenamiento, transmisión, procesamiento.

Almacenamiento de información:

· Medios de información.

· Tipos de memoria.

· Almacenamiento de información.

· Propiedades básicas de los almacenamientos de información.

Los siguientes conceptos están asociados con el almacenamiento de información: medio de almacenamiento de información (memoria), memoria interna, memoria externa, almacenamiento de información.

Un medio de almacenamiento es un medio físico que almacena información directamente. La memoria humana se puede llamar memoria de trabajo. El conocimiento memorizado es reproducido por una persona al instante. También podemos llamar memoria interna a nuestra propia memoria, ya que su portador, el cerebro, se encuentra dentro de nosotros.

Todos los demás tipos de soportes de información pueden denominarse externos (en relación con una persona): madera, papiro, papel, etc. Un repositorio de información es información organizada de cierta manera en medios externos, destinada a almacenamiento a largo plazo y uso permanente (por ejemplo, archivos de documentos, bibliotecas, archivadores). La principal unidad de información del repositorio es un documento físico específico: un cuestionario, un libro, etc. La organización del repositorio significa la presencia de una determinada estructura, es decir. Orden, clasificación de los documentos almacenados para facilitar el trabajo con ellos. Las principales propiedades de un repositorio de información: volumen de información almacenada, confiabilidad del almacenamiento, tiempo de acceso (es decir, tiempo para buscar la información necesaria), disponibilidad de protección de la información.

La información almacenada en los dispositivos de memoria de la computadora se denomina comúnmente datos. Las instalaciones de almacenamiento de datos organizados en dispositivos de memoria externos de computadoras generalmente se denominan bases de datos y bancos de datos.

Procesamiento de información:

· Esquema general del proceso de procesamiento de la información.

· Declaración de la tarea de procesamiento.

· Ejecutante de procesamiento.

· Algoritmo de procesamiento.

· Tareas típicas de procesamiento de información.

Esquema de procesamiento de información:

Información inicial – ejecutante del procesamiento – información final.

En el proceso de procesamiento de la información se resuelve un determinado problema de información, que primero se puede plantear de forma tradicional: se da un determinado conjunto de datos iniciales y se requiere para obtener algunos resultados. El proceso de transición de los datos fuente al resultado es el proceso de procesamiento. El objeto o sujeto que realiza el procesamiento se denomina ejecutante del procesamiento.

Para realizar con éxito el procesamiento de información, el ejecutante (persona o dispositivo) debe conocer el algoritmo de procesamiento, es decir, la secuencia de acciones que se deben realizar para lograr el resultado deseado.

Hay dos tipos de procesamiento de información. El primer tipo de procesamiento: procesamiento asociado a la obtención de nueva información, nuevos contenidos de conocimiento (resolución de problemas matemáticos, análisis de la situación, etc.). El segundo tipo de procesamiento: procesamiento asociado con el cambio de forma, pero no con el cambio de contenido (por ejemplo, traducir texto de un idioma a otro).

Un tipo importante de procesamiento de información es la codificación: la transformación de información en una forma simbólica conveniente para su almacenamiento, transmisión y procesamiento. La codificación se utiliza activamente en medios técnicos para trabajar con información (telégrafo, radio, computadoras). Otro tipo de procesamiento de información es la estructuración de datos (ingresar un cierto orden en el almacenamiento de información, clasificación, catalogación de datos).

Otro tipo de procesamiento de información es la búsqueda en algún almacenamiento de información de los datos necesarios que satisfagan determinadas condiciones de búsqueda (consulta). El algoritmo de búsqueda depende de la forma en que esté organizada la información.

Transferencia de información:

· Fuente y receptor de información.

· Canales de información.

· El papel de los sentidos en el proceso de percepción humana de la información.

· Estructura de los sistemas de comunicación técnica.

· Qué es codificar y decodificar.

· El concepto de ruido; Técnicas de protección contra el ruido.

· Velocidad de transmisión de información y capacidad del canal.

Esquema de transmisión de información:

Fuente de información – canal de información – receptor de información.

La información se presenta y transmite en forma de una secuencia de señales y símbolos. Desde la fuente hasta el receptor, el mensaje se transmite a través de algún medio material. Si se utilizan medios técnicos de comunicación en el proceso de transmisión, se denominan canales de transmisión de información (canales de información). Estos incluyen teléfono, radio, televisión. Los órganos de los sentidos humanos desempeñan el papel de canales de información biológica.

El proceso de transmisión de información a través de canales de comunicación técnica sigue el siguiente esquema (según Shannon):

El término "ruido" se refiere a varios tipos de interferencias que distorsionan la señal transmitida y provocan la pérdida de información. Esta interferencia surge, en primer lugar, por razones técnicas: mala calidad de las líneas de comunicación, inseguridad de los diferentes flujos de información transmitidos entre sí por los mismos canales. Para protegerse contra el ruido, se utilizan varios métodos, por ejemplo, el uso de varios tipos de filtros que separan la señal útil del ruido.

Claude Shannon desarrolló una teoría de codificación especial que proporciona métodos para abordar el ruido. Una de las ideas importantes de esta teoría es que el código transmitido a través de la línea de comunicación debe ser redundante. Gracias a esto, se puede compensar la pérdida de alguna parte de la información durante la transmisión. Sin embargo, la redundancia no debería ser demasiado grande. Esto provocará retrasos y mayores costes de comunicación.

Cuando se habla del tema de medir la velocidad de transmisión de información, se puede utilizar la técnica de la analogía. Un análogo es el proceso de bombear agua a través de tuberías de agua. Aquí el canal de transmisión de agua son las tuberías. La intensidad (velocidad) de este proceso se caracteriza por el consumo de agua, es decir. el número de litros bombeados por unidad de tiempo. En el proceso de transmisión de información, los canales son líneas de comunicación técnica. Por analogía con el suministro de agua, podemos hablar del flujo de información que se transmite a través de canales. La velocidad de transmisión de información es el volumen de información de un mensaje transmitido por unidad de tiempo. Por lo tanto, las unidades para medir la velocidad del flujo de información: bit/s, byte/s, etc. canal de transmisión del proceso de información

Otro concepto –la capacidad de los canales de información– también puede explicarse mediante una analogía de “plomería”. Puede aumentar el flujo de agua a través de las tuberías aumentando la presión. Pero este camino no es interminable. Si la presión es demasiado alta, la tubería puede romperse. Por lo tanto, el caudal máximo de agua, que se puede denominar rendimiento del sistema de suministro de agua. Las líneas de comunicación de información técnica también tienen un límite de velocidad de transferencia de datos similar. Las razones de esto también son físicas.

1. Clasificación y características del canal de comunicación
Canal de comunicación es un conjunto de medios diseñados para transmitir señales (mensajes).
Para analizar los procesos de información en un canal de comunicación, puede utilizar su diagrama generalizado que se muestra en la Fig. 1.

AI
P.M
PAG
PI
PAG

En la figura. 1 se adoptan las designaciones siguientes: X, Y, Z, W– señales, mensajes ; F– interferencia; P.M– línea de comunicación; IA, PI– fuente y receptor de información; PAG– convertidores (codificación, modulación, decodificación, demodulación).
Existen diferentes tipos de canales, que se pueden clasificar según varios criterios:
1. Por tipo de líneas de comunicación: cableado; cable; fibra óptica;
líneas eléctricas; canales de radio, etc
2. Por la naturaleza de las señales: continuo; discreto; discreta-continua (las señales en la entrada del sistema son discretas y en la salida son continuas y viceversa).
3. En términos de inmunidad al ruido: canales sin interferencias; con interferencia.
Los canales de comunicación se caracterizan por:
1. Capacidad del canal se define como el producto del tiempo de uso del canal T a, ancho del espectro de frecuencia transmitido por el canal F a y rango dinámico D a. , que caracteriza la capacidad del canal para transmitir diferentes niveles de señal

V k = T k F k D k.(1)
Condición para hacer coincidir la señal con el canal:
V c £ V k ; T c £ T k ; F c £ F k ; V c £ V k ; D c £ D k .
2.Tasa de transferencia de información – la cantidad media de información transmitida por unidad de tiempo.
3.
4. Redundancia – asegura la confiabilidad de la información transmitida ( R= 0¸1).
Una de las tareas de la teoría de la información es determinar la dependencia de la velocidad de transmisión de información y la capacidad de un canal de comunicación de los parámetros del canal y las características de las señales y las interferencias.
El canal de comunicación se puede comparar en sentido figurado con las carreteras. Carreteras estrechas: poca capacidad, pero baratas. Las carreteras anchas proporcionan buena capacidad de tráfico, pero son caras. El ancho de banda está determinado por el cuello de botella.
La velocidad de transmisión de datos depende en gran medida del medio de transmisión en los canales de comunicación, que utilizan diferentes tipos de líneas de comunicación.
Cableado:
1. cableado– par trenzado (que suprime parcialmente la radiación electromagnética de otras fuentes). Velocidad de transferencia de hasta 1 Mbit/s. Utilizado en redes telefónicas y para transmisión de datos.
2. Cable coaxial. Velocidad de transmisión 10–100 Mbit/s – utilizada en redes locales, televisión por cable, etc.
3. Fibra óptica. Velocidad de transferencia 1 Gbit/s.
En los entornos 1 a 3, la atenuación en dB depende linealmente de la distancia, es decir la potencia cae exponencialmente. Por tanto, es necesario instalar regeneradores (amplificadores) a cierta distancia.
Líneas de radio:
1. Canal de radio. Velocidad de transferencia 100–400 Kbps. Utiliza frecuencias de radio de hasta 1000 MHz. Hasta 30 MHz, debido a la reflexión de la ionosfera, las ondas electromagnéticas pueden propagarse más allá de la línea de visión. Pero este rango es muy ruidoso (por ejemplo, comunicaciones de radioaficionados). De 30 a 1000 MHz: la ionosfera es transparente y es necesaria una visibilidad directa. Las antenas se instalan en altura (a veces se instalan regeneradores). Utilizado en radio y televisión.
2. Líneas de microondas. Velocidades de transferencia de hasta 1 Gbit/s. Se utilizan frecuencias de radio superiores a 1000 MHz. Esto requiere visibilidad directa y antenas parabólicas altamente direccionales. La distancia entre regeneradores es de 10 a 200 km. Utilizado para comunicaciones telefónicas, televisión y transmisión de datos.
3. Comunicaciones por satélite. Se utilizan frecuencias de microondas y el satélite sirve como regenerador (para muchas estaciones). Las características son las mismas que para las líneas de microondas.
2. Ancho de banda de un canal de comunicación discreto.
Un canal discreto es un conjunto de medios diseñados para transmitir señales discretas.
Capacidad del canal de comunicación – la velocidad de transmisión de información más alta teóricamente alcanzable, siempre que el error no supere un valor determinado. Tasa de transferencia de información – la cantidad media de información transmitida por unidad de tiempo. Definamos expresiones para calcular la velocidad de transmisión de información y el rendimiento de un canal de comunicación discreto.
Al transmitir cada símbolo, una cantidad promedio de información pasa por el canal de comunicación, determinada por la fórmula
Yo (Y, X) = Yo (X, Y) = H(X) – H (X/Y) = H(Y) – H (Y/X), (2)
Dónde: Yo (Y, X) – información mutua, es decir, la cantidad de información contenida en Y relativamente incógnita;H(X)– entropía de la fuente del mensaje; H(X/Y)– entropía condicional, que determina la pérdida de información por símbolo asociada a la presencia de interferencia y distorsión.
Al enviar un mensaje xt duración T, consistente en norte símbolos elementales, la cantidad promedio de información transmitida, teniendo en cuenta la simetría de la cantidad mutua de información, es igual a:
yo(yt), X T) = H(X T) – H(X T /Y T) = H(Y T) – H(Y T /X T) = n . (4)
La velocidad de transmisión de información depende de las propiedades estadísticas de la fuente, el método de codificación y las propiedades del canal.
Ancho de banda de un canal de comunicación discreto.
. (5)
El valor máximo posible, es decir se busca el máximo de la funcional sobre todo el conjunto de funciones de distribución de probabilidad p (incógnita).
El rendimiento depende de las características técnicas del canal (velocidad del equipo, tipo de modulación, nivel de interferencia y distorsión, etc.). Las unidades de capacidad del canal son: , , , .
2.1 Canal de comunicación discreto sin interferencias
Si no hay interferencias en el canal de comunicación, entonces las señales de entrada y salida del canal están conectadas por una relación funcional inequívoca.
En este caso, la entropía condicional es igual a cero y las entropías incondicionales de la fuente y el receptor son iguales, es decir La cantidad promedio de información en un símbolo recibido en relación con el transmitido es
Yo (X, Y) = H(X) = H(Y); H(X/Y) = 0.
Si xt– número de caracteres por vez t, entonces la velocidad de transmisión de información para un canal de comunicación discreto sin interferencia es igual a
(6)
Dónde V = 1/– velocidad de transmisión media de un símbolo.
Rendimiento para un canal de comunicación discreto sin interferencias
(7)
Porque la entropía máxima corresponde a símbolos igualmente probables, entonces el rendimiento para una distribución uniforme e independencia estadística de los símbolos transmitidos es igual a:
. (8)
Primer teorema de Shannon para un canal: Si el flujo de información generado por la fuente está suficientemente cerca de la capacidad del canal de comunicación, es decir
, donde es un valor arbitrariamente pequeño,
entonces siempre podrá encontrar un método de codificación que garantice la transmisión de todos los mensajes fuente, y la velocidad de transmisión de información estará muy cerca de la capacidad del canal.
El teorema no responde a la pregunta de cómo realizar la codificación.
Ejemplo 1. La fuente produce 3 mensajes con probabilidades:
p1 = 0,1; p2 = 0,2 y p3 = 0,7.
Los mensajes son independientes y se transmiten en un código binario uniforme ( metro = 2) con una duración de símbolo de 1 ms. Determine la velocidad de transmisión de información a través de un canal de comunicación sin interferencias.
Solución: La entropía de la fuente es igual a

[bit/s].
Para transmitir 3 mensajes con un código uniforme, se requieren dos dígitos y la duración de la combinación de códigos es 2t.
Velocidad promedio de la señal
V=1/2 t = 500 .
Tasa de transferencia de información
C = vH = 500×1,16 = 580 [bit/s].
2.2 Canal de comunicación discreto con interferencia
Consideraremos canales de comunicación discretos sin memoria.
Canal sin memoria es un canal en el que cada símbolo de señal transmitido se ve afectado por interferencias, independientemente de qué señales se transmitieron anteriormente. Es decir, la interferencia no crea conexiones correlativas adicionales entre símbolos. El nombre “sin memoria” significa que durante la siguiente transmisión el canal parece no recordar los resultados de transmisiones anteriores.
En presencia de interferencia, la cantidad promedio de información en un símbolo de mensaje recibido – Sí, en relación con lo transmitido – incógnita es igual a:
.
Para símbolo de mensaje xt duración T, consistente en norte símbolos elementales la cantidad promedio de información en un mensaje de símbolos recibido – YT en relación con lo que se transmitió – xt es igual a:
I(Y T , X T) = H(X T) – H(X T /Y T) = H(Y T) – H(Y T /X T) = n = 2320 bps
La capacidad de un canal continuo con ruido está determinada por la fórmula

=2322 bps.
Demostremos que la capacidad de información de un canal continuo sin memoria con ruido gaussiano aditivo con limitación de potencia máxima no es mayor que la capacidad de información del mismo canal con el mismo valor de limitación de potencia media.
Expectativa de una distribución uniforme simétrica

Cuadrático medio para distribución uniforme simétrica

Dispersión para distribución uniforme simétrica.

Al mismo tiempo, para un proceso distribuido uniformemente.
Entropía diferencial de una señal con distribución uniforme.
.
La diferencia entre las entropías diferenciales de un proceso normal y uniformemente distribuido no depende de la magnitud de la dispersión.
= 0,3 bits/cuenta
Por tanto, el rendimiento y la capacidad del canal de comunicación para un proceso con distribución normal es mayor que para uno uniforme.
Determinemos la capacidad (volumen) del canal de comunicación.
V k = T k C k = 10 × 60 × 2322 = 1,3932 Mbit.
Determinemos la cantidad de información que se puede transmitir en 10 minutos de funcionamiento del canal.
10× 60× 2322=1,3932 Mbit.
Tareas

1. Los mensajes compuestos por el alfabeto se transmiten al canal de comunicación. x1, x2 Y x3 con probabilidades p(x 1)=0,2; p(x 2) =0,3 Y p(x3)=0,5.
La matriz de canales tiene la forma:
al mismo tiempo .
Calcular:
1. Entropía de la fuente de información H(X) y receptor H(Y).
2. Entropía general y condicional H(Y/X).
3. Pérdida de información en el canal durante la transmisión. A personajes ( k = 100).
4. Cantidad de información recibida durante la transmisión A personajes.
5. Tasa de transferencia de información, si el tiempo de transmisión de un carácter t = 0,01 ms.
2. Los caracteres alfabéticos se transmiten a través del canal de comunicación. x1, x2, x3 Y x4 con probabilidades. Determine la cantidad de información recibida durante la transmisión de 300 símbolos, si la matriz de canales describe el efecto de la interferencia:
.
3. Determine la pérdida de información en el canal de comunicación cuando se transmiten símbolos alfabéticos igualmente probables, si la matriz del canal tiene la forma y las probabilidades de aparición de símbolos alfabéticos son iguales: .
Determine la capacidad del canal de comunicación si el tiempo de transmisión de un símbolo t = 0,01 seg.
Determine la cantidad de información recibida al transmitir 500 símbolos, si las probabilidades de aparición de símbolos en la entrada del receptor Y son iguales a: , y la influencia de la interferencia durante la transmisión se describe mediante la matriz de canales:
.

Capacidad del canal de comunicación continua
(14)
Para un canal de comunicación discreto, el valor máximo de la velocidad de transmisión corresponde a caracteres igualmente probables del alfabeto. Para un canal de comunicación continuo, cuando se da la potencia de señal promedio, la velocidad máxima se logra cuando se utilizan señales aleatorias centradas normales.
Si la señal está centrada ( mx = 0) es decir. sin un componente constante, la potencia en reposo es cero ( P 0 = 0). La condición de centralidad garantiza la máxima dispersión para una potencia de señal promedio determinada.
Si la señal tiene una distribución normal, entonces la entropía diferencial a priori de cada muestra es máxima.
Por lo tanto, al calcular la capacidad de un canal continuo, asumimos que a través del canal se transmite una señal continua con potencia promedio limitada: Pc y ruido aditivo ( y = x+f) también con potencia media limitada – p norte tipo de ruido blanco (gaussiano).

©2015-2019 sitio
Todos los derechos pertenecen a sus autores. Este sitio no reclama autoría, pero proporciona uso gratuito.
Fecha de creación de la página: 2016-04-11

En el mundo moderno, los sistemas de comunicación juegan un papel importante en el desarrollo de nuestro mundo. Los canales de transmisión de información literalmente enredan nuestro planeta, conectando varias redes de información en una única red global: Internet. El maravilloso mundo de la tecnología moderna incluye descubrimientos de vanguardia en ciencia y tecnología, a menudo también asociados con las asombrosas posibilidades del mundo cuántico. Se puede decir con seguridad que hoy las tecnologías cuánticas han entrado firmemente en nuestras vidas. Cualquier dispositivo móvil que llevemos en el bolsillo está equipado con un chip de memoria que funciona mediante túneles de carga cuántica. Esta solución técnica permitió a los ingenieros de Toshiba construir en 1984 un transistor de puerta flotante, que se convirtió en la base para la construcción de chips de memoria modernos. Utilizamos este tipo de dispositivos todos los días sin pensar en qué se basa su funcionamiento. Y mientras los físicos se devanan los sesos tratando de explicar las paradojas de la mecánica cuántica, el desarrollo tecnológico aprovecha las asombrosas posibilidades del mundo cuántico.

En este artículo veremos la interferencia de la luz y analizaremos métodos para construir un canal de comunicación para la transferencia instantánea de información utilizando tecnologías cuánticas. Aunque muchos creen que es imposible transmitir información a una velocidad superior a la de la luz, con el enfoque correcto incluso esta tarea se puede resolver. Creo que puedes verlo por ti mismo.

Introducción

Seguramente mucha gente conoce un fenómeno llamado interferencia. Un haz de luz se dirige sobre una pantalla opaca con dos rendijas paralelas, detrás de la cual se instala una pantalla de proyección. La peculiaridad de las rendijas es que su ancho es aproximadamente igual a la longitud de onda de la luz emitida. La pantalla de proyección produce una serie de franjas de interferencia alternas. Este experimento, realizado por primera vez por Thomas Young, demuestra la interferencia de la luz, proporcionando evidencia experimental para la teoría ondulatoria de la luz a principios del siglo XIX.


Lógicamente, los fotones pasarían a través de las rendijas, creando dos franjas de luz paralelas en la pantalla trasera. Pero en cambio, en la pantalla se forman muchas franjas, en las que se alternan áreas de luz y oscuridad. La cuestión es que cuando la luz se comporta como una onda, cada rendija es una fuente de ondas secundarias. En los lugares donde las ondas secundarias llegan a la pantalla en la misma fase, sus amplitudes se suman, lo que crea un brillo máximo. Y cuando las ondas están en antifase, sus amplitudes se compensan, lo que crea un mínimo de brillo. Los cambios periódicos de brillo durante la superposición de ondas secundarias crean franjas de interferencia en la pantalla.

Pero ¿por qué la luz se comporta como una onda? Al principio, los científicos supusieron que tal vez los fotones estaban chocando entre sí y decidieron liberarlos uno por uno. Al cabo de una hora, se volvió a formar un patrón de interferencia en la pantalla. Los intentos de explicar este fenómeno han llevado a suponer que el fotón se divide, pasa a través de ambas rendijas, choca consigo mismo y forma un patrón de interferencia en la pantalla.

La curiosidad de los científicos no dio descanso. Querían saber por qué rendija pasaba realmente el fotón, así que decidieron observar. Para revelar este secreto, se colocaron detectores delante de cada rendija para registrar el paso de un fotón. Durante el experimento, resultó que el fotón pasa a través de una sola rendija, ya sea por la primera o por la segunda. Como resultado, aparecieron dos franjas de luz paralelas en la pantalla, sin un solo indicio de interferencia. ¡La observación de fotones destruyó la función de onda de la luz y los fotones comenzaron a comportarse como partículas! Mientras los fotones se encuentran en incertidumbre cuántica, se propagan como ondas. Pero cuando son observados, los fotones pierden su función de onda y comienzan a comportarse como partículas.

Luego se repitió el experimento nuevamente, con los detectores encendidos, pero sin registrar datos sobre la trayectoria de los fotones. A pesar de que el experimento repite completamente el anterior, con la excepción de la posibilidad de obtener información, después de un tiempo se volvió a formar en la pantalla un patrón de interferencia de franjas claras y oscuras.

Resulta que no cualquier observación tiene impacto, sino sólo aquella que puede proporcionar información sobre la trayectoria de los fotones. Y esto lo confirma el siguiente experimento, cuando la trayectoria de los fotones se rastrea no con la ayuda de detectores instalados frente a cada rendija, sino con la ayuda de trampas adicionales, que pueden usarse para restaurar la trayectoria del movimiento sin interactuar con los fotones originales.

borrador cuántico

Comencemos con el diagrama más simple (esto es solo una representación esquemática del experimento, no el diagrama de instalación real).


Enviemos un rayo láser a un espejo translúcido. (PÁGINAS). Normalmente, un espejo de este tipo refleja la mitad de la luz que incide sobre él y la otra mitad lo atraviesa. Pero los fotones, al encontrarse en un estado de incertidumbre cuántica, al chocar contra un espejo translúcido, eligen ambas direcciones al mismo tiempo. Luego, cada rayo es reflejado por espejos. (1) Y (2) llega a la pantalla, donde observamos franjas de interferencia. Es simple y claro: los fotones se comportan como ondas.


Ahora intentemos comprender exactamente qué camino tomaron los fotones: el superior o el inferior. Para hacer esto, instalaremos convertidores descendentes en cada ruta. (NS). Un convertidor reductor es un dispositivo que, cuando un fotón lo golpea, produce 2 fotones en la salida (cada uno con la mitad de energía), uno de los cuales golpea la pantalla ( fotón de señal), y el segundo golpea el detector (3) o (4) (fotón loco). Habiendo recibido datos de los detectores, sabremos qué camino tomó cada fotón. En este caso, el patrón de interferencia desaparece, porque hemos descubierto exactamente por dónde pasaron los fotones, lo que significa que hemos destruido la incertidumbre cuántica.


A continuación complicaremos un poco el experimento. Coloquemos espejos reflectantes en el camino de cada fotón "inactivo" y dirigámoslos al segundo espejo translúcido (a la izquierda de la fuente en el diagrama). El paso de un segundo espejo semitransparente borra información sobre la trayectoria de los fotones inactivos y restablece la interferencia (según el diseño del interferómetro de Mach Zehnder). Independientemente de qué detector funcione, no podremos saber qué camino tomaron los fotones. Con este intrincado circuito, borramos la información de selección de ruta y restauramos la incertidumbre cuántica. Como resultado, se mostrará un patrón de interferencia en la pantalla.

Si decidimos ampliar los espejos, entonces " soltero"Los fotones volverán a golpear los detectores. (3) Y (4) , y como sabemos, el patrón de interferencia desaparecerá de la pantalla. Esto significa que cambiando la posición de los espejos, podemos cambiar la imagen que se muestra en la pantalla. Esto significa que puedes usarlo para codificar información binaria.


Puedes simplificar un poco el experimento y obtener el mismo resultado moviendo un espejo translúcido por el camino. "soltero" fotones:


Como vemos, "soltero" Los fotones viajan más distancia que sus compañeros que llegan a la pantalla. Es lógico suponer que si la imagen en la pantalla se forma antes, entonces la imagen resultante no debería corresponder a si determinamos la trayectoria de los fotones o borramos esta información. Pero los experimentos prácticos muestran lo contrario: independientemente de la distancia, la imagen en la pantalla siempre corresponde a las acciones realizadas con soltero fotones. Según información de Wikipedia:
El principal resultado del experimento es que no importa si el proceso de borrado se realizó antes o después de que los fotones alcanzaran la pantalla del detector.
Una experiencia similar también se describe en el libro de Brian Greene. "El tejido del espacio y el espacio". Esto parece increíble, cambiar las relaciones de causa y efecto. Intentemos descubrir qué es qué.

una pequeña teoría

Si nos fijamos en la teoría especial de la relatividad de Einstein, a medida que aumenta la velocidad, el tiempo se ralentiza, según la fórmula:

Dónde r es la duración del tiempo, v es la velocidad relativa del objeto.

La velocidad de la luz es un valor límite, por lo que para las propias partículas de luz (fotones), el tiempo se ralentiza hasta cero. Sería más correcto decir para los fotones. no existe tiempo, para ellos sólo existe el momento actual en el que se encuentran en cualquier punto de su trayectoria. Esto puede parecer extraño, porque estamos acostumbrados a creer que la luz de estrellas distantes nos llega después de millones de años. Pero con el ISO de las partículas de luz, los fotones llegan al observador en el mismo momento en que son emitidos por estrellas distantes.

El hecho es que la actualidad para los objetos estacionarios y los objetos en movimiento puede no coincidir. Para imaginar el tiempo es necesario considerar el espacio-tiempo como un bloque continuo extendido en el tiempo. Los cortes que forman un bloque son momentos del presente para el observador. Cada segmento representa el espacio en un momento dado desde su punto de vista. Este momento incluye todos los puntos en el espacio y todos los eventos en el universo que al observador le parecen suceder simultáneamente.


Dependiendo de la velocidad del movimiento, la porción del tiempo presente dividirá el espacio-tiempo en diferentes ángulos. En la dirección del movimiento, la porción del tiempo presente se desplaza hacia el futuro. En la dirección opuesta, la porción del tiempo presente se desplaza hacia el pasado.


Cuanto mayor sea la velocidad de movimiento, mayor será el ángulo de corte. A la velocidad de la luz, la porción del tiempo presente tiene un ángulo de desplazamiento máximo de 45°, en el cual el tiempo se detiene y los fotones permanecen en un punto en el tiempo en cualquier punto de su trayectoria.

Surge una pregunta razonable: ¿cómo puede un fotón estar simultáneamente en diferentes puntos del espacio? Intentemos descubrir qué le sucede al espacio a la velocidad de la luz. Como se sabe, a medida que aumenta la velocidad se observa el efecto de una reducción relativista de la longitud, según la fórmula:

Dónde l es la longitud y v es la velocidad relativa del objeto.

No es difícil darse cuenta de que a la velocidad de la luz, cualquier longitud del espacio se comprimirá hasta alcanzar un tamaño cero. Esto significa que, en la dirección del movimiento de los fotones, el espacio se comprime en un pequeño punto de las dimensiones de Planck, en el que desaparece el concepto mismo de espacio-tiempo. Puedes decir para los fotones. no existe espacio, ya que toda su trayectoria en el espacio con el ISO de los fotones es en un punto.

Ahora sabemos que no importa la distancia recorrida señalización Y soltero los fotones llegan simultáneamente a la pantalla y a los detectores, ya que desde el punto de vista de los fotones no existe ni tiempo ni espacio. Considerando el entrelazamiento cuántico señal Y soltero fotones, cualquier impacto en un fotón afectará instantáneamente el estado de su compañero. En consecuencia, la imagen en la pantalla siempre debe corresponder a si determinamos la trayectoria de los fotones o borramos esta información. Esto proporciona el potencial para la transferencia instantánea de información. Sólo hay que tener en cuenta que el observador no se mueve a la velocidad de la luz y, por lo tanto, la imagen en la pantalla debe analizarse después de que los fotones inactivos lleguen a los detectores.

Implementación práctica

Dejemos la teoría a los teóricos y volvamos a la parte práctica de nuestro experimento. Para obtener una imagen en la pantalla, debe encender la fuente de luz y dirigir una corriente de fotones a la pantalla. La codificación de la información se producirá en un objeto remoto, moviendo un espejo translúcido a lo largo del camino. soltero fotones. Se espera que el dispositivo transmisor codifique información a intervalos regulares, por ejemplo transmitiendo cada bit de datos en una centésima de segundo.


Se puede utilizar una matriz digital sensible como pantalla para registrar directamente los cambios alternos. Luego, la información registrada debe retrasarse hasta que los fotones inactivos lleguen a su destino. Luego de esto, podrás comenzar a analizar la información registrada una por una para obtener la información transmitida. Por ejemplo, si el dispositivo de codificación está ubicado en Marte, entonces el análisis de la información debe comenzar con un retraso de diez a veinte minutos (exactamente el tiempo que tarda la luz en llegar al planeta rojo). A pesar de que la información se analiza con un retraso de decenas de minutos, la información recibida corresponderá a la transmitida desde Marte en el momento actual. En consecuencia, junto con adoptado Será necesario instalar un telémetro láser en el dispositivo para determinar con precisión el intervalo de tiempo a partir del cual comenzar a analizar la información transmitida.

También es necesario tener en cuenta que el medio ambiente tiene un impacto negativo en la información transmitida. A medida que los fotones atraviesan el espacio aéreo, se produce un proceso de decoherencia que aumenta la interferencia en la señal transmitida. Para eliminar al máximo la influencia del medio ambiente, es posible transmitir señales en un espacio sin aire utilizando satélites de comunicación.

Al organizar la comunicación bidireccional, en el futuro será posible construir canales de comunicación para la transmisión instantánea de información a cualquier distancia que pueda alcanzar nuestra nave espacial. Estos canales de comunicación serán simplemente necesarios si fuera de nuestro planeta se necesita un rápido acceso a Internet.

PD Quedaba una pregunta que intentamos evitar: ¿qué sucede si miramos la pantalla antes de que los fotones inactivos lleguen a los detectores? Teóricamente (desde el punto de vista de la teoría de la relatividad de Einstein), deberíamos ver eventos futuros. Además, si reflejáramos fotones inactivos desde un espejo distante y los devolviéramos, podríamos conocer nuestro propio futuro. Pero en realidad nuestro mundo es mucho más misterioso, por lo que es difícil dar la respuesta correcta sin realizar experimentos prácticos. Quizás veamos el futuro más probable. Pero tan pronto como recibamos esta información, el futuro puede cambiar y puede surgir una rama alternativa de eventos (según la hipótesis de interpretación de los muchos mundos de Everett). O tal vez veamos una mezcla de interferencia y dos bandas (si el panorama se compone de todos los futuros posibles).

El desarrollo humano nunca ha ocurrido de manera uniforme; ha habido períodos de estancamiento y avances tecnológicos. La historia de los fondos se desarrolló de la misma manera. En este artículo se presentan datos interesantes y descubrimientos en esta área en secuencia histórica. Increíblemente, aquello sin lo que la sociedad moderna no puede imaginar su existencia hoy en día fue considerado imposible y fantástico, y a menudo absurdo, por la humanidad a principios del siglo XX.

En los albores del desarrollo

Desde la antigüedad hasta nuestra era, la humanidad ha utilizado activamente el sonido y la luz como principal medio de transmisión de información, la historia de su uso se remonta a miles de años; Además de los diversos sonidos con los que nuestros ancestros advertían a sus compañeros de tribu sobre el peligro o los llamaban a cazar, la luz también se convirtió en una oportunidad para transmitir mensajes importantes a largas distancias. Para ello se utilizaron hogueras de señales, antorchas, lanzas ardientes, flechas y otros dispositivos. Alrededor de las aldeas se construyeron puestos de guardia con fuegos de señalización para que el peligro no sorprendiera a la gente. La variedad de información que había que transmitir llevó a la utilización de una especie de códigos y elementos técnicos sonoros auxiliares, como tambores, silbatos, gongs, cuernos de animales y otros.

El uso de códigos en el mar como prototipo del telégrafo.

La codificación recibió un desarrollo particular al moverse sobre el agua. Cuando el hombre se hizo a la mar por primera vez, aparecieron los primeros faros. Los antiguos griegos utilizaban determinadas combinaciones de antorchas para transmitir mensajes por carta. También se utilizaron en el mar banderas de señales de diversas formas y colores. Así surgió el concepto de semáforo, cuando se podían transmitir diferentes mensajes utilizando posiciones especiales de banderas o linternas. Estos fueron los primeros intentos de telegrafía. Luego vinieron los cohetes. A pesar de que la historia del desarrollo de los medios de transmisión de información no se detiene y que desde tiempos primitivos se ha producido una evolución increíble, estos medios de comunicación en muchos países y esferas de la vida aún no han perdido su importancia.

Los primeros métodos de almacenamiento de información.

Sin embargo, a la humanidad no sólo le preocupaban los medios de transmisión de información. La historia de su almacenamiento también se remonta al principio de los tiempos. Un ejemplo de esto son las pinturas rupestres de varias cuevas antiguas, porque gracias a ellas se pueden juzgar algunos aspectos de la vida de las personas en la antigüedad. Se desarrollaron métodos para recordar, registrar y almacenar información, y los dibujos en las cuevas fueron reemplazados por la escritura cuneiforme, seguida de los jeroglíficos y, finalmente, la escritura. Podemos decir que a partir de este momento comienza la historia de la creación de medios de transmisión de información a escala global.

La invención de la escritura se convirtió en la primera revolución de la información en la historia de la humanidad, porque hizo posible acumular, distribuir y transmitir conocimientos a las generaciones futuras. La escritura dio un poderoso impulso al desarrollo cultural y económico de aquellas civilizaciones que la dominaron antes que otras. En el siglo XVI se inventó la imprenta, que se convirtió en una nueva ola de revolución de la información. Se hizo posible almacenar información en grandes volúmenes y se volvió más accesible, como resultado de lo cual el concepto de "alfabetización" se generalizó. Este es un momento muy importante en la historia de la civilización humana, porque los libros pasaron a ser propiedad no solo de un país, sino también del mundo entero.

mensaje postal

El correo como medio de comunicación comenzó a utilizarse incluso antes de la invención de la escritura. Inicialmente, los mensajeros transmitían mensajes orales. Sin embargo, con la llegada de la posibilidad de escribir un mensaje, este tipo de comunicación se ha vuelto aún más demandado. Los mensajeros iban primero a pie y después a caballo. En las civilizaciones antiguas desarrolladas existía un servicio postal bien establecido basado en el principio de la carrera de relevos. Los primeros servicios postales se originaron en el Antiguo Egipto y Mesopotamia. Fueron utilizados principalmente con fines militares. El sistema postal egipcio fue uno de los primeros y más desarrollados; fueron los egipcios quienes comenzaron a utilizar palomas mensajeras. Posteriormente, el correo empezó a extenderse a otras civilizaciones.

La información es información sobre algo.

Concepto y tipos de información, transmisión y procesamiento, búsqueda y almacenamiento de información.

Ampliar contenidos

Contraer contenido

La información es, definición.

La información es cualquier información recibida y transmitida, almacenada por diversas fuentes. La información es el conjunto completo de información sobre el mundo que nos rodea, sobre todo tipo de procesos que ocurren en él y que pueden ser percibidos por organismos vivos, máquinas electrónicas y otros sistemas de información.

- Este información significativa sobre algo, cuando la forma de su presentación es también información, es decir, tiene una función formateadora acorde con su propia naturaleza.

La información es todo lo que pueda complementarse con nuestros conocimientos y suposiciones.

La información es información sobre algo, independientemente de la forma en que se presente.

La información es un producto mental de cualquier organismo psicofísico producido por él utilizando cualquier medio llamado medio de información.

La información es información percibida por humanos y (o) especialistas. dispositivos como reflejo de los hechos del mundo material o espiritual en el proceso de comunicación.

La información es datos organizados de tal manera que tengan sentido para la persona que los maneja.

La información es el significado que una persona atribuye a los datos basándose en las convenciones conocidas utilizadas para representarlos.

La información es información, explicación, presentación.

La información es cualquier dato o información que interese a cualquier persona.

La información es información sobre objetos y fenómenos del medio ambiente, sus parámetros, propiedades y estado, que son percibidos por los sistemas de información (organismos vivos, máquinas de control, etc.) en el proceso de la vida y el trabajo.

Un mismo mensaje informativo (artículo de periódico, anuncio, carta, telegrama, certificado, cuento, dibujo, transmisión de radio, etc.) puede contener diferentes cantidades de información para diferentes personas, dependiendo de sus conocimientos previos, del nivel de comprensión de este mensaje. e interés en ello.

En los casos en que hablan de trabajo automatizado con información utilizando cualquier dispositivo técnico, no les interesa el contenido del mensaje, sino cuántos caracteres contiene este mensaje.

En relación con el procesamiento de datos informáticos, se entiende por información una determinada secuencia de designaciones simbólicas (letras, números, imágenes gráficas y sonidos codificados, etc.), que tienen una carga semántica y se presentan en una forma comprensible para una computadora. Cada carácter nuevo en dicha secuencia de caracteres aumenta el volumen de información del mensaje.

Actualmente, no existe una definición única de información como término científico. Desde el punto de vista de diversas áreas del conocimiento, este concepto se describe por su conjunto específico de características. Por ejemplo, el concepto de “información” es básico en un curso de informática, y es imposible definirlo a través de otros conceptos más “simples” (al igual que en geometría, por ejemplo, es imposible expresar el contenido de la conceptos básicos “punto”, “línea”, “plano” hasta conceptos más simples).


El contenido de los conceptos básicos y básicos de cualquier ciencia debe explicarse con ejemplos o identificarse comparándolos con el contenido de otros conceptos. En el caso del concepto “información”, el problema de su definición es aún más complejo, ya que se trata de un concepto científico general. Este concepto se utiliza en diversas ciencias (informática, cibernética, biología, física, etc.), y en cada ciencia el concepto de “información” está asociado a diferentes sistemas de conceptos.


Concepto de información

En la ciencia moderna se consideran dos tipos de información:

La información objetiva (primaria) es propiedad de los objetos y fenómenos (procesos) materiales de generar una variedad de estados, que a través de interacciones (interacciones fundamentales) se transmiten a otros objetos y se imprimen en su estructura.

La información subjetiva (semántica, semántica, secundaria) es el contenido semántico de información objetiva sobre objetos y procesos del mundo material, formada por la conciencia humana con la ayuda de imágenes semánticas (palabras, imágenes y sensaciones) y registrada en algún medio material.


En el sentido cotidiano, la información es información sobre el mundo circundante y los procesos que ocurren en él, percibidos por una persona o un dispositivo especial.

Actualmente, no existe una definición única de información como término científico. Desde el punto de vista de diversas áreas del conocimiento, este concepto se describe por su conjunto específico de características. Según el concepto de K. Shannon, la información es la eliminación de la incertidumbre, es decir, información que debe eliminar, en un grado u otro, la incertidumbre existente en el consumidor antes de recibirlo, y ampliar su comprensión del objeto con información útil.


Desde el punto de vista de Gregory Beton, la unidad elemental de información es una "diferencia no indiferente" o diferencia efectiva para algún sistema de percepción más amplio. A las diferencias que no se perciben las llama “potenciales” y a las que se perciben “efectivas”. “La información consiste en diferencias que no son indiferentes” (c) “Cualquier percepción de información es necesariamente la recepción de información sobre la diferencia”. Desde el punto de vista de la informática, la información tiene una serie de propiedades fundamentales: novedad, relevancia, fiabilidad, objetividad, integridad, valor, etc. La ciencia de la lógica se ocupa principalmente del análisis de la información. La palabra información proviene del latín informatio, que significa información, explicación, familiarización. El concepto de información fue considerado por los filósofos antiguos.

Antes del inicio de la Revolución Industrial, determinar la esencia de la información seguía siendo prerrogativa principalmente de los filósofos. Luego, la nueva ciencia de la cibernética comenzó a considerar cuestiones de teoría de la información.

A veces, para comprender la esencia de un concepto, es útil analizar el significado de la palabra que denota ese concepto. Clarificar la forma interna de una palabra y estudiar la historia de su uso puede arrojar una luz inesperada sobre su significado, oscurecido por el uso "tecnológico" habitual de la palabra y sus connotaciones modernas.

La palabra información entró en el idioma ruso en la era petrina. Fue registrado por primera vez en las “Reglas Espirituales” de 1721 en el sentido de “idea, concepto de algo”. (En los idiomas europeos se estableció antes, alrededor del siglo XIV).

Según esta etimología, se puede considerar información cualquier cambio significativo de forma o, en otras palabras, cualquier rastro registrado materialmente formado por la interacción de objetos o fuerzas y susceptible de comprensión. La información, por tanto, es una forma convertida de energía. El portador de información es un signo y el método de su existencia es la interpretación: identificar el significado de un signo o una secuencia de signos.

El significado puede ser un evento reconstruido a partir de un signo que provocó su ocurrencia (en el caso de signos “naturales” e involuntarios, como huellas, evidencias, etc.), o un mensaje (en el caso de signos convencionales inherentes al ámbito). del lenguaje). Es el segundo tipo de signos que constituye el cuerpo de la cultura humana y que, según una definición, es "un conjunto de información transmitida de forma no hereditaria".

Los mensajes pueden contener información sobre hechos o interpretación de hechos (del latín interpretatio, interpretación, traducción).

Un ser vivo recibe información a través de los sentidos, así como a través de la reflexión o la intuición. El intercambio de información entre sujetos es comunicación o comunicación (del latín communicatio, mensaje, transferencia, derivado a su vez del latín communico, hacer común, comunicar, hablar, conectar).

Desde un punto de vista práctico, la información siempre se presenta en forma de mensaje. El mensaje de información está asociado al origen del mensaje, al destinatario del mensaje y al canal de comunicación.


Volviendo a la etimología latina de la palabra información, intentemos responder a la pregunta de qué se le da forma exactamente aquí.

Es obvio que, en primer lugar, a un cierto significado que, siendo inicialmente informe y no expresado, existe sólo potencialmente y debe ser "construido" para ser percibido y transmitido.

En segundo lugar, a la mente humana, que está entrenada para pensar de forma estructural y clara. En tercer lugar, a una sociedad que, precisamente porque sus miembros comparten estos significados y los utilizan juntos, gana unidad y funcionalidad.

La información expresada con significado inteligente es conocimiento que puede almacenarse, transmitirse y ser la base para la generación de otros conocimientos. Las formas de conservación del conocimiento (memoria histórica) son diversas: desde mitos, crónicas y pirámides hasta bibliotecas, museos y bases de datos informáticas.

La información es información sobre el mundo que nos rodea, sobre los procesos que ocurren en él, que son percibidos por los organismos vivos, las máquinas de control y otros sistemas de información.

La palabra "información" es latina. A lo largo de su larga vida, su significado ha evolucionado, ya sea ampliando o estrechando extremadamente sus límites. Al principio, la palabra "información" significaba: "representación", "concepto", luego "información", "transmisión de mensajes".


En los últimos años, los científicos han decidido que el significado habitual (universalmente aceptado) de la palabra “información” es demasiado elástico y vago, y le han dado el siguiente significado: “una medida de certeza en un mensaje”.

La teoría de la información cobró vida gracias a las necesidades de la práctica. Su origen está asociado al trabajo de Claude Shannon “Teoría matemática de la comunicación”, publicado en 1946. Los fundamentos de la teoría de la información se basan en resultados obtenidos por muchos científicos. En la segunda mitad del siglo XX, el mundo estaba lleno de información transmitida a través de cables telefónicos, telégrafos y canales de radio. Más tarde aparecieron las computadoras electrónicas: procesadores de información. Y en ese momento, la principal tarea de la teoría de la información era, en primer lugar, aumentar la eficiencia de los sistemas de comunicación. La dificultad a la hora de diseñar y operar medios, sistemas y canales de comunicación es que no basta con que el diseñador e ingeniero resuelva el problema desde una perspectiva física y energética. Desde estos puntos de vista, el sistema puede ser el más avanzado y económico. Pero al crear sistemas de transmisión, es importante prestar atención a cuánta información pasará a través de este sistema de transmisión. Al fin y al cabo, la información se puede medir cuantitativamente, contar. Y hacen esos cálculos de la manera más habitual: se abstraen del significado del mensaje, del mismo modo que abandonan la concreción en operaciones aritméticas que nos son familiares a todos (al pasar de sumar dos manzanas y tres manzanas a sumar números en generales: 2+3).


Los científicos dijeron que "ignoraron por completo la evaluación humana de la información". A una serie secuencial de 100 letras, por ejemplo, le asignan un determinado significado de información, sin prestar atención a si esta información tiene sentido y si, a su vez, tiene sentido en una aplicación práctica. El enfoque cuantitativo es la rama más desarrollada de la teoría de la información. Según esta definición, una colección de 100 letras (una frase de 100 letras de un periódico, una obra de Shakespeare o el teorema de Einstein) tiene exactamente la misma cantidad de información.


Esta definición de cantidad de información es sumamente útil y práctica. Corresponde exactamente a la tarea del ingeniero de comunicaciones, que debe transmitir toda la información contenida en el telegrama enviado, independientemente del valor que esta información tenga para el destinatario. El canal de comunicación no tiene alma. Una cosa es importante para el sistema de transmisión: transmitir la cantidad necesaria de información en un tiempo determinado. ¿Cómo calcular la cantidad de información en un mensaje en particular?

La evaluación de la cantidad de información se basa en las leyes de la teoría de la probabilidad, o más precisamente, se determina a través de las probabilidades de eventos. Esto es comprensible. Un mensaje tiene valor y transmite información sólo cuando aprendemos de él sobre el resultado de un evento que es de naturaleza aleatoria, cuando es hasta cierto punto inesperado. Después de todo, el mensaje sobre lo que ya se sabe no contiene ninguna información. Aquellos. Si, por ejemplo, alguien lo llama por teléfono y le dice: "De día hay luz y de noche está oscuro", entonces ese mensaje lo sorprenderá sólo con lo absurdo de decir algo obvio y conocido por todos, y no con las noticias que contiene. Otra cosa, por ejemplo, es el resultado de una carrera. ¿Quién vendrá primero? El resultado aquí es difícil de predecir. Cuanto más aleatorios sean los resultados de un evento que nos interesa, más valioso será el mensaje sobre su resultado y más información. Un mensaje sobre un evento que tiene sólo dos resultados igualmente posibles contiene una única unidad de información llamada bit. La elección de la unidad de información no es casual. Está asociado con la forma binaria más común de codificarlo durante la transmisión y el procesamiento. Intentemos, al menos de la forma más simplificada, imaginar el principio general de evaluación cuantitativa de la información, que es la piedra angular de toda teoría de la información.


Ya sabemos que la cantidad de información depende de las probabilidades de ciertos resultados de un evento. Si un evento, como dicen los científicos, tiene dos resultados igualmente probables, esto significa que la probabilidad de cada resultado es 1/2. Esta es la probabilidad de obtener cara o cruz al lanzar una moneda. Si un evento tiene tres resultados igualmente probables, entonces la probabilidad de cada uno es 1/3. Tenga en cuenta que la suma de las probabilidades de todos los resultados siempre es igual a uno: después de todo, uno de todos los resultados posibles definitivamente ocurrirá. Un evento, como usted mismo comprende, puede tener resultados desigualmente probables. Entonces, en un partido de fútbol entre un equipo fuerte y un equipo débil, la probabilidad de que gane el equipo fuerte es alta; por ejemplo, 4/5. La probabilidad de empate es mucho menor, por ejemplo 3/20. La probabilidad de derrota es muy pequeña.


Resulta que la cantidad de información es una medida para reducir la incertidumbre de una determinada situación. Se transmiten diversas cantidades de información a través de canales de comunicación y la cantidad de información que pasa a través del canal no puede ser mayor que su capacidad. Y está determinado por la cantidad de información que pasa por aquí por unidad de tiempo. Uno de los héroes de la novela de Julio Verne La isla misteriosa, el periodista Gideon Spillett, transmitió por teléfono un capítulo de la Biblia para que sus competidores no pudieran utilizar la conexión telefónica. En este caso, el canal estaba completamente cargado y la cantidad de información era igual a cero, porque la información que conocía se transmitía al suscriptor. Esto significa que el canal estaba inactivo, pasando un número estrictamente definido de pulsos sin cargarlos con nada. Mientras tanto, cuanta más información transporta cada uno de un cierto número de pulsos, más plenamente se utiliza la capacidad del canal. Por lo tanto, es necesario codificar la información de forma inteligente y encontrar un lenguaje económico y sobrante para transmitir los mensajes.


La información se "tamiza" de la manera más exhaustiva. En el telégrafo, las letras que aparecen con frecuencia, las combinaciones de letras e incluso frases enteras se representan mediante un conjunto más corto de ceros y unos, y las que aparecen con menos frecuencia se representan mediante un conjunto más largo. En el caso de que la longitud de la palabra clave se reduzca para los símbolos que aparecen con frecuencia y se aumente para los que aparecen con poca frecuencia, se habla de codificación eficaz de información. Pero en la práctica, a menudo sucede que el código que surgió como resultado del "cribado" más cuidadoso, el código es conveniente y económico, puede distorsionar el mensaje debido a interferencias, lo que, lamentablemente, siempre ocurre en los canales de comunicación: el sonido. distorsión en el teléfono, interferencias atmosféricas en la radio, distorsión u oscurecimiento de la imagen en la televisión, errores de transmisión en el telégrafo. Esta interferencia, o como la llaman los expertos, ruido, ataca la información. Y esto se traduce en sorpresas de lo más increíbles y, por supuesto, desagradables.


Por lo tanto, para aumentar la confiabilidad en la transmisión y procesamiento de información, es necesario introducir caracteres adicionales, una especie de protección contra la distorsión. Ellos (estos símbolos adicionales) no transmiten el contenido real del mensaje, son redundantes. Desde el punto de vista de la teoría de la información, todo lo que hace que un lenguaje sea colorido, flexible, rico en matices, multifacético y polivalente es redundancia. ¡Cuán redundante es, desde ese punto de vista, la carta de Tatiana a Onegin! ¡Cuánto exceso de información hay en él para un breve y comprensible mensaje “te amo”! Y qué información precisa son los carteles dibujados a mano, comprensibles para todos los que entran hoy en el metro, donde en lugar de palabras y frases de anuncios hay carteles simbólicos lacónicos que indican: "Entrada", "Salida".


En este sentido, es útil recordar la anécdota que contó una vez el famoso científico estadounidense Benjamin Franklin sobre un fabricante de sombreros que invitó a sus amigos a discutir un proyecto de letrero. Se suponía que debía dibujar un sombrero en el letrero y escribir: “John Thompson. , un fabricante de sombreros, fabrica y vende sombreros por dinero en efectivo. Uno de los amigos notó que las palabras "por dinero en efectivo" son innecesarias; tal recordatorio resultaría ofensivo para el comprador. Otro también consideró superflua la palabra “vende”, ya que, por supuesto, el sombrerero vende sombreros y no los regala. El tercero pensó que las palabras “sombrerero” y “hace sombreros” eran una tautología innecesaria, y estas últimas fueron descartadas. El cuarto sugirió que también se debería descartar la palabra "sombrerero": el sombrero pintado dice claramente quién es John Thompson. Finalmente, el quinto insistió en que para el comprador no importaba en absoluto si el sombrerero se llamaba John Thompson o cualquier otra cosa, y sugirió que se prescindiera de esta indicación, de modo que al final no quedó nada en el cartel excepto el sombrero. Por supuesto, si la gente utilizara sólo este tipo de códigos, sin redundancia en los mensajes, entonces todos los "formularios de información" (libros, informes, artículos) serían extremadamente breves. Pero perderían claridad y belleza.

La información se puede dividir en tipos según diferentes criterios: en verdad: verdadero y falso;

a modo de percepción:

Visual: percibido por los órganos de la visión;

Auditivo: percibido por los órganos de la audición;

Táctil: percibido por receptores táctiles;

Olfativo: percibido por receptores olfativos;

Gustativo: percibido por las papilas gustativas.


según forma de presentación:

Texto: transmitido en forma de símbolos destinados a denotar lexemas del idioma;

Numérico: en forma de números y signos que indican operaciones matemáticas;

Gráfico: en forma de imágenes, objetos, gráficos;

Sonido: transmisión oral o grabada de lexemas lingüísticos por medios auditivos.


por finalidad:

Masa: contiene información trivial y opera con un conjunto de conceptos comprensibles para la mayor parte de la sociedad;

Especial: contiene un conjunto específico de conceptos; cuando se usa, se transmite información que puede no ser comprensible para la mayor parte de la sociedad, pero que es necesaria y comprensible dentro del grupo social reducido donde se usa esta información;

Secreto: transmitido a un círculo reducido de personas y a través de canales cerrados (protegidos);

Personal (privado): un conjunto de información sobre una persona que determina el estatus social y los tipos de interacciones sociales dentro de la población.


por valor:

Relevante: información que es valiosa en un momento dado;

Confiable: información obtenida sin distorsión;

Comprensible: información expresada en un idioma comprensible para aquellos a quienes está destinada;

Completo: información suficiente para tomar la decisión o comprensión correctas;

Útil: la utilidad de la información la determina el sujeto que la recibió en función del alcance de las posibilidades de su uso.


El valor de la información en diversos campos del conocimiento.

En la teoría de la información, hoy en día se están desarrollando muchos sistemas, métodos, enfoques e ideas. Sin embargo, los científicos creen que a las modernas se sumarán nuevas direcciones en la teoría de la información y aparecerán nuevas ideas. Como prueba de la exactitud de sus suposiciones, citan la naturaleza "viva" y en desarrollo de la ciencia, señalando que la teoría de la información se está introduciendo sorprendentemente rápida y firmemente en las más diversas áreas del conocimiento humano. La teoría de la información ha penetrado en la física, la química, la biología, la medicina, la filosofía, la lingüística, la pedagogía, la economía, la lógica, las ciencias técnicas y la estética. Según los propios expertos, la doctrina de la información, que surgió de las necesidades de la teoría de las comunicaciones y la cibernética, ha traspasado sus fronteras. Y ahora, quizás, tengamos derecho a hablar de información como un concepto científico que pone en manos de los investigadores un método teórico-informativo con el que se puede penetrar en muchas ciencias sobre la naturaleza viva e inanimada, sobre la sociedad, que no sólo le permitirá ver todos los problemas desde una nueva perspectiva, sino también ver lo que aún no se ha visto. Es por eso que el término "información" se ha generalizado en nuestro tiempo, pasando a formar parte de conceptos como sistema de información, cultura de la información e incluso ética de la información.


Muchas disciplinas científicas utilizan la teoría de la información para resaltar nuevas direcciones en las ciencias antiguas. Así surgieron, por ejemplo, la geografía de la información, la economía de la información y el derecho de la información. Pero el término "información" ha adquirido una importancia extremadamente grande en relación con el desarrollo de las últimas tecnologías informáticas, la automatización del trabajo mental, el desarrollo de nuevos medios de comunicación y procesamiento de información y, especialmente, con el surgimiento de la informática. Una de las tareas más importantes de la teoría de la información es el estudio de la naturaleza y las propiedades de la información, la creación de métodos para procesarla, en particular la transformación de una amplia variedad de información moderna en programas de computadora, con la ayuda de la cual la automatización de Se produce trabajo mental, una especie de fortalecimiento de la inteligencia y, por lo tanto, el desarrollo de los recursos intelectuales de la sociedad.


La palabra información proviene del latín informatio, que significa información, explicación, introducción. El concepto de “información” es básico en una carrera de informática, pero es imposible definirlo a través de otros conceptos más “simples”. El concepto de “información” se utiliza en varias ciencias, y en cada ciencia se utiliza el concepto de “. información” está asociada a diferentes sistemas de conceptos. Información en biología: La biología estudia la naturaleza viva y el concepto de “información” está asociado al comportamiento apropiado de los organismos vivos. En los organismos vivos, la información se transmite y almacena mediante objetos de diferente naturaleza física (estado de ADN), que se consideran signos de alfabetos biológicos. La información genética se hereda y almacena en todas las células de los organismos vivos. Enfoque filosófico: La información es interacción, reflexión, cognición. Enfoque cibernético: la información son las características de una señal de control transmitida a través de una línea de comunicación.

El papel de la información en la filosofía.

El tradicionalismo de lo subjetivo dominó constantemente en las primeras definiciones de la información como categoría, concepto y propiedad del mundo material. La información existe fuera de nuestra conciencia y puede reflejarse en nuestra percepción sólo como resultado de la interacción: reflexión, lectura, recepción en forma de señal, estímulo. La información no es material, como todas las propiedades de la materia. La información se presenta en el siguiente orden: materia, espacio, tiempo, sistematicidad, función, etc., que son los conceptos fundamentales de un reflejo formalizado de la realidad objetiva en su distribución y variabilidad, diversidad y manifestaciones. La información es una propiedad de la materia y refleja sus propiedades (estado o capacidad de interactuar) y cantidad (medida) a través de la interacción.


Desde un punto de vista material, la información es el orden de los objetos en el mundo material. Por ejemplo, el orden de las letras en una hoja de papel según ciertas reglas es información escrita. El orden de los puntos multicolores en una hoja de papel según ciertas reglas es información gráfica. El orden de las notas musicales es información musical. El orden de los genes en el ADN es información hereditaria. El orden de los bits en una computadora es información de la computadora, etc. etc. Para realizar el intercambio de información se requiere la presencia de condiciones necesarias y suficientes.

Requisitos previos:

La presencia de al menos dos objetos diferentes del mundo material o intangible;

La presencia de una propiedad común entre objetos que permite identificarlos como portadores de información;

La presencia de una propiedad específica en los objetos que permite distinguirlos entre sí;

La presencia de una propiedad espacial que le permite determinar el orden de los objetos. Por ejemplo, la disposición de la información escrita en papel es una propiedad específica del papel que permite ordenar las letras de izquierda a derecha y de arriba a abajo.


Sólo hay una condición suficiente: la presencia de un sujeto capaz de reconocer información. Este es el hombre y la sociedad humana, sociedades de animales, robots, etc. Un mensaje de información se construye seleccionando copias de objetos a partir de una base y disponiéndolos en el espacio en un orden determinado. La longitud del mensaje de información se define como el número de copias de los objetos básicos y siempre se expresa como un número entero. Es necesario distinguir entre la longitud del mensaje de información, que siempre se mide en un número entero, y la cantidad de conocimiento contenido en el mensaje de información, que se mide en una unidad de medida desconocida. Desde un punto de vista matemático, la información es una secuencia de números enteros que se escriben en un vector. Los números son el número de objeto en la base de información. El vector se denomina invariante de información porque no depende de la naturaleza física de los objetos base. Un mismo mensaje informativo puede expresarse en letras, palabras, frases, archivos, imágenes, notas, canciones, videoclips, cualquier combinación de todo lo anterior.

El papel de la información en la física.

La información es información sobre el mundo circundante (objeto, proceso, fenómeno, evento), que es objeto de transformación (incluido almacenamiento, transmisión, etc.) y se utiliza para desarrollar comportamientos, para la toma de decisiones, para la gestión o para el aprendizaje.


Los rasgos característicos de la información son los siguientes:

Este es el recurso más importante de la producción moderna: reduce la necesidad de tierra, mano de obra, capital y reduce el consumo de materias primas y energía. Entonces, por ejemplo, si tiene la capacidad de archivar sus archivos (es decir, si tiene dicha información), no tiene que gastar dinero en comprar nuevos disquetes;

La información da vida a nuevas producciones. Por ejemplo, la invención del rayo láser fue el motivo del surgimiento y desarrollo de la producción de discos láser (ópticos);

La información es una mercancía y el vendedor de información no la pierde después de la venta. Entonces, si un estudiante le cuenta a su amigo información sobre el horario de clases durante el semestre, no perderá estos datos;

La información añade valor a otros recursos, en particular a la mano de obra. De hecho, un trabajador con educación superior es valorado más que uno con educación secundaria.


Como se desprende de la definición, siempre hay tres conceptos asociados con la información:

La fuente de información es ese elemento del mundo circundante (objeto, proceso, fenómeno, evento), información sobre el cual es objeto de transformación. Así, la fuente de información que recibe actualmente el lector de este libro de texto es la informática como ámbito de la actividad humana;

Un consumidor de información es aquel elemento del mundo circundante que utiliza información (para desarrollar comportamientos, tomar decisiones, gestionar o aprender). El consumidor de esta información es el propio lector;

Una señal es un medio material que registra información para transferirla de una fuente a un consumidor. En este caso, la señal es de naturaleza electrónica. Si un estudiante toma este manual de la biblioteca, la misma información estará en papel. Una vez leída y recordada por el estudiante, la información adquirirá otro medio, el biológico, cuando quede “grabada” en la memoria del estudiante.


La señal es el elemento más importante en este circuito. Las formas de su presentación, así como las características cuantitativas y cualitativas de la información que contiene, que son importantes para el consumidor de información, se analizan con más detalle en esta sección del libro de texto. Las principales características de una computadora como herramienta principal que transforma la fuente de información en una señal (enlace 1 en la figura) y "lleva" la señal al consumidor de información (enlace 2 en la figura) se dan en la sección Computadora. . La estructura de los procedimientos que implementan las conexiones 1 y 2 y conforman el proceso de información es el tema de consideración en la sección Proceso de información.

Los objetos del mundo material se encuentran en un estado de cambio continuo, que se caracteriza por el intercambio de energía entre el objeto y el medio ambiente. Un cambio en el estado de un objeto siempre conduce a un cambio en el estado de algún otro objeto ambiental. Este fenómeno, independientemente de cómo, qué estados específicos y qué objetos específicos hayan cambiado, puede considerarse como la transmisión de una señal de un objeto a otro. Cambiar el estado de un objeto cuando se le transmite una señal se llama registro de señal.


Una señal o una secuencia de señales forma un mensaje que puede ser percibido por el destinatario de una forma u otra, así como en uno u otro volumen. Información en física es un término que generaliza cualitativamente los conceptos de "señal" y "mensaje". Si las señales y los mensajes se pueden cuantificar, entonces podemos decir que las señales y los mensajes son unidades de medida del volumen de información. El mensaje (señal) es interpretado de manera diferente por diferentes sistemas. Por ejemplo, un pitido sucesivamente largo y dos cortos en la terminología del código Morse es la letra de (o D), en la terminología BIOS de AWARD: un mal funcionamiento de la tarjeta de video.

El papel de la información en las matemáticas.

En matemáticas, la teoría de la información (teoría de la comunicación matemática) es una sección de las matemáticas aplicadas que define el concepto de información, sus propiedades y establece relaciones limitantes para los sistemas de transmisión de datos. Las principales ramas de la teoría de la información son la codificación de fuente (codificación de compresión) y la codificación de canal (resistente al ruido). Las matemáticas son más que una disciplina científica. Crea un lenguaje unificado para toda la ciencia.


El tema de la investigación matemática son los objetos abstractos: número, función, vector, conjunto y otros. Además, la mayoría de ellos se introducen de forma axiomática (axioma), es decir. sin conexión alguna con otros conceptos y sin definición alguna.

La información no forma parte del estudio de las matemáticas. Sin embargo, la palabra "información" se utiliza en términos matemáticos: autoinformación e información mutua, relacionada con la parte abstracta (matemática) de la teoría de la información. Sin embargo, en la teoría matemática el concepto de "información" se asocia exclusivamente con objetos abstractos (variables aleatorias), mientras que en la teoría de la información moderna este concepto se considera de manera mucho más amplia, como una propiedad de los objetos materiales. La conexión entre estos dos términos idénticos es innegable. Fue el aparato matemático de números aleatorios el que utilizó el autor de la teoría de la información, Claude Shannon. Él mismo entiende con el término “información” algo fundamental (irreductible). La teoría de Shannon supone intuitivamente que la información tiene contenido. La información reduce la incertidumbre general y la entropía de la información. La cantidad de información es mensurable. Sin embargo, advierte a los investigadores contra la transferencia mecánica de conceptos de su teoría a otras áreas de la ciencia.


“La búsqueda de formas de aplicar la teoría de la información en otros campos de la ciencia no se reduce a una transferencia trivial de términos de un campo de la ciencia a otro. Esta búsqueda se lleva a cabo en un largo proceso de formulación de nuevas hipótesis y su verificación experimental. .” K. Shannon.

El papel de la información en la cibernética

El fundador de la cibernética, Norbert Wiener, habló de esta información:

La información no es materia ni energía, la información es información." Pero la definición básica de información, que dio en varios de sus libros, es la siguiente: información es una designación del contenido que recibimos del mundo exterior, en el proceso de adaptándonos a nosotros y a nuestros sentimientos.

La información es el concepto básico de la cibernética, del mismo modo que la información económica es el concepto básico de la cibernética económica.


Existen muchas definiciones de este término, son complejas y contradictorias. La razón, obviamente, es que la cibernética como fenómeno es estudiada por diferentes ciencias, y la cibernética es sólo la más joven de ellas. La información es objeto de estudio de ciencias como las ciencias de la gestión, la estadística matemática, la genética, la teoría de los medios de comunicación (prensa escrita, radio, televisión), la informática, que se ocupa de los problemas de la información científica y técnica, etc. Últimamente los filósofos muestran un gran interés por los problemas de la energía: tienden a considerar la energía como una de las principales propiedades universales de la materia, asociada al concepto de reflexión. En todas las interpretaciones del concepto de información, se presupone la existencia de dos objetos: la fuente de información y el consumidor (destinatario) de la información. La transmisión de información de uno a otro se produce mediante señales que, en general, puede no tener ninguna conexión física con su significado: esta comunicación se determina mediante acuerdo. Por ejemplo, tocar la campana veche significaba que había que reunirse para la plaza, pero a quienes no conocían esta orden no les comunicaba ninguna información.


En una situación con una campana veche, la persona que participa en el acuerdo sobre el significado de la señal sabe que en este momento puede haber dos alternativas: la reunión veche se llevará a cabo o no. O, en el lenguaje de la teoría de la información, un evento incierto (veche) tiene dos resultados. La señal recibida conduce a una disminución de la incertidumbre: la persona ahora sabe que el evento (la noche) tiene un solo resultado: se llevará a cabo. Sin embargo, si bien se sabía de antemano que la reunión tendría lugar a tal hora, la campana no anunció nada nuevo. De ello se deduce que cuanto menos probable (es decir, más inesperado) es el mensaje, más información contiene, y viceversa, mayor es la probabilidad del resultado antes de que ocurra el evento, menos información contiene. Aproximadamente el mismo razonamiento se hizo en los años 40. Siglo XX al surgimiento de una teoría de la información estadística o "clásica", que define el concepto de información a través de la medida de reducir la incertidumbre del conocimiento sobre la ocurrencia de un evento (esta medida se llamó entropía). Los orígenes de esta ciencia fueron N. Wiener, K. Shannon y los científicos soviéticos A. N. Kolmogorov, V. A. Kotelnikov y otros. Pudieron derivar leyes matemáticas para medir la cantidad de información y, de ahí, conceptos como capacidad de canal y capacidad de almacenamiento. de I. dispositivos, etc., que sirvieron como un poderoso incentivo para el desarrollo de la cibernética como ciencia y la tecnología de computación electrónica como una aplicación práctica de los logros de la cibernética.


En cuanto a determinar el valor y la utilidad de la información para el destinatario, todavía quedan muchas cosas sin resolver y poco claras. Si partimos de las necesidades de la gestión económica y, por tanto, de la cibernética económica, entonces la información puede definirse como toda aquella información, conocimiento y mensajes que ayudan a resolver un problema de gestión particular (es decir, reducir la incertidumbre de sus resultados). Entonces se abren algunas oportunidades para evaluar la información: cuanto más útil y valiosa sea, más pronto o con menos coste conducirá a la solución del problema. El concepto de información se acerca al concepto de datos. Sin embargo, hay una diferencia entre ellos: los datos son señales de las que aún es necesario extraer información. El procesamiento de datos es el proceso de darles una forma adecuada para ello.


Se puede considerar que el proceso de transmisión desde la fuente al consumidor y su percepción como información pasa por tres filtros:

Físicas o estadísticas (limitación puramente cuantitativa de la capacidad del canal, independientemente del contenido de los datos, es decir, desde el punto de vista sintáctico);

Semántico (selección de aquellos datos que puedan ser entendidos por el destinatario, es decir, que correspondan al tesauro de su conocimiento);

Pragmático (selección entre información entendida de aquellas que son útiles para resolver un problema determinado).

Esto se muestra claramente en el diagrama tomado del libro de E. G. Yasin sobre información económica. En consecuencia, se distinguen tres aspectos del estudio de los problemas lingüísticos: sintáctico, semántico y pragmático.


Según su contenido, la información se divide en sociopolítica, socioeconómica (incluida la información económica), científica y técnica, etc. En general, existen muchas clasificaciones de información que se basan en diversas bases; Como regla general, debido a la proximidad de los conceptos, las clasificaciones de datos se construyen de la misma manera. Por ejemplo, la información se divide en estática (constante) y dinámica (variable), y los datos se dividen en constante y variable. Otra división es la información de salida primaria, derivada (los datos también se clasifican de la misma manera). La tercera división es I. controlar e informar. Cuarto: redundante, útil y falso. Quinto: completo (continuo) y selectivo. Esta idea de Wiener da una indicación directa de la objetividad de la información, es decir su existencia en la naturaleza es independiente de la conciencia humana (percepción).

La cibernética moderna define la información objetiva como la propiedad objetiva de los objetos y fenómenos materiales de generar una variedad de estados que, a través de las interacciones fundamentales de la materia, se transmiten de un objeto (proceso) a otro y quedan impresos en su estructura. Un sistema material en cibernética se considera como un conjunto de objetos que a su vez pueden estar en diferentes estados, pero el estado de cada uno de ellos está determinado por los estados de otros objetos del sistema.

En la naturaleza, muchos estados de un sistema representan información; los propios estados representan el código primario o código fuente. Por tanto, todo sistema material es una fuente de información. La cibernética define la información subjetiva (semántica) como el significado o contenido de un mensaje.

El papel de la información en la informática.

El tema de la ciencia son los datos: métodos para su creación, almacenamiento, procesamiento y transmisión. Contenido (también: “relleno” (en contexto), “contenido del sitio”) es un término que significa todo tipo de información (tanto texto como multimedia - imágenes, audio, video) que compone el contenido (contenido visualizado, para el visitante). ) del sitio web. Se utiliza para separar el concepto de información que constituye la estructura interna de una página/sitio (código) de lo que finalmente se mostrará en la pantalla.

La palabra información proviene del latín informatio, que significa información, explicación, introducción. El concepto de “información” es básico en una carrera de informática, pero es imposible definirlo a través de otros conceptos más “simples”.


Se pueden distinguir los siguientes enfoques para determinar la información:

Tradicional (ordinario): utilizado en informática: información es información, conocimiento, mensajes sobre el estado de cosas que una persona percibe del mundo exterior mediante los sentidos (visión, oído, gusto, olfato, tacto).

Probabilístico: utilizado en la teoría de la información: la información es información sobre objetos y fenómenos del medio ambiente, sus parámetros, propiedades y estado, que reducen el grado de incertidumbre y conocimiento incompleto sobre ellos.


La información se almacena, transmite y procesa en forma simbólica (signo). La misma información se puede presentar de diferentes formas:

Escritura de signos, formada por varios signos, entre los que se distinguen los simbólicos en forma de texto, números, especiales. personajes; gráfico; tabulares, etc.;

En forma de gestos o señales;

Forma verbal oral (conversación).


La información se presenta utilizando lenguajes como sistemas de signos, que se construyen sobre la base de un alfabeto específico y tienen reglas para realizar operaciones con signos. El lenguaje es un sistema de signos específico para presentar información. Hay:

Las lenguas naturales son lenguas habladas en forma hablada y escrita. En algunos casos, el lenguaje hablado puede ser reemplazado por el lenguaje de expresiones faciales y gestos, el lenguaje de señales especiales (por ejemplo, señales de tráfico);

Los lenguajes formales son lenguajes especiales para diversas áreas de la actividad humana, que se caracterizan por un alfabeto estrictamente fijo y reglas gramaticales y sintaxis más estrictas. Este es el lenguaje de la música (notas), el lenguaje de las matemáticas (números, símbolos matemáticos), sistemas numéricos, lenguajes de programación, etc. La base de cualquier idioma es el alfabeto: un conjunto de símbolos/signos. El número total de símbolos del alfabeto suele denominarse potencia del alfabeto.


Los medios de información son un medio o cuerpo físico para transmitir, almacenar y reproducir información. (Se trata de señales eléctricas, luminosas, térmicas, sonoras, de radio, discos magnéticos y láser, publicaciones impresas, fotografías, etc.)

Los procesos de información son procesos asociados con la recepción, almacenamiento, procesamiento y transmisión de información (es decir, acciones realizadas con información). Aquellos. Son procesos durante los cuales cambia el contenido de la información o la forma de su presentación.

Para asegurar el proceso de información se requiere una fuente de información, un canal de comunicación y un consumidor de información. La fuente transmite (envía) información y el receptor la recibe (percibe). La información transmitida viaja desde la fuente al receptor mediante una señal (código). Cambiar la señal le permite obtener información.

Al ser objeto de transformación y uso, la información se caracteriza por las siguientes propiedades:

La sintaxis es una propiedad que determina la forma en que se presenta la información en un medio (en una señal). Así, esta información se presenta en soporte electrónico utilizando una fuente específica. Aquí también puede considerar parámetros de presentación de información como el estilo y color de la fuente, su tamaño, interlineado, etc. La selección de los parámetros necesarios como propiedades sintácticas está obviamente determinada por el método de transformación previsto. Por ejemplo, para una persona con problemas de visión, el tamaño y el color de la fuente son importantes. Si planea ingresar este texto en una computadora mediante un escáner, el tamaño del papel es importante;


La semántica es una propiedad que determina el significado de la información como la correspondencia de una señal con el mundo real. Por tanto, la semántica de la señal "informática" reside en la definición dada anteriormente. La semántica puede considerarse como algún acuerdo, conocido por el consumidor de información, sobre lo que significa cada señal (la llamada regla de interpretación). Por ejemplo, es la semántica de las señales lo que estudia un automovilista novato, estudiando las reglas de la carretera, aprendiendo las señales de tráfico (en este caso, las señales en sí son señales). La semántica de las palabras (señales) la aprende un estudiante de una lengua extranjera. Podemos decir que el objetivo de la enseñanza de la informática es estudiar la semántica de diversas señales, la esencia de los conceptos clave de esta disciplina;


La pragmática es una propiedad que determina la influencia de la información en el comportamiento del consumidor. Por lo tanto, la pragmática de la información recibida por el lector de este libro de texto es, como mínimo, la aprobación exitosa del examen de informática. Me gustaría creer que la pragmática de este trabajo no se limitará a esto, sino que servirá para la educación superior y las actividades profesionales del lector.

Cabe señalar que las señales que difieren en sintaxis pueden tener la misma semántica. Por ejemplo, las señales "computadora" y "computadora" significan un dispositivo electrónico para convertir información. En este caso solemos hablar de sinonimia de señales. Por otro lado, una señal (es decir, información con una propiedad sintáctica) puede tener una pragmática diferente para los consumidores y una semántica diferente. Así, una señal de tráfico conocida como “ladrillo” y que tiene una semántica muy específica (“entrada prohibida”) significa para un automovilista una prohibición de entrada, pero no tiene ningún efecto para un peatón. Al mismo tiempo, la señal "llave" puede tener diferentes semánticas: una clave de sol, una clave de resorte, una llave para abrir una cerradura, una llave utilizada en informática para codificar una señal con el fin de protegerla del acceso no autorizado (en en este caso se habla de homonimia de señales). Hay señales, antónimos que tienen semánticas opuestas. Por ejemplo, “frío” y “caliente”, “rápido” y “lento”, etc.


El tema de estudio de la ciencia de la informática son los datos: métodos de su creación, almacenamiento, procesamiento y transmisión. Y la información misma registrada en los datos, su significado significativo, es de interés para los usuarios de sistemas de información que son especialistas en diversas ciencias y campos de actividad: un médico está interesado en información médica, un geólogo está interesado en información geológica, un empresario está interesado en información comercial, etc. (En particular, un informático está interesado en información sobre cómo trabajar con datos).

Semiótica - ciencia de la información.

La información no se puede imaginar sin su recepción, procesamiento, transmisión, etc., es decir, fuera del marco del intercambio de información. Todos los actos de intercambio de información se realizan a través de símbolos o signos, con la ayuda de los cuales un sistema influye en otro. Por tanto, la principal ciencia que estudia la información es la semiótica, la ciencia de los signos y los sistemas de signos en la naturaleza y la sociedad (teoría de los signos). En cada acto de intercambio de información se pueden encontrar tres “participantes”, tres elementos: un signo, un objeto que designa y un destinatario (usuario) del signo.


Dependiendo de las relaciones entre los elementos que se consideren, la semiótica se divide en tres secciones: sintáctica, semántica y pragmática. La sintáctica estudia los signos y las relaciones entre ellos. Al mismo tiempo, hace abstracción del contenido del signo y de su significado práctico para el destinatario. La semántica estudia la relación entre los signos y los objetos que denotan, haciendo abstracción del destinatario de los signos y del valor de estos últimos: para él. Está claro que estudiar los patrones de representación semántica de objetos en signos es imposible sin tener en cuenta y utilizar los patrones generales de construcción de cualquier sistema de signos estudiado por la sintáctica. La pragmática estudia la relación entre los signos y sus usuarios. En el marco de la pragmática, se estudian todos los factores que distinguen un acto de intercambio de información de otro, todas las cuestiones sobre los resultados prácticos del uso de la información y su valor para el destinatario.


En este caso, muchos aspectos de la relación de los signos entre sí y con los objetos que denotan se ven inevitablemente afectados. Así, las tres secciones de la semiótica corresponden a tres niveles de abstracción (distracción) de las características de actos específicos de intercambio de información. El estudio de la información en toda su diversidad corresponde al nivel pragmático. Distrayéndonos del destinatario de la información, excluyéndolo de la consideración, pasamos a estudiarla a nivel semántico. Con la abstracción del contenido de los signos, el análisis de la información se traslada al nivel de la sintáctica. Esta interpenetración de las principales secciones de la semiótica, asociadas con diferentes niveles de abstracción, se puede representar mediante el diagrama "Tres secciones de la semiótica y sus interrelaciones". La medición de la información se realiza en consecuencia en tres aspectos: sintáctico, semántico y pragmático. La necesidad de dimensiones de información tan diferentes, como se mostrará a continuación, está dictada por la práctica de diseñar y organizar el trabajo de los sistemas de información. Consideremos una situación de producción típica.


Al final del turno, el planificador del sitio prepara los datos del programa de producción. Estos datos ingresan al centro de información y computación (ICC) de la empresa, donde se procesan y se envían a los gerentes en forma de informes sobre el estado actual de la producción. Según los datos recibidos, el director del taller toma la decisión de cambiar el plan de producción para el próximo período de planificación o tomar otras medidas organizativas. Obviamente, para el gerente de la tienda, la cantidad de información contenida en el currículum depende de la magnitud del impacto económico recibido por su uso en la toma de decisiones, de qué tan útil fue la información recibida. Para el planificador del sitio, la cantidad de información en un mismo mensaje está determinada por la exactitud de su correspondencia con el estado real de las cosas en el sitio y el grado de sorpresa de los hechos informados. Cuanto más inesperados sean, antes deberá informarlos a la gerencia y más información habrá en este mensaje. Para los trabajadores de ICC, la cantidad de caracteres y la longitud del mensaje que contiene información serán de suma importancia, ya que es de esto de lo que depende el tiempo de carga de los equipos informáticos y los canales de comunicación. Al mismo tiempo, prácticamente no les interesa ni la utilidad de la información ni la medida cuantitativa del valor semántico de la información.


Naturalmente, al organizar un sistema de gestión de la producción y construir modelos de selección de decisiones, utilizaremos la utilidad de la información como medida del carácter informativo de los mensajes. Al construir un sistema de contabilidad y presentación de informes que proporcione gestión de datos sobre el progreso del proceso de producción, la novedad de la información recibida debe tomarse como una medida de la cantidad de información. La organización de procedimientos de procesamiento mecánico de información requiere medir el volumen de mensajes en forma de número de caracteres procesados. Estos tres enfoques fundamentalmente diferentes para medir la información no son contradictorios ni mutuamente excluyentes. Por el contrario, al medir la información en diferentes escalas, permiten una evaluación más completa e integral del contenido informativo de cada mensaje y organizan de manera más efectiva un sistema de gestión de la producción. Según la acertada expresión del Prof. NO. Kobrinsky, cuando se trata de la organización racional de los flujos de información, la cantidad, novedad y utilidad de la información están tan interconectadas como la cantidad, la calidad y el costo de los productos en producción.

Información en el mundo material.

La información es uno de los conceptos generales asociados a la materia. La información existe en cualquier objeto material en forma de una variedad de sus estados y se transfiere de un objeto a otro en el proceso de su interacción. La existencia de información como propiedad objetiva de la materia se deriva lógicamente de las propiedades fundamentales conocidas de la materia: estructura, cambio (movimiento) continuo e interacción de los objetos materiales.


La estructura de la materia se manifiesta como el desmembramiento interno de la integridad, el orden natural de conexión de los elementos dentro del todo. En otras palabras, cualquier objeto material, desde la partícula subatómica del Meta Universo (Big Bang) en su conjunto, es un sistema de subsistemas interconectados. Debido al movimiento continuo, entendido en un sentido amplio como movimiento en el espacio y desarrollo en el tiempo, los objetos materiales cambian de estado. Los estados de los objetos también cambian durante las interacciones con otros objetos. El conjunto de estados de un sistema material y todos sus subsistemas representa información sobre el sistema.


Estrictamente hablando, debido a la incertidumbre, el infinito y las propiedades de la estructura, la cantidad de información objetiva en cualquier objeto material es infinita. Esta información se llama completa. Sin embargo, es posible distinguir niveles estructurales con conjuntos finitos de estados. La información que existe a nivel estructural con un número finito de estados se llama privada. Para la información privada, el concepto de cantidad de información tiene sentido.

De la presentación anterior, es lógico y sencillo seleccionar una unidad de medida para la cantidad de información. Imaginemos un sistema que sólo puede estar en dos estados igualmente probables. Asignemos el código “1” a uno de ellos y “0” al otro. Esta es la cantidad mínima de información que el sistema puede contener. Es una unidad de medida de información y se llama bit. Existen otros métodos y unidades, más difíciles de definir, para medir la cantidad de información.


Dependiendo de la forma material del medio, la información es de dos tipos principales: analógica y discreta. La información analógica cambia continuamente con el tiempo y toma valores de un continuo de valores. La información discreta cambia en algunos momentos y toma valores de un determinado conjunto de valores. Cualquier objeto o proceso material es la fuente primaria de información. Todos sus posibles estados conforman el código fuente de información. El valor instantáneo de los estados se representa como un símbolo (“letra”) de este código. Para que la información se transmita de un objeto a otro como receptor es necesario que exista algún tipo de medio material intermedio que interactúe con la fuente. Tales portadores en la naturaleza, por regla general, son procesos de estructura ondulatoria que se propagan rápidamente: radiación cósmica, gamma y de rayos X, ondas electromagnéticas y sonoras, potenciales (y quizás ondas aún no descubiertas) del campo gravitacional. Cuando la radiación electromagnética interactúa con un objeto como resultado de absorción o reflexión, su espectro cambia, es decir, las intensidades de algunas longitudes de onda cambian. Los armónicos de las vibraciones del sonido también cambian durante las interacciones con los objetos. La información también se transmite mediante interacción mecánica, pero la interacción mecánica, por regla general, conduce a grandes cambios en la estructura de los objetos (hasta su destrucción) y la información se distorsiona enormemente. La distorsión de la información durante su transmisión se llama desinformación.


La transferencia de información fuente a la estructura del medio se llama codificación. En este caso, el código fuente se convierte en código portador. El medio al que se le transfiere el código fuente en forma de código portador se llama señal. El receptor de señal tiene su propio conjunto de estados posibles, que se denomina código del receptor. Una señal, al interactuar con un objeto receptor, cambia su estado. El proceso de convertir un código de señal en un código de receptor se llama decodificación. La transferencia de información de una fuente a un receptor puede considerarse como interacción de información. La interacción de información es fundamentalmente diferente de otras interacciones. En todas las demás interacciones de objetos materiales, se produce un intercambio de materia y (o) energía. En este caso, uno de los objetos pierde materia o energía y el otro la gana. Esta propiedad de las interacciones se llama simetría. Durante la interacción de información, el receptor recibe información, pero la fuente no la pierde. La interacción de la información es asimétrica. La información objetiva en sí misma no es material, es una propiedad de la materia, como la estructura, el movimiento, y existe en los medios materiales en forma de sus propios códigos.

Información en vida silvestre

La vida silvestre es compleja y diversa. Las fuentes y receptores de información que contiene son los organismos vivos y sus células. Un organismo tiene una serie de propiedades que lo distinguen de los objetos materiales inanimados.


Básico:

Intercambio continuo de materia, energía e información con el medio ambiente;

Irritabilidad, la capacidad del cuerpo para percibir y procesar información sobre cambios en el entorno y el entorno interno del cuerpo;

Excitabilidad, la capacidad de responder a estímulos;

Autoorganización, manifestada como cambios en el cuerpo para adaptarse a las condiciones ambientales.


Un organismo, considerado como sistema, tiene una estructura jerárquica. Esta estructura relativa al propio organismo se divide en niveles internos: molecular, celular, nivel de órganos y, finalmente, el propio organismo. Sin embargo, el organismo también interactúa por encima de los sistemas vivos del organismo, cuyos niveles son la población, el ecosistema y toda la naturaleza viva en su conjunto (biosfera). Entre todos estos niveles circulan flujos no sólo de materia y energía, sino también de información. Las interacciones de información en la naturaleza viva ocurren de la misma manera que en la naturaleza inanimada. Al mismo tiempo, la naturaleza viva en el proceso de evolución ha creado una amplia variedad de fuentes, portadores y receptores de información.


La reacción a las influencias del mundo exterior se manifiesta en todos los organismos, ya que es provocada por la irritabilidad. En los organismos superiores, la adaptación al entorno externo es una actividad compleja, que sólo es eficaz con información suficientemente completa y oportuna sobre el entorno. Los receptores de información del entorno externo son sus órganos de los sentidos, que incluyen la visión, el oído, el olfato, el gusto, el tacto y el aparato vestibular. En la estructura interna de los organismos existen numerosos receptores internos asociados al sistema nervioso. El sistema nervioso está formado por neuronas cuyos procesos (axones y dendritas) son análogos a los canales de transmisión de información. Los principales órganos que almacenan y procesan la información en los vertebrados son la médula espinal y el cerebro. De acuerdo con las características de los órganos de los sentidos, la información percibida por el cuerpo se puede clasificar en visual, auditiva, gustativa, olfativa y táctil.


Cuando la señal llega a la retina del ojo humano, excita de forma especial las células que la componen. Los impulsos nerviosos de las células se transmiten a través de axones al cerebro. El cerebro recuerda esta sensación en forma de una determinada combinación de estados de las neuronas que lo componen. (El ejemplo continúa en la sección “La información en la sociedad humana”). Al acumular información, el cerebro crea en su estructura un modelo de información conectado del mundo circundante. En la naturaleza viva, una característica importante para un organismo que recibe información es su disponibilidad. La cantidad de información que el sistema nervioso humano es capaz de enviar al cerebro al leer textos es aproximadamente de 1 bit cada 1/16 de s.

El estudio de los organismos se complica por su complejidad. La abstracción de la estructura como un conjunto matemático, que es aceptable para objetos inanimados, difícilmente lo es para un organismo vivo, porque para crear un modelo abstracto más o menos adecuado de un organismo, es necesario tener en cuenta todas las jerarquías. niveles de su estructura. Por tanto, es difícil introducir una medida de la cantidad de información. Es muy difícil determinar las conexiones entre los componentes de la estructura. Si se sabe qué órgano es la fuente de información, entonces ¿cuál es la señal y cuál es el receptor?


Antes de la llegada de las computadoras, la biología, que se ocupa del estudio de los organismos vivos, utilizaba sólo cualitativo, es decir. modelos descriptivos. En un modelo cualitativo, es casi imposible tener en cuenta las conexiones de información entre los componentes de la estructura. La tecnología de la computación electrónica ha hecho posible aplicar nuevos métodos en la investigación biológica, en particular, el método de modelado de máquinas, que implica una descripción matemática de fenómenos y procesos conocidos que ocurren en el cuerpo, añadiéndoles hipótesis sobre algunos procesos desconocidos y calculando el posible comportamiento. patrones del organismo. Las opciones resultantes se comparan con el comportamiento real del organismo, lo que permite determinar la verdad o falsedad de las hipótesis planteadas. Estos modelos también pueden tener en cuenta la interacción de la información. Los procesos de información que aseguran la existencia de la vida misma son extremadamente complejos. Y aunque está intuitivamente claro que esta propiedad está directamente relacionada con la formación, almacenamiento y transmisión de información completa sobre la estructura del organismo, una descripción abstracta de este fenómeno parecía imposible durante algún tiempo. Sin embargo, los procesos de información que aseguran la existencia de esta propiedad han sido parcialmente revelados mediante el descifrado del código genético y la lectura de los genomas de diversos organismos.

La información en la sociedad humana.

El desarrollo de la materia en el proceso de movimiento tiene como objetivo complicar la estructura de los objetos materiales. Una de las estructuras más complejas es el cerebro humano. Hasta ahora, esta es la única estructura que conocemos que tiene una propiedad que el propio hombre llama conciencia. Hablando de información, nosotros, como seres pensantes, a priori queremos decir que la información, además de su presencia en forma de señales que recibimos, también tiene algún significado. Al formar en su mente un modelo del mundo circundante como un conjunto interconectado de modelos de sus objetos y procesos, una persona utiliza conceptos semánticos, no información. El significado es la esencia de cualquier fenómeno, que no coincide consigo mismo y lo conecta con el contexto más amplio de la realidad. La palabra misma indica directamente que el contenido semántico de la información sólo puede ser formado por receptores pensantes de información. En la sociedad humana, no es la información en sí la que tiene una importancia decisiva, sino su contenido semántico.


Ejemplo (continuación). Habiendo experimentado tal sensación, una persona asigna el concepto de "tomate" al objeto y el concepto de "color rojo" a su estado. Además, su conciencia fija la conexión: "tomate" - "rojo". Este es el significado de la señal recibida. (El ejemplo continúa a continuación en esta sección). La capacidad del cerebro para crear conceptos significativos y conexiones entre ellos es la base de la conciencia. La conciencia puede considerarse como un modelo semántico que se desarrolla a sí mismo del mundo circundante. El significado no es información. La información existe sólo en un medio tangible. La conciencia humana se considera inmaterial. El significado existe en la mente humana en forma de palabras, imágenes y sensaciones. Una persona puede pronunciar palabras no sólo en voz alta, sino también "para sí misma". También puede crear (o recordar) “en su propia mente” imágenes y sensaciones. Sin embargo, puede recuperar información correspondiente a este significado hablando o escribiendo palabras.

Ejemplo (continuación). Si las palabras “tomate” y “rojo” son el significado de los conceptos, ¿dónde está la información? La información está contenida en el cerebro en forma de ciertos estados de sus neuronas. También está contenido en texto impreso que consta de estas palabras, y cuando se codifican letras con un código binario de tres bits, su número es de 120 bits. Si dices las palabras en voz alta, habrá mucha más información, pero el significado seguirá siendo el mismo. La imagen visual transporta la mayor cantidad de información. Esto se refleja incluso en el folclore: “es mejor ver una vez que escuchar cien veces. La información restaurada de esta manera se llama información semántica, ya que codifica el significado de alguna información primaria (semántica). Habiendo escuchado (o visto) una frase hablada (o escrita) en un idioma que una persona no conoce, recibe información, pero no puede determinar su significado. Por lo tanto, para transmitir el contenido semántico de la información, son necesarios algunos acuerdos entre la fuente y el receptor sobre el contenido semántico de las señales, es decir, palabras Estos acuerdos se pueden alcanzar a través de la comunicación. La comunicación es una de las condiciones más importantes para la existencia de la sociedad humana.

En el mundo moderno, la información es uno de los recursos más importantes y, al mismo tiempo, una de las fuerzas impulsoras del desarrollo de la sociedad humana. Los procesos de información que ocurren en el mundo material, la naturaleza viva y la sociedad humana son estudiados (o al menos tenidos en cuenta) por todas las disciplinas científicas, desde la filosofía hasta el marketing. La creciente complejidad de los problemas de la investigación científica ha llevado a la necesidad de atraer grandes equipos de científicos de diferentes especialidades para resolverlos. Por lo tanto, casi todas las teorías que se analizan a continuación son interdisciplinarias. Históricamente, el estudio de la información en sí lo han llevado a cabo dos ramas complejas de la ciencia: la cibernética y la informática.


La cibernética moderna es una rama multidisciplinaria de la ciencia que estudia sistemas altamente complejos, como:

Sociedad humana (cibernética social);

Economía (cibernética económica);

Organismo vivo (cibernética biológica);

El cerebro humano y su función es la conciencia (inteligencia artificial).


La informática, formada como ciencia a mediados del siglo pasado, se separó de la cibernética y se dedica a la investigación en el campo de los métodos para obtener, almacenar, transmitir y procesar información semántica. Ambas industrias utilizan varias teorías científicas subyacentes. Estos incluyen la teoría de la información y sus secciones: teoría de la codificación, teoría de algoritmos y teoría de autómatas. La investigación sobre el contenido semántico de la información se basa en un conjunto de teorías científicas bajo el nombre general de semiótica. La teoría de la información es una teoría compleja, principalmente matemática, que incluye una descripción y evaluación de métodos para recuperar, transmitir, almacenar y clasificar información. Considera los medios de información como elementos de un conjunto abstracto (matemático) y las interacciones entre medios como una forma de organizar los elementos de este conjunto. Este enfoque permite describir formalmente el código de información, es decir, definir un código abstracto y estudiarlo utilizando métodos matemáticos. Para estos estudios utiliza métodos de teoría de la probabilidad, estadística matemática, álgebra lineal, teoría de juegos y otras teorías matemáticas.


Las bases de esta teoría las sentó el científico estadounidense E. Hartley en 1928, quien determinó la medida de la cantidad de información para determinados problemas de comunicación. Más tarde, la teoría fue desarrollada significativamente por el científico estadounidense K. Shannon, los científicos rusos A.N. Kolmogorov, V.M. Glushkov y otros. La teoría de la información moderna incluye secciones como la teoría de la codificación, la teoría de los algoritmos, la teoría de los autómatas digitales (ver más abajo) y algunas otras. También existen teorías de la información alternativas, por ejemplo la "teoría de la información cualitativa", propuesta por los polacos. científico M. Mazur Todo el mundo está familiarizado con el concepto de algoritmo, sin siquiera saberlo. Aquí hay un ejemplo de un algoritmo informal: “Corta los tomates en círculos o rodajas. Coloque en ellos la cebolla picada, vierta el aceite vegetal, luego espolvoree con pimiento finamente picado y revuelva. Antes de comer, espolvorear con sal, colocar en una ensaladera y decorar con perejil”. (Ensalada de tomate).


Las primeras reglas para resolver problemas aritméticos en la historia de la humanidad fueron desarrolladas por uno de los científicos famosos de la antigüedad, Al-Khorezmi, en el siglo IX d.C. En su honor, las reglas formalizadas para lograr cualquier objetivo se denominan algoritmos. El tema de la teoría de los algoritmos es encontrar métodos para construir y evaluar algoritmos de control y computación efectivos (incluidos los universales) para el procesamiento de información. Para fundamentar tales métodos, la teoría de los algoritmos utiliza el aparato matemático de la teoría de la información. El concepto científico moderno de algoritmos como métodos de procesamiento de información se introdujo en los trabajos de E. Post y A. Turing en los años 20 del siglo XX (Turing). Máquina). Los científicos rusos A. Markov (Algoritmo normal de Markov) y A. Kolmogorov hicieron una gran contribución al desarrollo de la teoría de los algoritmos. La teoría de los autómatas es una rama de la cibernética teórica que estudia modelos matemáticos de dispositivos realmente existentes o fundamentalmente posibles que procesan información discreta. en momentos discretos en el tiempo.


El concepto de autómata surgió en la teoría de los algoritmos. Si existen algunos algoritmos universales para resolver problemas computacionales, entonces también debe haber dispositivos (aunque abstractos) para implementar dichos algoritmos. En realidad, una máquina de Turing abstracta, considerada en la teoría de los algoritmos, es al mismo tiempo un autómata definido informalmente. La justificación teórica para la construcción de tales dispositivos es el tema de la teoría de los autómatas. La teoría de los autómatas utiliza los aparatos de las teorías matemáticas: álgebra, lógica matemática, análisis combinatorio, teoría de grafos, teoría de la probabilidad, etc. La teoría de los autómatas, junto con la teoría de los algoritmos. , es la principal base teórica para la creación de computadoras electrónicas y sistemas de control automatizados. La semiótica es un complejo de teorías científicas que estudian las propiedades de los sistemas de signos. Los resultados más significativos se lograron en el apartado de semiótica: semántica. El tema de la investigación semántica es el contenido semántico de la información.


Se considera que un sistema de signos es un sistema de objetos (signos, palabras) concretos o abstractos, a cada uno de los cuales se le asocia de una determinada manera un determinado significado. En teoría, se ha demostrado que pueden existir dos comparaciones de este tipo. El primer tipo de correspondencia determina directamente el objeto material que denota esta palabra y se llama denotación (o, en algunas obras, nominado). El segundo tipo de correspondencia determina el significado de un signo (palabra) y se denomina concepto. Al mismo tiempo, se estudian propiedades de las comparaciones como "significado", "verdad", "definibilidad", "seguimiento", "interpretación", etc. Para la investigación se utilizan los aparatos de la lógica matemática y la lingüística matemática. de la semántica, esbozada por G. V. Leibniz y F de Saussure en el siglo XIX, formulada y desarrollada por C. Pierce (1839-1914), C. Morris (n. 1901), R. Carnap (1891-1970), etc. El principal logro de la teoría es la creación de un aparato de análisis semántico que permite representar el significado de un texto en un lenguaje natural en forma de registro en algún lenguaje semántico (semántico) formalizado. El análisis semántico es la base para la creación de dispositivos. (programas) para la traducción automática de un lenguaje natural a otro.

La información se almacena transfiriéndola a algún medio físico. La información semántica registrada en un medio de almacenamiento tangible se denomina documento. La humanidad aprendió a almacenar información hace mucho tiempo. Las formas más antiguas de almacenar información utilizaban la disposición de objetos: conchas y piedras en la arena, nudos en una cuerda. Un desarrollo significativo de estos métodos fue la escritura: una representación gráfica de símbolos en piedra, arcilla, papiro y papel. La invención de la imprenta fue de gran importancia en el desarrollo de esta dirección. A lo largo de su historia, la humanidad ha acumulado una enorme cantidad de información en bibliotecas, archivos, publicaciones periódicas y otros documentos escritos.


Actualmente, el almacenamiento de información en forma de secuencias de caracteres binarios ha adquirido especial importancia. Para implementar estos métodos, se utilizan una variedad de dispositivos de almacenamiento. Son el eslabón central de los sistemas de almacenamiento de información. Además de ellos, dichos sistemas utilizan medios de búsqueda de información (motor de búsqueda), medios de obtención de información (sistemas de información y referencia) y medios de visualización de información (dispositivo de salida). Estos sistemas de información, formados según el propósito de la información, forman bases de datos, bancos de datos y una base de conocimientos.

La transferencia de información semántica es el proceso de su transferencia espacial desde la fuente al destinatario (destinatario). El hombre aprendió a transmitir y recibir información incluso antes que a almacenarla. El habla es un método de transmisión que nuestros ancestros lejanos usaban en contacto directo (conversación); todavía lo usamos ahora. Para transmitir información a largas distancias, es necesario utilizar procesos de información mucho más complejos. Para llevar a cabo dicho proceso, la información debe formatearse (presentarse) de alguna manera. Para presentar información se utilizan varios sistemas de signos: conjuntos de símbolos semánticos predeterminados: objetos, imágenes, palabras escritas o impresas en lenguaje natural. La información semántica sobre cualquier objeto, fenómeno o proceso presentado con su ayuda se denomina mensaje.


Obviamente, para transmitir un mensaje a distancia, la información debe transferirse a algún tipo de medio móvil. Los transportistas pueden desplazarse por el espacio utilizando vehículos, como ocurre con las cartas enviadas por correo. Este método garantiza una total fiabilidad de la transmisión de información, ya que el destinatario recibe el mensaje original, pero requiere un tiempo considerable para la transmisión. Desde mediados del siglo XIX, los métodos de transmisión de información se han generalizado utilizando un portador de información que se propaga naturalmente: las vibraciones electromagnéticas (vibraciones eléctricas, ondas de radio, luz). La implementación de estos métodos requiere:

Transferencia preliminar de información contenida en un mensaje a un medio: codificación;

Asegurar la transmisión de la señal así recibida al destinatario a través de un canal de comunicación especial;

Conversión inversa del código de señal en un código de mensaje: decodificación.

El uso de medios electromagnéticos hace que la entrega de un mensaje al destinatario sea casi instantánea, pero requiere medidas adicionales para garantizar la calidad (fiabilidad y precisión) de la información transmitida, ya que los canales de comunicación reales son susceptibles a interferencias naturales y artificiales. Los dispositivos que implementan el proceso de transferencia de datos forman sistemas de comunicación. Dependiendo del método de presentación de la información, los sistemas de comunicación se pueden dividir en signos (telégrafo, telefax), sonido (teléfono), video y sistemas combinados (televisión). El sistema de comunicación más desarrollado en nuestro tiempo es Internet.

Procesamiento de información

Dado que la información no es material, su procesamiento implica diversas transformaciones. Los procesos de procesamiento incluyen cualquier transferencia de información de un medio a otro medio. La información destinada al procesamiento se denomina datos. El principal tipo de procesamiento de la información primaria recibida por varios dispositivos es la transformación a una forma que asegure su percepción por los sentidos humanos. Así, las fotografías del espacio obtenidas con rayos X se convierten en fotografías en color ordinarias utilizando convertidores de espectro especiales y materiales fotográficos. Los dispositivos de visión nocturna convierten la imagen obtenida con rayos infrarrojos (térmicos) en una imagen en el rango visible. Para algunas tareas de comunicación y control, es necesaria la conversión de información analógica. Para ello se utilizan convertidores de señales analógico-digital y digital-analógico.


El tipo más importante de procesamiento de información semántica es determinar el significado (contenido) contenido en un determinado mensaje. A diferencia de la información semántica primaria, no tiene características estadísticas, es decir, una medida cuantitativa: tiene significado o no. Y es imposible establecer cuánto es, si es que lo hay. El significado contenido en el mensaje se describe en un lenguaje artificial que refleja las conexiones semánticas entre las palabras del texto fuente. Un diccionario de dicho idioma, llamado tesauro, se encuentra en el receptor del mensaje. El significado de las palabras y frases de un mensaje se determina asignándolos a determinados grupos de palabras o frases cuyo significado ya ha sido establecido. El diccionario de sinónimos, de esta forma, permite establecer el significado del mensaje y, al mismo tiempo, se repone con nuevos conceptos semánticos. El tipo de procesamiento de información descrito se utiliza en sistemas de recuperación de información y sistemas de traducción automática.


Uno de los tipos más extendidos de procesamiento de información es la solución de problemas computacionales y problemas de control automático mediante computadoras. El procesamiento de la información siempre se realiza con alguna finalidad. Para lograrlo es necesario conocer el orden de las acciones sobre la información que conducen a un objetivo determinado. Este procedimiento se llama algoritmo. Además del algoritmo en sí, también necesitas algún dispositivo que implemente este algoritmo. En las teorías científicas, dicho dispositivo se llama autómata. Cabe señalar que la característica más importante de la información es el hecho de que, debido a la asimetría de la interacción de la información, aparece nueva información al procesarla, pero la información original no se pierde.

Información analógica y digital.

El sonido son vibraciones ondulatorias en cualquier medio, por ejemplo en el aire. Cuando una persona habla, las vibraciones de los ligamentos de la garganta se convierten en vibraciones ondulatorias del aire. Si consideramos el sonido no como una onda, sino como vibraciones en un punto, entonces estas vibraciones pueden representarse como la presión del aire que cambia con el tiempo. Mediante un micrófono se pueden detectar cambios de presión y convertirlos en tensión eléctrica. La presión del aire se convierte en fluctuaciones de voltaje eléctrico.


Tal transformación puede ocurrir según varias leyes, la mayoría de las veces la transformación ocurre según una ley lineal. Por ejemplo, así:

U(t)=K(P(t)-P_0),

donde U(t) es el voltaje eléctrico, P(t) es la presión del aire, P_0 es la presión del aire promedio y K es el factor de conversión.

Tanto el voltaje eléctrico como la presión del aire son funciones continuas en el tiempo. Las funciones U(t) y P(t) son información sobre las vibraciones de los ligamentos de la garganta. Estas funciones son continuas y dicha información se denomina analógica. La música es un caso especial de sonido y también puede representarse como algún tipo de función del tiempo. Será una representación analógica de la música. Pero la música también se escribe en forma de notas. Cada nota tiene una duración que es múltiplo de una duración predeterminada y un tono (do, re, mi, fa, salt, etc.). Si estos datos se convierten en números, obtenemos una representación digital de la música.


El habla humana es también un caso especial de sonido. También se puede representar en forma analógica. Pero así como la música se puede dividir en notas, el habla se puede dividir en letras. Si a cada letra se le asigna su propio conjunto de números, obtendremos una representación digital del habla. La diferencia entre la información analógica y la digital es que la información analógica es continua y la información digital es discreta. , según el tipo de transformación, se denomina de forma diferente: simplemente "conversión", como conversión de digital a analógico o de analógico a digital; las transformaciones complejas se denominan "codificación", por ejemplo, codificación delta, codificación de entropía; La conversión entre características como amplitud, frecuencia o fase se denomina "modulación", por ejemplo, modulación de amplitud-frecuencia, modulación de ancho de pulso.

Normalmente, las conversiones analógicas son bastante simples y pueden manejarse fácilmente mediante varios dispositivos inventados por el hombre. Una grabadora convierte la magnetización de una película en sonido, una grabadora de voz convierte el sonido en magnetización de una película, una cámara de vídeo convierte la luz en magnetización de una película, un osciloscopio convierte el voltaje o la corriente eléctrica en una imagen, etc. Convertir información analógica a digital es mucho más difícil. La máquina no puede realizar algunas transformaciones o las logra con gran dificultad. Por ejemplo, convertir voz en texto, o convertir una grabación de un concierto en partitura, e incluso una representación inherentemente digital: el texto en papel es muy difícil de convertir para una máquina en el mismo texto en la memoria de una computadora.

¿Por qué entonces utilizar la representación digital de la información si es tan compleja? La principal ventaja de la información digital sobre la analógica es la inmunidad al ruido. Es decir, en el proceso de copiar información, la información digital se copia tal como está, se puede copiar casi un número infinito de veces, mientras que la información analógica durante el proceso de copia se vuelve ruidosa y su calidad se deteriora. Normalmente, la información analógica no se puede copiar más de tres veces. Si tiene una grabadora de audio de dos casetes, puede realizar el siguiente experimento: intente reescribir la misma canción varias veces de un casete a otro después de unas pocas regrabaciones; Notarás cuánto se ha deteriorado la calidad de la grabación. La información del casete se almacena en forma analógica. Puedes reescribir música en formato mp3 tantas veces como quieras y la calidad de la música no se deteriora. La información de un archivo mp3 se almacena digitalmente.

cantidad de información

Una persona o algún otro receptor de información, habiendo recibido una información, resuelve alguna incertidumbre. Tomemos el mismo árbol como ejemplo. Cuando vimos el árbol, resolvimos una serie de incertidumbres. Aprendimos la altura del árbol, el tipo de árbol, la densidad del follaje, el color de las hojas y, si era un árbol frutal, entonces veíamos los frutos que tenía, su madurez, etc. Antes de mirar el árbol, no sabíamos todo esto, después de mirar el árbol, resolvimos la incertidumbre: recibimos información.


Si salimos a un prado y lo miramos, obtendremos un tipo diferente de información: qué tan grande es el prado, qué tan alto es el pasto y de qué color es el pasto. Si un biólogo va a este mismo prado, entonces, entre otras cosas, podrá averiguar: qué variedades de hierba crecen en el prado, qué tipo de prado es, verá qué flores han florecido, cuáles son a punto de florecer, si el prado es apto para el pastoreo de vacas, etc. Es decir, recibirá más información que nosotros, como tenía más preguntas antes de mirar el prado, el biólogo resolverá más incertidumbres.

Cuanta más incertidumbre se resolvió en el proceso de obtención de información, más información recibimos. Pero ésta es una medida subjetiva de la cantidad de información y nos gustaría tener una medida objetiva. Existe una fórmula para calcular la cantidad de información. Tenemos cierta incertidumbre y tenemos N número de casos de resolución de la incertidumbre, y cada caso tiene una cierta probabilidad de resolución, entonces la cantidad de información recibida se puede calcular usando la siguiente fórmula que nos sugirió Shannon:

I = -(p_1 \log_(2)p_1 + p_2 \log_(2)p_2 + ... +p_N \log_(2)p_N), donde

I – cantidad de información;

N – número de resultados;

p_1, p_2, ..., p_N son las probabilidades del resultado.

La cantidad de información se mide en bits, una abreviatura de las palabras inglesas BInary digiT, que significa dígito binario.

Para eventos igualmente probables, la fórmula se puede simplificar:

I = \log_(2)N, donde

I – cantidad de información;

N – número de resultados.

Tomemos, por ejemplo, una moneda y la arrojemos sobre la mesa. Caerá cara o cruz. Tenemos 2 eventos igualmente probables. Después de lanzar la moneda, recibimos \log_(2)2=1 bit de información.

Intentemos averiguar cuánta información obtenemos después de tirar los dados. El cubo tiene seis lados: seis eventos igualmente probables. Obtenemos: \log_(2)6 \aprox 2.6. Después de tirar el dado sobre la mesa, recibimos aproximadamente 2,6 bits de información.


Las probabilidades de que veamos un dinosaurio marciano al salir de casa son de una entre diez mil millones. ¿Cuánta información obtendremos sobre el dinosaurio marciano una vez que salgamos de casa?

-\left(((1 \sobre (10^(10))) \log_2(1 \sobre (10^(10))) + \left(( 1 - (1 \sobre (10^(10))) ) \right) \log_2 \left(( 1 - (1 \over (10^(10))) )\right)) \right) \approx 3.4 \cdot 10^(-9) bits.

Digamos que lanzamos 8 monedas. Tenemos 2^8 opciones de entrega de monedas. Esto significa que después de lanzar monedas obtendremos \log_2(2^8)=8 bits de información.

Cuando hacemos una pregunta y tenemos la misma probabilidad de recibir una respuesta de “sí” o “no”, luego de responder la pregunta recibimos un poco de información.


Es sorprendente que si aplicamos la fórmula de Shannon a información analógica, obtengamos una cantidad infinita de información. Por ejemplo, el voltaje en un punto de un circuito eléctrico puede tomar un valor igualmente probable de cero a un voltio. El número de resultados que tenemos es igual a infinito, y al sustituir este valor en la fórmula para eventos igualmente probables, obtenemos infinito: una cantidad infinita de información.

Ahora te mostraré cómo codificar "Guerra y Paz" usando solo una marca en cualquier varilla de metal. Codifiquemos todas las letras y signos que se encuentran en "Guerra y paz" usando números de dos dígitos; deberían ser suficientes para nosotros. Por ejemplo, a la letra “A” le daremos el código “00”, a la letra “B” el código “01” y así sucesivamente, codificaremos signos de puntuación, letras latinas y números. Recodificamos "Guerra y Paz" usando este código y obtenemos un número largo, por ejemplo, 70123856383901874..., agregamos una coma y un cero delante de este número (0.70123856383901874...). El resultado es un número de cero a uno. Pongamos una marca en la varilla de metal para que la relación entre el lado izquierdo de la varilla y la longitud de esta varilla sea exactamente igual a nuestro número. Así, si de repente queremos leer “Guerra y Paz”, simplemente medimos el lado izquierdo de la varilla hasta la marca y la longitud de toda la varilla, dividimos un número entre otro, obtenemos un número y lo recodificamos nuevamente en letras ( “00” a “A”, “01” a “B”, etc.).

En realidad, no podremos hacer esto, ya que no podremos determinar las longitudes con una precisión infinita. Algunos problemas de ingeniería nos impiden aumentar la precisión de las mediciones, y la física cuántica nos muestra que después de cierto límite, las leyes cuánticas ya nos interferirán. Intuitivamente entendemos que cuanto menor es la precisión de la medición, menos información recibimos, y cuanto mayor es la precisión de la medición, más información recibimos. La fórmula de Shannon no es adecuada para medir la cantidad de información analógica, pero existen otros métodos para ello, que se analizan en Teoría de la información. En tecnología informática, un bit corresponde al estado físico del soporte de información: magnetizado - no magnetizado, hay un agujero - no hay agujero, cargado - no cargado, refleja la luz - no refleja la luz, alto potencial eléctrico - bajo voltaje eléctrico potencial. En este caso, un estado suele denotarse con el número 0 y el otro con el número 1. Cualquier información se puede codificar con una secuencia de bits: texto, imagen, sonido, etc.


Junto con un bit, se suele utilizar un valor llamado byte, que suele ser igual a 8 bits. Y si un bit le permite elegir una opción igualmente probable entre dos posibles, entonces un byte es 1 de 256 (2^8). Para medir la cantidad de información también es habitual utilizar unidades mayores:

1 KB (un kilobyte) 210 bytes = 1024 bytes

1 MB (un megabyte) 210 KB = 1024 KB

1 GB (un gigabyte) 210 MB = 1024 MB

En realidad, los prefijos SI kilo-, mega-, giga- deberían usarse para los factores 10^3, 10^6 y 10^9, respectivamente, pero históricamente ha existido la práctica de usar factores con potencias de dos.


Un bit de Shannon y un bit utilizado en tecnología informática son iguales si las probabilidades de que aparezca un cero o un uno en un bit de computadora son iguales. Si las probabilidades no son iguales, entonces la cantidad de información según Shannon se vuelve menor, lo vimos en el ejemplo del dinosaurio marciano. La cantidad de información de la computadora proporciona una estimación superior de la cantidad de información. La memoria volátil, después de que se le aplica energía, generalmente se inicializa a algún valor, por ejemplo, todos unos o todos ceros. Está claro que después de aplicar energía a la memoria, no hay información allí, ya que los valores en las celdas de la memoria están estrictamente definidos, no hay incertidumbre. La memoria puede almacenar una cierta cantidad de información, pero después de que se le aplica energía, no contiene información.

La desinformación es información deliberadamente falsa proporcionada a un enemigo o socio comercial para operaciones de combate más efectivas, cooperación, verificación de fugas de información y la dirección de su fuga, identificación de clientes potenciales del mercado negro. También la desinformación (también mal informada) es el proceso de manipulación. información en sí, como por ejemplo: engañar a alguien al proporcionar información incompleta o completa pero ya no necesaria, distorsionar el contexto, distorsionar parte de la información.


El objetivo de tal influencia es siempre el mismo: el oponente debe actuar como necesita el manipulador. La acción del objetivo contra quien se dirige la desinformación puede consistir en tomar una decisión que el manipulador necesita o en negarse a tomar una decisión desfavorable para el manipulador. Pero en cualquier caso, el objetivo final es la acción que realizará el oponente.

La desinformación, por tanto, es un producto de la actividad humana, un intento de crear una impresión falsa y, en consecuencia, empujar hacia las acciones y/o inacción deseadas.

Tipos de desinformación:

Engañar a una persona o grupo de personas específico (incluida una nación entera);

Manipulación (las acciones de una persona o grupo de personas);

Crear opinión pública respecto de un problema u objeto.

La tergiversación no es más que un engaño absoluto, el suministro de información falsa. La manipulación es un método de influencia destinado directamente a cambiar la dirección de la actividad de las personas. Se distinguen los siguientes niveles de manipulación:

Fortalecer los valores (ideas, actitudes) que existen en la mente de las personas y son beneficiosos para el manipulador;

Cambio parcial de opiniones sobre un evento o circunstancia particular;

Un cambio radical en las actitudes ante la vida.

Crear opinión pública es la formación en la sociedad de una determinada actitud hacia un problema elegido.


Fuentes y enlaces

ru.wikipedia.org – enciclopedia libre Wikipedia

youtube.com: alojamiento de vídeos de YouTube

imágenes.yandex.ua - Imágenes Yandex

google.com.ua - Imágenes de Google

es.wikibooks.org - Wikilibros

inf1.info – Planeta Informática

old.russ.ru – Revista rusa

shkolo.ru – Directorio de información

5byte.ru – Sitio web de informática

ssti.ru – Tecnologías de la información

klgtu.ru - Ciencias de la Computación

informatika.sch880.ru - sitio web del profesor de informática O.V. Podvintseva

bibliofond.ru - biblioteca electrónica Bibliofond

life-prog.ru - programación




Arriba