Un sistema capaz de transmitir información desde. Transferencia de información. El papel de la información en la filosofía.

La información es información sobre algo.

Concepto y tipos de información, transmisión y procesamiento, búsqueda y almacenamiento de información.

Ampliar contenidos

Contraer contenido

La información es, definición.

La información es cualquier información recibida y transmitida, almacenada por diversas fuentes. La información es el conjunto completo de información sobre el mundo que nos rodea, sobre todo tipo de procesos que ocurren en él y que pueden ser percibidos por organismos vivos, máquinas electrónicas y otros sistemas de información.

- Este información significativa sobre algo, cuando la forma de su presentación es también información, es decir, tiene una función formateadora acorde con su propia naturaleza.

La información es todo lo que pueda complementarse con nuestros conocimientos y suposiciones.

La información es información sobre algo, independientemente de la forma de su presentación.

La información es un producto mental de cualquier organismo psicofísico producido por él utilizando cualquier medio llamado medio de información.

La información es información percibida por humanos y (o) especialistas. dispositivos como reflejo de los hechos del mundo material o espiritual en el proceso de comunicación.

La información es datos organizados de tal manera que tengan sentido para la persona que los maneja.

La información es el significado que una persona atribuye a los datos basándose en las convenciones conocidas utilizadas para representarlos.

La información es información, explicación, presentación.

La información es cualquier dato o información que interese a cualquier persona.

La información es información sobre objetos y fenómenos del medio ambiente, sus parámetros, propiedades y estado, que son percibidos por los sistemas de información (organismos vivos, máquinas de control, etc.) en el proceso de la vida y el trabajo.

Lo mismo mensaje informativo(artículo de periódico, anuncio, carta, telegrama, certificado, cuento, dibujo, emisión de radio, etc.) puede contener diferentes cantidades información para diferentes personas- en función de sus conocimientos previos, nivel de comprensión de este mensaje e interés en él.

En los casos en que hablan de trabajo automatizado con información utilizando cualquier dispositivo técnico, no les interesa el contenido del mensaje, sino cuántos caracteres contiene este mensaje.

En relación con el procesamiento de datos informáticos, se entiende por información una determinada secuencia de designaciones simbólicas (letras, números, imágenes gráficas y sonidos codificados, etc.), que tienen una carga semántica y se presentan en comprensible por computadora forma. Cada nuevo personaje en tal secuencia de personajes aumenta volumen de información mensajes.

Actualmente no existe definición uniforme La información como término científico. Desde el punto de vista de diversas áreas del conocimiento, este concepto se describe por su conjunto específico de características. Por ejemplo, el concepto de “información” es básico en un curso de informática, y es imposible definirlo a través de otros conceptos más “simples” (al igual que en geometría, por ejemplo, es imposible expresar el contenido conceptos basicos“punto”, “recta”, “plano” mediante conceptos más simples).


El contenido de los conceptos básicos, básicos en cualquier ciencia, debe explicarse con ejemplos o identificarse comparándolos con el contenido de otros conceptos. En el caso del concepto “información”, el problema de su definición es aún más complejo, ya que se trata de un concepto científico general. Este concepto se utiliza en diversas ciencias (informática, cibernética, biología, física, etc.), y en cada ciencia el concepto de “información” está asociado con varios sistemas conceptos.


Concepto de información

EN ciencia moderna Se consideran dos tipos de información:

La información objetiva (primaria) es propiedad de los objetos y fenómenos (procesos) materiales de generar una variedad de estados, que a través de interacciones (interacciones fundamentales) se transmiten a otros objetos y se imprimen en su estructura.

La información subjetiva (semántica, semántica, secundaria) es el contenido semántico de información objetiva sobre objetos y procesos del mundo material, formada por la conciencia humana con la ayuda de imágenes semánticas (palabras, imágenes y sensaciones) y registrada en algún medio material.


En el sentido cotidiano, la información es información sobre el mundo circundante y los procesos que ocurren en él, percibida por una persona o dispositivo especial.

Actualmente, no existe una definición única de información como término científico. Desde el punto de vista de diversas áreas del conocimiento, este concepto se describe por su conjunto específico de características. Según el concepto de K. Shannon, la información es la eliminación de la incertidumbre, es decir información que debe eliminar, en un grado u otro, la incertidumbre existente en el consumidor antes de recibirlo, y ampliar su comprensión del objeto con información útil.


Desde el punto de vista de Gregory Beton, la unidad elemental de información es una "diferencia no indiferente" o una diferencia efectiva para algún sistema de percepción más amplio. A las diferencias que no se perciben las llama “potenciales” y a las que se perciben “efectivas”. “La información consiste en diferencias que no son indiferentes” (c) “Cualquier percepción de información es necesariamente la recepción de información sobre la diferencia”. Desde el punto de vista de la informática, la información tiene una serie de propiedades fundamentales: novedad, relevancia, fiabilidad, objetividad, integridad, valor, etc. La ciencia de la lógica se ocupa principalmente del análisis de la información. La palabra información proviene del latín informatio, que significa información, explicación, familiarización. El concepto de información fue considerado por los filósofos antiguos.

Antes del inicio de la Revolución Industrial, determinar la esencia de la información seguía siendo prerrogativa de los filósofos. Luego, la nueva ciencia de la cibernética comenzó a considerar cuestiones de teoría de la información.

A veces, para comprender la esencia de un concepto, es útil analizar el significado de la palabra que denota ese concepto. Clarificar la forma interna de una palabra y estudiar la historia de su uso puede arrojar una luz inesperada sobre su significado, oscurecido por el uso "tecnológico" habitual de la palabra y sus connotaciones modernas.

La palabra información entró en el idioma ruso en la era petrina. Fue registrado por primera vez en las “Reglas Espirituales” de 1721 en el sentido de “idea, concepto de algo”. (En los idiomas europeos se estableció antes, alrededor del siglo XIV).

Según esta etimología, se puede considerar información cualquier cambio significativo de forma o, en otras palabras, cualquier rastro registrado materialmente formado por la interacción de objetos o fuerzas y susceptible de comprensión. La información, por tanto, es una forma convertida de energía. El portador de información es un signo y el método de su existencia es la interpretación: identificar el significado de un signo o una secuencia de signos.

El significado puede ser un evento reconstruido a partir de un signo que provocó su ocurrencia (en el caso de signos “naturales” e involuntarios, como huellas, evidencias, etc.), o un mensaje (en el caso de signos convencionales inherentes al ámbito). del lenguaje). Es el segundo tipo de signos que constituye el cuerpo de la cultura humana y que, según una definición, es "un conjunto de información transmitida de forma no hereditaria".

Los mensajes pueden contener información sobre hechos o interpretación de hechos (del latín interpretatio, interpretación, traducción).

Un ser vivo recibe información a través de los sentidos, así como a través de la reflexión o la intuición. El intercambio de información entre sujetos es comunicación o comunicación (del latín communicatio, mensaje, transferencia, derivado a su vez del latín communico, hacer común, informar, conversar, conectar).

Desde un punto de vista práctico, la información siempre se presenta en forma de mensaje. El mensaje de información está asociado al origen del mensaje, al destinatario del mensaje y al canal de comunicación.


Volviendo a la etimología latina de la palabra información, intentemos responder la pregunta de qué se le da forma exactamente aquí.

Es obvio que, en primer lugar, a un cierto significado que, siendo inicialmente informe y no expresado, existe sólo potencialmente y debe ser "construido" para ser percibido y transmitido.

En segundo lugar, a la mente humana, que está entrenada para pensar de forma estructural y clara. En tercer lugar, a una sociedad que, precisamente porque sus miembros comparten estos significados y los utilizan juntos, gana unidad y funcionalidad.

La información expresada con significado inteligente es conocimiento que puede almacenarse, transmitirse y ser la base para la generación de otros conocimientos. Las formas de conservación del conocimiento (memoria histórica) son diversas: desde mitos, crónicas y pirámides hasta bibliotecas, museos y bases de datos informáticas.

La información es información sobre el mundo que nos rodea, sobre los procesos que ocurren en él, que son percibidos por los organismos vivos, las máquinas de control y otros sistemas de información.

La palabra "información" es latina. A lo largo de su larga vida, su significado ha evolucionado, ya sea ampliando o estrechando extremadamente sus límites. Al principio, la palabra "información" significaba: "representación", "concepto", luego "información", "transmisión de mensajes".


En los últimos años, los científicos han decidido que el significado habitual (universalmente aceptado) de la palabra “información” es demasiado elástico y vago, y le han dado el siguiente significado: “una medida de certeza en un mensaje”.

La teoría de la información cobró vida gracias a las necesidades de la práctica. Su origen está asociado al trabajo de Claude Shannon “Teoría matemática de la comunicación”, publicado en 1946. Los fundamentos de la teoría de la información se basan en resultados obtenidos por muchos científicos. Para la segunda mitad del siglo XX globo Estaba lleno de información transmitida a través de cables telefónicos, telégrafos y canales de radio. Más tarde aparecieron las computadoras electrónicas: procesadores de información. Y en ese momento, la principal tarea de la teoría de la información era, en primer lugar, aumentar la eficiencia de los sistemas de comunicación. La dificultad a la hora de diseñar y operar medios, sistemas y canales de comunicación es que no basta con que el diseñador e ingeniero resuelva el problema desde una perspectiva física y energética. Desde estos puntos de vista, el sistema puede ser el más avanzado y económico. Pero es importante al crear sistemas de transmisión prestar atención a cuánto la información pasará a través de este sistema de transmisión. Al fin y al cabo, la información se puede medir cuantitativamente, contar. Y hacen esos cálculos de la manera más habitual: se abstraen del significado del mensaje, del mismo modo que abandonan la concreción en operaciones aritméticas que nos son familiares a todos (al pasar de sumar dos manzanas y tres manzanas a sumar números en generales: 2+3).


Los científicos dijeron que "ignoraron por completo la evaluación humana de la información". A una serie secuencial de 100 letras, por ejemplo, le asignan un determinado significado de información, sin prestar atención a si esta información tiene sentido y si, a su vez, tiene sentido en una aplicación práctica. El enfoque cuantitativo es la rama más desarrollada de la teoría de la información. Según esta definición, una colección de 100 letras (una frase de 100 letras de un periódico, una obra de Shakespeare o el teorema de Einstein) tiene exactamente la misma cantidad de información.


Esta definición de cantidad de información es sumamente útil y práctica. Corresponde exactamente a la tarea del ingeniero de comunicaciones, que debe transmitir toda la información contenida en el telegrama enviado, independientemente del valor que esta información tenga para el destinatario. El canal de comunicación no tiene alma. Una cosa es importante para el sistema de transmisión: transmitir la cantidad necesaria de información en un tiempo determinado. ¿Cómo calcular la cantidad de información en un mensaje en particular?

La evaluación de la cantidad de información se basa en las leyes de la teoría de la probabilidad, o más precisamente, se determina a través de las probabilidades de eventos. Esto es comprensible. Un mensaje tiene valor y transmite información sólo cuando aprendemos de él sobre el resultado de un evento que es de naturaleza aleatoria, cuando es hasta cierto punto inesperado. Después de todo, el mensaje sobre lo que ya se sabe no contiene ninguna información. Aquellos. Si, por ejemplo, alguien lo llama por teléfono y le dice: "De día hay luz y de noche está oscuro", entonces ese mensaje lo sorprenderá sólo con lo absurdo de decir algo obvio y conocido por todos, y no con las noticias que contiene. Otra cosa, por ejemplo, es el resultado de una carrera. ¿Quién vendrá primero? El resultado aquí es difícil de predecir. Cuanto más resultados aleatorios tenga un evento que nos interesa, más valioso será el mensaje sobre su resultado y más información. Un mensaje sobre un evento que tiene sólo dos resultados igualmente posibles contiene una única unidad de información llamada bit. La elección de la unidad de información no es casual. Está asociado con la forma binaria más común de codificarlo durante la transmisión y el procesamiento. Intentemos, al menos de la forma más simplificada, imaginar el principio general de evaluación cuantitativa de la información, que es piedra angular toda la teoría de la información.


Ya sabemos que la cantidad de información depende de las probabilidades de ciertos resultados de un evento. Si un evento, como dicen los científicos, tiene dos resultados igualmente probables, esto significa que la probabilidad de cada resultado es 1/2. Esta es la probabilidad de obtener cara o cruz al lanzar una moneda. Si un evento tiene tres resultados igualmente probables, entonces la probabilidad de cada uno es 1/3. Tenga en cuenta que la suma de las probabilidades de todos los resultados siempre es igual a uno: después de todo, uno de todos los resultados posibles definitivamente ocurrirá. Un evento, como usted mismo comprende, puede tener resultados desigualmente probables. Entonces, en un partido de fútbol entre un equipo fuerte y un equipo débil, la probabilidad de que gane el equipo fuerte es alta; por ejemplo, 4/5. La probabilidad de empate es mucho menor, por ejemplo 3/20. La probabilidad de derrota es muy pequeña.


Resulta que la cantidad de información es una medida para reducir la incertidumbre de una determinada situación. Varias cantidades La información se transmite a través de canales de comunicación y la cantidad de información que pasa por el canal no puede ser mayor que su capacidad. Y está determinado por la cantidad de información que pasa por aquí por unidad de tiempo. Uno de los héroes de la novela de Julio Verne La isla misteriosa, el periodista Gideon Spillett, transmitió por teléfono un capítulo de la Biblia para que sus competidores no pudieran utilizarlo. comunicación telefónica. En este caso, el canal estaba completamente cargado y la cantidad de información era cero, porque al suscriptor se le transmitió información que conocía. Esto significa que el canal estaba funcionando inactivo, pasando estrictamente una cierta cantidad impulsos sin cargarlos con nada. Mientras tanto, cuanta más información lleve cada uno de ellos un cierto número impulsos, más plenamente se utiliza rendimiento canal. Por lo tanto, es necesario codificar la información de forma inteligente y encontrar un lenguaje económico y sobrante para transmitir los mensajes.


La información se "tamiza" de la manera más exhaustiva. En el telégrafo, las letras que aparecen con frecuencia, las combinaciones de letras e incluso frases enteras se representan mediante un conjunto más corto de ceros y unos, y las que aparecen con menos frecuencia se representan mediante un conjunto más largo. En el caso de que la longitud de la palabra clave se reduzca para los símbolos que aparecen con frecuencia y se aumente para los que aparecen con poca frecuencia, se habla de codificación eficaz de información. Pero en la práctica, a menudo sucede que el código que surgió como resultado de un "cribado" más cuidadoso, un código conveniente y económico, puede distorsionar el mensaje debido a interferencias, lo que, lamentablemente, siempre ocurre en los canales de comunicación: distorsión del sonido en el teléfono, interferencias atmosféricas en la radio, distorsión u oscurecimiento de la imagen en la televisión, errores de transmisión en el telégrafo. Esta interferencia, o como la llaman los expertos, ruido, ataca la información. Y esto se traduce en sorpresas de lo más increíbles y, por supuesto, desagradables.


Por lo tanto, para aumentar la confiabilidad en la transmisión y procesamiento de información, es necesario introducir caracteres adicionales, una especie de protección contra la distorsión. Ellos (estos símbolos adicionales) no transmiten el contenido real del mensaje, son redundantes. Desde el punto de vista de la teoría de la información, todo lo que hace que un lenguaje sea colorido, flexible, rico en matices, multifacético y polivalente es redundancia. ¡Cuán redundante es, desde ese punto de vista, la carta de Tatiana a Onegin! ¡Cuánto exceso de información hay en él para un breve y comprensible mensaje “te amo”! Y qué información precisa son los carteles dibujados a mano, comprensibles para todos los que entran hoy en el metro, donde en lugar de palabras y frases de anuncios hay carteles simbólicos lacónicos que indican: "Entrada", "Salida".


En este sentido, es útil recordar la anécdota que contó una vez el famoso científico estadounidense Benjamin Franklin sobre un fabricante de sombreros que invitó a sus amigos a discutir un proyecto de letrero. Se suponía que debía dibujar un sombrero en el letrero y escribir: “John Thompson. , un fabricante de sombreros, fabrica y vende sombreros por dinero en efectivo. Uno de los amigos notó que las palabras "por dinero en efectivo" son innecesarias; tal recordatorio resultaría ofensivo para el comprador. Otro también consideró superflua la palabra “vende”, ya que, por supuesto, el sombrerero vende sombreros y no los regala. El tercero pensó que las palabras “sombrerero” y “hace sombreros” eran una tautología innecesaria, y estas últimas fueron descartadas. El cuarto sugirió que también se debería descartar la palabra "sombrerero": el sombrero pintado dice claramente quién es John Thompson. Finalmente, el quinto insistió en que al comprador no le importaba en absoluto si el sombrerero se llamaba John Thompson o cualquier otra cosa, y sugirió que se prescindiera de esta indicación, de modo que al final no quedó nada en el cartel excepto el sombrero. Por supuesto, si la gente usara sólo este tipo de códigos, sin redundancia en los mensajes, entonces todo” formularios de información-libros, informes, artículos- sería extremadamente breve. Pero perderían claridad y belleza.

La información se puede dividir en tipos según diferentes criterios: en verdad: verdadero y falso;

a modo de percepción:

Visual: percibido por los órganos de la visión;

Auditivo: percibido por los órganos auditivos;

Táctil: percibido por receptores táctiles;

Olfativo: percibido por receptores olfativos;

Gustativo: percibido por las papilas gustativas.


según forma de presentación:

Texto: transmitido en forma de símbolos destinados a denotar lexemas del idioma;

Numérico: en forma de números y signos que indican operaciones matemáticas;

Gráfico: en forma de imágenes, objetos, gráficos;

Sonido: transmisión oral o grabada de lexemas lingüísticos por medios auditivos.


por finalidad:

Masa: contiene información trivial y opera con un conjunto de conceptos comprensibles para la mayor parte de la sociedad;

Especial: contiene un conjunto específico de conceptos; cuando se usa, se transmite información que puede no ser comprensible para la mayor parte de la sociedad, pero que es necesaria y comprensible dentro del grupo social reducido donde se usa esta información;

Secreto: transmitido a un círculo reducido de personas y a través de canales cerrados (protegidos);

Personal (privado): un conjunto de información sobre una persona, que define el estatus y los tipos sociales. interacciones sociales dentro de una población.


por valor:

Relevante: información que es valiosa en un momento dado;

Confiable: información obtenida sin distorsión;

Comprensible: información expresada en un idioma comprensible para aquellos a quienes está destinada;

Completo: información suficiente para tomar la decisión o comprensión correctas;

Útil: la utilidad de la información la determina el sujeto que la recibió en función del alcance de las posibilidades de su uso.


El valor de la información en diversos campos del conocimiento.

En la teoría de la información, hoy en día se están desarrollando muchos sistemas, métodos, enfoques e ideas. Sin embargo, los científicos creen que a las modernas se sumarán nuevas direcciones en la teoría de la información y aparecerán nuevas ideas. Como prueba de la exactitud de sus suposiciones, citan la naturaleza "viva" y en desarrollo de la ciencia, señalando que la teoría de la información se está introduciendo sorprendentemente rápida y firmemente en las más diversas áreas del conocimiento humano. La teoría de la información ha penetrado en la física, la química, la biología, la medicina, la filosofía, la lingüística, la pedagogía, la economía, la lógica, ciencias tecnicas, estética. Según los propios expertos, la doctrina de la información, que surgió de las necesidades de la teoría de las comunicaciones y la cibernética, ha traspasado sus fronteras. Y ahora, quizás, tengamos derecho a hablar de información como un concepto científico que pone en manos de los investigadores un método teórico-informativo con el que se puede penetrar en muchas ciencias sobre la naturaleza viva e inanimada, sobre la sociedad, que no sólo le permitirá ver todos los problemas desde una nueva perspectiva, sino también ver lo que aún no se ha visto. Es por eso que el término "información" se ha generalizado en nuestro tiempo, pasando a formar parte de conceptos como sistema de información, cultura de la información, incluso la ética de la información.


Muchas disciplinas científicas utilizan la teoría de la información para resaltar una nueva dirección en las ciencias antiguas. Así surgió, por ejemplo, la geografía de la información, economía de la información, ley de información. Pero el término "información" ha adquirido una importancia extremadamente grande en relación con el desarrollo de las últimas tecnologías informáticas, la automatización del trabajo mental, el desarrollo de nuevos medios de comunicación y procesamiento de información y, especialmente, con el surgimiento de la informática. Una de las tareas más importantes de la teoría de la información es el estudio de la naturaleza y las propiedades de la información, la creación de métodos para procesarla, en particular la transformación de una amplia variedad de información moderna en programas de computadora, con la ayuda de la cual la automatización de Se produce trabajo mental, una especie de fortalecimiento de la inteligencia y, por lo tanto, el desarrollo de los recursos intelectuales de la sociedad.


La palabra información proviene del latín informatio, que significa información, explicación, introducción. El concepto de “información” es básico en una carrera de informática, pero es imposible definirlo a través de otros conceptos más “simples”. El concepto de “información” se utiliza en varias ciencias, y en cada ciencia se utiliza el concepto de “. información” está asociada a diferentes sistemas de conceptos. Información en biología: La biología estudia la naturaleza viva y el concepto de “información” está asociado al comportamiento apropiado de los organismos vivos. En los organismos vivos, la información se transmite y almacena mediante objetos de diferente naturaleza física (estado de ADN), que se consideran signos de alfabetos biológicos. La información genética se hereda y almacena en todas las células de los organismos vivos. Enfoque filosófico: La información es interacción, reflexión, cognición. Enfoque cibernético: la información son las características de una señal de control transmitida a través de una línea de comunicación.

El papel de la información en la filosofía.

El tradicionalismo de lo subjetivo dominó constantemente en las primeras definiciones de información como categoría, concepto, propiedad del mundo material. La información existe fuera de nuestra conciencia y puede reflejarse en nuestra percepción sólo como resultado de la interacción: reflexión, lectura, recepción en forma de señal, estímulo. La información no es material, como todas las propiedades de la materia. La información se presenta en el siguiente orden: materia, espacio, tiempo, sistematicidad, función, etc., que son los conceptos fundamentales de un reflejo formalizado de la realidad objetiva en su distribución y variabilidad, diversidad y manifestaciones. La información es una propiedad de la materia y refleja sus propiedades (estado o capacidad de interactuar) y cantidad (medida) a través de la interacción.


Desde un punto de vista material, la información es el orden de los objetos en el mundo material. Por ejemplo, el orden de las letras en una hoja de papel según ciertas reglas es información escrita. El orden en que aparecen los puntos multicolores en una hoja de papel de acuerdo con ciertas reglas es información gráfica. El orden de las notas musicales es información musical. El orden de los genes en el ADN es información hereditaria. El orden de los bits en una computadora es información de la computadora etc. etc. Para realizar el intercambio de información se requiere la presencia de condiciones necesarias y suficientes.

Requisitos previos:

La presencia de al menos dos objetos diferentes del mundo material o intangible;

La presencia de una propiedad común entre los objetos que permite identificarlos como portadores de información;

La presencia de una propiedad específica en los objetos que les permite distinguirlos entre sí;

La presencia de una propiedad espacial que le permite determinar el orden de los objetos. Por ejemplo, la disposición de la información escrita en papel es una propiedad específica del papel que permite ordenar las letras de izquierda a derecha y de arriba a abajo.


condición suficiente una cosa: la presencia de un sujeto capaz de reconocer información. Este es el hombre y la sociedad humana, sociedades de animales, robots, etc. Un mensaje de información se construye seleccionando copias de objetos a partir de una base y disponiéndolos en el espacio en un orden determinado. La longitud del mensaje de información se define como el número de copias de los objetos básicos y siempre se expresa como un número entero. Es necesario distinguir entre la longitud de un mensaje de información, que siempre se mide en un número entero, y la cantidad de conocimiento contenido en un mensaje de información, que se mide en una unidad de medida desconocida. Desde un punto de vista matemático, la información es una secuencia de números enteros que se escriben en un vector. Los números son el número de objeto en la base de información. El vector se denomina invariante de información porque no depende de la naturaleza física de los objetos base. Un mismo mensaje informativo puede expresarse en letras, palabras, frases, archivos, imágenes, notas, canciones, videoclips, cualquier combinación de todo lo anterior.

El papel de la información en la física.

La información es información sobre el mundo circundante (objeto, proceso, fenómeno, evento), que es objeto de transformación (incluido almacenamiento, transmisión, etc.) y se utiliza para desarrollar comportamientos, para la toma de decisiones, para la gestión o para el aprendizaje.


Los rasgos característicos de la información son los siguientes:

Este es el recurso más importante. producción moderna: reduce la necesidad de tierra, mano de obra, capital, reduce el consumo de materias primas y energía. Entonces, por ejemplo, si tiene la capacidad de archivar sus archivos (es decir, si tiene dicha información), no tiene que gastar dinero en comprar nuevos disquetes;

La información da vida a nuevas producciones. Por ejemplo, la invención del rayo láser fue el motivo del surgimiento y desarrollo de la producción de discos láser (ópticos);

La información es una mercancía y el vendedor de información no la pierde después de la venta. Entonces, si un estudiante le cuenta a su amigo información sobre el horario de clases durante el semestre, no perderá estos datos;

La información añade valor a otros recursos, en particular a la mano de obra. De hecho, un trabajador con educación superior es valorado más que un trabajador con educación secundaria.


Como se desprende de la definición, siempre hay tres conceptos asociados con la información:

La fuente de información es ese elemento del mundo circundante (objeto, proceso, fenómeno, evento), información sobre el cual es objeto de transformación. Así, la fuente de información que recibe actualmente el lector de este libro de texto es la informática como ámbito de la actividad humana;

Un consumidor de información es aquel elemento del mundo circundante que utiliza información (para desarrollar comportamientos, tomar decisiones, gestionar o aprender). El consumidor de esta información es el propio lector;

Una señal es un medio material que registra información para transferirla de una fuente a un consumidor. En este caso, la señal es de naturaleza electrónica. Si un estudiante toma este manual de la biblioteca, la misma información estará en papel. Una vez leída y recordada por el estudiante, la información adquirirá otro medio, el biológico, cuando quede “grabada” en la memoria del estudiante.


La señal es el elemento más importante en este diagrama. Formas de su presentación, así como cuantitativas y características de calidad información contenida en el mismo, información importante para el consumidor, se analizan más detalladamente en esta sección libro de texto. Las principales características de una computadora como herramienta principal que transforma la fuente de información en una señal (enlace 1 en la figura) y "lleva" la señal al consumidor de información (enlace 2 en la figura) se dan en la sección Computadora. . La estructura de los procedimientos que implementan las conexiones 1 y 2 y conforman el proceso de información es el tema de consideración en la sección Proceso de información.

Los objetos del mundo material se encuentran en un estado de cambio continuo, que se caracteriza por el intercambio de energía entre el objeto y el medio ambiente. Un cambio en el estado de un objeto siempre conduce a un cambio en el estado de algún otro objeto ambiental. Este fenómeno, independientemente de cómo, qué estados y qué objetos hayan cambiado, puede considerarse como la transmisión de una señal de un objeto a otro. Cambiar el estado de un objeto cuando se le transmite una señal se llama registro de señal.


Una señal o una secuencia de señales forma un mensaje que puede ser percibido por el destinatario de una forma u otra, así como en uno u otro volumen. Información en física es un término que generaliza cualitativamente los conceptos de "señal" y "mensaje". Si las señales y los mensajes se pueden cuantificar, entonces podemos decir que las señales y los mensajes son unidades de medida del volumen de información. Mensaje (señal) diferentes sistemas interpretado a su manera. Por ejemplo, un pitido sucesivamente largo y dos cortos en la terminología del código Morse es la letra de (o D), en la terminología BIOS de la empresa AWARD: un mal funcionamiento de la tarjeta de video.

El papel de la información en las matemáticas.

En matemáticas, la teoría de la información (teoría de la comunicación matemática) es una sección de las matemáticas aplicadas que define el concepto de información, sus propiedades y establece relaciones limitantes para los sistemas de transmisión de datos. Las principales ramas de la teoría de la información son la codificación de fuente (codificación de compresión) y la codificación de canal (resistente al ruido). Las matemáticas son más que una disciplina científica. Crea un lenguaje unificado para toda la ciencia.


El tema de la investigación matemática son los objetos abstractos: número, función, vector, conjunto y otros. Además, la mayoría de ellos se introducen de forma axiomática (axioma), es decir. sin conexión alguna con otros conceptos y sin definición alguna.

La información no forma parte del estudio de las matemáticas. Sin embargo, la palabra "información" se utiliza en términos matemáticos: autoinformación e información mutua, relacionada con la parte abstracta (matemática) de la teoría de la información. Sin embargo, en la teoría matemática el concepto de “información” se asocia exclusivamente con objetos abstractos – variables aleatorias, mientras que en la teoría de la información moderna este concepto se considera de manera mucho más amplia: como una propiedad de los objetos materiales. La conexión entre estos dos términos idénticos es innegable. Fue el aparato matemático de números aleatorios el que utilizó el autor de la teoría de la información, Claude Shannon. Él mismo entiende con el término “información” algo fundamental (irreductible). La teoría de Shannon supone intuitivamente que la información tiene contenido. La información reduce la incertidumbre general y entropía de la información. La cantidad de información es mensurable. Sin embargo, advierte a los investigadores contra la transferencia mecánica de conceptos de su teoría a otras áreas de la ciencia.


“La búsqueda de formas de aplicar la teoría de la información en otros campos de la ciencia no se reduce a una transferencia trivial de términos de un campo de la ciencia a otro. Esta búsqueda se lleva a cabo en un largo proceso de formulación de nuevas hipótesis y su verificación experimental. .” K. Shannon.

El papel de la información en la cibernética

El fundador de la cibernética, Norbert Wiener, habló de esta información:

La información no es materia ni energía, la información es información." Pero la definición básica de información, que dio en varios de sus libros, es la siguiente: información es una designación del contenido que recibimos del mundo exterior, en el proceso de adaptándonos a nosotros y a nuestros sentimientos.

La información es el concepto básico de la cibernética, del mismo modo que la información económica es el concepto básico de la cibernética económica.


Existen muchas definiciones de este término, son complejas y contradictorias. La razón, obviamente, es que la cibernética como fenómeno es estudiada por diferentes ciencias, y la cibernética es sólo la más joven de ellas. La información es objeto de estudio de ciencias como las ciencias de la gestión, la estadística matemática, la genética, la teoría de los medios de comunicación (prensa escrita, radio, televisión), la informática, que se ocupa de los problemas de la información científica y técnica, etc. Últimamente los filósofos muestran un gran interés por los problemas de la energía: tienden a considerar la energía como una de las principales propiedades universales de la materia, asociada al concepto de reflexión. En todas las interpretaciones del concepto de información, se presupone la existencia de dos objetos: la fuente de información y el consumidor (destinatario) de la información. La transmisión de información de uno a otro se produce mediante señales que, en general, puede no tener ninguna conexión física con su significado: esta comunicación se determina mediante acuerdo. Por ejemplo, tocar la campana veche significaba que había que reunirse para la plaza, pero a quienes no conocían esta orden no les comunicaba ninguna información.


En una situación con una campana veche, la persona que participa en el acuerdo sobre el significado de la señal sabe que en este momento puede haber dos alternativas: la reunión veche se llevará a cabo o no. O, en el lenguaje de la teoría de la información, un evento incierto (veche) tiene dos resultados. La señal recibida conduce a una disminución de la incertidumbre: la persona ahora sabe que el evento (la noche) tiene un solo resultado: se llevará a cabo. Sin embargo, si bien se sabía de antemano que la reunión tendría lugar a tal hora, la campana no anunció nada nuevo. De ello se deduce que cuanto menos probable (es decir, más inesperado) sea el mensaje, más información contiene, y viceversa, más más probable resultado antes de que ocurra el evento, menos información contiene la señal. Aproximadamente el mismo razonamiento se hizo en los años 40. Siglo XX al surgimiento de una teoría de la información estadística o "clásica", que define el concepto de información a través de la medida de reducir la incertidumbre del conocimiento sobre la ocurrencia de un evento (esta medida se llamó entropía). Los orígenes de esta ciencia fueron N. Wiener, K. Shannon y los científicos soviéticos A. N. Kolmogorov, V. A. Kotelnikov y otros. Pudieron derivar leyes matemáticas para medir la cantidad de información y, de ahí, conceptos como capacidad de canal y capacidad de almacenamiento. de I. dispositivos, etc., que sirvieron como un poderoso incentivo para el desarrollo de la cibernética como ciencia y la tecnología de computación electrónica como una aplicación práctica de los logros de la cibernética.


En cuanto a determinar el valor y la utilidad de la información para el destinatario, todavía quedan muchas cosas sin resolver y poco claras. Si partimos de las necesidades de la gestión económica y, por tanto, de la cibernética económica, entonces la información puede definirse como toda aquella información, conocimiento y mensajes que ayudan a resolver un problema de gestión particular (es decir, reducir la incertidumbre de sus resultados). Entonces se abren algunas oportunidades para evaluar la información: cuanto más útil y valiosa sea, más pronto o con menos coste conducirá a la solución del problema. El concepto de información se acerca al concepto de datos. Sin embargo, hay una diferencia entre ellos: los datos son señales de las que aún es necesario extraer información. El procesamiento de datos es el proceso de darles una forma adecuada para ello.


Se puede considerar que el proceso de transmisión desde la fuente al consumidor y su percepción como información pasa por tres filtros:

Físicas o estadísticas (limitación puramente cuantitativa de la capacidad del canal, independientemente del contenido de los datos, es decir, desde el punto de vista sintáctico);

Semántico (selección de aquellos datos que puedan ser entendidos por el destinatario, es decir, que correspondan al tesauro de su conocimiento);

Pragmático (selección entre información entendida de aquellas que son útiles para resolver un problema determinado).

Esto se muestra claramente en el diagrama tomado del libro de E. G. Yasin sobre información económica. En consecuencia, se distinguen tres aspectos del estudio de los problemas lingüísticos: sintáctico, semántico y pragmático.


Según su contenido, la información se divide en sociopolítica, socioeconómica (incluida la información económica), científica y técnica, etc. En general, existen muchas clasificaciones de información que se basan en diversas bases; Como regla general, debido a la proximidad de los conceptos, las clasificaciones de datos se construyen de la misma manera. Por ejemplo, la información se divide en estática (constante) y dinámica (variable), y los datos se dividen en constante y variable. Otra división es la información de salida primaria, derivada (los datos también se clasifican de la misma manera). La tercera división es I. controlar e informar. Cuarto: redundante, útil y falso. Quinto: completo (continuo) y selectivo. Esta idea de Wiener da una indicación directa de la objetividad de la información, es decir su existencia en la naturaleza es independiente de la conciencia humana (percepción).

La cibernética moderna define la información objetiva como la propiedad objetiva de los objetos y fenómenos materiales de generar una variedad de estados que, a través de las interacciones fundamentales de la materia, se transmiten de un objeto (proceso) a otro y quedan impresos en su estructura. Un sistema material en cibernética se considera como un conjunto de objetos que a su vez pueden estar en diferentes estados, pero el estado de cada uno de ellos está determinado por los estados de otros objetos del sistema.

En la naturaleza, muchos estados de un sistema representan información; los propios estados representan el código primario o código fuente. Por tanto, todo sistema material es una fuente de información. La cibernética define la información subjetiva (semántica) como el significado o contenido de un mensaje.

El papel de la información en la informática.

El tema de la ciencia son los datos: métodos de creación, almacenamiento, procesamiento y transmisión. Contenido (también: “relleno” (en contexto), “contenido del sitio”) es un término que significa todo tipo de información (tanto texto como multimedia - imágenes, audio, video) que compone el contenido (contenido visualizado, para el visitante). ) del sitio web. Se utiliza para separar el concepto de información que constituye la estructura interna de una página/sitio (código) de lo que finalmente se mostrará en la pantalla.

La palabra información proviene del latín informatio, que significa información, explicación, introducción. El concepto de “información” es básico en una carrera de informática, pero es imposible definirlo a través de otros conceptos más “simples”.


Se pueden distinguir los siguientes enfoques para determinar la información:

Tradicional (ordinario): utilizado en informática: información es información, conocimiento, mensajes sobre el estado de cosas que una persona percibe del mundo exterior mediante los sentidos (visión, oído, gusto, olfato, tacto).

Probabilístico: utilizado en la teoría de la información: la información es información sobre objetos y fenómenos del medio ambiente, sus parámetros, propiedades y estado, que reducen el grado de incertidumbre y conocimiento incompleto sobre ellos.


La información se almacena, transmite y procesa en forma simbólica (signo). La misma información se puede presentar de diferentes formas:

Escritura de signos, formada por varios signos, entre los que se distinguen los simbólicos en forma de texto, números, especiales. personajes; gráfico; tabulares, etc.;

En forma de gestos o señales;

Forma verbal oral (conversación).


La información se presenta utilizando lenguajes como sistemas de signos, que se construyen sobre la base de un alfabeto específico y tienen reglas para realizar operaciones con signos. El lenguaje es un sistema de signos específico para presentar información. Hay:

Lenguajes naturales – idiomas hablados verbalmente y escrito. En algunos casos, el lenguaje hablado puede ser reemplazado por el lenguaje de expresiones faciales y gestos, el lenguaje de señales especiales (por ejemplo, señales de tráfico);

Los lenguajes formales son lenguajes especiales para diversas áreas de la actividad humana, que se caracterizan por un alfabeto estrictamente fijo y reglas gramaticales y sintaxis más estrictas. Este es el lenguaje de la música (notas), el lenguaje de las matemáticas (números, signos matemáticos), sistemas numéricos, lenguajes de programación, etc. La base de cualquier idioma es el alfabeto: un conjunto de símbolos/signos. El número total de símbolos del alfabeto suele denominarse potencia del alfabeto.


Los medios de información son un medio o cuerpo físico para transmitir, almacenar y reproducir información. (Se trata de señales eléctricas, luminosas, térmicas, sonoras, de radio, magnéticas y discos láser, publicaciones impresas, fotografías, etc.)

Los procesos de información son procesos asociados con la recepción, almacenamiento, procesamiento y transmisión de información (es decir, acciones realizadas con información). Aquellos. Son procesos durante los cuales cambia el contenido de la información o la forma de su presentación.

Para asegurar el proceso de información se requiere una fuente de información, un canal de comunicación y un consumidor de información. La fuente transmite (envía) información y el receptor la recibe (percibe). La información transmitida viaja desde la fuente al receptor mediante una señal (código). Cambiar la señal le permite obtener información.

Al ser objeto de transformación y uso, la información se caracteriza por las siguientes propiedades:

La sintaxis es una propiedad que determina la forma en que se presenta la información en un medio (en una señal). Así, esta información se presenta en soporte electrónico utilizando una fuente específica. Aquí también puede considerar parámetros de presentación de información como el estilo y color de la fuente, su tamaño, interlineado, etc. La selección de los parámetros necesarios como propiedades sintácticas está obviamente determinada por el método de transformación previsto. Por ejemplo, para una persona con problemas de visión, el tamaño y el color de la fuente son importantes. Si tienes intención de entrar este texto a una computadora mediante un escáner, el tamaño del papel es importante;


La semántica es una propiedad que determina el significado de la información como la correspondencia de una señal con el mundo real. Por tanto, la semántica de la señal "informática" reside en la definición dada anteriormente. La semántica puede considerarse como algún acuerdo, conocido por el consumidor de información, sobre lo que significa cada señal (la llamada regla de interpretación). Por ejemplo, es la semántica de las señales la que estudia un automovilista novato que estudia las reglas. tráfico, aprender las señales de tráfico (en este caso, las señales en sí son las señales). La semántica de las palabras (señales) la aprende un estudiante de una lengua extranjera. Podemos decir que el objetivo de enseñar informática es estudiar semántica. varias señales– la esencia de los conceptos clave de esta disciplina;


La pragmática es una propiedad que determina la influencia de la información en el comportamiento del consumidor. Por lo tanto, la pragmática de la información recibida por el lector de este libro de texto es, como mínimo, la aprobación exitosa del examen de informática. Me gustaría creer que la pragmática de este trabajo no se limitará a esto, sino que servirá para la educación superior y las actividades profesionales del lector.

Cabe señalar que las señales que difieren en sintaxis pueden tener la misma semántica. Por ejemplo, las señales "computadora" y "computadora" significan dispositivo electrónico para transformar la información. En este caso solemos hablar de sinonimia de señales. Por otro lado, una señal (es decir, información con una propiedad sintáctica) puede tener una pragmática diferente para los consumidores y una semántica diferente. Así, una señal de tráfico conocida como “ladrillo” y que tiene una semántica muy específica (“entrada prohibida”) significa para un automovilista una prohibición de entrada, pero no tiene ningún efecto para un peatón. Al mismo tiempo, la señal "clave" puede tener una semántica diferente: clave de sol, llave de resorte, llave para abrir una cerradura, llave utilizada en informática para codificar una señal con el fin de protegerla del acceso no autorizado (en este caso se habla de homonimia de señal). Hay señales, antónimos que tienen semánticas opuestas. Por ejemplo, “frío” y “caliente”, “rápido” y “lento”, etc.


El tema de estudio de la ciencia de la informática son los datos: métodos de su creación, almacenamiento, procesamiento y transmisión. Y la información misma registrada en los datos, su significado significativo, es de interés para los usuarios de sistemas de información que son especialistas en diversas ciencias y campos de actividad: un médico está interesado en información médica, un geólogo está interesado en información geológica, un empresario está interesado en información comercial, etc. (En particular, un informático está interesado en información sobre cómo trabajar con datos).

Semiótica - ciencia de la información.

La información no se puede imaginar sin su recepción, procesamiento, transmisión, etc., es decir, fuera del marco del intercambio de información. Todos los actos de intercambio de información se llevan a cabo a través de símbolos o signos, con la ayuda de los cuales un sistema influye en otro. Por tanto, la principal ciencia que estudia la información es la semiótica, la ciencia de los signos y los sistemas de signos en la naturaleza y la sociedad (teoría de los signos). En cada acto de intercambio de información se pueden encontrar tres “participantes”, tres elementos: un signo, el objeto que designa y el destinatario (usuario) del signo.


Dependiendo de las relaciones entre los elementos que se consideren, la semiótica se divide en tres secciones: sintáctica, semántica y pragmática. La sintáctica estudia los signos y las relaciones entre ellos. Al mismo tiempo, hace abstracción del contenido del signo y de su significado práctico para el destinatario. La semántica estudia la relación entre los signos y los objetos que denotan, haciendo abstracción del destinatario de los signos y del valor de estos últimos: para él. Está claro que estudiar los patrones de representación semántica de objetos en signos es imposible sin tener en cuenta y utilizar patrones generales construcción de cualquier sistema de signos estudiado por la sintáctica. La pragmática estudia la relación entre los signos y sus usuarios. En el marco de la pragmática, se estudian todos los factores que distinguen un acto de intercambio de información de otro, todas las cuestiones sobre los resultados prácticos del uso de la información y su valor para el destinatario.


En este caso, muchos aspectos de la relación de los signos entre sí y con los objetos que denotan se ven inevitablemente afectados. Así, las tres secciones de la semiótica corresponden a tres niveles de abstracción (distracción) de las características de actos específicos de intercambio de información. El estudio de la información en toda su diversidad corresponde a nivel pragmático. Distrayéndonos del destinatario de la información, excluyéndolo de la consideración, pasamos a estudiarla a nivel semántico. Con la abstracción del contenido de los signos, el análisis de la información se traslada al nivel de la sintáctica. Esta interpenetración de las principales secciones de la semiótica, asociadas con diferentes niveles de abstracción, se puede representar mediante el diagrama "Tres secciones de la semiótica y sus interrelaciones". La medición de la información se realiza en consecuencia en tres aspectos: sintáctico, semántico y pragmático. La necesidad de dimensiones de información tan diferentes, como se mostrará a continuación, está dictada por la práctica de diseñar y organizar el trabajo de los sistemas de información. Consideremos una situación de producción típica.


Al final del turno, el planificador del sitio prepara datos sobre la implementación del programa de producción. Estos datos ingresan al centro de información y computación (ICC) de la empresa, donde se procesan y se entregan a los gerentes en forma de informes sobre el estado actual de la producción. Según los datos recibidos, el director del taller toma la decisión de cambiar el plan de producción para el próximo período de planificación o tomar otras medidas organizativas. Obviamente, para el gerente de la tienda, la cantidad de información contenida en el currículum depende de la magnitud del impacto económico recibido por su uso en la toma de decisiones, de qué tan útil fue la información recibida. Para el planificador del sitio, la cantidad de información en un mismo mensaje está determinada por la exactitud de su correspondencia con el estado real de las cosas en el sitio y el grado de sorpresa de los hechos informados. Cuanto más inesperados sean, más rápido deberá informarlos a la gerencia, más información habrá este mensaje. Para los trabajadores de ICC, la cantidad de caracteres y la longitud del mensaje que contiene información serán de suma importancia, ya que es esto lo que determina el tiempo de carga de los equipos informáticos y los canales de comunicación. Al mismo tiempo, prácticamente no les interesa ni la utilidad de la información ni la medida cuantitativa del valor semántico de la información.


Naturalmente, al organizar un sistema de gestión de la producción y construir modelos de selección de decisiones, utilizaremos la utilidad de la información como medida del carácter informativo de los mensajes. Al construir un sistema de contabilidad y presentación de informes que proporcione gestión de datos sobre el progreso del proceso de producción, la novedad de la información recibida debe tomarse como una medida de la cantidad de información. La organización de procedimientos de procesamiento mecánico de información requiere medir el volumen de mensajes en forma de número de caracteres procesados. Estos tres enfoques fundamentalmente diferentes para medir la información no son contradictorios ni mutuamente excluyentes. Por el contrario, al medir la información en diferentes escalas, permiten una evaluación más completa e integral del contenido informativo de cada mensaje y organizan de manera más efectiva un sistema de gestión de la producción. Según la acertada expresión del Prof. NO. Kobrinsky, cuando se trata de la organización racional de los flujos de información, la cantidad, novedad y utilidad de la información están tan interconectadas como la cantidad, la calidad y el costo de los productos en producción.

Información en el mundo material.

La información es una de conceptos generales relacionado con la materia. La información existe en cualquier objeto material en forma de una variedad de sus estados y se transfiere de un objeto a otro en el proceso de su interacción. La existencia de información como propiedad objetiva de la materia se deriva lógicamente de las propiedades fundamentales conocidas de la materia: estructura, cambio (movimiento) continuo e interacción de los objetos materiales.


La estructura de la materia se manifiesta como el desmembramiento interno de la integridad, el orden natural de conexión de los elementos dentro del todo. En otras palabras, cualquier objeto material, desde la partícula subatómica del Meta Universo (Big Bang) en su conjunto, es un sistema de subsistemas interconectados. Debido al movimiento continuo, entendido en en un sentido amplio A medida que se mueven en el espacio y se desarrollan en el tiempo, los objetos materiales cambian de estado. Los estados de los objetos también cambian durante las interacciones con otros objetos. El conjunto de estados de un sistema material y todos sus subsistemas representa información sobre el sistema.


Estrictamente hablando, debido a la incertidumbre, el infinito y las propiedades de la estructura, la cantidad de información objetiva en cualquier objeto material es infinita. Esta información se llama completa. Sin embargo, es posible distinguir niveles estructurales con conjuntos finitos de estados. Información disponible en nivel estructural con un número finito de estados se llama privado. Para la información privada, el concepto de cantidad de información tiene sentido.

De la presentación anterior, es lógico y sencillo seleccionar una unidad de medida para la cantidad de información. Imaginemos un sistema que sólo puede estar en dos estados igualmente probables. Asignemos el código “1” a uno de ellos y “0” al otro. Esta es la cantidad mínima de información que el sistema puede contener. Es una unidad de medida de información y se llama bit. Existen otros métodos y unidades, más difíciles de definir, para medir la cantidad de información.


Dependiendo de la forma material del medio, la información es de dos tipos principales: analógica y discreta. La información analógica cambia continuamente con el tiempo y toma valores de un continuo de valores. La información discreta cambia en algunos momentos y toma valores de un determinado conjunto de valores. Cualquier objeto o proceso material es la fuente primaria de información. Todos sus posibles estados conforman el código fuente de información. El valor instantáneo de los estados se representa como un símbolo (“letra”) de este código. Para que la información se transmita de un objeto a otro como receptor es necesario que exista algún tipo de medio material intermedio que interactúe con la fuente. Tales portadores en la naturaleza, por regla general, son procesos de estructura ondulatoria que se propagan rápidamente: radiación cósmica, gamma y de rayos X, ondas electromagnéticas y sonoras, potenciales (y quizás ondas aún no descubiertas) del campo gravitacional. Al interactuar radiación electromagnética con un objeto, como resultado de la absorción o la reflexión, su espectro cambia, es decir, las intensidades de algunas longitudes de onda cambian. Los armónicos de las vibraciones del sonido también cambian durante las interacciones con los objetos. La información también se transmite mediante interacción mecánica, pero la interacción mecánica, por regla general, conduce a grandes cambios en la estructura de los objetos (hasta su destrucción) y la información se distorsiona enormemente. La distorsión de la información durante su transmisión se llama desinformación.


La transferencia de información fuente a la estructura del medio se llama codificación. En este caso, el código fuente se convierte en código portador. El medio al que se le transfiere el código fuente en forma de código portador se llama señal. El receptor de señal tiene su propio conjunto de estados posibles, que se denomina código de receptor. Una señal, al interactuar con un objeto receptor, cambia su estado. El proceso de convertir un código de señal en un código de receptor se llama decodificación. La transferencia de información de una fuente a un receptor puede considerarse como interacción de información. La interacción de información es fundamentalmente diferente de otras interacciones. En todas las demás interacciones de objetos materiales, se produce un intercambio de materia y (o) energía. En este caso, uno de los objetos pierde materia o energía y el otro la gana. Esta propiedad de las interacciones se llama simetría. Durante la interacción de información, el receptor recibe información, pero la fuente no la pierde. La interacción de la información es asimétrica. La información objetiva en sí misma no es material, es una propiedad de la materia, como la estructura, el movimiento, y existe en los medios materiales en forma de sus propios códigos.

Información en vida silvestre

La vida silvestre es compleja y diversa. Las fuentes y receptores de información que contiene son los organismos vivos y sus células. Un organismo tiene una serie de propiedades que lo distinguen de los objetos materiales inanimados.


Básico:

Intercambio continuo de materia, energía e información con el medio ambiente;

Irritabilidad, la capacidad del cuerpo para percibir y procesar información sobre cambios en el entorno y el entorno interno del cuerpo;

Excitabilidad, la capacidad de responder a estímulos;

Autoorganización, manifestada como cambios en el cuerpo para adaptarse a las condiciones ambientales.


Un organismo, considerado como sistema, tiene una estructura jerárquica. Esta estructura relativa al propio organismo se divide en niveles internos: molecular, celular, nivel de órganos y, finalmente, el propio organismo. Sin embargo, el organismo también interactúa por encima de los sistemas vivos del organismo, cuyos niveles son la población, el ecosistema y toda la naturaleza viva en su conjunto (biosfera). Entre todos estos niveles circulan flujos no sólo de materia y energía, sino también de información. Las interacciones de información en la naturaleza viva ocurren de la misma manera que en la naturaleza inanimada. Al mismo tiempo, la naturaleza viva en el proceso de evolución ha creado una amplia variedad de fuentes, portadores y receptores de información.


La reacción a las influencias del mundo exterior se manifiesta en todos los organismos, ya que es provocada por la irritabilidad. En los organismos superiores, la adaptación al entorno externo es una actividad compleja, que sólo es eficaz con información suficientemente completa y oportuna sobre el entorno. Los receptores de información del entorno externo son sus órganos de los sentidos, que incluyen la visión, el oído, el olfato, el gusto, el tacto y el aparato vestibular. En la estructura interna de los organismos existen numerosos receptores internos asociados al sistema nervioso. El sistema nervioso está formado por neuronas cuyos procesos (axones y dendritas) son análogos a los canales de transmisión de información. Los principales órganos que almacenan y procesan información en los vertebrados son la médula espinal y el cerebro. De acuerdo con las características de los sentidos, la información percibida por el cuerpo se puede clasificar en visual, auditiva, gustativa, olfativa y táctil.


Cuando la señal llega a la retina del ojo humano, excita de forma especial las células que la componen. Los impulsos nerviosos de las células se transmiten a través de axones al cerebro. El cerebro recuerda este sentimiento como cierta combinación estados de sus neuronas constituyentes. (El ejemplo continúa en la sección “La información en la sociedad humana”). Al acumular información, el cerebro crea en su estructura un modelo de información conectado del mundo circundante. En la naturaleza viva, una característica importante para un organismo que recibe información es su disponibilidad. La cantidad de información que el sistema nervioso humano es capaz de enviar al cerebro al leer textos es aproximadamente de 1 bit cada 1/16 de s.

El estudio de los organismos se complica por su complejidad. La abstracción de la estructura como un conjunto matemático, que es aceptable para objetos inanimados, difícilmente lo es para un organismo vivo, porque para crear un modelo abstracto más o menos adecuado de un organismo, es necesario tener en cuenta todas las jerarquías. niveles de su estructura. Por tanto, es difícil introducir una medida de la cantidad de información. Es muy difícil determinar las conexiones entre los componentes de la estructura. Si se sabe qué órgano es la fuente de información, entonces ¿cuál es la señal y cuál es el receptor?


Antes de la llegada de las computadoras, la biología, que se ocupa del estudio de los organismos vivos, utilizaba sólo cualitativo, es decir. modelos descriptivos. EN modelo de calidad Es casi imposible tener en cuenta las conexiones de información entre los componentes de la estructura. La tecnología de la computación electrónica ha hecho posible aplicar nuevos métodos en la investigación biológica, en particular, el método de modelado de máquinas, que implica una descripción matemática de fenómenos y procesos conocidos que ocurren en el cuerpo, añadiéndoles hipótesis sobre algunos procesos desconocidos y cálculos. opciones posibles comportamiento del organismo. Las opciones resultantes se comparan con el comportamiento real del organismo, lo que permite determinar la verdad o falsedad de las hipótesis planteadas. Estos modelos también pueden tener en cuenta la interacción de la información. Los procesos de información que aseguran la existencia de la vida misma son extremadamente complejos. Y aunque intuitivamente está claro que esta propiedad está directamente relacionada con la formación, almacenamiento y transmisión información completa En cuanto a la estructura del organismo, una descripción abstracta de este fenómeno parecía imposible durante algún tiempo. Sin embargo, los procesos de información que aseguran la existencia de esta propiedad han sido parcialmente revelados mediante el descifrado del código genético y la lectura de los genomas de diversos organismos.

La información en la sociedad humana.

El desarrollo de la materia en el proceso de movimiento tiene como objetivo complicar la estructura de los objetos materiales. Una de las estructuras más complejas es el cerebro humano. Hasta ahora, esta es la única estructura que conocemos que tiene una propiedad que el propio hombre llama conciencia. Hablando de información, nosotros, como seres pensantes, a priori queremos decir que la información, además de su presencia en forma de señales que recibimos, también tiene algún significado. Al formar en su mente un modelo del mundo circundante como un conjunto interconectado de modelos de sus objetos y procesos, una persona utiliza conceptos semánticos, no información. El significado es la esencia de cualquier fenómeno, que no coincide consigo mismo y lo conecta con el contexto más amplio de la realidad. La palabra misma indica directamente que el contenido semántico de la información sólo puede ser formado por receptores pensantes de información. En la sociedad humana, no es la información en sí la que tiene una importancia decisiva, sino su contenido semántico.


Ejemplo (continuación). Habiendo experimentado tal sensación, una persona asigna el concepto de "tomate" al objeto y el concepto de "color rojo" a su estado. Además, su conciencia fija la conexión: "tomate" - "rojo". Este es el significado de la señal recibida. (El ejemplo continúa a continuación en esta sección). La capacidad del cerebro para crear conceptos significativos y conexiones entre ellos es la base de la conciencia. La conciencia puede considerarse como un modelo semántico que se desarrolla a sí mismo del mundo circundante. El significado no es información. La información existe sólo en un medio tangible. La conciencia humana se considera inmaterial. El significado existe en la mente humana en forma de palabras, imágenes y sensaciones. Una persona puede pronunciar palabras no sólo en voz alta, sino también "para sí misma". También puede crear (o recordar) “en su propia mente” imágenes y sensaciones. Sin embargo, puede recuperar información correspondiente a este significado hablando o escribiendo palabras.

Ejemplo (continuación). Si las palabras “tomate” y “rojo” son el significado de los conceptos, ¿dónde está la información? La información está contenida en el cerebro en forma de ciertos estados de sus neuronas. También está contenido en texto impreso que consta de estas palabras, y cuando se codifican letras con un código binario de tres bits, su número es de 120 bits. Si dices las palabras en voz alta, habrá mucha más información, pero el significado seguirá siendo el mismo. La imagen visual transporta la mayor cantidad de información. Esto se refleja incluso en el folclore: "es mejor ver una vez que escuchar cien veces. La información recuperada de esta manera se llama información semántica, ya que codifica el significado de alguna información primaria (semántica). Habiendo escuchado (o visto) una frase hablada (o escrita) en un idioma que una persona no conoce, recibe información, pero no puede determinar su significado. Por lo tanto, para transmitir el contenido semántico de la información, son necesarios algunos acuerdos entre la fuente y el receptor sobre el contenido semántico de las señales, es decir, palabras Estos acuerdos se pueden alcanzar a través de la comunicación. La comunicación es una de las condiciones más importantes para la existencia de la sociedad humana.

En el mundo moderno, la información es una de las recursos críticos y, al mismo tiempo, una de las fuerzas impulsoras del desarrollo de la sociedad humana. Los procesos de información que ocurren en el mundo material, la naturaleza viva y la sociedad humana son estudiados (o al menos tenidos en cuenta) por todas las disciplinas científicas, desde la filosofía hasta el marketing. Complejidad creciente de las tareas. investigación científica llevó a la necesidad de involucrar a grandes equipos de científicos de diferentes especialidades en su solución. Por lo tanto, casi todas las teorías que se analizan a continuación son interdisciplinarias. Históricamente, dos ramas complejas de la ciencia, la cibernética y la informática, se dedican al estudio de la información misma.


La cibernética moderna es una rama multidisciplinaria de la ciencia que estudia sistemas altamente complejos, como:

Sociedad humana (cibernética social);

Economía (cibernética económica);

Organismo vivo (cibernética biológica);

El cerebro humano y su función es la conciencia (inteligencia artificial).


La informática, formada como ciencia a mediados del siglo pasado, se separó de la cibernética y se dedica a la investigación en el campo de los métodos para obtener, almacenar, transmitir y procesar información semántica. Ambas industrias utilizan varias teorías científicas subyacentes. Estos incluyen la teoría de la información y sus secciones: teoría de la codificación, teoría de algoritmos y teoría de autómatas. La investigación sobre el contenido semántico de la información se basa en un complejo de teorías científicas bajo nombre común La semiótica es una teoría compleja, principalmente matemática, que incluye una descripción y evaluación de métodos para recuperar, transmitir, almacenar y clasificar información. Considera los medios de información como elementos de un conjunto abstracto (matemático) y las interacciones entre medios como una forma de organizar los elementos de este conjunto. Este enfoque permite describir formalmente el código de información, es decir, definir un código abstracto y estudiarlo utilizando métodos matemáticos. Para estos estudios utiliza métodos de teoría de la probabilidad, estadística matemática, álgebra lineal, teoría de juegos y otras teorías matemáticas.


Las bases de esta teoría las sentó el científico estadounidense E. Hartley en 1928, quien determinó la medida de la cantidad de información para determinados problemas de comunicación. Más tarde, la teoría fue desarrollada significativamente por el científico estadounidense K. Shannon, los científicos rusos A.N. Kolmogorov, V.M. Glushkov y otros. La teoría de la información moderna incluye secciones como la teoría de la codificación, la teoría de los algoritmos, la teoría de los autómatas digitales (ver más abajo) y algunas otras. También existen teorías de la información alternativas, por ejemplo la "teoría de la información cualitativa", propuesta por los polacos. científico M. Mazur Todo el mundo está familiarizado con el concepto de algoritmo, sin siquiera saberlo. Aquí hay un ejemplo de un algoritmo informal: “Corta los tomates en círculos o rodajas. Ponerles cebollas picadas, verter. aceite vegetal Luego espolvorea con pimiento finamente picado y revuelve. Antes de usar, espolvorear con sal, colocar en una ensaladera y decorar con perejil”. (Ensalada de tomate).


Las primeras reglas para resolver problemas aritméticos en la historia de la humanidad fueron desarrolladas por uno de los científicos famosos de la antigüedad, Al-Khorezmi, en el siglo IX d.C. En su honor, las reglas formalizadas para lograr cualquier objetivo se denominan algoritmos. El tema de la teoría de los algoritmos es encontrar métodos para construir y evaluar algoritmos de control y computación efectivos (incluidos los universales) para el procesamiento de información. Para fundamentar tales métodos, la teoría de los algoritmos utiliza el aparato matemático de la teoría de la información. El concepto científico moderno de algoritmos como métodos de procesamiento de información se introdujo en los trabajos de E. Post y A. Turing en los años 20 del siglo XX (Turing). Máquina). Los científicos rusos A. Markov (Algoritmo normal de Markov) y A. Kolmogorov hicieron una gran contribución al desarrollo de la teoría de los algoritmos. La teoría de los autómatas es una rama de la cibernética teórica en la que se estudian modelos matemáticos reales o fundamentalmente existentes. posibles dispositivos tratamiento información discreta en momentos discretos en el tiempo.


El concepto de autómata surgió en la teoría de los algoritmos. Si hay algunos algoritmos universales soluciones a problemas computacionales, entonces debe haber dispositivos (aunque abstractos) para implementar dichos algoritmos. En realidad, una máquina de Turing abstracta, considerada en la teoría de los algoritmos, es al mismo tiempo un autómata definido informalmente. La justificación teórica para la construcción de tales dispositivos es el tema de la teoría de los autómatas. La teoría de los autómatas utiliza el aparato de las teorías matemáticas: el álgebra. lógica matemática, análisis combinatorio, teoría de grafos, teoría de la probabilidad, etc. La teoría de los autómatas junto con la teoría de los algoritmos es la principal base teórica para la creación de computadoras electrónicas y sistemas de control automatizados. La semiótica es un complejo de teorías científicas que estudian las propiedades de. sistemas de signos. Los resultados más significativos se lograron en el apartado de semiótica: semántica. El tema de la investigación semántica es el contenido semántico de la información.


Se considera que un sistema de signos es un sistema de objetos (signos, palabras) concretos o abstractos, a cada uno de los cuales se le asocia de una determinada manera un determinado significado. En teoría, se ha demostrado que pueden existir dos comparaciones de este tipo. El primer tipo de correspondencia determina directamente el objeto material que denota esta palabra y se llama denotación (o, en algunas obras, nominado). El segundo tipo de correspondencia determina el significado de un signo (palabra) y se denomina concepto. Al mismo tiempo, se estudian propiedades de las comparaciones como "significado", "verdad", "definibilidad", "seguimiento", "interpretación", etc. Para la investigación se utilizan los aparatos de la lógica matemática y la lingüística matemática. de la semántica, esbozada por G. V. Leibniz y F de Saussure en el siglo XIX, formulada y desarrollada por C. Pierce (1839-1914), C. Morris (n. 1901), R. Carnap (1891-1970), etc. El principal logro de la teoría es la creación de un aparato de análisis semántico que permite representar el significado de un texto en lenguaje natural en forma de registro en algún lenguaje semántico (semántico) formalizado. El análisis semántico es la base para la creación de dispositivos (. programas) traducción automática de un lenguaje natural a otro.

La información se almacena transfiriéndola a algún medio tangible. La información semántica registrada en un medio de almacenamiento material se denomina documento. La humanidad aprendió a almacenar información hace mucho tiempo. Las formas más antiguas de almacenar información utilizaban la disposición de objetos: conchas y piedras en la arena, nudos en una cuerda. Un desarrollo significativo de estos métodos fue la escritura: una representación gráfica de símbolos en piedra, arcilla, papiro y papel. La invención de la imprenta fue de gran importancia en el desarrollo de esta dirección. A lo largo de su historia, la humanidad ha acumulado una enorme cantidad de información en bibliotecas, archivos, publicaciones periódicas y otros documentos escritos.


Actualmente, el almacenamiento de información en forma de secuencias de caracteres binarios ha adquirido especial importancia. Para implementar estos métodos, se utilizan una variedad de dispositivos de almacenamiento. Son el eslabón central de los sistemas de almacenamiento de información. Además de ellos, dichos sistemas utilizan herramientas de recuperación de información ( motor de búsqueda), medios para obtener información (sistemas de información y referencia) y medios para mostrar información (dispositivo de salida). Estos sistemas de información, formados según el propósito de la información, forman bases de datos, bancos de datos y una base de conocimientos.

La transferencia de información semántica es el proceso de su transferencia espacial desde la fuente al destinatario (destinatario). El hombre aprendió a transmitir y recibir información incluso antes que a almacenarla. El habla es un método de transmisión que nuestros ancestros lejanos usaban en contacto directo (conversación); todavía lo usamos ahora. Para transmitir información a largas distancias, es necesario utilizar procesos de información mucho más complejos. Para llevar a cabo dicho proceso, la información debe formatearse (presentarse) de alguna manera. Para presentar información se utilizan varios sistemas de signos: conjuntos de símbolos semánticos predeterminados: objetos, imágenes, palabras escritas o impresas del lenguaje natural. Presentado con su ayuda. información semántica sobre cualquier objeto, fenómeno o proceso se llama mensaje.


Obviamente, para transmitir un mensaje a distancia, la información debe transferirse a algún tipo de medio móvil. Los transportistas pueden moverse en el espacio usando vehículos, como ocurre con las cartas enviadas por correo. Este método garantiza una total fiabilidad de la transmisión de información, ya que el destinatario recibe el mensaje original, pero requiere un tiempo considerable para la transmisión. Desde mediados del siglo XIX, los métodos de transmisión de información se han generalizado utilizando medios de información que se difunden naturalmente: vibraciones electromagnéticas(vibraciones eléctricas, ondas de radio, luz). La implementación de estos métodos requiere:

Transferencia preliminar de información contenida en un mensaje a un medio: codificación;

Asegurar la transmisión de la señal así recibida al destinatario a través de un canal de comunicación especial;

Conversión inversa del código de señal en un código de mensaje: decodificación.

El uso de medios electromagnéticos hace que la entrega de un mensaje al destinatario sea casi instantánea, pero requiere medidas adicionales asegurar la calidad (fiabilidad y precisión) de la información transmitida, ya que los canales de comunicación reales son susceptibles a interferencias naturales y artificiales. Los dispositivos que implementan el proceso de transferencia de datos forman sistemas de comunicación. Dependiendo del método de presentación de la información, los sistemas de comunicación se pueden dividir en signos (telégrafo, telefax), sonido (teléfono), video y sistemas combinados (televisión). El sistema de comunicación más desarrollado en nuestro tiempo es Internet.

Procesamiento de información

Dado que la información no es material, su procesamiento implica diversas transformaciones. Los procesos de procesamiento incluyen cualquier transferencia de información de un medio a otro medio. La información destinada al procesamiento se denomina datos. El principal tipo de procesamiento de la información primaria recibida por varios dispositivos es la transformación a una forma que asegure su percepción por los sentidos humanos. Así, las fotografías del espacio obtenidas con rayos X se convierten en fotografías en color ordinarias utilizando convertidores de espectro especiales y materiales fotográficos. Los dispositivos de visión nocturna convierten la imagen obtenida con rayos infrarrojos (térmicos) en una imagen en el rango visible. Para algunas tareas de comunicación y control, es necesaria la conversión de información analógica. Para este propósito, analógico a digital y convertidores de digital a analógico señales.


La vista más importante El procesamiento de información semántica es la determinación del significado (contenido) contenido en un determinado mensaje. A diferencia de la información semántica primaria, no tiene características estadísticas, es decir, una medida cuantitativa: tiene significado o no. Y es imposible establecer cuánto es, si es que lo hay. El significado contenido en el mensaje se describe en un lenguaje artificial que refleja las conexiones semánticas entre las palabras del texto fuente. Un diccionario de dicho idioma, llamado tesauro, se encuentra en el receptor del mensaje. El significado de las palabras y frases de un mensaje se determina asignándolos a determinados grupos de palabras o frases cuyo significado ya ha sido establecido. El diccionario de sinónimos, de esta forma, permite establecer el significado del mensaje y, al mismo tiempo, se repone con nuevos conceptos semánticos. El tipo de procesamiento de información descrito se utiliza en sistemas de recuperación de información y sistemas de traducción automática.


Uno de los tipos más extendidos de procesamiento de información es la solución de problemas computacionales y problemas de control automático mediante computadoras. El procesamiento de la información siempre se realiza con alguna finalidad. Para lograrlo es necesario conocer el orden de las acciones sobre la información que conducen a un objetivo determinado. Este procedimiento se llama algoritmo. Además del algoritmo en sí, también necesitas algún dispositivo que implemente este algoritmo. En las teorías científicas, dicho dispositivo se llama autómata. Cabe señalar que la característica más importante de la información es el hecho de que, debido a la asimetría de la interacción de la información, aparece nueva información al procesarla, pero la información original no se pierde.

Información analógica y digital.

El sonido son vibraciones ondulatorias en cualquier medio, por ejemplo en el aire. Cuando una persona habla, las vibraciones de los ligamentos de la garganta se convierten en vibraciones ondulatorias del aire. Si consideramos el sonido no como una onda, sino como vibraciones en un punto, entonces estas vibraciones pueden representarse como la presión del aire que cambia con el tiempo. Usando un micrófono, los cambios de presión se pueden detectar y convertir en voltaje electrico. La presión del aire se convierte en fluctuaciones de voltaje eléctrico.


Tal transformación puede ocurrir según varias leyes, la mayoría de las veces la transformación ocurre según una ley lineal. Por ejemplo, así:

U(t)=K(P(t)-P_0),

donde U(t) es el voltaje eléctrico, P(t) es la presión del aire, P_0 es la presión del aire promedio y K es el factor de conversión.

Tanto el voltaje eléctrico como la presión del aire son funciones continuas en el tiempo. Las funciones U(t) y P(t) son información sobre las vibraciones de los ligamentos de la garganta. Estas funciones son continuas y dicha información se llama música analógica. caso especial sonido y también puede representarse como alguna función del tiempo. Será una representación analógica de la música. Pero la música también se escribe en forma de notas. Cada nota tiene una duración que es múltiplo de una duración predeterminada y un tono (do, re, mi, fa, salt, etc.). Si estos datos se convierten en números, obtenemos una representación digital de la música.


El habla humana es también un caso especial de sonido. También se puede representar en forma analógica. Pero así como la música se puede dividir en notas, el habla se puede dividir en letras. Si a cada letra se le asigna su propio conjunto de números, obtendremos una representación digital del habla. La diferencia entre la información analógica y la digital es que la información analógica es continua, mientras que la información digital es discreta. , dependiendo del tipo de transformación, se llama de manera diferente: simplemente una "conversión", como conversión de digital a analógico, o conversión analógica a digital; las transformaciones complejas se denominan "codificación", por ejemplo, codificación delta, codificación de entropía; La conversión entre características como amplitud, frecuencia o fase se llama "modulación", por ejemplo, modulación de amplitud-frecuencia, modulación de ancho de pulso.

Generalmente, conversiones analógicas son bastante simples y fáciles de manejar varios dispositivos inventado por el hombre. Una grabadora convierte la magnetización de una película en sonido, una grabadora de voz convierte el sonido en magnetización de una película, una cámara de vídeo convierte la luz en magnetización de una película, un osciloscopio convierte el voltaje o la corriente eléctrica en una imagen, etc. Convertir información analógica a digital es mucho más difícil. La máquina no puede realizar algunas transformaciones o las logra con gran dificultad. Por ejemplo, convertir voz en texto, o convertir una grabación de un concierto en partitura, e incluso una representación inherentemente digital: el texto en papel es muy difícil de convertir para una máquina en el mismo texto en la memoria de una computadora.

¿Por qué entonces utilizar la representación digital de la información si es tan compleja? La principal ventaja de la información digital sobre la analógica es la inmunidad al ruido. Es decir, en el proceso de copiar información. información digital se copia tal como está, se puede copiar casi un número infinito de veces, mientras que la información analógica se vuelve ruidosa durante el proceso de copia y su calidad se deteriora. Normalmente, la información analógica no se puede copiar más de tres veces. Si tiene una grabadora de audio de dos casetes, puede realizar el siguiente experimento: intente reescribir la misma canción varias veces de un casete a otro después de unas pocas regrabaciones; Notarás cuánto se ha deteriorado la calidad de la grabación. La información del casete se almacena en forma analógica. Puedes reescribir música en formato mp3 tantas veces como quieras y la calidad de la música no se deteriora. La información en un archivo mp3 se almacena en formulario digital.

cantidad de información

Una persona o algún otro receptor de información, habiendo recibido una información, resuelve alguna incertidumbre. Tomemos el mismo árbol como ejemplo. Cuando vimos el árbol, resolvimos una serie de incertidumbres. Aprendimos la altura del árbol, el tipo de árbol, la densidad del follaje, el color de las hojas y, si era un árbol frutal, entonces veíamos los frutos que tenía, qué tan maduros estaban, etc. Antes de mirar el árbol, no sabíamos todo esto, después de mirar el árbol, resolvimos la incertidumbre: recibimos información.


Si salimos a un prado y lo miramos, obtendremos un tipo diferente de información: qué tan grande es el prado, qué tan alto es el pasto y de qué color es el pasto. Si un biólogo va a este mismo prado, entonces, entre otras cosas, podrá averiguar: qué variedades de hierba crecen en el prado, qué tipo de prado es, verá qué flores han florecido, cuáles son a punto de florecer, si el prado es apto para el pastoreo de vacas, etc. Es decir, recibirá más información que nosotros, como tenía más preguntas antes de mirar el prado, el biólogo resolverá más incertidumbres.

Cuanta más incertidumbre se resolvió en el proceso de obtención de información, más información recibimos. Pero ésta es una medida subjetiva de la cantidad de información y nos gustaría tener una medida objetiva. Existe una fórmula para calcular la cantidad de información. Tenemos cierta incertidumbre y tenemos N número de casos de resolución de la incertidumbre, y cada caso tiene una cierta probabilidad de resolución, entonces la cantidad de información recibida se puede calcular usando la siguiente fórmula que nos sugirió Shannon:

I = -(p_1 \log_(2)p_1 + p_2 \log_(2)p_2 + ... +p_N \log_(2)p_N), donde

I – cantidad de información;

N – número de resultados;

p_1, p_2, ..., p_N son las probabilidades del resultado.

La cantidad de información se mide en bits, una abreviatura de las palabras inglesas BInary digiT, que significa dígito binario.

Para eventos igualmente probables, la fórmula se puede simplificar:

I = \log_(2)N, donde

I – cantidad de información;

N – número de resultados.

Tomemos, por ejemplo, una moneda y la arrojemos sobre la mesa. Caerá cara o cruz. Tenemos 2 eventos igualmente probables. Después de lanzar la moneda, recibimos \log_(2)2=1 bit de información.

Intentemos averiguar cuánta información obtenemos después de tirar los dados. El cubo tiene seis lados: seis eventos igualmente probables. Obtenemos: \log_(2)6 \aprox 2.6. Después de tirar el dado sobre la mesa, recibimos aproximadamente 2,6 bits de información.


Las probabilidades de que veamos un dinosaurio marciano al salir de casa son de una entre diez mil millones. ¿Cuánta información obtendremos sobre el dinosaurio marciano una vez que salgamos de casa?

-\left(((1 \sobre (10^(10))) \log_2(1 \sobre (10^(10))) + \left(( 1 - (1 \sobre (10^(10))) ) \right) \log_2 \left(( 1 - (1 \over (10^(10))) )\right)) \right) \approx 3.4 \cdot 10^(-9) bits.

Digamos que lanzamos 8 monedas. Tenemos 2^8 opciones de entrega de monedas. Esto significa que después de lanzar monedas obtendremos \log_2(2^8)=8 bits de información.

Cuando hacemos una pregunta y tenemos la misma probabilidad de recibir una respuesta de “sí” o “no”, luego de responder la pregunta recibimos un poco de información.


Es sorprendente que si aplicamos la fórmula de Shannon a información analógica, obtengamos una cantidad infinita de información. Por ejemplo, el voltaje en un punto circuito electrico puede tomar un valor igualmente probable de cero a un voltio. El número de resultados que tenemos es igual a infinito, y al sustituir este valor en la fórmula para eventos igualmente probables, obtenemos infinito: una cantidad infinita de información.

Ahora te mostraré cómo codificar "Guerra y Paz" usando solo una marca en cualquier varilla de metal. Codifiquemos todas las letras y signos que se encuentran en "Guerra y paz" usando números de dos dígitos; deberían ser suficientes para nosotros. Por ejemplo, a la letra “A” le daremos el código “00”, a la letra “B” el código “01” y así sucesivamente, codificaremos signos de puntuación, letras latinas y números. Recodificamos "Guerra y Paz" usando este código y obtenemos un número largo, por ejemplo, 70123856383901874..., agregamos una coma y un cero delante de este número (0.70123856383901874...). El resultado es un número de cero a uno. Pongamos una marca en la varilla de metal para que la relación entre el lado izquierdo de la varilla y la longitud de esta varilla sea exactamente igual a nuestro número. Así, si de repente queremos leer Guerra y Paz, simplemente medimos lado izquierdo varilla a las marcas y la longitud de toda la varilla, divida un número por otro, obtenga un número y vuelva a codificarlo en letras (“00” a “A”, “01” a “B”, etc.).

En realidad, no podremos hacer esto, ya que no podremos determinar las longitudes con una precisión infinita. Algunos problemas de ingeniería nos impiden aumentar la precisión de las mediciones, y la física cuántica nos muestra que después de cierto límite, las leyes cuánticas ya nos interferirán. Intuitivamente entendemos que cuanto menor es la precisión de la medición, menos información recibimos, y cuanto mayor es la precisión de la medición, más información recibimos. La fórmula de Shannon no es adecuada para medir la cantidad de información analógica, pero existen otros métodos para ello, que se analizan en Teoría de la información. En tecnología informática, un bit corresponde a condición física portador de información: magnetizado - no magnetizado, hay un agujero - sin agujero, cargado - no cargado, refleja la luz - no refleja la luz, alto potencial eléctrico - bajo potencial eléctrico. En este caso, un estado suele denotarse con el número 0 y el otro con el número 1. Cualquier información se puede codificar con una secuencia de bits: texto, imagen, sonido, etc.


Junto con un bit, se suele utilizar un valor llamado byte, que suele ser igual a 8 bits. Y si un bit le permite elegir una opción igualmente probable entre dos posibles, entonces un byte es 1 de 256 (2^8). Para medir la cantidad de información también es común utilizar más unidades grandes:

1 KB (un kilobyte) 210 bytes = 1024 bytes

1 MB (un megabyte) 210 KB = 1024 KB

1 GB (un gigabyte) 210 MB = 1024 MB

En realidad, los prefijos SI kilo-, mega-, giga- deberían usarse para los factores 10^3, 10^6 y 10^9, respectivamente, pero históricamente ha existido la práctica de usar factores con potencias de dos.


Un bit de Shannon y un bit utilizado en tecnología informática son iguales si las probabilidades de que aparezca un cero o un uno en un bit de computadora son iguales. Si las probabilidades no son iguales, entonces la cantidad de información según Shannon se vuelve menor, lo vimos en el ejemplo del dinosaurio marciano. La cantidad de información de la computadora proporciona una estimación superior de la cantidad de información. La memoria volátil, después de que se le aplica energía, generalmente se inicializa a algún valor, por ejemplo, todos unos o todos ceros. Está claro que después de aplicar energía a la memoria, no hay información allí, ya que los valores en las celdas de la memoria están estrictamente definidos, no hay incertidumbre. La memoria puede almacenar una cierta cantidad de información, pero después de que se le aplica energía, no contiene información.

La desinformación es información deliberadamente falsa proporcionada a un enemigo o socio comercial para operaciones de combate más efectivas, cooperación, verificación de fugas de información y la dirección de su fuga, identificación de clientes potenciales del mercado negro. También la desinformación (también mal informada) es el proceso de manipulación. información en sí, como por ejemplo: engañar a alguien al proporcionar información incompleta o completa pero ya no necesaria, distorsionar el contexto, distorsionar parte de la información.


El objetivo de tal influencia es siempre el mismo: el oponente debe actuar como necesita el manipulador. La acción del objetivo contra quien se dirige la desinformación puede consistir en tomar una decisión que el manipulador necesita o en negarse a tomar una decisión desfavorable para el manipulador. Pero en cualquier caso, el objetivo final es la acción que realizará el oponente.

La desinformación, por tanto, es un producto de la actividad humana, un intento de crear una impresión falsa y, en consecuencia, empujar hacia las acciones y/o inacción deseadas.

Tipos de desinformación:

Engañar a una persona o grupo de personas específico (incluida una nación entera);

Manipulación (las acciones de una persona o grupo de personas);

Creación opinión pública respecto de algún problema u objeto.

La tergiversación no es más que un engaño absoluto, el suministro de información falsa. La manipulación es un método de influencia destinado directamente a cambiar la dirección de la actividad de las personas. Se distinguen los siguientes niveles de manipulación:

Fortalecer los valores (ideas, actitudes) que existen en la mente de las personas y son beneficiosos para el manipulador;

Cambio parcial de opiniones sobre un evento o circunstancia particular;

Un cambio radical en las actitudes ante la vida.

Crear opinión pública es la formación en la sociedad de una determinada actitud hacia un problema elegido.


Fuentes y enlaces

ru.wikipedia.org – enciclopedia libre Wikipedia

youtube.com: alojamiento de vídeos de YouTube

imágenes.yandex.ua - Imágenes Yandex

google.com.ua - Imágenes de Google

es.wikibooks.org - Wikilibros

inf1.info – Planeta Informática

old.russ.ru – Revista rusa

shkolo.ru – Directorio de información

5byte.ru – Sitio web de informática

ssti.ru – Tecnologías de la información

klgtu.ru - Ciencias de la Computación

informatika.sch880.ru - sitio web del profesor de informática O.V. Podvintseva

bibliofond.ru - biblioteca electrónica Bibliofond

life-prog.ru - programación

Objetivos de la lección:

  • Reforzar el concepto de información.
  • Formar un concepto sobre los métodos de transmisión de información en las diferentes etapas del desarrollo humano.
  • Habla sobre el lenguaje de transmisión de información.
  • Descubra qué medios técnicos se pueden utilizar para transmitir información.
  • Forme el concepto de “interferencia” y descubra formas de superarlas.

Progreso de la lección.

En la pizarra hay un número escrito, el tema de la lección: “Transmisión de información”, definición:

La informática es la ciencia de los métodos de transmisión, almacenamiento y procesamiento de información.

El desarrollo humano sería imposible sin el intercambio de información. Desde la antigüedad, las personas de generación en generación han transmitido sus conocimientos, notificado sobre peligros o transmitido información importante y urgente, e intercambiado información. Inicialmente, la gente utilizaba sólo medios de comunicación de corto alcance: habla, oído, visión.

1.Dime qué podría haber en común entre el poeta A.S. ¿Pushkin y la informática?

Resulta que el gran poeta, exponente de su época, dejó evidencia de cómo en la antigüedad las personas transmitían información. Recordar:

El viento sopla sobre el mar e impulsa el barco,

Corre sobre las olas sobre velas hinchadas.

El barco entregó marineros a diferentes paises, intercambiaron sus productos, conocieron noticias de diferentes países y hablaron sobre su país. En tierra, todas las noticias importantes las entregaba un mensajero, una persona que transmitía mensajes orales. El desarrollo de la escritura dio origen a: Correo.

2. ¿De qué manera sabes que el correo se ha movido desde la antigüedad?

Se sabe, por ejemplo, que en el Cáucaso se utilizan medios de comunicación contra incendios. Dos señalizadores de hogueras se ubicaron dentro del campo visual en lugares elevados o torres. Cuando se acercaba el peligro, los señalizadores, encendiendo una cadena de hogueras, advertían a la población.

Por ejemplo, en San Petersburgo, a principios del siglo XIX, se desarrolló el servicio de bomberos. En varios puntos de la ciudad se construyeron altas torres desde las que se podía contemplar el entorno. Si había un incendio, durante el día se izaba en la torre una bandera multicolor con una u otra figura geométrica, y por la noche se encendían varias linternas, cuyo número y ubicación indicaban la parte de la ciudad donde se produjo el incendio. ocurrido, así como el grado de su complejidad.

  1. ¿En qué obras funciona la torre de bomberos como medio de visualización?
  2. observaciones?(La casa del gato).
  3. ¿En qué películas has visto la transmisión de información sobre el peligro a través de
  4. Encendiendo fuegos en las torres.? (Mulán.)
  5. ¿En qué películas se realizó la transferencia de información a través de guardias a
  6. torres?(Cenicienta.)

Considere la situación:

“Se encontraron dos personas sordas. Uno sostiene una caña de pescar en la mano.

Otro pregunta:

¿Vas a pescar?

No, voy a pescar.

Pensé que ibas a pescar…”

¿Qué impidió el intercambio de información? La información fue transmitida, pero no llegó al destinatario por falta de capacidad física para percibirla. Después de todo, en cualquier intercambio de información debe haber una fuente y un receptor.

Cuando lees un libro, este libro es una fuente de información para ti y tú eres el receptor de esta información. Quita el libro y la información que contiene te resultará inaccesible, ya que su fuente ha desaparecido. Cierra los ojos o ve a otra habitación; entonces no habrá receptor de información sobre el libro.

Primera conclusión: si hay una transferencia de información, entonces necesariamente existe su fuente y su receptor (receptor).

A continuación se muestran algunas situaciones en las que se puede detectar la transferencia de información. Determinar quién o qué es la fuente y quién o qué es el receptor.

  1. Un peatón cruza la calle en una intersección controlada.
  2. Un escolar aprende lecciones de un libro de texto.
  3. Un niño juega en la computadora.
  4. Marca un número de teléfono para realizar una llamada.
  5. Estás escribiendo una tarjeta de felicitación.
  6. Escribes la dirección y el código postal en el sobre.

Tenga en cuenta que en algunas situaciones la información se transfiere solo en una dirección, mientras que en otras hay un intercambio mutuo de información.

3.¿En cuál de las situaciones anteriores se produce el intercambio de información y quién en qué momento se convierte en fuente o receptor?

¿Podría ser que:

1. ¿Una fuente de información, pero varios receptores? Dar ejemplos.

2. ¿Existen varias fuentes de información pero un solo receptor? Dar ejemplos.

3. Dé ejemplos de intercambio mutuo de información.

Al transmitir información papel importante juega un papel en la presentación de la información. Puede ser comprensible para la fuente de información, pero no comprensible para el destinatario. Si empiezo a hablarte en inglés, entonces aunque estés estudiando idioma en Inglés A partir del primer grado, no podrás entenderme, solo entenderás ciertas palabras de mi discurso.

Pero los estudiantes de liceo con un estudio profundo del idioma inglés podrían comprender mi discurso, es decir, la percepción de información dependiendo del nivel de preparación del objeto receptor.

La misma información puede transmitirse mediante señales diferentes e incluso de formas completamente diferentes. Para transmitir información no es tan importante cómo transmitirla, pero lo principal es acordar de antemano cómo comprender determinadas señales. Y si estamos de acuerdo en esto, entonces ya se obtiene un código o cifrado. Entonces, por ejemplo, si la señal roja está encendida, significa que no puedes cruzar la calle. La luz se pone verde: ve y no tengas miedo.

¿Qué códigos conoces?

Simplemente hay códigos a los que estamos acostumbrados desde hace mucho tiempo, que hemos estudiado bien y que entendemos fácilmente. Y otros son nuevos para nosotros, o incluso completamente incomprensibles.

Por ejemplo: en ruso – PERRO; en polaco – Рies; en inglés – Perro; en francés - chien; en alemán - Нund.

Los siguientes códigos también se utilizan para evaluar tus conocimientos en la escuela:

Excelente conocimiento – “5”; bueno – “4”; satisfactorio – “3”; malo – “2”, y si no sabes nada, entonces puedes conseguir uno. Digamos que obtuviste una "A" y te vas a casa feliz. Y el niño alemán viene con una A y llora amargamente, porque en ese país el mismo código "5" significa poco conocimiento, como en nuestro país "1". Resulta que los mismos números 1, 2, 3, 4, 5 tienen diferentes significados para evaluar el conocimiento en diferentes países.

Segunda conclusión: la señal en sí aún no transporta información. Sólo cuando algún código se transmite mediante señales podemos hablar de transmisión de información.

Para comunicarnos entre nosotros utilizamos un código: el idioma ruso. Al hablar, este código se transmite mediante sonidos; al escribir, mediante signos convencionales: letras.

El conductor, al transmitir a un peatón distraído información de que está conduciendo por la carretera, puede encender las luces o tocar la bocina.

Cuando realiza una llamada telefónica, también transmite un código a la central telefónica: marca el número de teléfono.

La misma entrada de código puede significar cosas completamente diferentes dependiendo del significado que asociemos con este código. Por ejemplo, el conjunto de números 120595 puede significar:

Código Postal;

Distancia entre ciudades en metros;

Número de teléfono;

Escriba varias opciones sobre lo que podría significar la entrada 14-10.

Entonces, en cualquier proceso de transferencia o intercambio de información existe su fuente Y beneficiario, y la información en sí se transmite a través de canal de comunicacion utilizando señales: mecánicas, térmicas, eléctricas y otras.

EN vida ordinaria Para una persona, cualquier sonido y luz son señales que tienen significado. Por ejemplo, una sirena es una señal sonora de alarma; timbre del teléfono: una señal para levantar el teléfono; Un semáforo en rojo es una señal que prohíbe cruzar la calle. Si notamos algún cambio en el entorno, entonces podemos decir que ha ocurrido un evento. De repente sonó la campana de la escuela después de un largo silencio, ocurrió un evento, la lección terminó. En la tetera en la estufa, de repente salió vapor por el pico; ocurrió un evento: el agua en la tetera comenzó a hervir.

Da más ejemplos de eventos de tu vida.

Entonces, el “Canal de Comunicación” interviene en la transmisión de información. Tratemos con él.

Consideremos nuestra lección desde el punto de vista de la transmisión de información.

Soy la fuente, les hablo en ruso, codificando el discurso en palabras que comprendan. El canal de comunicación es el medio aéreo que transmite las vibraciones producidas por mí. Ustedes son los destinatarios de la información. Su oído percibe las vibraciones del aire, descifra la información y comprende lo que se discute en la lección. Imaginemos que estás distraído, y luego parte de lo que dije no te llegó y sales de la lección sin entender lo que se dijo en la lección. Una situación familiar, ¿no? Es por esto que los profesores te piden constantemente que no te distraigas y que no distraigas a los demás, ya que es difícil aprender material que no has escuchado explicar al profesor.

Descansemos un poco. Juguemos al juego: “Teléfono para sordos”. El presentador pasa la palabra al oído del primer jugador para que nadie la escuche. Éste, a su vez, se lo pasa al siguiente y así sucesivamente. Luego el líder le pide al último jugador que escuche la palabra, luego al anterior, y más abajo en la cadena. Resulta que la información original estaba increíblemente distorsionada. La razón puede ser información mal escuchada o una palabra deliberadamente transmitida incorrectamente. En este ejemplo entendemos que no toda la información llega al destinatario en su forma original.

Resulta que para llegar a su destinatario, la información viaja aún más camino dificil. Al hablar, las personas codifican su discurso en palabras que sean comprensibles para los demás. Las vibraciones a través del aire llegan al oído del interlocutor, ingresan al cerebro, se decodifican y solo entonces ocurre el proceso de transmisión de información. Así es como sucede.

Esquema completo de transferencia de información.

Si un dispositivo técnico (teléfono, computadora u otra cosa) actúa como fuente de información, entonces la información que contiene va a codificador, que está diseñado para transformar el mensaje original en una forma conveniente para su transmisión. Siempre te encuentras con dispositivos de este tipo: un micrófono de teléfono, una hoja de papel, etc.

A través del canal de comunicación la información llega descifrador destinatario, que convierte el mensaje codificado en una forma que el destinatario pueda entender.

Dé ejemplos de dispositivos de codificación y decodificación.

Escriba cómo se transfiere la información en una computadora desde el teclado a la pantalla del monitor de acuerdo con este esquema.

Tercera conclusión: Durante el proceso de transmisión la información puede perderse o distorsionarse..

Esto ocurre debido a diversas interferencias en el canal de comunicación y durante la codificación y decodificación de información. Con bastante frecuencia se encuentran situaciones de este tipo: distorsión del sonido en el teléfono, interferencias durante la transmisión de televisión, errores telegráficos, información incompleta transmitida, pensamientos expresados ​​incorrectamente, errores en los cálculos. Recordemos nuevamente el cuento de hadas sobre el zar Saltan y otras obras literarias, cuando siempre alguien interfiere con los héroes. Hay una gran cantidad de métodos de codificación utilizados por las agencias de inteligencia, y aún más personas trabajan en decodificar información en las agencias de seguridad nacional. Las cuestiones relacionadas con los métodos de codificación y decodificación de información se tratan mediante una ciencia especial: la criptografía.

La humanidad siempre se ha esforzado por transmitir información sin interferencias, creando medios de comunicación cada vez nuevos y fiables.

En el siglo XVIII apareció el telégrafo semáforo. Esta es una conexión ligera.

El siglo XIX fue muy rico en descubrimientos en el campo de las comunicaciones. En este siglo, la gente dominó la electricidad, lo que dio lugar a muchos descubrimientos. Primer P.L. Schelling inventó el telégrafo eléctrico en Rusia en 1832. En 1837, el estadounidense S. Morse creó un aparato de telégrafo electromagnético y ideó un código telegráfico especial: el alfabeto, que ahora lleva su nombre. En 1876, el estadounidense A. Bell inventó el teléfono.

En 1895, el inventor ruso A.S. Popov abrió la era de las comunicaciones por radio. La televisión puede considerarse el invento más notable del siglo XX. La exploración espacial condujo a la creación de comunicaciones por satélite. Entre las últimas innovaciones se encuentra la comunicación por fibra óptica, pero la conoceremos en la exposición "Informática y Comunicaciones". Allí se presentarán los medios de comunicación más modernos y podrán ver proyectos aún no realizados que serán el orgullo de nuestra ciencia e industria.

Tarea: mientras mira televisión, escriba ejemplos de herramientas de comunicación; Registre las interferencias, si se observan, su frecuencia y causa.


Muy pronto, la búsqueda de información en tiempo futuro estará disponible a través de Internet. A las opciones de búsqueda existentes se pueden agregar las opciones “Hace una hora”, “Hace 24 horas”, “Avance de una hora”, “Avance de 24 horas” e incluso “Año adelante”.

Comentarios de usuarios:

Publicado por: Invitado,
2012-01-17 a las 11:46

Me pregunto cómo quieres separar el fotón del campo electromagnético.))))
Al menos teóricamente compartir

Publicado por: Karen,
2015-05-21 a las 22:16

La transferencia de información del futuro al pasado existe desde hace mucho tiempo y todo funciona; si esto le interesa, puede familiarizarse con la teoría en el sitio web escribiendo en cualquier motor de búsqueda Teoría Vagan. Es solo que esta teoría no es rentable para los científicos, por lo que pocas personas le prestan atención.


¿Qué opinas?


Su nombre:

Número de cheque:

Despacho..

Comentario:

Otras novedades en la sección:

En el sitio web oficial de la agencia espacial estadounidense ha aparecido información de que se ha puesto en órbita un dispositivo para estudiar el Sol, llamado SDO (Solar Dynamics Observatory). SDO fue puesto en órbita por un vehículo de lanzamiento Atlas V El lanzamiento del cohete estaba inicialmente programado para el 10 de febrero, pero desde Cabo Cañaveral...

Los exploradores polares rusos en la estación Polo Norte-39 /SP-39/ en el Ártico lanzaron una boya autónoma de equilibrio de masas para determinar la masa de hielo y los parámetros atmosféricos. Sobre este corresponsal. A ITAR-TASS le dijo hoy el jefe de la expedición ártica a altas latitudes, Vladimir Sokolov, desde el Ártico y la Antártida...

Los expertos japoneses proponen convertir un cinturón situado en la región del ecuador lunar, de 400 kilómetros de ancho y 11 mil kilómetros de largo, en una enorme planta de energía solar. El proyecto se llama "Anillo Lunar". Los científicos creen que la opción más rentable es producir 4,4 billones metros cuadrados paneles solares..

Se ha desarrollado una nueva aplicación que permite seguir en tiempo real los proyectos en marcha o recién planificados en el departamento espacial estadounidense. El nombre de esta extraña aplicación es Eyes on the Solar System. La instalación es bastante simple y abre una gran...

El virus del Ébola puede sobrevivir durante muchos meses en el esperma de pacientes que se han recuperado de esta enfermedad mortal. Además, esta infección en ocasiones puede transmitirse sexualmente. Así lo demuestran los resultados de estudios médicos piloto sobre el “síndrome post-Ébola” publicados.

Al observar el eclipse solar del 20 de marzo, puede utilizar no solo filtros astronómicos especiales, sino también las herramientas disponibles. Esto lo contó el astrónomo Dmitry Kononov a la estación de radio “Moscow Speaks”. El científico destacó que para la observación se necesitan filtros fuertes, ya que mirar el sol desnudo...

Por primera vez en la historia, los astrónomos crearon descripción completa un agujero negro en el que la materia es tan densa que ni siquiera la luz puede vencer su monstruosa fuerza gravitacional. Unas medidas de precisión sin precedentes permitieron reconstruir la historia de este objeto, desde el momento de su nacimiento.

El lunes se suspendió un experimento en el Gran Colisionador de Hadrones debido a problemas con el sistema de refrigeración de los imanes superconductores. En la página del CERN aparecieron indicaciones que indican la ausencia de un rayo, donde se muestra información sobre el estado del acelerador (en la ilustración de esta noticia se muestra una captura de pantalla). La falla se produjo en...

La NASA ha publicado imágenes de las fases de rotación de Plutón y su luna Caronte. Las imágenes muestran cómo cambia la apariencia de los cuerpos celestes durante un “día plutoniano” completo. La información se presenta en el sitio web del proyecto New Horizons. Al acercarse a Plutón, las cámaras de la estación interplanetaria automática New Horizons captaron la rotación.

La transferencia de información es un término que combina muchos procesos físicos de mover información en el espacio. Cualquiera de estos procesos involucra componentes como una fuente y un receptor de datos, un medio de almacenamiento físico y un canal (medio) para su transmisión.

Proceso de transferencia de información

Los contenedores iniciales de datos son varios mensajes transmitidos desde sus fuentes a los receptores. Entre ellos hay canales para transmitir información. Los dispositivos técnicos especiales: convertidores (codificadores) forman soportes de datos físicos: señales, basadas en el contenido de los mensajes. Estos últimos sufren una serie de transformaciones, que incluyen codificación, compresión, modulación, y luego se envían a las líneas de comunicación. Después de atravesarlos, las señales pasan. transformaciones inversas, incluida la demodulación, descompresión y decodificación, como resultado de lo cual los mensajes originales se extraen de ellos y los receptores los perciben.

Mensajes informativos

Un mensaje es una determinada descripción de un fenómeno u objeto, expresada en forma de un conjunto de datos que tiene signos de un principio y un final. Algunos mensajes, como el habla y la música, son funciones continuas del tiempo de presión sonora. En la comunicación telegráfica, un mensaje es el texto de un telegrama en forma de secuencia alfanumérica. Un mensaje de televisión es una secuencia de mensajes de fotogramas que la lente de la cámara "ve" y los graba a una velocidad de fotogramas. La inmensa mayoría de los mensajes transmitidos recientemente a través de sistemas de transmisión de información son matrices numéricas, texto, gráficos, así como archivos de audio y video.

Señales de información

La transmisión de información es posible si se dispone de un medio físico cuyas características cambian en función del contenido del mensaje transmitido de tal forma que superen el canal de transmisión con una mínima distorsión y puedan ser reconocidas por el receptor. Estos cambios en el medio de almacenamiento físico forman una señal de información.

Hoy en día, la transmisión y procesamiento de información se produce mediante señales electricas en canales de comunicación por cable y radio, así como gracias a señales ópticas en VOLS.

Señales analógicas y digitales.

Ancho ejemplo famoso señal analógica, es decir Lo que cambia continuamente con el tiempo es el voltaje captado por el micrófono, que transmite un mensaje de voz o de información musical. Puede amplificarse y transmitirse mediante canales cableados a sistemas de reproducción de sonido. sala de conciertos, que llevará la voz y la música desde el escenario al público de la galería.

Si, de acuerdo con el voltaje en la salida del micrófono, la amplitud o frecuencia de las oscilaciones eléctricas de alta frecuencia en el transmisor de radio cambia continuamente con el tiempo, entonces se puede transmitir una señal de radio analógica por aire. Un transmisor de televisión en un sistema de televisión analógico genera una señal analógica en forma de voltaje proporcional al brillo actual de los elementos de la imagen percibidos por la lente de la cámara.

Sin embargo, si el voltaje analógico de la salida del micrófono pasa a través de un convertidor digital a analógico (DAC), la salida ya no será función continua tiempo, sino una secuencia de muestras de este voltaje tomadas a intervalos regulares con una frecuencia de muestreo. Además, el DAC también realiza una cuantificación basada en el nivel de voltaje de la fuente, reemplazando todo el rango posible de sus valores con un conjunto finito de valores determinado por el número de bits binarios de su código de salida. Resulta que una cantidad física continua (en este caso, voltaje) se convierte en una secuencia de códigos digitales (digitalizados) y luego en forma digital se puede almacenar, procesar y transmitir a través de redes de transmisión de información. Esto aumenta significativamente la velocidad y la inmunidad al ruido de dichos procesos.

Canales de transmisión de información.

Normalmente, este término se refiere a complejos de medios técnicos involucrados en la transmisión de datos desde la fuente al receptor, así como al entorno entre ellos. La estructura de dicho canal utilizando medios estándar La transferencia de información está representada por la siguiente secuencia de transformaciones:

II - PS - (CI) - KK - M - LPI - DM - DK - DI - PS

La IA es una fuente de información: una persona u otro ser vivo, un libro, un documento, una imagen en un soporte no electrónico (lienzo, papel), etc.

PS es un convertidor de un mensaje de información en una señal de información, que realiza la primera etapa de la transmisión de datos. Como PS pueden actuar micrófonos, cámaras de televisión y vídeo, escáneres, faxes, teclados de PC, etc.

CI es un codificador de información en una señal de información para reducir el volumen (compresión) de información con el fin de aumentar la velocidad de su transmisión o reducir la banda de frecuencia requerida para la transmisión. Este enlace es opcional y se muestra entre paréntesis.

KK: codificador de canal para aumentar la inmunidad al ruido de la señal de información.

M: modulador de señal para cambiar las características de las señales portadoras intermedias según el tamaño de la señal de información. Un ejemplo típico es amplitud modulada señal portadora de una frecuencia portadora alta dependiendo de la magnitud de la señal de información de baja frecuencia.

LPI es una línea de transmisión de información que representa una combinación del entorno físico (por ejemplo, un campo electromagnético) y medios técnicos para cambiar su estado con el fin de transmitir una señal portadora al receptor.

DM es un demodulador para separar la señal de información de la señal portadora. Presente sólo si M está presente.

DC - decodificador de canal para identificar y/o corregir errores en la señal de información ocurridos en el LPI. Presente sólo si CC está presente.

DI - decodificador de información. Presente sólo en presencia de CI.

PI - receptor de información (computadora, impresora, pantalla, etc.).

Si la transmisión de información es bidireccional (canal dúplex), entonces en ambos lados del LPI hay bloques de módem (MOdulator-DEModulator), que combinan los enlaces M y DM, así como bloques de códec (CODER-DECODER), que combinan codificadores (CI y KK) y decodificadores (DI y DC).

Características de los canales de transmisión.

Las principales características distintivas de los canales incluyen el rendimiento y la inmunidad al ruido.

En el canal, la señal de información está sujeta a ruidos e interferencias. Pueden ser causados ​​por causas naturales (por ejemplo, canales de radio atmosféricos) o creados especialmente por el enemigo.

La inmunidad al ruido de los canales de transmisión se aumenta mediante el uso de varios tipos de filtros analógicos y digitales para separar las señales de información del ruido, así como métodos especiales de transmisión de mensajes que minimizan la influencia del ruido. Uno de estos métodos es agregar caracteres adicionales que no contienen contenido útil, pero que ayudan a controlar la exactitud del mensaje, así como a corregir errores en el mismo.

La capacidad del canal es número máximo símbolos binarios (kbits) transmitidos por ellos en ausencia de interferencias en un segundo. Para diferentes canales varía desde varios kbit/s hasta cientos de Mbit/s y está determinado por sus propiedades físicas.

Teoría de la transmisión de información.

Claude Shannon es el autor de una teoría especial sobre la codificación de datos transmitidos y descubrió métodos para combatir el ruido. Una de las ideas principales de esta teoría es la necesidad de redundancia del código digital transmitido a través de líneas de transmisión de información. Esto le permite restaurar la pérdida si alguna parte del código se pierde durante su transmisión. Estos códigos (señales de información digital) se denominan resistentes al ruido. Sin embargo, la redundancia de código no debe llevarse demasiado lejos. Esto provoca retrasos en la transmisión de información, así como un aumento del coste de los sistemas de comunicación.

Procesamiento de señales digitales

Otro componente importante de la teoría de la transmisión de información es el sistema de métodos para el procesamiento de señales digitales en canales de transmisión. Estos métodos incluyen algoritmos para digitalizar señales de información analógicas originales con una determinada frecuencia de muestreo determinada sobre la base del teorema de Shannon, así como métodos para generar señales portadoras resistentes al ruido basadas en ellas para su transmisión a través de líneas de comunicación y filtrado digital señales recibidas para separarlas de interferencias.




Arriba