Análisis espectral de señales. Fundamentos teóricos de las tecnologías de la información y la medición.

Consideremos el caso en el que la duración de la señal transmitida es igual a t, y la frecuencia más alta del espectro es igual a Fm. Estrictamente hablando, tales condiciones son incompatibles, ya que una señal de duración finita tiene un espectro infinitamente amplio. Pero casi siempre podemos limitarnos a considerar la banda de frecuencia, más allá de la cual la energía de los componentes espectrales es insignificante.

Deje que durante el tiempo T (Fig. 9.3) se transmita norte muestras, y de acuerdo con el teorema de Kotelnikov, la distancia entre muestras se eligió igual a , entonces: , y la serie de Kotelnikov tendrá la forma:

Número norte– número de grados de libertad de la señal pie) o base de señal. Tomando este número como el número de símbolos de señal transmitidos norte Usando la fórmula puedes calcular la cantidad de información transmitida a lo largo del tiempo. t, pero para ello aún es necesario estimar el número de estados posibles metro, que se puede distinguir en la señal transmitida. Este número depende del nivel de interferencia en el canal de comunicación. Si el incremento de la señal es menor que el voltaje de ruido efectivo (rms), entonces dicho incremento es difícil de detectar. Por tanto, la cantidad asociada a la potencia de interferencia por la relación = se toma como unidad de gradación de la señal en el canal de comunicación. La potencia de la señal en presencia de un mensaje transmitido en el canal es igual a R s + R p, y el voltaje efectivo U e= . Entonces el número de posibles gradaciones de señal será igual a (9.12)

De dónde proviene la cantidad de información (teniendo en cuenta que n>>1) es igual a

El valor de I o a veces se denomina volumen de la señal y se representa como un paralelepípedo en un sistema de coordenadas tridimensional (figura 9.4). Si tomamos la relación (9.14)

obtenemos tasa de transferencia de información. Obviamente, para una transferencia normal de información, el rendimiento del canal de comunicación no debe ser menor que la velocidad de la información entrante, es decir la desigualdad Sk≥C debe satisfacerse. Al transmitir información alfanumérica, las señales se codifican, es decir. representándolos en forma de combinaciones de pulsos de varias duraciones. Hay códigos uniformes y no uniformes. El código Baudot uniforme y el código Morse no uniforme se utilizan ampliamente en dispositivos de comunicación.



REPRESENTACIÓN APROXIMADA DE SEÑALES POR LA SERIE KOTELNIKOV Y ERRORES DE APROXIMACIÓN.

Si se sabe que la mayor parte de la energía de una señal con un espectro ilimitado se concentra dentro de una banda de frecuencia limitada, entonces, con cierto error, es posible representar dichas señales utilizando una serie limitada de Kotelnikov. Por ejemplo, la figura muestra una representación de dos y tres muestras de un pulso rectangular. En el primer caso se tienen en cuenta señales hasta la frecuencia. En el segundo caso, hasta la frecuencia. Los modelos correspondientes de tal representación tienen la forma:

Y en el tercer caso hay tres cargos:

Usando la fórmula (1), se construyó el gráfico 1 de la figura. V y según la fórmula (2) – anexo 2.

A medida que aumenta el número de muestras, aumenta la precisión de la aproximación de la señal mediante la serie de Kotelnikov.

Una señal arbitraria con un espectro ilimitado, representada por una serie de Kotelnikov, se diferenciará de una señal con un espectro ilimitado por la cantidad de error. Por lo tanto, podemos escribir que la señal original

donde es una señal con un espectro limitado, es una señal de error.

Los espectros de estas señales no se superponen, por lo tanto las señales son ortogonales. Y sus energías, es decir, los cuadrados de las normas, suman: .

La medida absoluta del error de aproximación se considera una distancia igual a la norma de la señal de error. Utilizando las relaciones , , es posible, con un espectro de energía conocido, utilizando el teorema de Reilly obtener:

SEÑAL DE BANDA ESTRECHA: REPRESENTACIÓN EN FORMA COMPLEJA.

ESPECTRO DE SEÑAL.

Una señal de banda estrecha es una señal cuya densidad espectral se concentra en una banda de frecuencia limitada cerca de una determinada frecuencia de referencia, y se cumple la condición. Matemáticamente, dicha señal se puede representar mediante diferentes modelos, por ejemplo, o.

O, en general, se utiliza una combinación lineal para representar una señal de banda estrecha:

La función se llama amplitud en fase y la función se llama amplitud en cuadratura. Ambas características representan una señal de baja frecuencia (en comparación con). Las señales de banda estrecha también se pueden representar en forma compleja:

La cantidad (3) se denomina envolvente compleja de la señal de banda estrecha. No es difícil demostrar que la representación real (1) de una señal de banda estrecha está relacionada con la representación compleja mediante la relación:

Desde un punto de vista físico, una señal de banda estrecha puede considerarse como una oscilación cuasi armónica, a la que se puede aplicar el método de amplitud compleja para los cálculos. La envolvente compleja de una señal de banda estrecha juega el mismo papel que la amplitud de una oscilación armónica simple. Sin embargo, en el caso general, el vector oscilará en el plano complejo, cambiando en amplitud y posición angular.

Denotemos la densidad espectral de la envolvente compleja por . Entonces el espectro de la señal de banda estrecha será igual.

5.1 Sistema de comunicación

Se entiende por sistema de comunicación un conjunto de dispositivos y entornos que aseguran la transmisión de mensajes del remitente al destinatario. En general, un sistema de comunicación generalizado se representa mediante un diagrama de bloques.

Figura 1 – Sistema de comunicación generalizado

Un transmisor es un dispositivo que detecta y genera una señal de comunicación. Un receptor es un dispositivo que convierte una señal de comunicación recibida y restaura el mensaje original. El impacto de la interferencia en la señal útil se manifiesta en el hecho de que el mensaje recibido en la salida del receptor no es idéntico al transmitido.

Se entiende por canal de comunicación un conjunto de dispositivos técnicos que proporcionan la transmisión independiente de un mensaje determinado a través de una línea de comunicación común en forma de señales de comunicación apropiadas. Una señal de comunicación es una perturbación eléctrica que muestra de forma única un mensaje.

Las señales de comunicación tienen formas muy diversas y representan tensiones o corrientes que varían en el tiempo.

Al resolver problemas prácticos en teoría de la comunicación, una señal se caracteriza por un volumen igual al producto de sus tres características: duración de la señal, ancho del espectro y exceso de la potencia promedio de la señal sobre la interferencia. en ese caso . Si estas características se expanden paralelamente a los ejes del sistema cartesiano, entonces se obtendrá el volumen de un paralelepípedo. Por tanto, el producto se llama volumen de la señal.

La duración de la señal determina el intervalo de tiempo de su existencia.

El ancho del espectro de la señal es el intervalo de frecuencia en el que se encuentra el espectro de frecuencia limitado de la señal, es decir, .

El canal de comunicación, por su naturaleza física, es capaz de transmitir eficazmente sólo señales cuyo espectro se encuentre en una banda de frecuencia limitada con un rango aceptable de cambios de potencia.

Además, el canal de comunicación se proporciona al remitente del mensaje durante un tiempo muy concreto. En consecuencia, por analogía con una señal en la teoría de la comunicación, se introdujo el concepto de capacidad del canal, que se define: ; .

Una condición necesaria para transmitir una señal con un volumen a través de un canal de comunicación cuya capacidad es igual a , es o . Las características físicas de la señal se pueden cambiar, pero una disminución de una de ellas va acompañada de un aumento de la otra.

5.2.2 Ancho de banda y velocidad de transmisión

El ancho de banda es la máxima velocidad posible de transferencia de información. El rendimiento máximo depende del ancho de banda del canal así como de la relación y está determinado por la fórmula . Esta es la fórmula de Shannon, que es válida para cualquier sistema de comunicación en presencia de interferencias por fluctuaciones.

5.2.3 Respuesta de frecuencia del canal

La respuesta de frecuencia de un canal de comunicación es la dependencia de la atenuación residual de la frecuencia. La atenuación residual es la diferencia de niveles en la entrada y salida de un canal de comunicación. Si al principio de la línea hay poder y al final - , entonces la atenuación en no peres:

.

De manera similar para voltajes y corrientes:

; .

Mensajería

1.3. Mensajería. 1

1.3.1. Información general. 2

Esquema de transferencia. 2

Terminología. 4

Medida de información. 4

Volumen de señal. 9

Volumen de señal y cantidad de información. 10

Capacidad del canal de comunicación. 11

Inmunidad al ruido. 12

1.3.2. Codificación. 15

Código gris. 18

Código Shannon-Fano. 18

Código Hamming. 19

Código cíclico. 20

Codificación lineal. 20

Códigos telemecánicos.. 22

1.3.3. Señales y sus características. 34

Espectros de señales. 34

Características de correlación de señales. 38

1.3.4. Modulación. 41

Modulación de amplitud (AM). 42

Modulación de frecuencia (FM). 44

Modulación de código de pulso. 45

Manipulación. 49

1.3.6. Capacidad de la línea de comunicación. 51

Teorema de Nyquist. 51

Teorema de Kotelnikov. 51

Teorema de Shannon-Hartley. 52

Líneas de comunicación inalámbrica. 53

1.3.5. Líneas de comunicación telefónica. 55

Sistemas multicanal. 57

Comunicación telefónica de larga distancia. 57

1.3.6. Interfaces del sistema informático... 59

LISTA DE FUENTES UTILIZADAS... 59

Decibel. 61

Esquema de transferencia. Al automatizar sistemas de suministro de energía, es necesario construir un sistema con una distancia significativa entre los componentes individuales entre sí. En este sentido, es necesario prestar suficiente atención al problema de la transmisión de información a través de canales de comunicación. Esto se aplica principalmente a los sistemas de control operativo de dispositivos de suministro de energía, para los cuales se organiza un centro de control, conectado a través de canales de comunicación con varios puntos controlados. En cada uno de los puntos controlados existen varios objetos de control. En la mayoría de los casos se organiza un intercambio de información bidireccional, pero también se conocen sistemas con flujo de información unidireccional, por ejemplo el control por radio de la iluminación. El diagrama de transmisión de mensajes se muestra en la Fig. 52.

Arroz. 52. Esquema de transmisión de información en el sistema de telemecánica.

El eslabón más vulnerable en la transmisión de información es la línea de comunicación; el nivel de interferencia que la afecta es difícil de cambiar. En el caso general, la interferencia puede distorsionar la señal; como resultado, el receptor de información recibirá un mensaje distorsionado l’(t)≠l(t). La presentación adicional se realiza de acuerdo con. Se distinguen los siguientes tipos de interferencia: aditiva y multiplicativa.

Terminología. Demos algunas definiciones. Tenga en cuenta que los conceptos que se dan a continuación pueden tener otras definiciones que difieren en los aspectos considerados.

Información– un conjunto de información sobre cualquier evento, fenómeno, proceso, que los caracteriza desde el punto de vista de ciertos parámetros de interés para el usuario

Mensaje– un conjunto de carteles que contienen información.



Señal– un proceso físico que muestra (transporta) el mensaje transmitido. Se forma cambiando cualquier parámetro del proceso físico según la ley de la comunicación.

Canal de comunicación– un conjunto de dispositivos que aseguran la transmisión de señales desde un determinado punto A al punto B (ver Fig. 52).

Enlace– un medio utilizado para transmitir una señal desde un transmisor a un receptor.

Inmunidad al ruido– la capacidad del sistema para contrarrestar los efectos de la interferencia.

Codificación– identificación de mensajes transmitidos con un conjunto de letras o números. Cada mensaje se puede representar como una palabra digital o algún número (combinación de códigos).

Código una regla mediante la cual se escriben varias palabras clave o números.

Medida de información . A pesar del uso generalizado de este término, el concepto de información es uno de los más controvertidos en la ciencia. Shannon ve la información como la eliminación de la incertidumbre en nuestro conocimiento sobre algo. La teoría de la información "clásica" de Shannon permite medir la información de textos y mensajes, investigar y desarrollar técnicas para codificarla en el transmisor y decodificarla en el receptor, medir la capacidad del canal de comunicación entre ellos, calcular el nivel de ruido en el canal y minimizar su impacto. Wiener, el "padre" de la cibernética, dio la siguiente definición: "La información es la designación de contenidos recibidos del mundo exterior en el proceso de nuestra adaptación a él y de la adaptación de nuestros sentidos a él". El tema de la mayoría de los trabajos de teoría de la información era sólo la "microinformación", información que el sistema no recuerda y que es una medida de la diversidad de posibles microestados que determinan un macroestado dado del sistema. Desarrollo de obras de A.N. Kolmogorov dio lugar a definiciones del concepto de cantidad algorítmica de información. La cantidad algorítmica de información se consideró como la longitud mínima (complejidad) del programa que permite transformar de forma única un conjunto en otro. La información macro se diferencia fundamentalmente de la micro información mencionada anteriormente precisamente en que los sistemas la recuerdan. En biología, los textos genéticos no se consideran una descripción cifrada directa de las estructuras que generan, sino descripciones de algoritmos para su implementación espaciotemporal, o incluso algoritmos para construir autómatas que implementen estos algoritmos. Según G. Kastler, la información es "memorización de una elección aleatoria": una elección inicialmente aleatoria y luego recordada de una o varias opciones implementadas de todo el conjunto de opciones posibles. La información es el lenguaje del mundo, entendido como un todo vivo. En informática, el término "información" es primario, indefinido.

Aquí se pueden ver las traducciones de artículos de los fundadores de la teoría de la información (Hartley R., Shannon K., etc.).

Aquí se analiza el concepto de entropía, ampliamente utilizado en la teoría de la información.

La unidad de información se llama "bit". Su definición es: “Un mensaje que reduce a la mitad la incertidumbre del conocimiento de una persona lleva 1 bit de información para ella”. (La incertidumbre del conocimiento sobre algún evento es el número de posibles resultados del evento).

Para transmitir un mensaje, a menudo se convierte en señales discretas. Se puede considerar que este último consta de n señales elementales (unitarias). Una sola señal suele ocupar una posición temporal. Cada señal elemental puede tener K valores diferentes. El valor de K depende de los métodos de modulación (muy a menudo K = 2). Debe existir una relación entre el número de mensajes M y n señales discretas.

Ralph Hartley en 1928 (Hartley R.V.L. Transmisión de información) propuso la siguiente medida de información teniendo en cuenta consideraciones físicas más que fisiológicas

I=n log a K = log a M

De la fórmula se deduce que cuanto mayor es M, mayor es la incertidumbre en el sistema. La base a del logaritmo se puede elegir arbitrariamente. Generalmente a=2. En este caso, se considera que la unidad de información es 1 bit. Si a=10 entonces la unidad se llama Hartley, si a=e entonces 1 nat. La medida de Hartley es válida bajo los siguientes supuestos: no se considera el valor semántico de la información, todos los M mensajes son igualmente probables y no existe correlación entre señales elementales. Probabilidad de que aparezca un mensaje p=1/M.

shannon(1916-2001), en sus trabajos de 1948-49, definió la cantidad de información a través de la entropía, una cantidad conocida en termodinámica y física estadística como medida del desorden de un sistema, y ​​tomó como unidad de información lo que más tarde fue denominado “bit”, es decir, la elección de una de dos opciones igualmente probables. shannon Obtuve una fórmula para determinar la cantidad de información fuente para el caso en que la aparición de cualquier i-ésimo mensaje de M posible pueda tener una probabilidad diferente p i , mientras que Sp i =1 (i=1, 2, ..., M ).

La medida de información de una señal que consta de n elementos, cada uno de los cuales puede tomar uno de K valores (siendo posible la probabilidad de que aparezca el símbolo j de K - p j) será

N I y N S - se denominan entropía de la fuente y entropía de la señal elemental (es decir, la cantidad promedio de información de la fuente y la señal elemental).

Entonces, si nuestra fuente puede tener uno de 16 estados igualmente probables y hemos recibido información sobre su estado (I = -16*1/16*log 2 (1/16) = log 2 (16) = 4), es decir mi. Recibimos 4 bits de información. Si la fuente pudiera tener uno de dos estados, uno con probabilidad 1/2 y el otro con probabilidad 1/2, entonces la entropía de la fuente es igual a 1. Para transmitir esta información necesitaremos diferentes señales. En el primer caso, hay un elemento con 16 estados o 4 elementos, cada uno de los cuales tiene dos estados. Para el segundo, es suficiente un elemento de señal, que puede adoptar uno de dos estados.

Se puede demostrar que la medida de Hartley corresponde a la máxima entropía posible de la fuente de información (para mensajes igualmente probables). Ejemplo. Sean dos fuentes de información con cuatro estados posibles M=4 (es decir, cada fuente puede producir uno de cuatro mensajes)

Fuente_1

La entropía (según Shannon) será

Yo 2 = –(3/4 log 2 (3/4)+ 1/12 log 2 (1/12)+ 1/12 log 2 (1/12)+ 1/12 log 2 (1/ 12))= 1.20752

Para transmitir información desde una fuente mediante una señal, es necesario cumplir la relación H y ≤ nH c. Si una señal puede proporcionar transmisión con m elementos de información, pero tiene n>m, entonces la señal tiene redundancia R

R = (n-m) / n = 1 - n/m.

Cuando se transmite a través de un canal de comunicación sin interferencias, no se requiere redundancia. Si el canal tiene interferencias, se utiliza la redundancia para aumentar la inmunidad al ruido de la transmisión.

La presencia de una persona en el sistema se tiene en cuenta a la hora de elegir los parámetros del sistema telemecánico. La capacidad de una persona para percibir información es inferior a las capacidades de los medios técnicos. La cantidad de información que el sistema nervioso humano es capaz de transmitir al cerebro al leer textos es de aproximadamente 16 bits/s, al mismo tiempo, una persona puede retener 160 bits en la conciencia. El tiempo de respuesta a señales acústicas y ópticas está en el rango de 140 a 250 ms. La ley de Mercal (1885) estima el tiempo de reacción de una persona (T, ms) para realizar una tarea de elegir entre N objetos usando la expresión T=200+180 * log2(N). Con la gran capacidad de una persona para discriminar (1500 tonos de brillo, 330 niveles de volumen, 2300 tonos), no puede distinguir simultáneamente más de 5 a 7 valores. Por tanto, muchas decisiones que se toman a la hora de crear sistemas telemecánicos tienen en cuenta estas capacidades humanas.

Volumen de señal . En la teoría de la transmisión de información, a menudo se utiliza una representación tridimensional de la señal y se introduce el concepto de volumen de señal V c. Los parámetros de la señal se muestran en las siguientes coordenadas: duración de la señal (T c), rango dinámico (D c) y ancho del espectro de frecuencia (ΔF c).

El rango dinámico generalmente se mide en valores logarítmicos relativos. Al medir la relación de potencia de la señal, el rango dinámico está determinado por la potencia máxima y mínima de la señal:

La unidad de medida más utilizada es el decibel.

.

Ejemplos de rangos dinámicos: conferenciante - 25-35 dB, capella - 70-90 dB.

El ancho del espectro de frecuencia, por ejemplo, para el habla humana es de 20 kHz (20-20000 Hz), de los cuales se acostumbra transmitir un ancho de 3,1 kHz (de 300 a 3400 Hz) a través de una línea telefónica.

De manera similar, el concepto de volumen para un canal de comunicación se introduce introduciendo las siguientes coordenadas: duración de la transmisión (T K), – rango dinámico del canal (D K), – ancho de banda (ΔF K). Los canales telefónicos tienen un ancho de banda de 3,1 kHz (300 a 3400 Hz). El rango dinámico del canal se determina mediante la relación entre la potencia máxima del canal P max y la potencia de interferencia P min

V k = T k ·DF k ·Dk

Para transmitir una señal a través del canal, es necesario cumplir la condición V c ≤V k. En este caso, puede ser necesario cambiar los parámetros de la señal para asegurar la condición suficiente: ΔF C ≤ΔF K; D C ≤ D K; T C ≤ T K.

Volumen de señal y cantidad de información. . Sea la señal tener n símbolos elementales con base de código K. En este caso, la cantidad de información en la señal es I=n·log 2 K, y el volumen de la señal

V C = T C ·DF C ·D C = T C ·DF C ·log 2 (P c /P p)

donde P c es la potencia de la señal, P p es la potencia de interferencia. Para una señal con una duración de T s, el número de elementos de señal es n=T s / Dt, donde Dt es la duración de una señal elemental. Según el teorema de Kotelnikov, el espectro de un solo pulso puede determinarse mediante DF C = 1/ Dt. obtenemos

I s =n log 2 K= T s /Dt log 2 K= T s DF C log 2 K.

Normalmente K=U/DU, donde DU es el umbral de sensibilidad, si el nivel de interferencia no excede DU/2. En un canal ruidoso

P p @U 2 p; P s @U 2 s; K=U s / Up = a k · P s / P p,

donde a k =const y depende de las características de la interferencia y del método de elección del DU.

I c = T c DF C log 2 (a k · P c / P p) = T c DF C log 2 (P c / P p) + T c DF C log 2 a k =

V c + T c DF C log 2 a c.

Por tanto, la señal contiene un componente útil Vc e información adicional que refleja el método para identificar gradaciones de señal.

Capacidad del canal de comunicación. Para un canal de comunicación sin interferencias, la información se puede transmitir mediante una señal no redundante, bit/s

c = DF c log 2 K,

donde K=U max /Du – número de gradaciones de señal posibles,

U max – valor máximo de señal,

Du – sensibilidad del receptor.

Para un canal con interferencia, Shannon obtuvo la velocidad de transmisión confiable.

c = DF c log 2 (1+P c /P p),

donde P c /P p es la relación entre la potencia de la señal y la potencia de interferencia.

Inmunidad al ruido. La inmunidad al ruido se evalúa mediante la probabilidad p de que se produzcan interferencias en el receptor. Ejemplos de inmunidad al ruido de varios sistemas:

sistema de transmisión de datos (DTS) – ð=10 -8 – 10 -9

telégrafo por cable – p=10 -3 – 10 -4.

telégrafo (canal de radio) – p=10 -2 – 10 -3.

Los sistemas telemecánicos deben garantizar una alta confiabilidad de la información transmitida en condiciones de inmunidad insuficiente al ruido de los canales de comunicación. Los requisitos para la confiabilidad de la transferencia de información se establecen en. Para garantizar la confiabilidad necesaria, además del componente de información, es necesario agregar al mensaje elementos de servicio que permitan al lado receptor detectar la influencia de la interferencia.

Casi siempre hay interferencias en el canal de comunicación. Existen muchas fuentes de ruido, una de las principales es el ruido térmico (P p = k q B, donde q es la temperatura en Kelvin, B es el ancho de banda del receptor y k es la constante de Boltzmann). En la práctica, distintos tipos de interferencias tienen un impacto significativamente mayor.

Lo más importante a la hora de transmitir información es asegurar su fiabilidad. Los criterios para evaluar la confiabilidad incluyen las siguientes probabilidades:

probabilidad de recepción correcta de P PR;

probabilidad de recepción falsa R L PR;

probabilidad de falla de protección (detección de información distorsionada) RZO (generalmente alrededor de 10 -7);

probabilidad de pérdida de mensaje R POT

probabilidad de falsificación de un mensaje POD (no más de un mensaje por año).

La probabilidad de pérdida de un mensaje no es análoga a la probabilidad de un fallo de protección. Una falla de protección va acompañada de una señal de que se ha recibido información corrupta. En este caso, puedes intentar enviar el mensaje nuevamente. Si se pierde información del lado receptor, no se aceptará nada. Este caso ocurre, por ejemplo, cuando la señal del reloj está distorsionada. En algunos casos, los sistemas funcionan en condiciones en las que la fuente y el receptor están siempre sincronizados. Sin embargo, la mayoría de los sistemas funcionan en modo de espera. En el caso de que se espere una señal de reloj, el mensaje se perderá irremediablemente.

Para evaluar la confiabilidad de la información se pueden considerar todos los criterios considerados, pero el Comité Electrotécnico Internacional (IEC) recomienda elegir dos o incluso uno de ellos: R L PR y R POD. Dependiendo del valor de RL PR, según las recomendaciones de IEC, todos los canales de comunicación telemecánica se dividen según su confiabilidad en tres clases: I1, I2, I3. La probabilidad de recepción falsa P L.PR se calcula para un canal de comunicación simétrico binario, teniendo en cuenta la probabilidad de distorsión de un bit en el canal de comunicación. pag 0 = 10-4. Este valor es típico de un canal de comunicación de calidad media. La siguiente tabla ilustra la confiabilidad de las distintas clases de sistemas y la distancia mínima de código que proporcionan.

Clases de confiabilidad de los sistemas de transmisión de información.

Se detectará una recepción falsa si la parte redundante coincide con la parte de información. La interferencia distorsiona cada uno de los símbolos de control con una probabilidad máxima de 0,5, y todos k los caracteres de control se distorsionarán con una probabilidad ≤ 0,5 k. Por eso RL PR máximo ≤ 0,5 k

Clase de precisión I1, se puede utilizar en sistemas TI cíclicos, clase de precisión I2, recomendado para uso en sistemas de teleseñalización, la clase I3 está destinada a la transmisión de comandos de telecontrol.

La Universidad Electrotécnica Estatal de San Petersburgo "LETI" lleva su nombre. V.I. Ulyanova (Lenin) (SPbSETU)

Departamento de FP

ABSTRACTO

disciplina: “Procesamiento de señales digitales”

sobre el tema: "Señales y sus propiedades"

Terminado:

Comprobado:

San Petersburgo, 2014

1. Introducción…………………………………………………………………………………………………………...3

2. Estructura generalizada de un sistema de procesamiento de señales digitales……………………………………..4

3. Clasificación de señales………………………………………………………………………………5

4. Características de la señal……………………………………………………………………………………...7

5. Formas de representación de señales…………………………………………………………………….8

6. Conclusiones………………………………………………………………………………………………………………..9

7. Literatura………………………………………………………………………………………………………………10

Introducción

Concepto de señal

Señal- un símbolo (signo, código) creado y transmitido al espacio (a través de un canal de comunicación) por un sistema, o que surge en el proceso de interacción de varios sistemas. El significado y la importancia de la señal se revelan en el proceso de decodificarla por el segundo sistema (receptor).

Señal- un medio de almacenamiento de material utilizado para transmitir mensajes en un sistema de comunicación. Se puede generar una señal, pero no es necesaria su recepción, a diferencia de un mensaje, que está destinado a ser aceptado por quien lo recibe, de lo contrario no es un mensaje. Una señal puede ser cualquier proceso físico cuyos parámetros cambien (o sean modificados) de acuerdo con el mensaje transmitido.

Una señal, determinista o aleatoria, se describe mediante un modelo matemático, una función que caracteriza el cambio en los parámetros de la señal.

Concepto señal le permite abstraerse de una cantidad física específica, por ejemplo, corriente, voltaje, onda acústica, y considerar fuera del contexto físico los fenómenos asociados con la codificación de información y su extracción de señales que generalmente están distorsionadas por el ruido. En la investigación, la señal a menudo se representa en función del tiempo, cuyos parámetros pueden transportar la información necesaria. El método para registrar esta función, así como el método para registrar el ruido de interferencia, se denomina modelo de señal matemática.

Estructura generalizada de un sistema de procesamiento de señales digitales.

El procesamiento digital está asociado a la representación de cualquier señal como una secuencia de números. Esto significa que la señal analógica original debe convertirse en la secuencia original de números, que la computadora convierte, de acuerdo con un algoritmo dado, en una nueva secuencia que corresponde inequívocamente a la original. A partir de la nueva secuencia resultante, se forma la señal analógica resultante. La estructura generalizada del sistema de procesamiento de señales digitales se muestra en la siguiente figura.

Su entrada recibe una señal analógica de una variedad de sensores que convierten una cantidad física en voltaje eléctrico. Su muestreo de tiempo y cuantificación de nivel se realizan en un convertidor analógico a digital (ADC). La señal de salida del ADC es una secuencia de números que va al procesador digital de la CPU, que realiza el procesamiento requerido. El procesador realiza varias operaciones matemáticas en muestras de entrada. Como regla general, un procesador digital incluye equipo adicional:

    multiplicador de matriz;

    ALU adicional para soporte de hardware para generar direcciones de operandos;

    buses internos adicionales para acceso a memoria paralela;

    palanca de cambios de hardware para escalar, multiplicar o dividir por 2n.

El resultado del trabajo del procesador es una nueva secuencia de números que representan muestras de la señal de salida. La señal de salida analógica se reconstruye a partir de una secuencia de números utilizando un convertidor digital a analógico DAC.

El voltaje en la salida del DAC tiene forma escalonada. Si es necesario, puede utilizar un filtro suavizante en la salida.

Clasificación de señal:

    Según la naturaleza física del medio de almacenamiento.

    eléctrico;

    electromagnético;

    óptico;

acústico:

    Según el método de configuración de la señal.

    regular (determinista), especificado por una función analítica;

irregular (aleatorio), tomando valores arbitrarios en cualquier momento. Para describir tales señales se utiliza el aparato de la teoría de la probabilidad. Dependiendo de la función que describe los parámetros de la señal.

    Se distinguen señales analógicas, discretas, cuantificadas y digitales:

    continuo (analógico), descrito por una función continua;

    discreto, descrito por una función de muestras tomadas en ciertos momentos en el tiempo;

    cuantificado por nivel;

Señales discretas cuantificadas por nivel (digitales).

Señal analógica (CA)

La mayoría de las señales son de naturaleza analógica, es decir, cambian continuamente con el tiempo y pueden tomar cualquier valor durante un intervalo determinado. Las señales analógicas se describen mediante alguna función matemática del tiempo.

Un ejemplo de CA es una señal armónica: s(t) = A·cos(ω·t + φ).

Las señales analógicas se utilizan en telefonía, radiodifusión y televisión. Es imposible introducir una señal de este tipo en un sistema digital para su procesamiento, ya que en cualquier intervalo de tiempo puede tener un número infinito de valores, y para una representación precisa (sin errores) de su valor, se requieren números de profundidad infinita. Por lo tanto, muy a menudo es necesario convertir una señal analógica para que pueda representarse como una secuencia de números de una profundidad de bits determinada.

señal discreta El muestreo de una señal analógica consiste en representar la señal como una secuencia de valores tomados en momentos discretos en el tiempo ti (donde i es el índice). Normalmente, los intervalos de tiempo entre muestras sucesivas (Δt i = t i − t i−1) son constantes; en este caso, Δt se llama intervalo de muestreo . Los propios valores de la señal x(t) en los momentos de medición, es decir, x i = x(t i), se denominan

cuenta.

Durante la cuantificación, todo el rango de valores de la señal se divide en niveles, cuyo número debe representarse en números de una profundidad de bits determinada. La distancia entre estos niveles se llama paso de cuantificación Δ. El número de estos niveles es N (de 0 a N-1). A cada nivel se le asigna un número. Las muestras de señal se comparan con los niveles de cuantificación y se selecciona como señal un número correspondiente a un determinado nivel de cuantificación. Cada nivel de cuantificación está codificado como un número binario con n bits. El número de niveles de cuantificación N y el número de bits n de números binarios que codifican estos niveles están relacionados por la relación n ≥ log 2 (N).

señal digital

Para representar una señal analógica como una secuencia de números de bits finitos, primero se debe convertir en una señal discreta y luego someterla a cuantificación. La cuantización es un caso especial de muestreo, cuando el muestreo se produce por el mismo valor, llamado cuanto. Como resultado, la señal se presentará de tal manera que en cada intervalo de tiempo dado se conozca el valor aproximado (cuantificado) de la señal, que se puede escribir como un número entero. La secuencia de dichos números será una señal digital.

Características de la señal

    Duración de la señal(tiempo de transmisión) Tc es el intervalo de tiempo durante el cual existe la señal.

    Ancho espectral Fc- la gama de frecuencias en las que se concentra la potencia de la señal principal.

    base de señal- el producto del ancho del espectro de la señal por su duración.

    Rango dinámico D do- logaritmo de la relación entre la potencia máxima de la señal - P max y el mínimo - P min (mínimo distinguible en el nivel de ruido): Dc = log(P max / P min).

    Volumen de señal está determinada por la relación V c = T c F c D c .

    T c – duración de la señal, F c – espectro efectivo de la señal.:

Características energéticas

potencia instantánea - P(t);

potencia media - P avg y energía - E.

Estas características están determinadas por las relaciones:

Donde T = t máx -t mín.

Formas de presentación de señales.

Métodos de presentación de señales.

Gráfico

Analítico

Diagramas de tiempo

Modelos matemáticos

Diagramas vectoriales

Diagramas geométricos

Diagramas espectrales Diagrama de tiempos

es un gráfico de la dependencia de cualquier parámetro de señal (por ejemplo, voltaje o corriente) en el tiempo. La forma de onda se puede observar en el diagrama de temporización de la señal. El oscilograma se puede observar visualmente utilizando un dispositivo de medición especial: un osciloscopio. Se utiliza al estudiar procesos asociados con cambios en la fase de la señal (por ejemplo, modulación de fase). En este diagrama, la señal está representada por un vector, cuya longitud es proporcional a la amplitud de la señal, y el ángulo de inclinación con respecto al vector original muestra la fase de la señal.

EN diagrama geométrico la señal se representa como una figura geométrica. Este diagrama se puede utilizar para representar visualmente el volumen de una señal.

Diagrama espectral es una gráfica de la distribución de energía (espectro de amplitud) o fases (espectro de fases) de una señal por frecuencia. Estos diagramas se pueden observar utilizando un dispositivo de medición especial: un analizador de espectro.

Por tanto, el procesamiento de señales digitales es la conversión de señales presentadas en forma digital.

Cualquier señal continua (analógica) s(t) puede someterse a muestreo de tiempo y cuantificación de nivel (digitalización), es decir, presentarse en forma digital.

Utilizando algoritmos matemáticos, la señal discreta resultante s(k) se convierte en alguna otra señal que tenga las propiedades requeridas. El proceso de convertir señales se llama filtrado y el dispositivo que realiza el filtrado se llama filtro. Dado que las muestras de señal llegan a una velocidad constante, el filtro debe tener tiempo para procesar la muestra actual antes de que llegue la siguiente, es decir, procesar la señal en tiempo real. Para procesar señales (filtrado) en tiempo real, se utilizan dispositivos informáticos especiales: procesadores de señales digitales.

Todo esto es totalmente aplicable no sólo a señales continuas, sino también a señales intermitentes, así como a señales grabadas en dispositivos de almacenamiento. En este último caso, la velocidad de procesamiento no es importante, ya que los datos no se perderán con un procesamiento lento.

En los últimos años, en el procesamiento de señales e imágenes, se ha utilizado ampliamente una nueva base matemática para representar señales utilizando “ondas cortas” (wavelets). Con su ayuda se pueden procesar señales no estacionarias, señales con interrupciones y otras características, así como señales en forma de ráfagas.

Literatura

1. Procesamiento digital de señales de imágenes: libro de texto. subsidio / S.M. ibatulín; Universidad Electrotécnica Estatal de San Petersburgo que lleva el nombre. V.I. Ulyanov (Lenin) "LETI". - San Petersburgo. : Editorial de la Universidad Electrotécnica de San Petersburgo "LETI", 2006. - 127 p.

2. Procesamiento de señales digitales: libro de texto. manual para universidades / A.B. Sergienko; - San Petersburgo. : Pedro, 2002. - 603 p.

3. Algoritmos y procesadores de procesamiento de señales digitales: Libro de texto. manual para universidades / A. I. Solonina, D. A. Ulakhovich, L. A. Yakovlev. - San Petersburgo. : BHV-Petersburgo, 2001. - 454 p.

Los principales parámetros de las señales son la duración de la señal, el rango dinámico y el ancho espectral.

Toda señal, considerada como un proceso temporal, tiene un principio y un final. Por tanto, la duración de la señal es su parámetro natural, que determina el intervalo de tiempo dentro del cual existe la señal.

El rango dinámico es la relación entre la potencia de señal instantánea más alta y la potencia más baja necesaria para garantizar una calidad de transmisión determinada. Se expresa en decibeles [dB]:

(dB).

Por ejemplo, en la radiodifusión, el rango dinámico a menudo se reduce a 30...40 dB (1000-10000 veces) para evitar la congestión del canal.

Ancho del espectro: este parámetro da una idea de la tasa de cambio de la señal dentro del intervalo de su existencia.

El espectro de la señal, en principio, puede ser ilimitado. Sin embargo, para cualquier señal, se puede especificar el rango de frecuencia dentro del cual se concentra su energía principal. Este rango determina el ancho del espectro de la señal. En la tecnología de la comunicación, a menudo se reduce deliberadamente el espectro de la señal. Esto se debe al hecho de que el equipo y la línea de comunicación tienen un ancho de banda limitado. El espectro se reduce en función de la distorsión de señal permitida.

Por ejemplo, el ancho del espectro de una señal telefónica:

(Hz), y el ancho del espectro de una señal de televisión con un estándar de 625 líneas es de aproximadamente 6 (MHz). El ancho del espectro de la señal telegráfica depende de la velocidad de transmisión y generalmente se toma igual a (Hz), donde está la velocidad del telégrafo en baudios, es decir. Número de caracteres transmitidos por segundo. Por tanto, a velocidad en baudios, el ancho del espectro de la señal telegráfica es (Hz). El espectro de la señal modulada (señal secundaria) suele ser más amplio que el espectro del mensaje transmitido (señal primaria) y depende del tipo de modulación.

A menudo se introduce una característica bastante general y visual: el volumen de la señal:

.

El volumen de una señal da una idea general de las capacidades de un conjunto determinado de señales como portadores de mensajes. Cuanto mayor sea el volumen de la señal, más información se podrá empaquetar en este volumen, pero más difícil será transmitir dicha señal a través de un canal de comunicación.




Arriba