Filtrado coincidente de una señal determinada. Declaración del problema de filtrado.

En los canales de comunicación reales, junto con la interferencia gaussiana de fluctuación, como el ruido blanco, existen interferencias concentradas en el tiempo (pulsos) e interferencias concentradas en el espectro.

7.4.1. Características generales del ruido pulsado y de espectro agrupado.

En muchos casos, las interferencias consisten en impulsos individuales, cuya duración es significativamente menor que la duración del elemento de señal, y el espectro de la interferencia es mucho más amplio que el espectro de la señal. Esta interferencia se denomina pulsada (figura 7.18).

La interferencia concentrada en el tiempo (impulsos) incluye la interferencia en forma de impulsos cortos únicos de intensidad y duración variables, que siguen intervalos de tiempo bastante grandes y aleatorios. Las causas de la interferencia pulsada son las descargas de rayos, las estaciones de radio que funcionan en modo pulsado, las líneas eléctricas y otras instalaciones eléctricas, los sistemas de suministro de energía para el transporte, etc.

Además del ruido impulsivo, pueden producirse interferencias de larga duración cuyo espectro ocupa la misma banda de frecuencia que la señal, o incluso más estrecha. Esta interferencia se llama concentrada a lo largo del espectro (figura 7.19).

La interferencia concentrada en el espectro incluye interferencias de estaciones de radio extrañas, generadores de alta frecuencia para diversos fines (médicos, industriales, domésticos, etc.), interferencias transitorias de canales adyacentes de sistemas multicanal. Por lo general, se trata de oscilaciones armónicas o moduladas con un ancho de espectro menor o comparable al ancho de espectro de la señal útil. En el rango de onda decámetro, estas oscilaciones son el principal tipo de interferencia.

Impacto de la interferencia concentrada en el espectro

Dado que no todos los elementos de la señal se reciben en presencia de interferencia concentrada, la probabilidad de error puede expresarse como el producto:

donde es la probabilidad de que la interferencia concentrada haya llegado a la entrada del circuito de decisión, y es la probabilidad condicional de que ocurra un error de símbolo cuando se expone a la interferencia concentrada, que depende de la potencia de la señal, la potencia de la interferencia concentrada, el tipo de señal, la señal. frecuencia, frecuencia de interferencia, etc. d. Para varios sistemas de comunicación, se han determinado las dependencias analíticas de la probabilidad de error condicional de los factores nombrados; estas dependencias se pueden encontrar en la literatura especializada.

Los estudios teóricos y experimentales muestran que en cualquier sistema de comunicación existe una determinada relación llamada umbral o coeficiente de inmunidad al ruido, de modo que cuando la probabilidad condicional de error es . Si la relación es mayor, entonces la probabilidad condicional de error puede ser alta. Los estudios experimentales de receptores de FM reales muestran que cuando no se producen errores y cuando la probabilidad de error es casi igual. El coeficiente es diferente para diferentes sistemas de comunicación. Entonces, para un sistema coherente con manipulación por desplazamiento de fase, para un sistema con manipulación por desplazamiento de amplitud. El coeficiente puede ser significativamente mayor que la unidad si se utilizan señales de banda ancha que ocupan la banda de frecuencia.

Impacto del ruido impulsivo

Para la probabilidad de un error causado por un ruido pulsado, la expresión (7.9) también es válida, donde ahora debemos entender la probabilidad de que durante la vida útil de un elemento de señal llegue un pulso de interferencia a la entrada del circuito de decisión, y el condicional probabilidad de recepción errónea de un símbolo, siempre que el pulso llegue con interferencia. El impacto del ruido de pulso en la recepción de señales discretas también es de naturaleza umbral. Si la intensidad del ruido del pulso (en la entrada del circuito de decisión) es menor que un cierto valor, entonces no causa errores, es decir A medida que la intensidad aumenta más allá de este valor, la probabilidad de error condicional aumenta rápidamente.

  • 3.3. Propiedades básicas de la transformada de Fourier:
  • 1) Linealidad.
  • 4) Teorema del retraso.
  • 10) Espectros de potencia.
  • 4. Señales de espectro limitado. Teorema de Kotelnikov
  • 4.1. Expansión de señales continuas en una serie de Kotelnikov.
  • El espectro de una secuencia periódica de pulsos delta de acuerdo con la fórmula para u(t) tiene la siguiente forma:
  • 4.2. Espectro de la señal muestreada.
  • 4.3. Espectro de la señal muestreada cuando se muestrea mediante pulsos de duración finita (señal de modulación de amplitud de pulso o señal AM)
  • 4.4. Reconstrucción de una señal continua a partir de muestras.
  • 4.5. Errores en el muestreo y reconstrucción de señales continuas.
  • 5. Procesos aleatorios
  • 5.1. Características de los procesos aleatorios.
  • Función de distribución de probabilidad sp (frv).
  • frv bidimensional.
  • Función de densidad de probabilidad de un proceso aleatorio (pdf)
  • Estacionariedad.
  • Ergodicidad.
  • 5.2. Proceso aleatorio normal (proceso gaussiano)
  • 5.3. PDF y PDF para oscilación armónica con fase inicial aleatoria
  • 5.4. PDF para la suma de un proceso aleatorio normal y una oscilación armónica con una fase inicial aleatoria
  • 5.5. Envoltura y fase de un proceso aleatorio de banda estrecha.
  • 5.6. Ruido de fluctuación
  • 6. Visión integral de señales e interferencias.
  • 6.1. Concepto de señal analítica.
  • 6.2. Envolvente, fase instantánea y frecuencia instantánea de un proceso aleatorio de banda estrecha
  • 7. Función de correlación de señales deterministas.
  • 7.1. Autocorrelación de una señal real.
  • Propiedades de la función de autocorrelación de una señal real:
  • 7.2. Autocorrelación de una señal discreta.
  • 7.3. Relación entre la función de correlación y el espectro de energía.
  • 7.4. Aplicación práctica de la función de correlación.
  • II. Métodos para generar y convertir señales.
  • 8. Modulación de señal
  • 8.1. Disposiciones generales
  • 8.2. Modulación de amplitud de la oscilación armónica.
  • 8.3. Modulación de portadora armónica balanceada y de banda lateral única
  • 9. Métodos de modulación de ángulo.
  • 9.1. Principios de modulación de frecuencia y fase (angular).
  • 9.2. Espectro de señales de modulación de ángulo.
  • 9.3. Formación y detección de señales de modulación de amplitud y de banda lateral única.
  • 9.4. Formación y detección de señales de modulación angular.
  • 10. Manipulación de señales
  • 10.1. Características temporales y espectrales de señales codificadas por desplazamiento de amplitud.
  • 10.2. Características temporales y espectrales de señales codificadas por desplazamiento de frecuencia.
  • 10.3. Modificación de señal de fase (fase relativa)
  • III. Algoritmos de procesamiento de señales digitales
  • 11. Conceptos básicos del procesamiento de señales digitales.
  • 11.1. Conceptos generales sobre procesamiento digital.
  • 11.2. Cuantización de señal
  • 11.3. Codificación de señal
  • 11.4. Decodificación de señal
  • 12. Procesamiento de señales discretas
  • 12.1. Algoritmos para transformadas de Fourier discretas y rápidas
  • 12.2. Circuitos discretos lineales estacionarios
  • 12.3. Circuitos de respuesta a impulsos finitos (circuitos FIR)
  • 12.4. Cadenas recursivas
  • 12.5. Estabilidad de las cadenas de zorro.
  • 13. Filtros digitales
  • 13.1. Métodos para sintetizar filtros kih.
  • 13.2. Síntesis de bifiltros basados ​​en transformación analógico a digital
  • IV. Canales de comunicación
  • 14. Canales de comunicación
  • 14.1. Modelos de canal continuo
  • 14.2. Modelos de canales discretos
  • V. Teoría de la transmisión y codificación de mensajes
  • 15. Teoría de la transmisión de información.
  • 15.1. La cantidad de información transmitida a través de un canal discreto.
  • 15.2. Capacidad de canal discreto
  • 15.3. Rendimiento de un canal discreto simétrico sin memoria
  • 15.4. Métodos de compresión de mensajes discretos.
  • 15.4.1. Condiciones para la existencia de un código no uniforme óptimo.
  • 15.4.2. Indicadores de eficiencia de compresión.
  • 15.5. Cantidad de información transmitida a través de un canal continuo.
  • 15.6. Capacidad de canal continuo
  • 16. Teoría de la codificación de mensajes
  • Clasificación de códigos resistentes al ruido.
  • 16.1. Códigos de detección de errores
  • 16.1.1. Código de paridad.
  • 16.1.2. Código con peso constante.
  • 16.1.3. Código de correlación (Código con duplicación).
  • 16.1.4. Código inverso.
  • 16.2. Códigos de corrección
  • 16.2.1. código hammam
  • 16.2.2. Códigos cíclicos
  • 16.2.3. Códigos Reed-Solomon
  • V. Inmunidad al ruido
  • 17. Inmunidad al ruido de los sistemas de transmisión de mensajes discretos.
  • 17.1. Conceptos y términos básicos.
  • 17.2. Problema de prueba de hipótesis binaria simple
  • 17.3. Recepción de una señal completamente conocida (recepción coherente)
  • 17.4. Filtrado consistente
  • 17.5. Inmunidad potencial a interferencias de una recepción coherente
  • 17.6. Recepción incoherente
  • 17.7. Posible inmunidad a interferencias en caso de recepción incoherente.
  • 18. Inmunidad al ruido de los sistemas de transmisión continua de mensajes.
  • 18.1. Estimación óptima de la señal.
  • 18.2. Filtrado óptimo de una señal aleatoria.
  • 18.3. Inmunidad potencial al ruido de la transmisión continua de mensajes.
  • 19. Dispositivos adaptativos de supresión de interferencias.
  • 19.1. Conceptos básicos de la reducción de interferencias adaptativas
  • 19.2. Supresión de interferencias estacionarias
  • 19.3. Filtro de muesca adaptativo
  • 19.4. Filtro de paso alto adaptativo
  • 19.5. Supresión intermitente intermitente mediante dispositivo de predicción adaptativo
  • 19.6. Filtro de seguimiento adaptativo
  • 19.7. Almacenamiento adaptativo
  • VI. Comunicación multicanal y distribución de información.
  • 20. Comunicación multicanal y distribución de información.
  • 20.1. División de frecuencia
  • 20.2. División temporal de canales.
  • 20.3. División de código de canales.
  • 20.4. Sincronización en la red con acceso múltiple.
  • 20.5. Conmutación en redes de comunicación.
  • VII. Eficiencia de los sistemas de comunicación.
  • 21. Evaluación de la eficiencia y optimización de los parámetros de los sistemas de telecomunicaciones (tcs)
  • 21.1. Criterios de desempeño
  • 21.2. Eficiencia de los sistemas analógicos y digitales.
  • 21.3. Selección de señales y códigos resistentes al ruido.
  • 22. Evaluación de la eficacia de un sistema de comunicación por radio
  • 22. 1. Parámetros tácticos y técnicos del sistema de radiocomunicaciones.
  • 22.2. Estimación de la relación señal-ruido en la entrada de receptores de radio de un sistema de comunicación por radio.
  • 22.3. Filtrado óptimo de señales continuas.
  • 22.4. La cantidad de información al recibir señales discretas de un sistema de comunicación por radio.
  • 22.5. Cantidad de información para una recepción óptima de señales continuas
  • 22.6. Ganancia en la relación señal/interferencia
  • 22.7. Ancho de banda de los canales del sistema de comunicación por radio.
  • VIII. Concepto teórico de la información de protección criptográfica de mensajes en sistemas de telecomunicaciones.
  • 23. Fundamentos de la protección criptográfica de mensajes en sistemas de comunicación.
  • 23.1. Conceptos básicos de criptografía
  • 23.2. Método de reemplazo
  • 23.3. Métodos de cifrado basados ​​en sensores de números pseudoaleatorios
  • 23.4. Métodos de mezcla
  • 23.5. Criptosistemas de clave pública
  • 13.6. Firma digital
  • Conclusión
  • Lista de abreviaturas
  • Designaciones básicas
  • Literatura
  • Teoría de la comunicación eléctrica.
  • I. Mensajes, señales e interferencias, sus modelos matemáticos

    1. Información general sobre sistemas de comunicaciones eléctricas.

    1.1. Información, mensajes, señales e interferencias.

    Los sistemas de comunicación están diseñados para transmitir información. La información se transmite a través de mensajes. Por tanto, un mensaje es una forma de presentar información.

    Ejemplos de mensajes pueden ser el texto de un telegrama, una frase en una conversación telefónica, una secuencia de números al transmitir datos, una imagen en un sistema de fototelegrafía, una secuencia de imágenes (cuadros) en un sistema de televisión, etc. Un mensaje es una colección de signos (símbolos).

    Por ejemplo, el texto de un telegrama consta de letras, números, espacios y caracteres especiales, y un mensaje telegráfico listo para transmitir a través de un canal de comunicación consta de símbolos de canal (por ejemplo, puntos, guiones y pausas cuando se utiliza el código Morse).

    En un sistema de televisión en blanco y negro, un mensaje es una secuencia de fotogramas, cada uno de los cuales, a su vez, representa una secuencia de valores de brillo ordenados según el patrón de exploración de la televisión. En telefonía, un mensaje es una secuencia continua de valores de voltaje (corriente) que muestra el cambio en la presión del sonido en la membrana del micrófono a lo largo del tiempo.

    De los ejemplos anteriores, queda claro que los mensajes pueden ser discretos (que constan de símbolos que pertenecen a un conjunto finito: el alfabeto) o continuos (continuos, analógicos), descritos mediante funciones de tiempo continuo.

    Para transmitir un mensaje se requiere un medio material llamado señal. La señal puede ser la luz de un fuego, el sonido de un tambor, el sonido de un discurso o silbido, un objeto ubicado en un lugar designado, el movimiento de una bandera o espada, etc.

    La ingeniería de radio y las comunicaciones eléctricas utilizan señales eléctricas que, debido a su facilidad de generación y conversión, son las más adecuadas para transmitir grandes cantidades de datos a largas distancias. Tenga en cuenta que en los canales de comunicación y dispositivos de almacenamiento de datos modernos, las señales eléctricas a menudo se convierten en señales ópticas o magnéticas, pero, por regla general, se supone su conversión inversa.

    Una forma natural de representar una señal es su descripción mediante alguna función del tiempo (la variable dependiente suele ser el voltaje o la corriente).

    Los sistemas de comunicación modernos utilizan una variedad de señales con diferentes propiedades. Estas señales se pueden clasificar, aunque cualquier clasificación es bastante arbitraria. En la figura. 1.1. Se presenta una clasificación que se basa en el principio de descripción matemática de las señales utilizadas para el estudio teórico y los cálculos.

    La descripción matemática y representación de señales le permite crear un modelo matemático de la señal.

    Si un modelo matemático permite una descripción precisa de una señal, entonces dicha señal se denomina determinista. Si es imposible describir con precisión una señal en algún momento, la señal se llama aleatoria.

    La forma de onda modulada de alta frecuencia se llama señal de radio.

    Una señal sin relleno de alta frecuencia es una señal de vídeo.

    Si una señal puede ser descrita por una función s(t) = s(t + t), Dónde t– período, se llama periódico.

    Arroz. 1.1. Clasificación de señal

    Si tal representación es imposible, la señal no es periódica.

    Una señal que describe un proceso que cambia continuamente a lo largo del tiempo se llama analógica. Se pulsa una señal de duración finita.

    En ocasiones es conveniente transmitir sólo los valores de una señal continua (muestras o muestras) tomadas en momentos separados en el tiempo. Esta señal cuantificada en el tiempo se llama discreta. Si no transmite las muestras en forma de impulsos cortos, sino sus valores numéricos, primero deberá obtener estos valores. Este procedimiento en tecnología de las comunicaciones se denomina cuantificación de niveles. Así, una señal cuantificada en tiempo y nivel se denomina digital.

    Es interesante observar que las señales deterministas no transportan ninguna información. Sin embargo, con su ayuda es posible transmitir información si la ubicación de las señales en el eje del tiempo es aleatoria. Por ejemplo, una señal telegráfica consta de siete pulsos rectangulares con los parámetros dados (Fig. 1.3, d. El primer (inicio) y el último (parada) pulsos indican el comienzo y el final del paquete. El contenido de información del paquete depende de la letra del alfabeto que se transmite actualmente y representa la combinación de paquetes actuales y no actuales correspondientes a esta letra.

    En la figura. 1.2. Se presenta otra posible clasificación de señales.

    Arroz. 1.2. Clasificación de señal

    Según el tipo de mensajes transmitidos, las señales, por ejemplo, se pueden dividir en radiodifusión, televisión, telégrafo, etc.

    Según la banda de frecuencia, las señales generalmente se dividen en banda estrecha y banda ancha.

    Para banda ancha señales Δ F/F av >> 1, donde

    Δ F = F máximo - F min – ancho absoluto del espectro de la señal,

    F av = ( F máximo + F min)/2 – frecuencia promedio del espectro de la señal,

    F max – frecuencia máxima en el espectro de la señal,

    F min – frecuencia mínima en el espectro de la señal.

    Para banda estrecha señales Δ F/F Casarse< 1.

    Las señales también se dividen en complejas y simples según el tamaño de la base de la señal. EN(el producto de la duración de la señal por el ancho de banda de su espectro).

    Para complejo señales EN > 1,

    donde Δ F∙Δ t– base de señal, Δ F– ancho absoluto del espectro de la señal, Δ t– duración de la señal.

    Para simple señales EN = 1.

    Según el tipo de modulación, las señales se diferencian según el parámetro que cambia según la ley del mensaje transmitido. Dado que cualquier oscilación armónica se caracteriza por amplitud, frecuencia y fase instantánea, las señales de radio pueden ser moduladas en amplitud (AM), en frecuencia (FM) y en fase (PM). Actualmente, los sistemas de comunicación utilizan una amplia variedad de señales con tipos complejos de modulación, por ejemplo, modulación de amplitud de pulso (PAM), modulación de código de pulso (PCM), modulación de ancho de pulso (PWM). Hasta la fecha se han desarrollado más de una docena de tipos complejos de modulación y, por supuesto, una gran cantidad de señales correspondientes con diferentes características.

    En la figura. 1.3 muestra oscilogramas de diversas señales ampliamente utilizadas en sistemas de comunicación.

    Esta figura muestra las siguientes señales: a - pulso periódico, b - señal de radio continua (analógica) con AM, c - discreta, d - aleatoria, e - codificada digitalmente, f - digital con AM, g - digital con FM, h - digital con PM y – digital con manipulación por cambio de fase.

    También cabe señalar que es imposible aplicar una clasificación rígida a señales reales. Por ejemplo, la señal (Fig. 1.3, a) se puede clasificar como una señal de video de pulso periódico determinista y la señal (Fig. 1.3, h) como una señal de radio digital FM aleatoria.

    Arroz. 1.3. Oscilogramas de señales utilizadas en sistemas de comunicación.

    Además de los enumerados, también se utilizan otros signos de clasificación de señales, por ejemplo, a veces se hace una distinción entre señales de información y de control (oscilaciones), etc. Algunos de los tipos de señales enumerados se analizarán con más detalle más adelante.

    En la teoría de las comunicaciones eléctricas, se acostumbra considerar una señal como un "objeto de transporte". Desde este punto de vista, una señal puede describirse mediante "características tridimensionales", similares a la longitud, anchura y altura de una carga transportada, por ejemplo, por ferrocarril. La primera de estas características es la duración de la señal. t s, medido en segundos (s). Cualquier señal se puede representar como una suma (superposición) de oscilaciones armónicas con ciertas frecuencias, por lo tanto la segunda “característica dimensional” es el ancho del espectro, o banda de frecuencia de la señal Δ F s, igual a la diferencia entre las frecuencias más alta y más baja de sus componentes armónicos y medida en hercios (Hz). La tercera característica “dimensional” es el rango dinámico, medido en decibeles (dB) y determinado por la fórmula

    D c = 20lg( incógnita máx/ incógnita mín),

    Dónde incógnita máximo y incógnita min – respectivamente los valores de señal máximo y mínimo posibles (voltaje o corriente). El producto de estas tres cantidades se llama volumen de señal:

    V c = tF do D do

    Las señales útiles se diferencian de las señales de interferencia en que las señales útiles sirven para transmitir mensajes, mientras que las señales de interferencia provocan su distorsión (pérdida de información).

    A menudo, una señal útil se denomina simplemente señal y una señal que interfiere se llama interferencia. Las señales y el ruido, considerados en conjunto, se denominarán oscilaciones.

    La interferencia puede ser natural e intencional (artificial), ruido (fluctuación) e impulsiva, activa y pasiva, etc.

    Cabe señalar que la misma oscilación puede ser una señal útil en relación con, por ejemplo, un sistema de comunicación o de radar y una interferencia en relación con otro.

    También vale la pena señalar que toda interferencia, como todas las señales, es aleatoria (si la interferencia es determinista, entonces puede excluirse de la oscilación observada y así deshacerse de su efecto nocivo en el mensaje).

    En la figura. 1.4 muestra ejemplos de señal aleatoria e interferencia aleatoria (ruido).

    Arroz. 1.4. Señal aleatoria (voz) (a) e interferencia aleatoria (ruido) (b)

    Según el método de interacción con la señal, la interferencia se divide en aditiva (del inglés agregar– añadir), multiplicativo (del inglés multiplicar- multiplicar) y mixtas (esto incluye todas las interacciones que no pueden reducirse a aditivas o multiplicativas).

    El primer tipo de distorsión es relativamente fácil de eliminar, ya que la tecnología CDMA ofrece la posibilidad de detección multiusuario y combinación de señales diversas utilizando un receptor Rake (ver “Redes”, 2000, no. 8, p. 20 y no. 9, pág.22). Las interferencias de fuentes externas se combaten ampliando el espectro de la señal transmitida. Teóricamente, aumentar la base de la señal (B) permite reducir la interferencia a un nivel arbitrariamente pequeño.

    Los sistemas basados ​​en CDMA tienen una propiedad importante: la capacidad de abordar eficazmente las interferencias, especialmente las de banda estrecha. Es por esto que la tecnología CDMA se ha utilizado durante muchos años principalmente en sistemas militares, que normalmente funcionan en entornos de interferencia difíciles y condiciones de supresión de radio.

    Los métodos para abordar la interferencia son fundamentalmente diferentes de los utilizados para eliminar la distorsión por trayectos múltiples. Se conoce la estructura de las señales perturbadoras de trayectos múltiples, lo que simplifica enormemente la tarea; la estructura de la interferencia externa no se conoce de antemano y, por lo tanto, es casi imposible suprimirla por completo. Y aunque hoy en día existen muchas formas de eliminar determinados tipos de interferencias, en general el problema de combatirlas aún no se ha resuelto. Además, no existe un método universal que sea igualmente eficaz para suprimir diversas interferencias (ver).

    Actualmente, existen varias formas principales de combatir las interferencias:

    • aumentar el potencial energético del enlace de radio (potencia del transmisor, ganancia de antena);
    • reducción del nivel de ruido propio del receptor;
    • reducir el nivel de interferencias externas en la entrada del receptor mediante su compensación;
    • el uso de procesamiento conjunto de interferencias y señales, basado en la determinación de las diferencias entre la señal útil y la interferencia;
    • aumentar la relación señal-ruido mediante el uso de métodos de codificación y modulación antiinterferencias.

    El desarrollo de soluciones técnicas que brinden protección contra interferencias avanza hacia el uso integrado de los métodos anteriores y otros, sin embargo, la implementación de tales soluciones requiere una cierta complicación del equipo y, por lo tanto, un aumento en su costo. Por lo tanto, en la práctica, no se esfuerzan por crear dispositivos con la máxima inmunidad al ruido posible (potencial). En la mayoría de los casos, el producto final es una opción de compromiso, optimizada según el criterio de rentabilidad. Una comparación de la inmunidad al ruido real y potencial nos permite juzgar la efectividad de un método de acceso en particular, así como la viabilidad de su mejora adicional.

    El principal indicador de la calidad de la transmisión de información en condiciones de interferencia, mediante el cual se comparan varios métodos de modulación digital y codificación de información, es una cantidad adimensional: la relación señal-ruido, definida como h 2 =E b /N o ( donde E b es la energía por bit de información y No es la densidad espectral de potencia de ruido).

    Como se sabe, la capacidad de los canales CDMA está limitada por el nivel de interferencia mutua de los suscriptores activos. Esto significa que existe una relación inversa entre el número de suscriptores activos en el sistema y la relación señal-ruido. Cuantos más suscriptores trabajen en el sistema, menor será el valor de esta relación y, en consecuencia, el "margen" de inmunidad al ruido. Por supuesto, existe un valor umbral por debajo del cual no se puede caer y que determina el alcance máximo de comunicación para una determinada potencia del transmisor. Digamos que para un sistema basado en el estándar cdmaOne, este valor es de 6 a 7 dB, que es significativamente más bajo que en otros sistemas de radio (GSM - 9 dB, DECT - 12 dB).

    El papel decisivo en la lucha contra las interferencias lo desempeña la elección de la estructura de la señal (deben tener buenas propiedades de correlación cruzada) y el método de recepción óptimo. Por lo tanto, al planificar la estructura de las señales, se esfuerzan por garantizar que difieran lo más posible entre sí; entonces la interferencia que opera en el sistema tendrá el menor efecto en la señal útil. El receptor debe limpiar la señal tanto como sea posible de la distorsión provocada por las interferencias. Obviamente, se utilizan diferentes métodos para implementar estos requisitos, por lo que los sistemas existentes responden de manera diferente a ciertos tipos de interferencia.

    En el caso de utilizar el método clásico de espectro ensanchado basado en la tecnología DS-CDMA, la inmunidad al ruido en condiciones de interferencia de ruido con una densidad espectral uniforme no depende del tipo de señales utilizadas, sino que está completamente determinada por la base de la señal y la señal. -relación ruido. En términos generales, en los sistemas DS-CDMA, para suprimir las interferencias, su potencia se "distribuye" en una amplia banda de frecuencia.

    Si la distribución del ruido obedece a una ley aleatoria normal con densidad espectral uniforme (“ruido blanco”), entonces diferentes elementos de la señal similar al ruido (NLS) se “afectan” en la misma medida. Este tipo de interferencia es especialmente peligrosa para los sistemas de banda ancha y cuanto mayor es la potencia de la interferencia, más se suprime la señal útil.

    La señal de banda ancha DS-CDMA sufre menos interferencias de banda estrecha. La interferencia armónica de una sola frecuencia puede distorsionar la señal sólo en una banda de frecuencia relativamente estrecha, y la información útil se restaura completamente a partir de partes "no dañadas" del espectro. Cualquier interferencia concentrada en el espectro a la salida del receptor de correlación se convierte en banda ancha y se suprime efectivamente (debido a que su forma no corresponde a la señal útil; ver “Redes”, 2000, no. 5, p. 59 , figura 2). Por supuesto, en este caso hay una ligera disminución en la relación señal-ruido, pero es tan pequeña que el efecto positivo no es proporcional a las pérdidas de calidad que se producen al utilizar otros métodos de acceso clásicos (TDMA o FDMA).

    Por lo tanto, si la interferencia tiene una distribución diferente de la normal, entonces los elementos de la señal similar al ruido comienzan a distorsionarse de diferentes maneras: algunos más fuertes, otros más débiles. En esta situación, el receptor óptimo aumentará la relación señal-interferencia. Se ha demostrado teóricamente que si se conoce la estructura de la interferencia, siempre es posible crear un receptor óptimo que proporcione la máxima relación señal-interferencia. En la práctica todo es algo más complicado. El tipo de interferencia no se conoce de antemano y, por tanto, el receptor debe “ser capaz” de afrontar eficazmente cualquier tipo de interferencia.

    El rendimiento del receptor en un entorno ruidoso depende de la elección de las técnicas de modulación, la codificación y los circuitos del receptor. Las cuestiones de codificación y entrelazado de símbolos son áreas de desarrollo independientes, por lo que nos detendremos con más detalle solo en los problemas de recibir señales en condiciones de interferencia.

    El llamado receptor adaptativo proporciona la supresión de interferencias más eficaz. En el caso general, consta de L canales (donde L es igual al número de elementos de señal CDMA), cada uno de los cuales tiene un filtro adaptado que recibe de manera óptima un símbolo de una señal específica (Fig. 1). Las muestras de la señal recibida se desplazan en el tiempo (creando un retraso) de tal manera que se combinen en el momento en que finaliza la señal. La presencia de un esquema para seleccionar coeficientes de ponderación teniendo en cuenta el grado de "daño" de ciertos elementos del NPS permite que el receptor se ajuste adaptativamente a la interferencia, "maximizando" así el valor de la señal/interferencia.

    Para suprimir el ruido impulsivo, se utiliza en la entrada del receptor un filtro de banda ancha con un ancho de banda no menor que el ancho espectral de la señal útil. El limitador que le sigue está diseñado para neutralizar el efecto del ruido impulsivo.

    El grado de inmunidad al ruido que proporciona un receptor adaptativo depende de la relación entre el número de elementos de señal "afectados" y su número total. Nota: si la interferencia de banda ancha afecta a todos los elementos de la señal de la misma manera, entonces todos los coeficientes de ponderación son iguales y un filtro adaptado a la señal es suficiente para la recepción. Por tanto, el receptor adaptativo es invariante a la acción de la interferencia y su eficiencia es mayor cuanto más difiere el espectro de potencia de la interferencia del uniforme. En otras palabras, cualquier "caída" en el espectro de interferencia le permite aumentar la relación señal-ruido cambiando los coeficientes de ponderación de la señal.

    La alta inmunidad al ruido de los sistemas con señales complejas se debe al hecho de que la señal se puede acumular en un filtro adaptado de forma óptima: sus elementos se añaden en fase y los elementos de ruido se añaden de forma incoherente. En términos generales, un receptor adaptativo es capaz de "extraer" una señal útil de una "mezcla" de ruido e interferencia que tiene una potencia muchas veces mayor, y el límite de inmunidad al ruido suele estar limitado por el propio ruido del receptor.

    Sin embargo, la inmunidad al ruido de la señal DS-CDMA es diferente en los canales de comunicación directos e inversos. La situación más difícil surge en el canal inverso, cuando la entrada del receptor de la estación base (BS), además del ruido propio del receptor y las interferencias internas del sistema de los suscriptores activos (interferencias de acceso múltiple), también está sujeta a interferencias externas (ver barra lateral).

    Para ilustrar la contribución que hacen los suscriptores activos de otras células al ruido de fondo general, veamos la figura. 2. Aquí se puede ver cómo la interferencia mutua disminuye dependiendo de la distancia desde cualquier celda (en el análisis se asumió que todas las celdas tienen el mismo tamaño y los suscriptores están distribuidos uniformemente en todo el territorio atendido por la red). La contribución de las células vecinas al fondo de interferencia global suele ser de aproximadamente el 36%. Un nivel tan alto se debe al hecho de que en la práctica existe una superposición parcial de los diagramas de radiación de las antenas de BS. La contribución total de las células que no son “vecinas” de ésta (es decir, ubicadas a una distancia de ella en adelante) no supera el 4%. El nivel más alto de interferencia mutua (60%) lo crean los suscriptores que trabajan simultáneamente en la celda.

    En el canal directo, las estaciones base vecinas crean interferencia mutua y la potencia total de esta interferencia es proporcional al número de BS. Se cree que sincronizando y eligiendo la estructura adecuada de las señales BS, el impacto de la interferencia mutua se puede reducir a cero.

    La relación señal-ruido del canal directo se ve afectada por la forma en que se ajusta la potencia de los transmisores BS. Con ajuste no automático, la potencia del transmisor BS no depende de la ubicación del abonado de la estación móvil. La peor situación ocurre cuando el abonado se encuentra en el límite de tres celdas, es decir cuando los niveles de señales recibidas de diferentes estaciones son aproximadamente los mismos.

    El enfoque para la supresión de interferencias en los sistemas FH-CDMA (Fig. 3), que utilizan saltos de frecuencia pseudoaleatorios, es algo diferente que en los sistemas DS-CDMA. Permítanos recordarle: en los sistemas basados ​​​​en FH-CDMA, cada símbolo de información se transmite como una combinación de N frecuencias, y en cada una de estas frecuencias se emite su propia señal similar a un ruido. Además de la señal útil de un usuario específico (color azul), a través del sistema se transmiten señales de otros suscriptores (color rojo) y, además, se ve afectado por la interferencia de banda estrecha fп (línea horizontal) y el ruido pulsado en este momento. tп (línea vertical). Dado que el elemento de señal FH-CDMA deseado ocupa sólo una parte relativamente pequeña del espectro en cualquier momento, este método proporciona una supresión efectiva tanto de la interferencia de banda estrecha como de la interferencia pulsada.

    La interferencia de los suscriptores de sus propias células o de las vecinas crea el mayor daño si la estructura de sus señales es la misma, pero las leyes de sintonización de frecuencia son diferentes. En este caso, las señales de diferentes usuarios pueden superponerse, lo que provoca "daños" en los componentes de frecuencia individuales de la señal FH-CDMA. El grado de inmunidad al ruido de dicho sistema está determinado por la relación entre el número de secciones "no afectadas" del espectro y su número total. Evidentemente, cuanto más amplia sea la banda de frecuencias y mayor sea el conjunto de frecuencias utilizadas, menos probable será que coincidan y mayor será el grado de protección contra las interferencias.

    Métodos antiinterferencias basados ​​en diferencias estructurales entre señal e interferencia.
    Selección Diferencias características entre señal e interferencia. Métodos de supresión de interferencias
    FrecuenciaLos espectros están desplazados en frecuencia. Filtración
    Espacial Diferentes direcciones de recepción. Usando antenas adaptativas
    Por polarizaciónDiferente polarización (horizontal o vertical) Usando un filtro polarizador
    FaseDiferentes características de frecuencia de fase. Uso de sistemas de bucle de bloqueo de fase
    TemporarioDiferentes momentos de aparición e interferencia de la señal. Bloquear el receptor mientras dura un potente ruido impulsivo, limitando el nivel de la señal de entrada (después del filtro de paso de banda)

    Clasificación de interferencia

    La interferencia es muy diversa en su origen, tipo y método de impacto en el sistema, el receptor y la antena (ver figura).

    Por origen están divididos en natural(atmosférico, cósmico) y artificial(industrial, de transmisores en funcionamiento, etc.). Las interferencias creadas por dispositivos especiales se clasifican como adrede, y se consideran otros tipos involuntario. Los primeros de ellos se utilizan ampliamente en equipos militares (dependiendo de la relación de las bandas de los transmisores de interferencia y el receptor de radio, dicha interferencia se divide en bombardeo, focalización, etc.).

    Entre las interferencias de origen natural, las más peligrosas son las atmosféricas, provocadas por procesos eléctricos, cuya energía se concentra principalmente en la región de las ondas largas y medianas. También se crean fuertes interferencias durante el funcionamiento de equipos industriales y médicos (generalmente se clasifican como individuales). Actualmente, existen regulaciones estrictas que limitan el nivel de interferencia industrial, especialmente si sus fuentes están ubicadas en grandes ciudades o suburbios.

    Dependiendo de tipo distinguir entre, digamos, ruido aditivo y multiplicativo. Se considera interferencia aditivo, si su efecto perturbador no depende de la presencia de una señal, y multiplicativo, si ocurre sólo en presencia de una señal. Un ejemplo de interferencia aditiva es el ruido de fluctuación en un canal de radio, resultante del funcionamiento simultáneo de una gran cantidad de fuentes de interferencia. El cambio en el coeficiente de transmisión durante la propagación de la señal por trayectos múltiples es el resultado de la influencia de la interferencia multiplicativa.

    Según la relación entre el ancho de los espectros de interferencia y señal, distinguen banda estrecha Y banda ancha interferencia. Naturalmente, la misma interferencia puede ser de banda estrecha con respecto a una señal y de banda ancha con respecto a otra.

    La inmunidad al ruido de un sistema depende de la llamada susceptibilidad a las interferencias de sus elementos principales (antena, receptor, etc.). En este caso suelen hablar de método de influencia interferencias en cualquier elemento del sistema. Por ejemplo, la sensibilidad del receptor está determinada por la frecuencia y el tipo de interferencia. El mayor daño se produce intracanal interferencia (que cae en la banda operativa del receptor), métodos de lucha que se seleccionan según los métodos utilizados para acceder e influir en la señal. Interferencia por canal adyacente surgen debido a la inestabilidad de los osciladores locales, la "pureza" insuficiente de la onda de radio y la presencia de otras radiaciones no deseadas (en armónicos y subarmónicos). La sensibilidad de una antena direccional está relacionada en gran medida con la dirección de llegada de la señal (lóbulo principal, posterior o lateral).

    Principales tipos de interferencia

    Aditivo(interferencia aditiva). Cualquier interferencia cuyo efecto perturbador se produzca independientemente de la presencia o ausencia de una señal. Bajo la influencia del ruido aditivo, la señal resultante en la entrada del receptor se puede representar como la suma de varios componentes independientes: una señal y varios componentes de ruido.

    Atmosférico. 1. ruido atmosférico. Interferencias provocadas por procesos eléctricos en la atmósfera (principalmente descargas de rayos). Hay dos tipos de ruido atmosférico: pulsado (cerca de tormentas eléctricas) y ruido de fluctuación (tormentas distantes). 2. interferencia de la precipitación. Interferencias provocadas por precipitaciones en forma de lluvia, nieve, etc.

    intracanal(interferencia cocanal). Interferencia que provoca una disminución del nivel de la señal útil cuando se expone a señales interferentes de otras estaciones que operan en la misma o similar frecuencia. En los sistemas celulares y troncales, la interferencia cocanal se genera debido a la influencia de otras áreas que utilizan las mismas frecuencias operativas.

    intracelular(interferencia intracelular). Interferencia causada por la acción interferente de los transmisores de las estaciones de abonado que operan dentro del área de cobertura de la misma estación base.

    Seguimiento(Sígueme interferencia). Interferencia intencional diseñada para suprimir los sistemas de agilidad de frecuencia.

    Armónico(interferencia armónica). Interferencia resultante de radiación no deseada a una frecuencia armónica de una señal.

    Desinformar(interferencia de parodia). Interferencia intencional, cuando se expone a la cual el sistema permanece operativo, pero no proporciona la transmisión de información útil.

    Bombardeo(interferencia de bombardeo, interferencia de banda completa). Interferencia emitida en una banda de frecuencia significativamente más ancha que la banda de frecuencia de la estación bloqueada. Estas interferencias pueden ser ruidos de espectro uniforme o interferencias de frecuencia explorada.

    Imitación(interferencia inteligente). Interferencia que tiene la misma estructura que la señal útil, lo que dificulta su detección.

    Legumbres(interferencia de pulso o ráfaga). Interferencia de corta duración, que por lo general consiste en un gran número de pulsos (distribuidos aleatoriamente en tiempo y amplitud). La interferencia de pulsos también incluye interferencias de procesos transitorios.

    Industrial(ruido provocado por el hombre, interferencias provocadas por el hombre). Interferencias provocadas por el funcionamiento de diversas instalaciones eléctricas (médicas, industriales), así como de los sistemas de encendido de los automóviles. El espectro de las emisiones no esenciales suele tener un carácter pulsado, lo que se asocia a cambios bruscos de corriente debido a fenómenos de contacto en los circuitos eléctricos.

    Intermodulación(interferencia de intermodulación). 1. Interferencia que se produce en el receptor, cuya causa puede ser la presencia de más de una señal perturbadora con una intensidad suficiente para manifestar las propiedades no lineales del camino de recepción, o la adición de señales perturbadoras con armónicos del oscilador local. 2. Interferencia que se produce en un transmisor cuando su entrada recibe señales potentes de estaciones transmisoras cercanas.

    Espacio(interferencia cósmica). Interferencia asociada con procesos electromagnéticos que ocurren en el Sol, las estrellas y otros objetos extraterrestres.

    multifrecuencia(interferencia multitono). Interferencia formada por varias señales armónicas, normalmente de espectro uniforme.

    multiplicativo(interferencia multiplicativa). Interferencia cuyo efecto perturbador aparece sólo en presencia de una señal.

    De la zona vecina(interferencia de células adyacentes). Interferencia de transmisores ubicados en un área adyacente.

    A lo largo del lóbulo lateral(interferencia de lóbulos laterales). Interferencia proveniente de cualquier dirección excepto los lóbulos principal y posterior del patrón de radiación de la antena.

    A lo largo del pétalo principal(interferencia del lóbulo principal). Interferencia que llega a lo largo del lóbulo principal del diagrama de radiación de la antena.

    A lo largo del pétalo trasero(interferencia del lóbulo posterior). Cualquier interferencia proveniente de una dirección opuesta a la del lóbulo principal del patrón de radiación de una antena.

    A través del canal espejo(interferencia de imagen). Interferencia que cae en la banda del canal receptor lateral, que está separada de la portadora por el valor de la primera frecuencia intermedia.

    En el siguiente canal(interferencia de canal adyacente). Interferencia de frecuencias portadoras de otros canales separados del canal de trabajo por un paso de la cuadrícula de frecuencia (generalmente 25 o 12,5 kHz). En la literatura en lengua inglesa, este término suele utilizarse con aclaraciones que especifican la fuente de interferencia: interferencia del canal siguiente (interferencia del siguiente) e interferencia del canal vecino (interferencia del vecino).

    Adrede(interferencia). Interferencia de radio creada por transmisores especiales para suprimir el funcionamiento de los equipos de comunicaciones y navegación.

    Observación(interferencia puntual). Interferencia intencional enfocada en la frecuencia portadora de la señal deseada.

    Retransmitir(interferencia repetida). Interferencia intencional creada al retransmitir la señal deseada original con un retraso.

    Espectro extendido(espectro ensanchado). Interferencia con densidad espectral de potencia uniforme.

    enfocado(lugar). Interferencia cuya potencia se concentra en una banda de frecuencia muy estrecha, menor que el espectro de la señal útil o comparable a él.

    Estructural. Interferencia que tiene una estructura similar a las señales útiles (es decir, que consta de los mismos elementos), pero que difiere de ellas en los parámetros de modulación. La interferencia estructural incluye interferencia simulada y retransmitida dentro del sistema.

    banda estrecha(interferencia de banda estrecha). Interferencia cuyo espectro es significativamente más estrecho que el ancho del espectro de la señal útil.

    fluctuante(ruido de fluctuación, interferencia de fluctuación). Ruido, que es una señal de ruido aleatoria distribuida normalmente (ruido gaussiano).

    bombardeo parcial(interferencia de banda parcial). Interferencias de barrera con superposición parcial del rango de frecuencia operativa de la estación de radio suprimida.

    1. Observaciones introductorias

    2. Modelos de señales e interferencias.

    Bibliografía

    1. Observaciones introductorias

    En el proceso de recepción de señales, a la entrada del dispositivo receptor llega una mezcla de señal y ruido o interferencias. El receptor de detección óptimo en la etapa de procesamiento primario debería tomar la mejor decisión sobre la señal recibida, es decir determinar si una señal está presente o ausente, qué tipo de señal está presente (en la segunda etapa del procesamiento), estimar el valor de un parámetro particular (amplitud, duración, hora de llegada, dirección de llegada, etc.). El problema formulado se puede resolver con modelos de señales y ruido desconocidos a priori, con parámetros desconocidos (interferentes) o distribuciones desconocidas de señales y ruido. El objetivo principal es sintetizar la estructura óptima del dispositivo receptor. La estructura sintetizada suele ser prácticamente irrealizable, pero su eficacia es potencial y proporciona un límite superior a la eficacia de cualquier estructura prácticamente implementable.

    La síntesis de procedimientos óptimos de procesamiento de señales e interferencias se puede llevar a cabo utilizando varios métodos de optimización:

    1. Uso de la teoría de la correlación:

    a) criterio para la relación señal/ruido máxima;

    b) criterio para el error cuadrático medio mínimo.

    2. Utilizar la teoría de la información para maximizar el rendimiento del sistema. La dirección principal es crear los mejores métodos de codificación.

    Aplicación de la teoría de la decisión estadística.

    El problema de optimización sólo puede resolverse si existe un criterio establecido por el desarrollador del sistema.

    Para utilizar la teoría de soluciones estadísticas en la síntesis de dispositivos receptores óptimos, es necesario disponer de modelos matemáticos de señales y ruido. Estos modelos deben incluir una descripción de la forma de onda (si se conoce). Características estadísticas y naturaleza de la interacción entre señal y ruido hasta densidades de probabilidad n-dimensionales.

    La teoría de las decisiones estadísticas tiene los siguientes componentes:

    1) teoría de la prueba de hipótesis estadísticas:

    a) tareas de dos alternativas de detección o reconocimiento de señales;

    b) tareas de múltiples alternativas al distinguir muchas señales en un contexto de ruido;

    2) la teoría de la estimación de parámetros, si estos parámetros forman un conjunto contable;

    3) la teoría de evaluar el proceso que debe aislarse de la mezcla de entrada con un error mínimo.

    La formulación del problema de sintetizar un dispositivo receptor óptimo y su solución dependen significativamente de la cantidad de información a priori (preexperimental) sobre las características de las señales y las interferencias. A partir del volumen de datos a priori se distinguen problemas con total certeza a priori (señal y ruido deterministas con características probabilísticas plenamente conocidas), con certeza parcial a priori (existen parámetros conocidos de la señal y el ruido) y con incertidumbre a priori. (sólo se conoce cierta información sobre las clases de señales y ruido). Cabe señalar que la eficacia de los detectores y medidores de parámetros desarrollados depende en gran medida de la cantidad de información a priori.

    Cabe señalar que si no se sabe nada sobre las señales y el ruido (hay una ausencia total de información sobre ellos), ese problema no se puede resolver.

    2. Modelos de señales e interferencias.

    Una señal es un proceso utilizado para transmitir información o un mensaje. Otros procesos percibidos por el dispositivo receptor junto con la señal son las interferencias.

    Las señales se clasifican según la cantidad de información a priori:

    a) señales deterministas (no aleatorias);

    b) señales determinadas en forma con parámetros aleatorios (cuasialeatorios);

    c) señales pseudoaleatorias, similares a ruidos (tienen propiedades cercanas a los procesos aleatorios, pero se generan de manera determinista y se repiten completamente cuando se reproducen);

    d) señales aleatorias.

    Dependiendo de la naturaleza del cambio en el tiempo, las señales se dividen en discretas y continuas. Las señales discretas se utilizan en dispositivos digitales y radares. Continuo (continuo) - en telefonía, radiodifusión, televisión, etc. Recientemente, se han utilizado señales discretas en la radiodifusión y la televisión digital.

    Cada señal se puede caracterizar por su grado de complejidad dependiendo de una cantidad llamada base de la señal: B = F∙T, donde F es el ancho efectivo del espectro de la señal; T – duración efectiva de la señal. Si B » 1, entonces la señal se llama señal simple; si B >> 1, se llama señal compleja. Las señales complejas se obtienen a partir de una colección de señales simples o mediante modulación. Las señales complejas pueden incluir ruido y señales similares a ruido. Para tales señales, donde T es la duración efectiva de la señal (cuando la señal es equivalente en energía a una señal con forma rectangular); – intervalo de correlación del proceso.

    En varios sistemas, por regla general, emiten señales de radio que difieren en el tipo de modulación: señales moduladas en amplitud, moduladas en frecuencia, moduladas en fase, con tipos de modulación por impulsos; señales manipuladas (amplitud, frecuencia, fase y combinadas).

    En el radar, lo más frecuente es que se emita una secuencia de pulsos de radio.

    La estructura simplificada del radar se muestra en la Fig. 1, donde se utilizan las siguientes designaciones: RPU – dispositivo de transmisión de radio; RPRU – dispositivo receptor de radio; AP – interruptor de antena; s0(t) – señal de sondeo; s(t) – señal reflejada; A – antena; O – objeto detectado; V – velocidad de escaneo de la antena. El espacio es irradiado por una señal de sondeo periódica.

    El pulso se refleja en el objeto detectado y regresa con retraso a la antena del radar. El retraso está determinado por la distancia entre el radar y el objeto. La intensidad de la señal reflejada depende de la superficie de dispersión efectiva (ESR) del objeto y de las condiciones de propagación de la señal de radio. En el radar, se utiliza el mismo sistema de antena para transmitir y recibir señales. La intensidad de la irradiación de un objeto depende de la forma del patrón de radiación de la antena y del ángulo entre la dirección hacia el objeto y la dirección de máxima directividad. Al escanear el sistema de antena (rotación mecánica o electrónica del patrón de radiación), la envolvente del tren de impulsos de la señal reflejada repite la forma del patrón de radiación (Fig. 1). En el modo de seguimiento de objetos, la envolvente de un tren de impulsos puede tener forma rectangular.


    Durante el escaneo, el tiempo de exposición es limitado y la señal recibida es una ráfaga de pulsos de radio de tiempo limitado. La modulación de amplitud de los impulsos en una ráfaga está determinada no sólo por la forma del patrón de radiación, sino también por la velocidad de exploración V, y de ello depende el número de impulsos en una ráfaga. Normalmente, la envolvente de ráfaga es una función determinista, ya que se conocen la forma del patrón de radiación y la velocidad de visión.

    El retraso de la señal reflejada depende de la distancia r al objeto – , donde c es la velocidad de propagación de la onda de radio en el espacio. Durante la propagación, la señal se atenúa con respecto a la emitida entre 106 y 1010 veces el voltaje. Además, un cambio en el ángulo entre la dirección del máximo del patrón de radiación de la antena y el objeto y la rotación del objeto durante la irradiación conduce a cambios aleatorios en la amplitud de los pulsos de la señal recibida. Debido a la velocidad radial del objeto Vr, la frecuencia de la señal reflejada también cambia (efecto Doppler), mientras que la frecuencia de la oscilación de la portadora aumenta. Los parámetros de la señal en el canal de comunicación y en las rutas de entrada del sistema receptor cambian.

    Cuando una señal se refleja desde un objeto, la polarización de la onda incidente cambia. Estos cambios dependen de la forma del objeto y se pueden utilizar en el reconocimiento de objetos.

    Es difícil construir un modelo de señales que tenga en cuenta todas estas influencias y cambios, por lo que sólo se tiene en cuenta una parte de los cambios considerados.

    Modelos de señales básicos

    a) Señal determinista:

    Todos los parámetros de la señal: amplitud A, la ley de su cambio en el tiempo S0(t), la frecuencia w0 y la ley de cambio de la fase inicial en el tiempo son conocidos, es decir la envolvente S(t) y la fase son funciones deterministas del tiempo.

    b) Señal única con amplitud y fase aleatorias.

    donde A, j, t son parámetros aleatorios.

    Los parámetros aleatorios se especifican mediante densidades de probabilidad. La mayoría de las veces se supone que la distribución de amplitudes A es Rayleigh

    ,


    donde s2 es la dispersión de las fluctuaciones de amplitud.

    La fase inicial j y el retraso t se distribuyen uniformemente, es decir

    donde T es el período de sondeo determinado por el alcance máximo inequívoco del radar.

    Las funciones s0(t) y son deterministas.

    Para objetos de ubicación en movimiento, se agrega un desplazamiento Doppler a la frecuencia portadora w0 , donde es una variable aleatoria, cuyo signo depende de la dirección del movimiento del objeto en dirección radial con respecto al radar.

    c) Ráfaga no fluctuante de pulsos de radio

    Dónde ; función H2(t): función determinada por la forma del patrón de radiación (Fig. 2b); Т0 – período de repetición del pulso en una ráfaga; K = constante.

    d) Explosión fluctuante de pulsos:

    – ráfaga que fluctúa uniformemente – las amplitudes de los pulsos de radio en una ráfaga no cambian, pero cambian independientemente de una ráfaga a otra, lo que corresponde a un cambio lento en el EPR de un objeto reflectante a lo largo del tiempo o un cambio en los parámetros de propagación de la onda electromagnética canal, etc (Figura 2);

    – ráfaga de fluctuación rápida: las amplitudes de los pulsos de radio cambian independientemente en una ráfaga de un pulso a otro (Fig. 3).

    Dependiendo de la naturaleza del cambio en la fase inicial de las oscilaciones de un pulso a otro en una ráfaga, se distinguen ráfagas coherentes e incoherentes de pulsos de radio. Se puede formar una ráfaga coherente cortando pulsos de una oscilación armónica estable y continua. Las fases iniciales en este caso son las mismas en todos los pulsos de radio de la ráfaga o cambian según una ley conocida. Una ráfaga incoherente consta de pulsos de radio con una fase inicial que varía independientemente.

    La interferencia se divide en natural (no organizada) y artificial (organizada), interna y externa.

    Según el método de formación, la interferencia puede ser pasiva o activa. La interferencia pasiva natural se crea por reflejos de objetos locales (en el radar) y de la superficie terrestre, la vegetación, etc.; Reflexiones de estelas de meteoritos e irregularidades atmosféricas (en comunicaciones por radio VHF).

    La interferencia activa tiene una fuente independiente, mientras que la interferencia pasiva es causada por la radiación de la señal de sondeo. Según la naturaleza del cambio en el tiempo, la interferencia puede ser fluctuante (suave) y pulsada.

    Las interferencias pueden ser procesos aleatorios, ruidosos o deterministas. De todas las interferencias, el ruido blanco (banda ancha) con distribución normal tiene el mayor impacto en el radar suprimido, ya que tiene la mayor capacidad de información.

    Muy a menudo, se utilizan modelos de ruido para describirlos mediante características estadísticas. La característica más completa es la densidad de probabilidad n-dimensional. Sin embargo, en algunos casos especiales pero muy importantes, la interferencia se puede caracterizar mediante densidades de probabilidad unidimensionales o bidimensionales.

    Las señales y el ruido se pueden representar como ciertos conjuntos en un sistema de coordenadas tiempo-frecuencia (Fig. 4).

    Cada señal o ruido ocupa ciertos segmentos a lo largo de los ejes w y t, dependiendo de la banda de frecuencia Dw y la duración t. Cuanto mayores sean Dw y t, más eficaz será la interferencia en términos de supresión de señal. La mejor interferencia es el ruido blanco, que llena todo el plano w, t y tiene las mayores propiedades de desinformación. Si el ruido es de banda estrecha, entonces ocupa un área limitada porque tiene una densidad espectral de potencia desigual. Puede deshacerse de dicha interferencia ajustando la frecuencia portadora w0 de la señal.

    Para señales espacio-temporales e interferencias, se utilizan coordenadas adicionales: elevación y azimut. Y luego las fuentes de interferencia pueden ser puntuales a lo largo de coordenadas angulares o estar distribuidas en sectores específicos.


    La representación geométrica de señales e interferencias implica la introducción de un espacio muestral multidimensional y se utiliza ampliamente en teoría de señales. Sea una realización x(t) del proceso aleatorio X(t). De acuerdo con el teorema de Kotelnikov, esta implementación se puede representar en forma de muestras discretas xi = x(iDt). El número de estas muestras (unidades de medida) es N, juntas forman una muestra X de tamaño N -, i es el número de medidas en la muestra X. Si imaginamos un espacio n-dimensional en el que en cada eje de coordenadas trazamos las medidas corresponden por número, entonces toda la muestra corresponderá a un punto de este espacio o a un vector cuyo extremo se encuentra en este punto. La longitud de un vector en un espacio dado se puede representar de la siguiente manera:

    .

    Esta cantidad se llama norma de un vector en el espacio euclidiano. En el espacio de Hamming la norma se expresa de otra manera:

    Si y , entonces en el límite vamos a un espacio infinito en el que la norma se define de la siguiente manera

    .

    Para procesos reales y tiene la dimensión de x.

    Todos estos espacios son lineales, y para ellos están definidas las operaciones de sumar elementos de un conjunto y multiplicar un elemento por un número. Además, ambas operaciones satisfacen las condiciones de conmutatividad, asociatividad y distributividad.

    Entre los espacios lineales podemos distinguir espacios métricos para los que existe una métrica, es decir la norma de la diferencia vectorial, que es mayor o igual a cero. La métrica (distancia) tiene las siguientes propiedades:

    A) ; b) ; V),

    donde x, y, z son elementos del espacio.

    Para un espacio euclidiano de dimensión finita –

    ,

    para espacio continuo de manera similar

    .

    El concepto de producto escalar es importante. Caracteriza la proyección de un vector sobre otro y se define de la siguiente manera:

    ,

    aquellos. la suma de productos de proyecciones de vectores del mismo nombre en los ejes de coordenadas. En espacio continuo: , y el producto escalar no siempre es más que el producto de las normas de los vectores (desigualdad de Schwarz).

    El ángulo entre los vectores se define de la siguiente manera.

    .

    Si definimos una norma a través de un producto interno, entonces decimos que la norma es generada por el producto interno, y el espacio correspondiente a dicho producto se llama Hilbert.

    Introduzcamos el concepto de vector aleatorio. Un vector aleatorio es un vector cuyas coordenadas son variables aleatorias. este vector no ocupa ninguna posición fija en el espacio muestral. Su final puede terminar en una u otra región del espacio con una probabilidad conocida, que puede calcularse conociendo la distribución conjunta de variables aleatorias. El final de un vector puede imaginarse no como un punto específico, sino como una nube, cuya densidad variable expresa la probabilidad de encontrar el final del vector en un elemento dado del volumen del espacio. Geométricamente, esta nube se muestra como una hiperesfera en un espacio de n dimensiones (Fig. 5).

    Volumen elemental en el espacio muestral. . La probabilidad de que el final del vector caiga en este volumen será igual a

    donde es la densidad de probabilidad del proceso aleatorio X(t).

    Si una hiperesfera tiene dimensiones W, entonces un punto que caiga en esta hiperesfera corresponde a la probabilidad

    Dónde – proyecciones de la hiperesfera W sobre los ejes de coordenadas del sistema.

    Esta expresión se puede escribir en forma vectorial.

    .

    Si se distribuyen según la ley normal con la misma varianza de cada uno de sus componentes independientes, entonces la probabilidad de entrar en el volumen elemental del espacio muestral es igual a

    ,

    ¿Dónde está la distancia desde el origen del sistema de coordenadas al elemento?

    En este caso, la nube tiene forma esférica. Con diferentes dispersiones, la nube se alarga a lo largo de aquellos ejes que corresponden a mediciones únicas con mayor dispersión.

    Si se dan dos procesos aleatorios x y h, entonces el coseno del ángulo entre sus vectores corresponde al coeficiente de correlación cruzada normalizado. Geométricamente caracteriza la proyección de vectores unitarios entre sí. Si x = h, entonces es una relación lineal, pero si son perpendiculares, entonces muestra una total falta de correlación. En este caso, los vectores son ortogonales y los procesos no están correlacionados.

    Para los procesos normales, la falta de correlación también significa independencia, ya que para ellos no existe otra dependencia aleatoria que la lineal. Esta afirmación se prueba sustituyendo el coeficiente de correlación igual a cero en la densidad de probabilidad normal bidimensional. Como resultado de dicha sustitución, la densidad de probabilidad se transforma en el producto de densidades de probabilidad unidimensionales, que es una condición necesaria y suficiente para la independencia estadística de dos variables aleatorias incluidas en el sistema.

    3. Características probabilísticas de los procesos aleatorios.

    1. Las características probabilísticas más completas de los procesos aleatorios (SP) son varios tipos de distribuciones de probabilidad de valores instantáneos, entre las cuales la función de distribución de probabilidad integral y la densidad de probabilidad son las principales utilizadas.

    Para un conjunto de realizaciones SP (Fig. 6), la función de distribución acumulativa unidimensional se define como la probabilidad de que los valores instantáneos de las realizaciones no excedan algún nivel fijo x en el tiempo t.

    La función de distribución acumulativa n-dimensional se define de manera similar como la probabilidad de cumplimiento conjunto de desigualdades:

    En la figura 1 se muestran los tipos de funciones de distribución integral unidimensionales para diversos procesos. 8.

    A diferencia de las funciones de distribución integral de variables aleatorias, esta característica del SP en el caso general (para SP no estacionario) depende del tiempo.

    Igual que para las variables aleatorias (definición positiva), para x2 > x1 (la función integral no es decreciente), (limitación).


    Aunque la función de distribución de probabilidad integral se ha definido tanto para procesos continuos como discretos, la función de densidad de probabilidad, definida sólo para procesos continuos, se ha generalizado más.

    La densidad de probabilidad unidimensional se define como la derivada de la función integral con respecto al argumento x:

    .

    Para densidad n-dimensional, de acuerdo con (1) tenemos:

    De la representación de la derivada como límite de la relación de incrementos finitos podemos concluir que la densidad de probabilidad caracteriza la frecuencia relativa de aparición de valores instantáneos en el intervalo elemental Dx.

    En la figura. La Figura 7 muestra gráficos de densidad de probabilidad para implementaciones de varias formas.

    Una consideración similar de la densidad de probabilidad n-dimensional nos permite interpretarla como la probabilidad de que el valor de la función esté dentro de n corredores Dx o, en caso contrario, que la implementación tome una forma determinada (Fig. 8).

    Propiedades de la densidad de probabilidad:

    – certeza positiva – ;

    – propiedad de simetría – los valores de densidad de probabilidad no cambian cuando se reorganizan los argumentos;

    – propiedad de normalización;

    – propiedad de consistencia (el número de integrales en el lado derecho es n – m)


    – la densidad de probabilidad de un orden inferior se calcula integrando los argumentos “extra”;

    – la dimensión de la densidad de probabilidad es la inversa de la dimensión de la variable aleatoria.

    Las siguientes distribuciones son las más utilizadas en ingeniería de radio.

    1. Distribución normal (gaussiana) (Fig.9):

    ,

    donde m es la expectativa matemática; s – desviación estándar (RMS).

    La distribución normal se caracteriza por la simetría con respecto a la expectativa matemática y los valores grandes de la variable aleatoria se encuentran con mucha menos frecuencia que los pequeños:

    .

    2. Distribución uniforme (Fig.10):

    Distribución exponencial (Fig.11):

    4. Distribución de Rayleigh (distribución de la envolvente de un SP normal de banda estrecha):

    2. Las distribuciones de probabilidad, aunque son las características más utilizadas en teoría, no siempre están disponibles para la determinación experimental y en muchos casos resultan demasiado engorrosas en los estudios teóricos. Más simples son las características numéricas del SP, definidas como algunos funcionales de la densidad de probabilidad. Las más utilizadas son las funciones de momento, definidas como el valor medio de varias transformaciones de ley potencial del SP.

    Los momentos unidimensionales iniciales se definen como

    . (3)

    De particular importancia es el primer momento inicial: la expectativa matemática. y el segundo momento inicial

    .

    recepción de señal de interferencia aleatoria

    El significado físico de estas características: el valor promedio y la potencia promedio del SP, liberados a una resistencia de 1 ohmio, respectivamente (si el SP tiene un voltaje estacionario en el componente y la potencia constantes). El segundo momento inicial caracteriza el grado de dispersión de la variable aleatoria con respecto al origen. La dimensión de la expectativa matemática coincide con la dimensión de la cantidad x (para x en forma de voltaje – voltios), y la dimensión m2 – con la dimensión del cuadrado de la cantidad x.

    En el caso de los SP estacionarios, los momentos no dependen del tiempo; para los no estacionarios pueden ser funciones del tiempo (dependiendo del tipo de no estacionariedad), como se ilustra en la Fig. 13.

    Los momentos centrales se determinan de manera similar a los momentos iniciales, pero para un proceso centrado. :

    . (4)

    Por eso siempre.

    El segundo momento central -la dispersión del SP- se define como

    y caracteriza el grado de dispersión de valores con respecto a la expectativa matemática o, en otras palabras, la potencia promedio del componente variable del proceso liberado con una resistencia de 1 ohmio. La conexión entre los momentos inicial y central es obvia:


    , En particular .

    Tenga en cuenta que el tercer momento central (p = 3 en (4)) caracteriza la asimetría de la distribución de probabilidad (para densidades de probabilidad simétricas), y el cuarto (p = 4) – el grado de nitidez del pico de la densidad de probabilidad.

    Consideremos un ejemplo de cálculo de momentos de distribución unidimensionales.

    EJEMPLO 1. Un proceso con una densidad de probabilidad simétrica triangular es visible en la pantalla del osciloscopio en forma de una pista de ruido con una oscilación de -2 a +4 V. Cuando se apaga el escaneo, el brillo de la línea vertical en el El centro de la pantalla es uniforme. Estimar la expectativa matemática y la varianza del proceso.

    La solución al ejemplo 1. La información sobre la forma de la distribución y sus límites nos permite escribir una expresión analítica para la densidad de probabilidad (Fig. 14).

    En este caso, el valor máximo de la densidad de probabilidad fm, alcanzado en x=1 V, se determina a partir de la condición de normalización, es decir el área de un triángulo es igual a uno:

    ,


    Esta distribución triangular simétrica también se llama ley de Simpson.

    De acuerdo con las definiciones, la expectativa matemática y la varianza son iguales.

    .

    Sin embargo, es más conveniente calcular primero el segundo momento inicial.


    entonces = 6B2.

    Los momentos iniciales mixtos están determinados por la relación.

    Los momentos centrales mixtos se definen de manera similar, pero con x en la fórmula (5) reemplazada por el valor centrado.

    Debido al hecho de que los valores de x en momentos mixtos se determinan en diferentes momentos, es posible evaluar la interdependencia estadística de los valores de procesos separados por intervalos específicos. El más importante es el más simple de los momentos mixtos, que muestra una interdependencia estadística lineal y se denomina función de correlación y covarianza:

    Como puede verse en la definición, la dimensión de la función de correlación está determinada por la dimensión del cuadrado de x (para tensión – B2).

    Para un SP estacionario, la función de correlación depende únicamente de la diferencia:

    .

    Cabe señalar que en t = 0 el valor máximo de K(0) = s2.

    En la figura. La Figura 15 muestra ejemplos de implementaciones de procesos con diferentes funciones de correlación.

    Además de los funcionales basados ​​​​en funciones de potencia (momentos), son posibles otros tipos de funcionales como características estadísticas del SP. La más importante de ellas es la funcional basada en la transformación exponencial y llamada función característica.

    . (7)

    Es fácil ver que esta expresión representa la transformada de Fourier de la densidad de probabilidad, que se diferencia de la habitual sólo en el signo del exponente.

    Por tanto, también podemos escribir la transformación inversa, que nos permite reconstruir la densidad de probabilidad a partir de la función característica:

    .

    En consecuencia, para el caso n-dimensional tenemos

    Las principales propiedades de la función característica son las siguientes:

    – propiedad de normalización ;

    – propiedad de simetría ;

    – propiedad de consistencia

    – determinación de la función característica de la suma de variables aleatorias independientes

    Como puede verse en el análisis de las propiedades enumeradas, varias transformaciones de la función característica son más simples que la densidad de probabilidad. También existe una conexión simple entre la función característica y los momentos de la densidad de probabilidad.

    Usando la definición de la función característica (7), la diferenciamos k veces con respecto al argumento u:

    .

    Se puede observar que la operación de diferenciación es mucho más sencilla que la operación de integración a la hora de determinar los momentos de la densidad de probabilidad.

    EJEMPLO 2. ¿Puede existir un proceso con función característica de forma rectangular?

    Solución del ejemplo 2. En la Fig. La Figura 16 muestra la función característica de una forma rectangular (a) y la correspondiente densidad de probabilidad (b).


    Dado que la función característica es la transformada de Fourier de la densidad de probabilidad, su transformada de Fourier inversa debe tener todas las propiedades de la densidad de probabilidad. En este caso

    El gráfico de densidad de probabilidad se muestra en la Fig. 16b.

    Como puede verse en la expresión para f(x) y la figura, la densidad de probabilidad resultante no satisface la condición de precisión positiva (), por lo tanto, no puede existir un proceso con una función característica dada.

    4. Características energéticas de los procesos aleatorios.

    Las características energéticas del SP incluyen la función de correlación, la densidad espectral de potencia y los parámetros del SP directamente relacionados con ellos.

    En la Sección 2, la definición de funciones de correlación se dio como momentos centrales mixtos de segundo orden de las funciones de autocorrelación y correlación cruzada, respectivamente, es decir

    .

    Propiedades básicas de la función de autocorrelación:

    – propiedad de simetría , para procesos estacionarios – paridad ;

    – propiedad de acotación, para procesos estacionarios ;

    – propiedad de disminución ilimitada con argumento creciente (para procesos ergódicos);

    – propiedad de la certeza positiva de la integral

    ;

    – la dimensión corresponde a la dimensión al cuadrado del proceso aleatorio.

    Esta propiedad se deriva de la definición de densidad espectral de potencia (para voltajes aleatorios y corriente a través de una resistencia de 1 ohmio), que se detalla a continuación.

    Para la función de correlación cruzada, podemos escribir de manera similar:

    ; ;

    ; .

    Debido a las limitaciones de la función de correlación de frecuencia, se utilizan funciones de correlación normalizadas.


    ; ,

    y ; .

    Para una descripción más compacta de las propiedades de un proceso aleatorio, se introduce el concepto de intervalo de correlación, que define el intervalo de tiempo durante el cual existe una conexión entre los valores del proceso.

    Definiciones básicas de intervalo de correlación:

    – integral (para funciones de correlación definidas positivas) . Geométricamente, caracteriza el ancho de la base de un rectángulo, igual en área a la función k(t) para t > 0 (Fig. 17a);

    – intervalo de correlación absoluta (a diferencia del anterior, se puede utilizar para funciones alternas) (Fig. 17b);

    – intervalo de correlación cuadrática ;

    – intervalo de correlación máximo (en el nivel a) (Fig. 18)

    .


    Normalmente, el nivel a se selecciona en función del problema considerado y tiene valores de 1/e; 0,1; 9,05; 0,01, etc.

    La última definición no es más arbitraria que las anteriores, ya que la elección de un tipo específico de funcional de extensión es arbitraria y está determinada por la conveniencia de una solución matemática a un problema específico. En la práctica, este intervalo de correlación se utiliza en mediciones de radio para determinar el intervalo fuera del cual las variables aleatorias en secciones transversales de un proceso aleatorio pueden considerarse no correlacionadas. La confiabilidad de esta suposición está determinada por la elección del nivel a.

    Las características espectrales del SP son de gran importancia en la ingeniería de radio estadística. En este caso, se utilizan varias transformaciones integrales del proceso de la forma.

    .

    Al estudiar sistemas lineales con parámetros constantes, el núcleo de transformación de la forma es de particular importancia, ya que la respuesta de los sistemas lineales a una influencia armónica también es armónica.

    La transformada de Fourier de la k-ésima implementación del SP también proporciona una función de frecuencia aleatoria que depende del número de implementaciones:

    .

    En condiciones de observación reales, es posible obtener sólo el espectro de realización actual para el intervalo de observación T

    .

    Las expresiones dadas son en gran medida formales, ya que para muchos SP las condiciones para la aplicabilidad de la transformada de Fourier no se cumplen y la integral no converge a ningún límite específico.

    Determinemos el módulo cuadrado de la densidad espectral de la k-ésima realización.

    Suponiendo que el proceso es estacionario y centrado, reemplazando y realizando promedios estadísticos sobre un conjunto de implementaciones, determinamos:

    .

    Dividiendo ambos lados de la igualdad resultante por T y tomando el límite, obtenemos

    .

    Expliquemos el significado físico de esta característica. Teniendo en cuenta el teorema de Rayleigh

    ,

    definamos ; ;

    ;

    ; .

    Por tanto, la densidad espectral de potencia o espectro de energía es la función de distribución de frecuencia de la potencia promediada en todas las implementaciones.

    En consecuencia, la densidad espectral de potencia y la función de correlación están relacionadas mediante la transformada de Fourier (teorema de Wiener-Khinchin):

    (9)

    Suponiendo t = 0, obtenemos

    .

    Teniendo en cuenta la propiedad de paridad de la función de correlación, escribimos

    ,

    .

    En las fórmulas resultantes, se determinó G(w) para valores positivos de la frecuencia circular w, y G(w) = G(–w). En contraste con este espectro matemático "bilateral", introduzcamos un espectro físico unilateral:

    Entonces las fórmulas del teorema de Wiener-Khinchin tomarán la forma:

    (10)

    A menudo se utiliza la densidad espectral de potencia normalizada.

    .

    De la definición de G(w) se derivan los métodos para su determinación experimental (Fig. 19). A saber: la desviación estándar del proceso en una banda estrecha se mide con un dispositivo cuadrático (usando un filtro de paso de banda con una respuesta de frecuencia rectangular), se eleva al cuadrado y luego se divide por esta banda Dfe (la banda es tal que S(f0) » const dentro de Dfe) (Fig. .20).

    Arroz. 19 figura. 20

    Para un solo circuito oscilante , donde Q es el factor de calidad del circuito, por lo tanto


    .

    La densidad espectral de potencia no refleja la estructura de fase de la señal. Dos dependencias completamente diferentes pueden tener la misma densidad espectral de potencia.

    Dado que G(w) y K(t) están relacionados por la transformada de Fourier, los teoremas básicos sobre los espectros son válidos para ellos.

    La anchura del espectro se determina del mismo modo que el intervalo de correlación.

    Ancho de espectro efectivo (o nombre desafortunado: energía)

    .

    También se determina la anchura del espectro en el nivel a: .

    Consideremos la relación entre el intervalo de correlación y el ancho del espectro.

    Porque , A , Eso

    . (11)

    Por tanto, el producto es de orden uno.

    Hay procesos de banda ancha y de banda estrecha (Fig. 22a yb).


    Para procesos de banda estrecha. Dado que para procesos aleatorios de banda estrecha el valor de la densidad espectral de potencia a frecuencia cero es siempre igual a cero (o muy cercano a él), la función de correlación siempre alterna signos y su área es igual a cero (de Wiener- Teorema de Khinchin).

    Uno de los procesos de banda ancha más utilizados en teoría es el ruido blanco de espectro uniforme. . Su función de correlación es igual a

    .

    El caso opuesto es un proceso de banda estrecha: un SP cuasi determinista con un espectro discreto.

    donde x1, x2 son variables aleatorias independientes de t, .

    La función X(t) es una oscilación armónica con amplitud aleatoria. y fase, cuya distribución no depende del tiempo. Este proceso será estacionario sólo si y en . Entonces depende sólo de t, y x1 y x2 no están correlacionados.

    En este caso ;

    . (Figura 23)

    Para SP estacionarios X(t) e Y(t), también se introduce la densidad de potencia espectral mutua.

    ;

    ; ;

    ; .

    La densidad espectral de potencia mutua de dos procesos es compleja, si la función de correlación mutua es impar, la parte real de dicha densidad espectral es par y la parte imaginaria es una función impar: .

    Para la suma de procesos estacionarios y relacionados estacionarios existe una relación

    .

    5. Procesos aleatorios de banda estrecha

    La importancia de estos procesos para la ingeniería radioeléctrica estadística requiere una consideración más detallada.

    Para un análisis más detallado, determinaremos la envolvente y la fase de un proceso aleatorio de banda estrecha (NBRP). La envolvente suele estar determinada por la fórmula.

    , (12)

    ¿Dónde está el proceso conjugado de Hilbert? Aplicando la transformada de Hilbert a la expresión original de la USP, obtenemos. La exactitud de la expresión a veces puede ser cuestionable, ya que la igualdad (12) es innegable sólo para vibraciones armónicas. Determinemos cuánto afectan los parámetros de la USP a la precisión de esta fórmula.

    Usando las relaciones conocidas para la amplitud compleja de la señal analítica, obtenemos


    Y . (13)

    Aplicando la transformada de Hilbert a la expresión original de la USP y usando los componentes (13) de la envolvente compleja, podemos escribir

    Expandamos las funciones y en los integrandos en una serie de Taylor en las proximidades del punto x=t e integrémoslas término por término. obtenemos

    donde Q(t) es el término residual que caracteriza la parte descartada de la suma. Sustituyendo y en la expresión (14), obtenemos

    De la fórmula (15) queda claro que si la función Q(t) puede despreciarse, entonces la USP conjugada de Hilbert tiene la misma envolvente que la USP original.

    De tablas de integrales definidas sabemos:


    Teniendo en cuenta estas expresiones, la fórmula de Q(t) se puede escribir:

    Suponemos que la banda envolvente es igual a , por lo tanto las segundas derivadas en sus valores no superan . Por lo tanto, podemos suponer que

    .

    Por eso:

    .

    De esto se desprende claramente que para USP las funciones u(t) y u1(t) tienen la misma envolvente con un error que depende de la relación entre el ancho del espectro y su frecuencia promedio. Para procesos aleatorios de banda estrecha, la expresión es requerida, por lo tanto, la envolvente satisface los requisitos que se le imponen de acuerdo con la definición de USP, es decir es tangente en los puntos correspondientes a los valores máximos de la USP (o cercanos a ellos), y tiene valores comunes con ella en los puntos de tangencia. El grado de "cercanía" del punto tangente al valor máximo depende de la misma relación.

    La fase está determinada únicamente por relaciones conocidas para representar un número complejo en forma exponencial.

    Gráficamente, el USP se puede representar como un vector que gira con una velocidad angular; la longitud del vector cambia lentamente en el tiempo de la misma manera que el ángulo de fase. La USP original es una proyección del vector sobre el eje horizontal. Si se hace que todo el sistema de coordenadas gire con la misma velocidad angular, pero en la dirección opuesta, entonces la misma proyección será una envolvente.

    Si la PVU inicial es normal, entonces los procesos aleatorios también lo son. Si la USP u(t) es normal, estacionaria, tiene un valor medio cero y una función de correlación , entonces y también tienen valores promedio cero y una función de correlación. Al mismo tiempo, no están correlacionados entre sí y, dado que son normales, también son mutuamente independientes. El factor es la envolvente de la función de correlación.

    Envoltura y fase de un proceso aleatorio de banda estrecha. Las densidades de probabilidad de la envolvente y la fase USP se pueden obtener realizando las transformaciones que se utilizaron para obtenerlas. Estas transformaciones muestran que la envolvente y la fase son independientes. SV tanto en momentos coincidentes como no coincidentes en el tiempo. La densidad de probabilidad unidimensional de la envolvente (en un momento determinado) obedece la ley de Rayleigh, y la densidad de probabilidad de la fase es uniforme en el rango de a .

    Las transformaciones complejas muestran que la función de correlación centrada de la envolvente es aproximadamente igual al cuadrado de la envolvente de la función de correlación de la USP original. La densidad espectral de potencia de la envolvente tiene dos términos: la función delta correspondiente a la componente constante de la envolvente y la densidad espectral de la componente de fluctuación, que es la transformada de Fourier del cuadrado de la función de correlación de la envolvente de la USP original.

    Si el SP es la suma de un proceso normal de banda estrecha y una sinusoide con una fase inicial aleatoria, entonces los valores instantáneos de la sinusoide se distribuyen según la ley del arcoseno, la suma se distribuye según la ley bimodal, correspondiente a la convolución de la ley normal y la ley del arcoseno. Después de aplicar las mismas transformaciones que para el SP normal de banda estrecha, obtenemos la distribución de Rice para la envolvente

    ,

    donde , A0 – amplitud de la señal sinusoidal; – desviación estándar del ruido.

    Cuando la distribución de Rice se convierte en la distribución de Rayleigh.

    Para proporciones grandes, es decir cuando A0 >> 1 (relación señal-ruido), la distribución de Rice puede aproximarse mediante una distribución normal con una expectativa matemática igual a A0.

    6. Características temporales de los procesos aleatorios.

    En muchos casos, especialmente en estudios experimentales, en lugar de un conjunto sólo hay una implementación. Luego, se realiza un promedio a lo largo del tiempo y, bajo ciertas condiciones, se obtienen resultados cercanos al promedio de una serie.

    La versión más simple de promediar es determinar la media aritmética. Seleccionemos muestras discretas en el segmento de implementación de SP con una duración de Tn con un intervalo entre ellas Dt,

    Definimos la media aritmética de forma bien conocida:

    Multipliquemos el numerador y denominador de esta expresión por Dt:

    .

    Para Dt ® 0 y n ® ¥, la suma se convertirá en una integral que describe el promedio temporal de la implementación (indicado por una barra superior o en este manual: ) o una función de la misma:

    . (16)

    En general, podemos escribir la operación (16) usando el operador de promedio de tiempo ST:

    .

    Para que el resultado no dependa de la duración del segmento T, tomamos el límite en T ® ¥:

    .

    En estudios experimentales, el cumplimiento de la condición T ® ¥ es imposible, pero el cumplimiento de la condición es suficiente.

    A menudo, el inicio de la implementación y el inicio del tiempo de integración no coinciden, por lo que es más correcto escribir el operador en forma del operador promedio actual:

    . (17)

    También se utiliza la forma simétrica de este operador:

    . (18)

    Las características de frecuencia de los operadores (4.17) y (4.18) son iguales, respectivamente:

    , ,

    aquellos. Sólo se diferencian en el factor de fase.

    En la práctica, a menudo se utiliza el operador de suavizado exponencial, implementado mediante un circuito RC integrador en la forma

    y teniendo la característica

    .

    Al realizar un promedio temporal de alguna función g subyacente a cualquier característica probabilística, obtenemos la característica temporal correspondiente. En particular, la varianza obtenida por el promedio de tiempo es igual a

    ;


    Función de correlación de tiempo –

    .

    Los análogos de las distribuciones de probabilidad son los valores del tiempo relativo de realización por debajo de un cierto nivel y en el intervalo de niveles (Fig. 25).

    Un análogo de la función de distribución de probabilidad integral es el tiempo relativo en que la implementación permanece por debajo de un cierto nivel (Fig. 25a):

    ; .

    Un análogo de la densidad de probabilidad es el tiempo relativo que la implementación permanece en el intervalo Dx en el nivel x (Fig. 25b):

    ;

    .


    Los procesos en los que las características temporales convergen en algún sentido con las probabilísticas como T ® ¥ se denominan ergódicos. Hay dos tipos de convergencia.

    Una secuencia de variables aleatorias converge en probabilidad a una variable aleatoria x si para cualquier e > 0

    .

    La convergencia con probabilidad 1 (o casi en todas partes) se define de la siguiente manera:

    .


    La convergencia promedio se determina a partir de la condición:

    ,

    en particular, la convergencia en el cuadrado medio –

    .

    La convergencia en casi todas partes implica convergencia en probabilidad, y la convergencia en el cuadrado medio también implica convergencia en probabilidad.

    A menudo no es la ergodicidad del proceso, sino la ergodicidad con respecto a la expectativa matemática, la función de correlación u otra característica probabilística.

    7. Características de los procesos aleatorios no estacionarios.

    Las empresas conjuntas no estacionarias, a diferencia de las estacionarias, constituyen una clase tan amplia que es difícil identificar propiedades que se relacionen con toda la clase. Una de estas propiedades que subyace a la definición de no estacionariedad es la dependencia del tiempo de las características probabilísticas de estos procesos.

    En particular,

    ,

    .

    En la figura 1 se muestra un ejemplo de un proceso que es significativamente no estacionario en términos de expectativa matemática. 26a, según dispersión - en la Fig. 26b.

    La no estacionariedad en términos de expectativa matemática está bien descrita por el modelo de un proceso aditivo no estacionario:

    X(t) = Y(t) + j(t),

    donde Y(t) – SP estacionario; j(t) es una función determinista.

    La no estacionariedad en dispersión se describe mediante el modelo de un proceso multiplicativo no estacionario: X(t) = Y(t)·j(t).

    Los ejemplos más simples de no estacionariedad en funciones de momento se describen de forma más general mediante la dependencia de las distribuciones de probabilidad con el tiempo.

    Más difícil es mostrar la no estacionariedad en el marco de características probabilísticas multidimensionales (e incluso bidimensionales). Los más utilizados son la correlación y las características espectrales. Dado que la función de correlación de un SP no estacionario depende de dos puntos en el tiempo, el espectro de un proceso no estacionario no se puede determinar de manera tan inequívoca como en el caso estacionario. Existen varias definiciones del espectro de procesos no estacionarios:

    a) espectro de doble frecuencia o biespectro:

    . (19)

    En el caso de un proceso estacionario, la relación (19) se convierte en el teorema de Wiener-Khinchin. Bispectrum (19) es difícil de interpretar físicamente y utilizar en el análisis de circuitos, aunque muestra toda la información sobre las propiedades de frecuencia del proceso;

    b) espectro tiempo-frecuencia instantáneo.

    Reemplacemos las variables de la siguiente manera: , t = t1 – t2 y realicemos la transformada de Fourier de la función de correlación con respecto al argumento t:

    . (20)

    El espectro instantáneo (20) depende tanto de la frecuencia como del tiempo y, con una lenta no estacionariedad, tiene una interpretación física clara como un cambio en la densidad espectral de potencia "habitual" a lo largo del tiempo (Fig. 27);

    c) densidad de potencia espectral promedio

    ,

    Dónde .

    Este espectro no refleja la dinámica del proceso, pero da una idea de la distribución de frecuencia promedio de la varianza del proceso;

    d) el espectro instrumental se define como el valor promedio de la dispersión del proceso a la salida de un filtro de banda estrecha con una respuesta impulsiva h(t):

    Este espectro permite la determinación instrumental, pero su uso en teoría requiere bastante mano de obra.

    Solución al ejemplo Consideremos un ejemplo de un SP no estacionario que tiene una densidad de probabilidad expresada por la función

    Dónde ; a0 = 1 1/V; k = 2 1/Vs.

    Es necesario encontrar la expectativa matemática del proceso y dibujar un posible tipo aproximado de implementación del proceso.

    Para resolver el problema, primero que nada, definimos la función no especificada A(t) a partir de la condición de normalización:

    Por tanto A(t) = a(t).

    Dado que el proceso no es estacionario, su expectativa matemática puede depender del tiempo y en este caso es igual a

    Dado el valor conocido de la integral definida

    en

    Dónde – función gamma, obtenemos

    .

    Un posible tipo de implementación del proceso que no contradice el tipo de distribución se muestra en la Fig. 28.


    En la figura. 28 la línea discontinua muestra el cambio en la expectativa matemática del proceso.

    8. Clasificación de procesos aleatorios.

    La clasificación en cualquier ciencia sirve para organizar los objetos de investigación y, por tanto, los métodos de análisis y síntesis utilizados. En muchos casos, una clasificación exitosa, lógicamente justificada y natural del proceso ayuda a revelar nuevos patrones (por ejemplo, el sistema periódico de Mendeleev, la clasificación de estrellas basada en el diagrama de Hertzsprung-Russell en astronomía, etc.).

    La clasificación se realiza según algunos criterios. Las características más importantes de las empresas conjuntas son la dependencia de sus características probabilísticas del tiempo y el número de implementaciones.

    Denotemos por q(l) una característica de probabilidad arbitraria;

    – operador de promediación sobre un conjunto;

    – operador promediador de tiempo.

    Si se utiliza simultáneamente el promedio del conjunto y del tiempo, entonces la estimación resultante de la característica probabilística (l) tiene la siguiente forma:

    ,

    donde l es el argumento de la característica probabilística (frecuencia en la densidad espectral de potencia; intervalo en la función de correlación).

    El valor real de la estimación de la característica probabilística se obtiene mediante el paso al límite con un aumento ilimitado en el número de realizaciones N y sus duraciones T, es decir

    .

    La característica obtenida promediando tanto el conjunto como el tiempo se denominará característica de probabilidad promedio. Si el promedio se realiza sólo sobre el conjunto, entonces t es la característica probabilística actual:

    sólo en el tiempo – característica probabilística k-actual:

    Dependiendo del tipo de características obtenidas, las empresas conjuntas se pueden clasificar de la siguiente manera:

    – (k, l) = (l) – proceso homogéneo, es decir la característica resultante no depende del número de implementación;

    – (t, l) = (l) – proceso estacionario, es decir la característica resultante no depende del inicio del cómputo del tiempo;

    – (t, l) = (k, l) = (l) – proceso aleatorio ergódico.

    Los procesos se pueden representar esquemáticamente en forma de conjuntos como se muestra en la Fig. 29.

    La clasificación ampliada dada, por supuesto, no es exhaustiva, por lo que se utiliza la clasificación según muchos otros criterios;

    Según el tipo de dominios de existencia y valores de la función aleatoria, los SP se dividen en continuos (dominios de existencia y valores continuos - Fig.30a), discretos (conjunto continuo de valores del argumento y discretos conjunto de valores - Fig. 30b), secuencias aleatorias continuas (dominio de existencia discreto y valores de dominio continuo - Fig. 30c) y secuencias aleatorias discretas (función discreta de un argumento discreto - Fig. 30d).

    Según el tipo de distribuciones de probabilidad, se distinguen procesos con rangos de valores finitos e infinitos, con densidad de probabilidad simétrica y asimétrica, gaussianos (normales) y no gaussianos.


    Con base en la correlación de valores, distinguen entre SP correlacionados y no correlacionados, según el tipo de espectro (SP de banda ancha y banda estrecha), y según la naturaleza de la conexión temporal: periódica, no periódica y casi periódica.

    Según el tipo de no estacionariedad, los procesos se dividen en aditivos, multiplicativos, estacionarios en un intervalo (cuasi estacionarios), con incrementos estacionarios, periódicamente no estacionarios, con no estacionariedad rápida y lenta, etc.

    La elección de las características de clasificación está determinada por la naturaleza del problema que se resuelve.

    Consideremos un ejemplo de la clasificación de empresas conjuntas.

    Solución al Ejemplo 4. Caracterizar el proceso X(t) en términos de estacionariedad, homogeneidad y ergodicidad, si el proceso está representado por el modelo:


    donde A es una amplitud aleatoria con distribución de Rayleigh; – variable aleatoria con distribución uniforme en el intervalo [–p, p]; 0 = constante.

    Las implementaciones seleccionadas del proceso X(t) se presentan en la Fig. 31.

    De la Fig. 31 y la representación analítica del proceso cuasi-determinista X(t) es obvio que sus características probabilísticas (por ejemplo, expectativa matemática, dispersión, densidad de probabilidad, etc.) no dependen del tiempo, es decir el proceso es estacionario. Al mismo tiempo, cada una de las implementaciones se caracteriza por su propia dispersión, por lo que el proceso es heterogéneo y no ergódico, es decir. sus características no pueden evaluarse a partir de una única implementación.

    EJEMPLO 5. Utilizando una función de distribución gráfica dada de una oscilación aleatoria estacionaria (Fig. 32), determine la densidad de probabilidad y represente un posible tipo de implementación de este proceso.


    Solución al ejemplo 5. La densidad de probabilidad está relacionada con la función de distribución a través de la derivada, por lo tanto, en el primer tramo u de -6 a -3 V, la derivada que caracteriza la tangente del ángulo de inclinación al eje u es igual a 0,4/3 = 0,13 1/V. En u = 1, V tiene un salto de 0,3, por lo que la densidad de probabilidad tiene una función d con un área igual a la magnitud del salto. En la zona de 3 a 7 V también tiene una pendiente constante igual a 0,3/6 = 0,05 1/V. La densidad de probabilidad resultante se presenta en la Fig. 3 Para comprobar los cálculos, es necesario encontrar el área limitada por la densidad de probabilidad (condición de normalización): .

    mu = = = –0,325 V.

    Segundo momento inicial – m2u = 48,9 V2.

    Variación – = 48,5 – 0,105625 » 48,4 V2.

    Una implementación con una duración T, a juzgar por la forma de la densidad de probabilidad en diferentes intervalos de tiempo, debe tener secciones horizontales en el nivel de +1 V, cuya duración total debe ser T/ En secciones de -6 a -3 V y de +1 a +7 V en la implementación hay líneas rectas inclinadas con una pendiente aleatoria, que corresponde a valores constantes de la densidad de probabilidad. En la primera sección, los valores de realización instantánea son 0,4T, y en la segunda, 0,3T.

    Un posible tipo de implementación se muestra en la Fig. 34.

    EJEMPLO 6. En la Fig. La Figura 35 muestra la implementación de un proceso aleatorio. Representa aproximadamente la densidad de probabilidad y la función de distribución. Calcule (también aproximadamente) la expectativa matemática, el valor cuadrático medio (RMS) y la desviación estándar (RMS).

    Solución al Ejemplo 6. Para determinar la densidad de probabilidad es necesario, de acuerdo con su definición, calcular las probabilidades de los siguientes eventos:

    Correspondencia de valores instantáneos al nivel de -10 mA (probabilidad p1);

    Encontrar valores de implementación instantáneos en el rango de -10 a -4 mA (probabilidad p2);

    Correspondencia de valores instantáneos al nivel de -4 mA (probabilidad p3);

    Encontrar valores de implementación instantáneos en el rango de -4 a + 8 mA (probabilidad p4);

    Correspondencia de valores instantáneos al nivel + mA B (probabilidad p5);

    Encontrar valores de implementación instantáneos en el rango de +8 a +10 mA (probabilidad p6).

    Para encontrar las probabilidades enumeradas, es necesario calcular el intervalo de tiempo durante el cual ocurrieron estos eventos y luego dividir los intervalos encontrados por la duración de la implementación, que es de 25 ms (ver Fig. 35). Como resultado, obtenemos las frecuencias de los eventos (estimaciones de probabilidad). Los resultados del cálculo se presentan en la tabla. 1.

    Tabla 1

    Probabilidad

    probabilidades

    Para calcular los valores de densidad de probabilidad en los intervalos (-10, -4) mA, (-4, + 8) mA y (+8, +12) mA, es necesario dividir las probabilidades obtenidas en intervalos apropiados, suponiendo una densidad de probabilidad constante en estas áreas, entonces cómo los valores instantáneos dentro de sus límites cambian de acuerdo con una ley lineal (Fig. 35). Los resultados del cálculo se presentan en la Fig. 36.

    La expectativa matemática es:

    mamá

    (asumiendo estacionariedad del SP especificado por la implementación de acuerdo con la expectativa matemática).

    Segundo momento inicial -

    m2i = 36,08 mA2

    (bajo el supuesto de que el SP especificado por la implementación es estacionario en el segundo momento inicial).

    Variación –

    = 36,08 – 0,1024 » 35,98 mA2

    (asumiendo estacionariedad del SP especificado por la implementación en términos de dispersión).

    Por lo tanto, RMS = "6,01 mA; RMS = "6,0 mA.


    Bibliografía

    1. Gonorovsky, I.S. Circuitos y señales de ingeniería de radio [Texto] / I.S. Gonorovsky. – M.: Radio y Comunicaciones, 2006. – 608 p.

    1. Manzhos, V.N. Teoría y tecnología del procesamiento de información de radar en un contexto de interferencia [Texto] / Ya.D. Shirman, V.N. Manjos. – M.: Radio y Comunicaciones, 2011. – 416 p.

    2. Zhovinsky, V.N. Ingeniería de análisis expreso de procesos aleatorios [Texto] / A.N. Zhovinsky, V.N. Zhovinski. – M.: Energía, 2009. – 112 p.

    3. Tsarkov, N.M. Medidores de radar multicanal [Texto] / N.M. Tsárkov. – M.: Sov. radio, 2010. – 192 p.

    2. Fundamentos matemáticos de la radioelectrónica moderna [Texto] / I.A. Bolshakov [y otros]. – M.: Sov. radio, 2009. – 208 p.

    3. Fedosov, V.P. Ingeniería de radio estadística [Texto]: notas de clase / V.P. Fedosov, V.P. Ryzhov. – Taganrog: Editorial TRTI, 2008. – 76 p.

    4. Fomichev, K.I. Radar monopulso [Texto] / A.I. Leónov, K.I. Fómichev. – M.: Sov. radio, 2010. – 370 p.

    5. Gnedenko, B.N. Curso de teoría de la probabilidad [Texto] / B.N. Gnedenko. – M.: Fizmatgiz, 2011. – 203 p.

    Introducción

    En los sistemas de información para diversos fines, las señales útiles siempre llegan en el contexto de interferencias de diversos orígenes. Por interferencia entendemos cualquier efecto sobre una señal útil que dificulte su recepción y registro. Para detectar de forma fiable señales útiles y medir algunos de sus parámetros, es necesario garantizar un exceso suficiente de energía de la señal sobre la energía del ruido. Pero en el estado actual de los circuitos de los sistemas de información, las reservas para aumentar la energía de la señal útil están prácticamente agotadas. Además, algunos ruidos, como la reverberación, aumentan simultáneamente con el aumento de la señal.

    Por tanto, la forma más correcta de desarrollar sistemas de información es optimizar los modos de procesamiento de la señal recibida para maximizar la relación señal/interferencia. Esto se puede lograr principalmente mediante el uso de filtros con características óptimas de frecuencia e impulso. Dado que la tarea de detectar una señal útil se asigna cada vez más a dispositivos automáticos, también es muy importante el desarrollo de algoritmos de detección óptimos y detectores que implementen estos algoritmos. Esto justifica la necesidad de que los estudiantes estudien las cuestiones del procesamiento de señales en el campo de la Instrumentación, teniendo en cuenta las particularidades del uso de los dispositivos y sistemas correspondientes.

    FILTRADO DE SEÑALES CONTRA INTERFERENCIAS

    Declaración del problema de filtrado.

    Sea una oscilación en la entrada del sistema.

    incógnita(t) = F [s(t,), norte(t)],

    Dónde s(t,) – señal útil, norte(t) – interferencia, – un conjunto de parámetros que nos interesan i(t), y la señal misma s(t,), o parámetro i(t) – procesos aleatorios. Interferencia norte(t) puede ser arbitrario; La señal y el ruido no son necesariamente una mezcla de aditivos. Sin embargo, se cree que el tipo de función F(es decir, el método de combinar señal y ruido) y conocemos algunas características estadísticas de una señal y ruido aleatorios. Teniendo en cuenta esta información a priori, es necesario decidir cuál de las posibles implementaciones de la propia señal s(t,) o su parámetro está contenido en la vibración recibida incógnita(t). Debido a la presencia de interferencias y al carácter aleatorio de la señal, la evaluación de la implementación de la señal o su parámetro a menudo no coincidirá con el valor real, lo que conduce a errores de filtrado. Además, los filtros destinados a su uso en diversos dispositivos están sujetos a requisitos diferentes, a veces contradictorios. Por tanto, las características de los filtros deben satisfacer varios criterios. Los filtros diseñados para dispositivos de detección deben proporcionar una relación señal-ruido máxima. Los filtros destinados a dispositivos que miden determinados parámetros deben cumplir el criterio de error cuadrático medio mínimo. Hay otros tipos de criterios mediante los cuales se construyen las características.

    Filtros coincidentes

    Todavía en problemas Nuevo Testamento) no se impusieron más restricciones que la estacionariedad en sentido amplio. Consideremos ahora la interferencia en forma de ruido blanco gaussiano. Un filtro lineal cuya salida produce la relación señal-ruido máxima posible cuando se recibe una señal completamente conocida sobre un fondo de ruido blanco gaussiano se denomina filtro adaptado. Encontremos una expresión para la respuesta de frecuencia compleja de un filtro adaptado. Para ello, establecemos Entonces las expresiones (1.7) y (1.8) tomarán la forma, respectivamente:

    (1.9)

    Dónde k– constante que caracteriza el coeficiente de transmisión del filtro; es– energía de señal:

    Escribamos el espectro de la señal de entrada y la respuesta de frecuencia compleja del filtro en la forma

    aquí j s(w) – espectro de fase de la señal, j(w) – respuesta de frecuencia de fase del filtro.

    Entonces las expresiones para las características de amplitud-frecuencia y fase-frecuencia del filtro adaptado tendrán la forma

    Se puede ver que la respuesta de amplitud-frecuencia (AFC) del filtro adaptado es proporcional al espectro de amplitud de la señal de entrada (la respuesta AFC del filtro se "adapta" al espectro de la señal), y la respuesta de fase-frecuencia (AFC) del filtro adaptado es proporcional al espectro de amplitud de la señal de entrada La respuesta de frecuencia (PFC) es igual a la suma del espectro de fase-frecuencia de la señal, tomado con el signo opuesto, y el espectro de fase del retardo ( –w t 0).

    La coincidencia de la forma de la respuesta de frecuencia del filtro con el espectro de amplitud de la señal asegura la mejor selección de las partes más intensas del espectro de la señal. El filtro atenúa partes del espectro con niveles relativamente bajos de componentes espectrales; de lo contrario, los acompañaría un ruido intenso. En este caso, la forma de la señal en la salida del filtro se distorsiona. Sin embargo, esto no es significativo, ya que la tarea del filtro en este caso no es reproducir con precisión la señal de entrada, sino formar el pico más grande de la señal de salida contra el ruido de fondo. Un papel importante a este respecto lo juega la característica de frecuencia de fase del filtro j (w) .

    Sustituyendo la expresión (1.9) en la fórmula (1.1), obtenemos una expresión para la señal útil en la salida del filtro adaptado:

    Esto muestra que la señal en la salida del filtro está determinada únicamente por el espectro de amplitud de la señal de entrada y no depende de su espectro de fase. Esto último se debe al hecho de que los desplazamientos de fase mutuos de los componentes espectrales de la señal de entrada j s (w) se compensan con la respuesta de fase del filtro. Por lo tanto, todos los componentes armónicos alcanzan simultáneamente valores de amplitud en el momento del tiempo. t = t 0 y, sumando, dar el pico de la señal de salida:

    Si la respuesta de fase del filtro no compensara los cambios de fase de los componentes espectrales de la señal de entrada, entonces los máximos de los componentes armónicos no coincidirían en el tiempo, lo que conduciría a una disminución o fragmentación del pico de salida. señal.

    Cabe señalar que el filtro adaptado (1.9) también se puede utilizar cuando se recibe una señal completamente conocida en el contexto de interferencias estacionarias con una densidad espectral arbitraria. s norte ( w ). Para hacer esto, formalmente es suficiente omitir la oscilación recibida. x(t) a través de un filtro lineal adicional que convierte las interferencias Nuevo Testamento) en ruido blanco. La respuesta de fase del filtro puede ser cualquiera, y la respuesta de frecuencia de dicho filtro "blanqueador" adicional debe tener la forma

    (1.10)

    donde es una constante.

    A la salida del filtro blanqueador, la interferencia se convertirá en ruido blanco con una densidad espectral constante. y el espectro complejo de la señal será

    Después de esto, puedes utilizar las fórmulas obtenidas anteriormente. De acuerdo con la expresión (1.9), la respuesta de frecuencia compleja del filtro adaptado correspondiente

    El filtro óptimo es una conexión en serie de dos filtros: blanqueador y combinado. . Su compleja respuesta de frecuencia naturalmente coincide con la relación (1.8).

    Aprovechando la libertad permitida para elegir la respuesta de fase del filtro blanqueador, se puede intentar elegirlo de modo que el filtro óptimo sea físicamente realizable. Si la densidad espectral de la interferencia sn(w) puede aproximarse mediante una función de frecuencia racional (que en la práctica no limita la generalidad), luego, para obtener un filtro lineal óptimo físicamente realizable, se utiliza la expansión sn(w) a factores conjugados complejos. Veamos un ejemplo.

    Sea la interferencia un ruido gaussiano que tenga una densidad espectral sn(w)= 2a D/(a 2 + w 2), donde D - dispersión del ruido. Entonces según la fórmula (1.10) tenemos

    Así, obtenemos dos opciones equivalentes de filtros blanqueadores:

    Encontremos la respuesta al impulso del filtro coincidente:

    Dada una expresión para la señal de entrada.

    ,

    obtenemos

    . (1.11)

    En consecuencia, la respuesta al impulso de un filtro adaptado está completamente determinada por la forma de la señal (“adaptada” a la señal). En la figura. 1.1 muestra una señal de pulso calle) duración y aparición en un momento en el tiempo t= 0 .

    Obviamente la función calle 0 +t) aparece temporalmente t 0 antes de la señal calle). La función es calle 0 –t) es una imagen especular de la función calle 0 +t) respecto al eje de ordenadas. Multiplicando la función calle 0 –t) por el coeficiente k, obtenemos la respuesta al impulso del filtro adaptado.

    Filtros cuasi óptimos

    En la construcción práctica de filtros lineales óptimos y consistentes, además de las relaciones encontradas, también es necesario tener en cuenta las condiciones de posibilidad física y viabilidad práctica de los filtros. La condición para la posibilidad física de un filtro se escribe como:

    h(t) = 0 a las t£0 ;

    Si la señal calle), con el que debe coincidir el filtro, comienza en el tiempo 0 y se detiene por completo en t 0 + y entonces la primera de las condiciones se cumple cuando t 0 0 + y. Sólo bajo esta condición se utilizará toda la energía de la señal para formar un pico de señal en la salida del filtro en ese momento. t 0. Aumentar t 0 sobre 0 + y, sin afectar el valor del pico, lo desplaza hacia un mayor retraso, lo que suele ser indeseable. Por lo tanto debes tomar t 0 = 0 + y, es decir, el momento de observación debe coincidir con el final de la señal de entrada. A veces se utilizan pulsos infinitamente largos (gaussianos, exponenciales, etc.) para aproximar señales de pulso reales. Entonces es necesario seleccionar artificialmente el valor final de la duración de la señal aproximada, que contiene la mayor parte de la energía de la señal real.

    No todos los filtros físicamente posibles pueden implementarse en la práctica, es decir, pueden construirse a partir de un número relativamente pequeño de elementos que tengan características fácilmente factibles. En este caso, es necesario seleccionar señales para las que se obtengan filtros fácilmente implementables, o utilizar filtros prácticamente factibles, cuya relación señal-ruido en la salida sea sólo ligeramente menor que el valor determinado por la relación (1.17 ). Estos filtros se denominan cuasióptimos.

    Denotemos por r la relación entre el valor de señal/ruido a la salida de un filtro lineal arbitrario y el valor de señal/ruido a la salida del filtro adaptado. Usando la expresión (1.6) y reemplazando s norte ( w ) en norte 0/2 (para ruido blanco), obtenemos

    .

    La tabla muestra los valores máximos de max para diversas formas de señales de pulsos de radio útiles y diferentes tipos de frecuencia.

    características de los filtros implementados en los mejores valores de sus bandas de paso. En este caso, la banda se selecciona de la condición F Y = a, f– ancho de banda a un nivel de potencia de 0,5, t y – duración efectiva del impulso.

    Se puede observar que la disminución en la relación señal-ruido al reemplazar un filtro óptimo por uno cuasi óptimo puede ser muy pequeña.

    Al diseñar filtros cuasi óptimos, la estructura del filtro se especifica en función de consideraciones de diseño, y su ancho de banda a un nivel de 0,707 desde el máximo se determina maximizando el valor al cambiar el ancho de banda. Los filtros cuasi óptimos para pulsos de radio y, en general, para señales de alta frecuencia se fabrican sobre la base de circuitos oscilatorios o filtros de paso de banda activos. El número de circuitos suele establecerse por motivos de diseño. El ancho de banda se optimiza cambiando el factor de calidad del sistema oscilante.

    En la práctica, a menudo hay que trabajar con señales que tienen amplitud y fase aleatorias. Como se desprende de (1.8) y (1.9), la forma de la respuesta de frecuencia no depende de la amplitud. Por lo tanto, para una señal con una amplitud aleatoria, puede utilizar el mismo filtro que para una señal con una amplitud determinista. La respuesta de fase-frecuencia del filtro depende de la fase de la señal. Sin embargo, con un cambio aleatorio continuo en la fase de la señal, en la gran mayoría de los casos no tenemos la oportunidad de reconstruir el filtro. Por lo tanto, al diseñar un filtro, se supone que la fase aleatoria de la señal es igual a su valor promedio, lo que reduce algo la relación señal-ruido en la salida.

    Síntesis de filtros óptimos.

    Consideremos varios métodos para sintetizar filtros óptimos. Los filtros para aislar una señal de un fondo de ruido correlacionado generalmente se construyen basándose en el método espectral, es decir, utilizando la expresión (1.8) para la respuesta de frecuencia compleja del filtro.

    Para filtros adaptados que aíslan una señal de un fondo de ruido blanco, son posibles dos métodos: espectral y temporal. El método del tiempo se basa en el uso de la relación entre la respuesta al impulso del filtro y la señal según la fórmula (1.11). En este caso, la síntesis de un filtro adaptado consiste en construir un dispositivo lineal cuya respuesta impulsiva, precisa a un factor de escala y con cierto retraso, reproduce una función que es una imagen especular de la señal. El método es especialmente conveniente para señales de forma simétrica, ya que en este caso el reflejo especular de la señal coincide con la señal misma. Por definición, la respuesta al impulso es la respuesta de un sistema lineal a la función. Por lo tanto, es necesario seleccionar los bloques de filtro coincidentes de tal manera que cuando se aplica una función d en su entrada, se reproduzca en la salida una señal de una forma y duración determinadas.

    1.6.1. Síntesis de un filtro emparejado para un rectangular.
    pulso de vídeo

    Consideremos los métodos temporales y espectrales de síntesis de filtros usando el ejemplo de un pulso de video rectangular:

    La secuencia de acciones durante la síntesis utilizando el método del tiempo se ilustra en la Fig. 1.2.

    Se sabe que un paso unitario (diferencia) o función de Heaviside Y(t),(incógnita 2 (t)) es la integral de la función ( incógnita 1 (t)):

    Después de retrasar un solo paso durante la duración del pulso y ( incógnita 3 (t)), su inversión ( incógnita 4 (t)) y resta de incógnita 2 (t) obtenemos el pulso rectangular dado incógnita 5 (t), cuya amplitud se puede cambiar cambiando el coeficiente de transmisión del dispositivo. De ello se deduce que el filtro deseado (Fig. 1.3, a) consta de un integrador 1, una línea de retardo en y 2, un inversor 3, un sumador 4 y un amplificador 5. El inversor y el sumador se pueden reemplazar por un dispositivo sustractor 6 (Figura 1.3, b). El funcionamiento de ambas opciones de filtro es idéntico.

    Consideremos la síntesis de filtros utilizando el método espectral. Espectro complejo de un pulso de video rectangular.

    Para un filtro compatible

    Creyendo y =t 0, finalmente conseguimos

    (1.18)

    Consideremos los términos incluidos en la expresión (1.18). Se sabe que el operador es el operador de integración ideal para una señal armónica; ka– coeficiente de transmisión del dispositivo lineal; – retraso durante el tiempo t Y. Se puede observar que el diagrama de bloques de dicho filtro corresponde a la Fig. 1.3.

    El mecanismo de funcionamiento de un filtro adaptado (ver Fig. 1.3) se puede aclarar considerando el paso de un pulso de señal y ruido a través de él (Fig. 1.4).

    Arroz. 1.4

    Señal de entrada x1(t)con la ayuda de un dispositivo integrador se acumula con el tiempo t tu = t 0 a su valor máximo ( incógnita 2 en la figura. 1.4). Retraso en t Y(incógnita 3) y la resta detienen la acumulación de la señal, que ya ha dado el valor máximo en la salida, pero al mismo tiempo detienen la acumulación de ruido. Señal de salida ( incógnita 4) se vuelve triangular.

    Se puede llegar a un resultado similar encontrando una expresión analítica para la señal de salida útil.

    Para un pulso de video rectangular, la función de covarianza

    o, debido a la simetría de la función de covarianza: .

    Reemplazando en la última expresión con tt 0 y suponiendo tu = t 0 , según la fórmula (1.14) obtenemos

    .

    La gráfica de esta función coincide con la que se muestra en la Fig. 1.4. Se puede observar que la duración de la señal útil en la salida del filtro se duplica.

    1.6.2. Síntesis de un filtro óptimo para recibir rectangular.
    impulso en el contexto de ruido correlacionado

    Deje que el ruido en la entrada del filtro tenga una densidad espectral. sn(w), distintos de uniformes:

    ,

    Dónde 2a– densidad de ruido espectral en = 0; gramo-- constante que caracteriza el ancho del espectro de energía.

    De acuerdo con la expresión (1.8), podemos obtener una fórmula para la respuesta de frecuencia compleja del filtro óptimo para recibir un pulso de video rectangular contra un fondo de ruido correlacionado:

    (1.19)

    Operador j corresponde al operador de diferenciación ideal. El diagrama de bloques del filtro óptimo, construido de acuerdo con la fórmula (1.19), se muestra en la Fig. 1.5:

    En la Figura 6.7 - dispositivos de diferenciación; 8 – restador. El propósito de los bloques restantes queda claro del anterior.

    La expresión (1.19) se puede transformar a la forma

    El diagrama de bloques de filtro correspondiente a esta expresión contiene un bloque menos. El método basado en el tiempo para sintetizar filtros óptimos para recibir señales en un contexto de ruido correlacionado rara vez se utiliza, ya que en este caso la función de transferencia del filtro generalmente no permite construir un diagrama de bloques tan simplemente como se hacía anteriormente.

    Arroz. 1.7

    En la figura 2.3 se presenta un diagrama de bloques formal que explica la elección del criterio de optimización del filtro. 1.7. Aquí 1 es el sumador; 2 – filtro ideal; 3 – filtro real; 4 – dispositivo de cálculo de errores. Dejar h(t)– respuesta al impulso de un filtro real. Entonces

    ,

    y raíz del error cuadrático medio

    Para señal estacionaria e interferencias. – valor máximo de la función de covarianza de la señal; – función de covarianza mutua de la implementación adoptada y la señal; es la función de covarianza de la implementación adoptada.

    Si h optar (t) – respuesta al impulso del filtro óptimo, luego el error cuadrático medio para cualquier otro filtro con una respuesta al impulso, que se presenta en la forma

    h(t) = h optar( t)+h gramo(t), (1.23)

    solo puede ser mayor o igual que el error cuadrático medio del filtro óptimo. Para un filtro que tiene una característica descrita por la fórmula (1.23), el error cuadrático medio, teniendo en cuenta la notación realizada anteriormente

    El mínimo se puede encontrar en la condición.

    (1.24)

    Describiendo la condición (1.24) en detalle, obtenemos

    Para cualquier gramo() Esta expresión es válida sólo cuando

    . (1.25)

    Esto muestra que la respuesta impulsiva del filtro óptimo se puede obtener resolviendo la ecuación integral (1.25). Esta solución se puede obtener utilizando el teorema de convolución de la transformada de Fourier. De hecho, dado que la integral del lado derecho es una convolución, entonces, tomando la transformada de Fourier de los lados izquierdo y derecho de esta ecuación, obtenemos

    (1.26)

    Dónde F – Notación de transformada de Fourier, Sxs() – densidad espectral mutua del mensaje y la señal recibidos; Sx() – densidad espectral del mensaje recibido; k optar( j w) respuesta de frecuencia óptima del filtro. Entonces la ecuación (1.25), teniendo en cuenta las fórmulas (1.26), se escribirá en la forma

    Con señal independiente e interferencia.

    Teniendo en cuenta estas relaciones, obtenemos

    Esta solución, estrictamente hablando, describe un filtro físicamente imposible. Sin embargo, tiene un significado práctico, ya que es aproximadamente aplicable en aquellos casos y con mayor precisión en los que es posible permitir un gran retraso en la respuesta del filtro con respecto a la influencia de la entrada. Por lo tanto, se dice que esta solución es adecuada para filtros de retardo infinito.

    Para filtros físicamente posibles, respuesta de impulso h(t) en virtud del principio de causalidad existe sólo para t> 0, ya que la señal en la salida del filtro no puede aparecer antes del inicio del pulso en la entrada. Para filtros físicamente posibles, la ecuación (1.25) se reduce a la forma

    es decir, a la forma de la ecuación integral de Wiener-Hopf, y debe resolverse mediante métodos apropiados.

    ANTECEDENTES DE LA INTERFERENCIA

    Declaración del problema

    La detección de señales casi siempre ocurre cuando es necesario establecer la presencia o ausencia de un objeto físico específico. Sin embargo, por lo general no podemos establecer directamente este hecho, solo podemos aprovechar el hecho de que la presencia o ausencia de un objeto que nos interesa cambia ciertos parámetros de una determinada señal: la amplitud (o el hecho mismo de la presencia de una señal ), hora de llegada, frecuencia, fase, etc. Un ejemplo sería una señal de un sistema de ecolocalización reflejada por un objeto. En este caso, la señal sólo está presente si el objeto está presente. En otros casos, el objeto sólo cambia los parámetros de una señal que está presente todo el tiempo. Lo que tienen en común todas estas situaciones es que la señal siempre llega con interferencias, y esto puede llevar a decisiones erróneas. La naturaleza aleatoria tanto de las interferencias como de las señales útiles lleva al hecho de que al resolver el problema de detección se debe partir de las disposiciones de la teoría de las soluciones estadísticas.

    Arroz. 2.4

    Área bajo la curva pn(x) a la derecha de incógnita 0 define la probabilidad condicional de falsa alarma, bajo la curva psn(x)– probabilidad condicional de detección correcta. Cuando la curva se desplaza psn(x) a la derecha, lo que corresponde a un aumento en la señal s, aumenta la probabilidad de una detección correcta.

    El diagrama de bloques del detector Neyman-Pearson más simple consta de un bloque: un dispositivo de umbral. La señal de entrada se suministra a su primera entrada. x(t), a la segunda entrada – valor umbral incógnita 0. Comparando valores x(t) do x0, el dispositivo de umbral en cada momento toma una decisión sobre la presencia o ausencia de una señal.

    Arroz. 2.11

    Consiste en un filtro adaptado 1, un detector de envolvente 2 y un dispositivo de umbral 3. El detector realiza la función de extracción de envolvente. Las características de detección de dicho detector se pueden determinar utilizando las fórmulas (2.17) y (2.18).

    Y la fase inicial

    Cuando se utilizan sistemas de detección de señales débiles, por regla general hay que trabajar con señales que tienen amplitudes y fases iniciales aleatorias. Estas señales se pueden escribir en la forma:

    Dónde B y – factor de amplitud aleatorio y fase con densidades de distribución:

    .

    Similar a la anterior, la integral de correlación se puede representar en forma de dos componentes en cuadratura:

    Cabe señalar que B - una cantidad que cambia lentamente, prácticamente constante en el intervalo. La integral de correlación es entonces igual a , Dónde .

    La energía de la señal fluctuante será igual a

    ¿Dónde está la energía de la señal no fluctuante en B= 1. A partir de aquí podemos determinar promediando (2.19) sobre B.

    Entonces =1/ 2 y .

    Usando las expresiones (2.14) y (2.19), podemos escribir la razón de verosimilitud en la forma

    .

    Ahora necesitamos promediar esta expresión sobre parámetros aleatorios. B Y:

    El circuito de un detector de señal óptimo con amplitud aleatoria y fase inicial no difiere del circuito de un detector de señal óptimo con fase aleatoria. El esquema de procesamiento en cuadratura sigue siendo óptimo. La densidad de distribución de probabilidad en ausencia de una señal, como antes, se describe mediante la ley de Rayleigh:

    Si hay señal en la entrada del dispositivo, la ley de distribución también será la de Rayleigh, pero con una densidad de distribución.

    .

    Esto se desprende del hecho de que debido a la independencia de la señal y la interferencia , donde es la dispersión del componente de señal de la integral de correlación.

    Entonces la probabilidad condicional de una falsa alarma.

    Cuando se detecta utilizando la estrategia Neyman-Pearson

    Probabilidad condicional de detección correcta.

    (2.22)

    Sustituyendo la expresión (2.21) aquí, podemos obtener

    . (2.23)

    La expresión (2.23) establece la conexión entre las probabilidades condicionales de una falsa alarma y una detección correcta. Las curvas de detección calculadas utilizando las fórmulas (2.20) y (2.22) se muestran en la Fig. 2.6 (líneas de puntos y guiones). Se puede ver en la figura que a medida que aumenta la relación señal-ruido, todas las curvas primero crecen lentamente y luego más rápido. Con altas probabilidades de detección correcta, las curvas para una señal con una fase inicial aleatoria y especialmente para una señal con amplitud y fase aleatorias se desplazan hacia valores más altos de la relación señal-ruido. Por el contrario, con bajas probabilidades de detección correcta ( PD 0.2) las curvas de detección para una señal con amplitud y fase aleatorias son más altas que las curvas correspondientes para las otras dos señales. Esto se explica por el hecho de que si las energías son iguales, la amplitud de una señal con amplitud aleatoria y fase con probabilidad pag = 0,74 superará la amplitud de una señal con parámetros completamente conocidos.

    El diagrama de bloques del detector óptimo con un filtro adaptado es mucho más simple (Fig. 2.11). Las características de detección de dicho detector se pueden determinar de acuerdo con las expresiones (2.20) a (2.23). Sin embargo, en algunos casos es más conveniente utilizar un enfoque ligeramente diferente. Como se indicó anteriormente, las señales aleatorias (y el ruido) a la salida de un filtro adaptado generalmente pueden considerarse con distribución gaussiana. En este caso, a la salida del filtro adaptado, es posible medir la dispersión (o la potencia proporcional a ella) del ruido y la mezcla de señal y ruido.

    De lo anterior se desprende claramente que los detectores óptimos basados ​​en filtros adaptados, que tienen las mismas características de detección que los detectores de correlación, suelen ser más sencillos de implementar, ya que no requieren una copia de la señal retrasada durante la propagación.

    Declaración del problema

    Hasta ahora, hemos considerado detectar una señal de un objeto en un punto de observación. Sin embargo, en la práctica, al escanear el espacio, las señales de uno u otro objeto suelen llegar después de un período de tiempo: llega una ráfaga de señales. Esto se debe, en primer lugar, a la extensión finita de la mayoría de los objetos reales. En segundo lugar, la zona del espacio de la que actualmente se toma información sobre la presencia o ausencia de un objeto también tiene dimensiones finitas. Las dimensiones de esta zona dependen del tamaño del receptor. Como resultado, si el paso de exploración no es demasiado grande, a menudo tenemos una ráfaga de señales de duración finita, que consta de varias señales de igual o diferente amplitud, o (por ejemplo, con radiación continua) una señal de larga duración. Es recomendable utilizar este fenómeno para la detección de señales, ya que puede aumentar significativamente la sensibilidad y confiabilidad de la detección.

    El problema de detectar una ráfaga de señales se resolverá de forma diferente dependiendo de las propiedades de dicha ráfaga. Si se conoce completamente la relación entre todos los parámetros de los pulsos incluidos en una ráfaga, entonces dichos pulsos y dicha ráfaga se denominan coherentes. De lo contrario, la explosión se llama incoherente. Una ráfaga coherente de pulsos con parámetros completamente conocidos es un caso especial de señal completamente conocida, y las expresiones (2.15) y (2.16) son válidas para ella, si en ellas la energía de la señal se entiende como la suma de las energías de todos los pulsos. del estallido.

    A menudo, cuando se detectan objetos, las señales de pulso en la ráfaga fluctúan. Estas fluctuaciones pueden estar totalmente correlacionadas, parcialmente correlacionadas o no correlacionadas. En el primer caso, las señales fluctúan de una ráfaga a otra, pero la relación de los parámetros de los pulsos individuales entre sí de una ráfaga a otra no cambia: la forma de la ráfaga es la misma. Estas fluctuaciones se denominan "amistosas". Una ráfaga que fluctúa mutuamente puede considerarse como una señal única de forma compleja con amplitud y fase aleatorias.

    En el caso de fluctuaciones no correlacionadas, las amplitudes y las fases iniciales de los impulsos de ráfaga individuales cambian aleatoriamente sin ninguna conexión entre sí. A menudo, es este caso, así como el de fluctuaciones parcialmente correlacionadas en una ráfaga, el que resulta de mayor interés. En este caso, el detector suele constar de un filtro óptimo para una única señal y un dispositivo para procesar una ráfaga de señales.

    Referencias

    1. Kharkevich A. A. Luchando contra la interferencia. M.: Fizmatgiz, 1963.

    2. Ivanov M. T., Sergienko A. B., Ushakov V. N. Fundamentos teóricos de la ingeniería de radio. M.: Más alto. escuela, 2002.

    3. Olshevsky V.V. Métodos estadísticos en sonar. L.: Construcción naval, 1983.

    4. Dobrotin D. D., Pigulevsky E. D. Señales aleatorias e interferencias en sistemas de introscopia: Libro de texto. subsidio/LETI. L., 1990.

    5. Tikhonov V.I. Recepción óptima de la señal. M.: Radio y comunicación, 1983.

    6. Tikhonov V.I. Ingeniería de radio estadística. M.: Radio y comunicación, 1982.

    7. Gonorovsky I. S. Circuitos y señales de ingeniería de radio. M.: Sov.radio, 1977.

    8. Kuzmin S.Z. Procesamiento digital de información de radar. M.: Sov.radio, 1967.

    9. Dymova A. I., Albats M. E., Bonch-Bruevich A. M. Sistemas de ingeniería de radio. M.: Sov.radio, 1975.

    10. Ermolov I. N. Teoría y práctica de las pruebas ultrasónicas. M.: Ingeniería Mecánica, 1981.

    11. Gorbunov V.I., Epifantsev B.I. Dispositivos automáticos en la detección de defectos por radiación. Moscú: Atomizdat, 1979.

    12. Golubev A. S., Dobrotin D. D., Pavros S. K. Sobre la elección del umbral de respuesta de los detectores de defectos ultrasónicos de inmersión en sombras al inspeccionar productos con superficie rugosa. 1975. Núm. 3, págs. 71–77.

    13. Dobrotin D. D. Sobre la cuestión de la fiabilidad de las pruebas de sombra ultrasónicas de metales laminados en caliente // Electroacústica y tecnología ultrasónica. - L., 1977. P.47–52 (Izv. LETI. Número 221).

    14. Dobrotin D. D. Fiabilidad de las pruebas ultrasónicas continuas de láminas con superficie rugosa // Electroacústica y tecnología ultrasónica. L., 1979. págs. 17-22 (Izv. LETI. Número 252).


    Introducción. 3

    1.1. Planteamiento del problema de filtrado. 4

    1.2. Filtros óptimos para dispositivos de detección. 4

    1.3. Filtros coincidentes.. 8

    1.4. Filtro coincidente y receptor de correlación. 12

    1. 5. Filtros físicamente posibles. 14



    
    Arriba