Filtrado adaptativo. Resultado del programa

En este artículo consideraremos el principio de resolver ecuaciones como ecuaciones lineales. Anotemos la definición de estas ecuaciones y establezcamos la forma general. Analizaremos todas las condiciones para encontrar soluciones a ecuaciones lineales, utilizando, entre otras cosas, ejemplos prácticos.

Tenga en cuenta que el material siguiente contiene información sobre ecuaciones lineales con una variable. Las ecuaciones lineales en dos variables se analizan en un artículo aparte.

Yandex.RTB R-A-339285-1

¿Qué es una ecuación lineal?

Definición 1

ecuación lineal es una ecuación escrita de la siguiente manera:
ax = b, Dónde incógnita– variable, a Y b- algunos números.

Esta formulación fue utilizada en el libro de texto de álgebra (séptimo grado) de Yu.N.

Ejemplo 1

Ejemplos de ecuaciones lineales serían:

3 x = 11(ecuación con una variable incógnita en un = 5 Y segundo = 10);

− 3 , 1 y = 0 ( ecuación lineal con variable y, Dónde un = - 3, 1 Y b = 0);

x = - 4 Y − x = 5,37(ecuaciones lineales, donde el número a grabado en explícitamente y es igual a 1 y - 1, respectivamente. Para la primera ecuación segundo = - 4 ; para el segundo - b = 5,37) etc.

Puede aparecer en diversos materiales educativos. diferentes definiciones. Por ejemplo, Vilenkin N.Ya. Las ecuaciones lineales también incluyen aquellas ecuaciones que se pueden transformar a la forma ax = b transfiriendo términos de una parte a otra con cambio de signo y trayendo términos similares. Si seguimos esta interpretación, la ecuación 5 x = 2 x + 6 – también lineal.

Pero el libro de texto de álgebra (séptimo grado) de Mordkovich A.G. da la siguiente descripción:

Definición 2

Una ecuación lineal en una variable x es una ecuación de la forma ax + b = 0, Dónde a Y b– algunos números llamados coeficientes de una ecuación lineal.

Ejemplo 2

Un ejemplo de ecuaciones lineales de este tipo podría ser:

3 x − 7 = 0 (a = 3, segundo = − 7) ;

1, 8 y + 7, 9 = 0 (a = 1, 8, b = 7, 9).

Pero también hay ejemplos de ecuaciones lineales que ya hemos usado anteriormente: de la forma ax = b, Por ejemplo, 6 x = 35.

Inmediatamente aceptaremos que en este artículo por ecuación lineal con una variable entenderemos la ecuación escrita ax + b = 0, Dónde incógnita– variable; a, b – coeficientes. Consideramos que esta forma de ecuación lineal es la más justificada, ya que las ecuaciones lineales son ecuaciones algebraicas de primer grado. Y las demás ecuaciones indicadas anteriormente, y las ecuaciones dadas por transformaciones equivalentes en la forma ax + b = 0, las definimos como ecuaciones que se reducen a ecuaciones lineales.

Con este enfoque, la ecuación 5 x + 8 = 0 es lineal y 5 x = - 8- una ecuación que se reduce a lineal.

Principio de resolución de ecuaciones lineales.

Veamos cómo determinar si una ecuación lineal dada tendrá raíces y, de ser así, cuántas y cómo determinarlas.

Definición 3

El hecho de la presencia de raíces de una ecuación lineal está determinado por los valores de los coeficientes. a Y b. Anotemos estas condiciones:

  • en un ≠ 0 la ecuación lineal tiene una sola raíz x = - b a ;
  • en un = 0 Y segundo ≠ 0 una ecuación lineal no tiene raíces;
  • en un = 0 Y segundo = 0 una ecuación lineal tiene infinitas raíces. Básicamente, en este caso, cualquier número puede convertirse en la raíz de una ecuación lineal.

Demos una explicación. Sabemos que en el proceso de resolución de una ecuación es posible transformar una ecuación dada en una que sea equivalente a ella, es decir, que tenga las mismas raíces que la ecuación original, o que además no tenga raíces. Podemos hacer las siguientes transformaciones equivalentes:

  • transferir un término de una parte a otra, cambiando el signo al contrario;
  • multiplicar o dividir ambos lados de una ecuación por el mismo número que no sea cero.

Así, transformamos la ecuación lineal. ax + b = 0, moviendo el término b del lado izquierdo al lado derecho con cambio de signo. Obtenemos: a · x = − segundo .

Entonces, dividimos ambos lados de la ecuación por un número distinto de cero. A, resultando en una igualdad de la forma x = - b a . Es decir, cuando un ≠ 0, ecuación original ax + b = 0 es equivalente a la igualdad x = - b a, en la que la raíz - b a es obvia.

Por contradicción se puede demostrar que la raíz encontrada es la única. Designemos la raíz encontrada - b a como x1. Supongamos que existe otra raíz de la ecuación lineal con la designación x2. Y por supuesto: x 2 ≠ x 1, y esto, a su vez, partiendo de la definición de números iguales mediante la diferencia, equivale a la condición x 1 - x 2 ≠ 0 . Teniendo en cuenta lo anterior, podemos crear las siguientes igualdades sustituyendo las raíces:
a x 1 + b = 0 y a x 2 + b = 0.
La propiedad de las igualdades numéricas permite realizar la resta término por término de partes de igualdades:

una x 1 + segundo - (una x 2 + b) = 0 - 0, desde aquí: a · (x 1 − x 2) + (b − b) = 0 y en adelante a · (x 1 − x 2) = 0 . Igualdad a · (x 1 − x 2) = 0 es incorrecto porque previamente se especificó que un ≠ 0 Y x 1 - x 2 ≠ 0 . La contradicción resultante sirve como prueba de que cuando un ≠ 0 ecuación lineal ax + b = 0 tiene una sola raíz.

Justifiquemos dos cláusulas más de las condiciones que contienen un = 0 .

Cuando un = 0 ecuación lineal ax + b = 0 se escribirá como 0 x + b = 0. La propiedad de multiplicar un número por cero nos da el derecho de afirmar que cualquier número que se tome como incógnita, sustituyéndolo en igualdad 0 x + b = 0, obtenemos b = 0 . La igualdad es válida para b = 0; en otros casos, cuando segundo ≠ 0, la igualdad se vuelve falsa.

Entonces cuando un = 0 y b = 0 , cualquier número puede convertirse en la raíz de una ecuación lineal ax + b = 0, ya que cuando se cumplen estas condiciones, sustituyendo en su lugar incógnita cualquier número, obtenemos la igualdad numérica correcta 0 = 0 . Cuando un = 0 Y segundo ≠ 0 ecuación lineal ax + b = 0 no tendrá raíces en absoluto, ya que cuando se cumplan las condiciones especificadas, sustituyendo en su lugar incógnita cualquier número, obtenemos una igualdad numérica incorrecta segundo = 0.

Todas las consideraciones anteriores nos dan la oportunidad de escribir un algoritmo que permita encontrar una solución a cualquier ecuación lineal:

  • por el tipo de registro determinamos los valores de los coeficientes a Y b y analizarlos;
  • en un = 0 Y segundo = 0 la ecuación tendrá infinitas raíces, es decir cualquier número se convertirá en la raíz de la ecuación dada;
  • en un = 0 Y segundo ≠ 0
  • en a, distinto de cero, comenzamos a buscar la única raíz de la ecuación lineal original:
  1. muevamos el coeficiente b hacia el lado derecho con un cambio de signo al opuesto, llevando la ecuación lineal a la forma a · x = − segundo ;
  2. dividir ambos lados de la igualdad resultante por el número a, lo que nos dará la raíz deseada de la ecuación dada: x = - b a.

En realidad, la secuencia de acciones descrita es la respuesta a la pregunta de cómo encontrar una solución a una ecuación lineal.

Finalmente, aclaremos que las ecuaciones de la forma ax = b se resuelven usando un algoritmo similar con la única diferencia de que el número b en dicho registro ya se ha trasladado a la parte correcta ecuaciones y con un ≠ 0 puedes dividir inmediatamente las partes de una ecuación por un número a.

Por lo tanto, para encontrar una solución a la ecuación ax = b, utilizamos el siguiente algoritmo:

  • en un = 0 Y segundo = 0 la ecuación tendrá infinitas raíces, es decir cualquier número puede convertirse en su raíz;
  • en un = 0 Y segundo ≠ 0 la ecuación dada no tendrá raíces;
  • en a, distinto de cero, ambos lados de la ecuación se dividen por el número a, lo que permite encontrar la única raíz que es igual a b un.

Ejemplos de resolución de ecuaciones lineales.

Ejemplo 3

Es necesario resolver la ecuación lineal. 0 x - 0 = 0.

Solución

Al escribir la ecuación dada vemos que un = 0 Y b = - 0(o segundo = 0, que es lo mismo). Por tanto, una ecuación dada puede tener un número infinito de raíces o cualquier número.

Respuesta: incógnita– cualquier número.

Ejemplo 4

Es necesario determinar si la ecuación tiene raíces. 0 x + 2, 7 = 0.

Solución

Del registro determinamos que a = 0, b = 2, 7. Por tanto, la ecuación dada no tendrá raíces.

Respuesta: la ecuación lineal original no tiene raíces.

Ejemplo 5

Dada una ecuación lineal 0,3 x − 0,027 = 0. Es necesario resolverlo.

Solución

Al escribir la ecuación determinamos que a = 0, 3; b = - 0.027, lo que nos permite afirmar que la ecuación dada tiene una sola raíz.

Siguiendo el algoritmo, movemos b al lado derecho de la ecuación, cambiando el signo, obtenemos: 0,3 x = 0,027. A continuación, dividimos ambos lados de la igualdad resultante entre a = 0, 3, luego: x = 0, 027 0, 3.

Dividamos fracciones decimales:

0,027 0,3 = 27 300 = 3 9 3 100 = 9 100 = 0,09

El resultado obtenido es la raíz de la ecuación dada.

Escribamos brevemente la solución de la siguiente manera:

0,3 x - 0,027 = 0,0,3 x = 0,027, x = 0,027 0,3, x = 0,09.

Respuesta: x = 0,09.

Para mayor claridad, presentamos la solución a la ecuación de escritura. ax = b.

Ejemplo N

Las ecuaciones dadas son: 1) 0 x = 0; 2) 0 x = − 9 ; 3) - 3 8 x = - 3 3 4 . Es necesario resolverlos.

Solución

Todas las ecuaciones dadas corresponden a la entrada ax = b. Veámoslo uno por uno.

En la ecuación 0 x = 0, a = 0 y segundo = 0, lo que significa: cualquier número puede ser la raíz de esta ecuación.

En la segunda ecuación 0 x = − 9: a = 0 y b = − 9, por tanto, esta ecuación no tendrá raíces.

Según la forma de la última ecuación - 3 8 · x = - 3 3 4, escribimos los coeficientes: a = - 3 8, b = - 3 3 4, es decir la ecuación tiene una sola raíz. Encontrémoslo. Dividamos ambos lados de la ecuación por a, lo que da como resultado: x = - 3 3 4 - 3 8. Simplifiquemos la fracción aplicando la regla para dividir números negativos, seguido de convertir el número mixto en una fracción ordinaria y dividir fracciones ordinarias:

3 3 4 - 3 8 = 3 3 4 3 8 = 15 4 3 8 = 15 4 8 3 = 15 8 4 3 = 10

Escribamos brevemente la solución de la siguiente manera:

3 8 · x = - 3 3 4 , x = - 3 3 4 - 3 8 , x = 10 .

Respuesta: 1) incógnita– cualquier número, 2) la ecuación no tiene raíces, 3) x = 10.

Si nota un error en el texto, resáltelo y presione Ctrl+Enter

Introducción
Cuando se buscan algoritmos óptimos de procesamiento de señales, inevitablemente uno tiene que confiar en algunos modelos estadísticos señales y ruido. Los conceptos más comunes utilizados para formular estos modelos son linealidad, estacionariedad y normalidad. Sin embargo, en la práctica no siempre se siguen los principios enumerados y la calidad de la recepción de la señal depende en gran medida de la idoneidad del modelo elegido. Posible solución el problema es el uso filtros adaptativos, que permiten que el sistema se adapte a los parámetros estadísticos de la señal de entrada sin requerir la especificación de ningún modelo. Los filtros adaptativos, que aparecieron a finales de la década de 1950, han recorrido un largo camino, pasando de ser una tecnología exótica utilizada principalmente con fines militares a un "producto de consumo", sin el cual el funcionamiento de módems, teléfonos móviles y mucho más sería ahora impensable.


Idea básica del procesamiento adaptativo de señales.
Estructura general filtro adaptativo mostrado en la Fig. 1.
La señal de entrada discreta x(k) es procesada por un filtro discreto, lo que da como resultado una señal de salida y(k). Esta señal de salida se compara con la señal de referencia d(k), la diferencia entre ellas forma la señal de error e(k). La tarea del filtro adaptativo es minimizar el error en la reproducción de la señal de referencia. Para ello, el bloque de adaptación, después de procesar cada muestra, analiza la señal de error y los datos adicionales provenientes del filtro, utilizando los resultados de este análisis para ajustar los parámetros del filtro. También es posible otra opción de adaptación en la que no se utiliza la señal de referencia. Este modo de operación se llama adaptación ciega. Por supuesto, en este caso se requiere cierta información sobre la estructura de la señal de entrada útil (por ejemplo, conocimiento del tipo y parámetros de la modulación utilizada).
Aplicar filtros adaptativos
Identificación del sistema
Todos los métodos de uso de filtros adaptativos de una forma u otra se reducen a resolver el problema de identificación, es decir, determinar las características de un determinado sistema. Hay dos opciones de identificación posibles: directa e inversa. En el primer caso, el filtro adaptativo se enciende en paralelo con el sistema en estudio (Fig. 3, a). La señal de entrada es común al sistema en estudio y al filtro adaptativo, y la señal de salida del sistema sirve como señal de referencia para el filtro adaptativo. Durante el proceso de adaptación, las características de tiempo y frecuencia del filtro tenderán a las características correspondientes del sistema en estudio. En identificación inversa el filtro adaptativo se enciende en serie con el sistema en estudio (Fig. 3, b). La señal de salida del sistema se envía a la entrada del filtro adaptativo y señal de entrada El sistema es un modelo para un filtro adaptativo. Así, el filtro busca compensar la influencia del sistema y restaurar la señal original, eliminando las distorsiones introducidas por el sistema.


Arroz. 3. Identificación de sistemas mediante filtro adaptativo: a - directo, b - inverso
Reducción de ruido
Supongamos que es necesario dotar a un piloto de avión o, por ejemplo, a un conductor de tractor, de un sistema de comunicación por voz. En este caso, la señal de voz percibida por el micrófono será inevitablemente muy ruidosa con los sonidos de un motor en marcha, etc. Es imposible deshacerse de este ruido, pero puede obtener una muestra de la señal de ruido instalando un segundo micrófono cerca del motor (u otra fuente de ruido). Por supuesto, este ruido no puede simplemente restarse de la señal de voz, ya que en el camino hacia los dos micrófonos el ruido sigue caminos diferentes y, por lo tanto, sufre diferentes distorsiones (Fig. 4). Sin embargo, los procesos de ruido aleatorios captados por dos micrófonos estarán correlacionados, ya que provienen de una fuente común. Al mismo tiempo, es obvio que la señal de ruido no está correlacionada con la señal de voz útil.


Arroz. 4. Reducción de ruido mediante filtro adaptativo.
Alineación de enlaces
Cuando se transmite a través de un canal de comunicación. señal de información inevitablemente sufre alguna distorsión. en sistemas comunicaciones digitales Estas distorsiones pueden causar errores al recibir datos digitales. Para reducir la probabilidad de errores, es necesario compensar la influencia del canal de comunicación, es decir, solucionar el problema de la identificación inversa. En el dominio de la frecuencia, la compensación de la distorsión introducida por un canal significa ecualizar su respuesta en frecuencia, razón por la cual los filtros que realizan dicha ecualización se denominan ecualizadores. Cuando se utiliza un filtro adaptativo como ecualizador, surge el problema de obtener una señal de referencia. Este problema se resuelve enviando una señal de configuración especial antes de iniciar la transferencia de datos. Una vez finalizada la señal de configuración, comienza la transferencia de datos real. A continuación, el receptor cambia a otro modo, llamado modo de evaluación. Después de recibir el siguiente reloj, se busca el valor admisible más cercano a la señal recibida. Se utiliza como señal de referencia y la diferencia entre este valor y la señal recibida da la señal de error utilizada para la adaptación.


Cancelación de eco
Esta tecnología, así como la ecualización de canales, se utiliza ampliamente en los módems modernos. Módems de alta velocidad para lineas telefonicas Las comunicaciones funcionan en modo dúplex, es decir, transmiten y reciben datos simultáneamente, mientras que para la transmisión y recepción se utiliza la misma banda de frecuencia. Sin embargo, en este caso la señal del propio transmisor inevitablemente se filtra al receptor, interfiriendo en su funcionamiento. La señal filtrada puede propagarse de diferentes maneras, adquiriendo distorsiones desconocidas de antemano. Puede suprimir la señal de eco utilizando un filtro adaptativo. En este caso, se resuelve el problema de la identificación directa del trayecto de propagación del eco. La entrada del filtro adaptativo recibe la señal del transmisor del módem y la señal recibida que contiene el eco se utiliza como señal de referencia. El filtro adaptativo genera una estimación de la señal de eco y la señal de error representa la señal recibida libre de eco. Para que el sistema de cancelación de eco funcione correctamente, las señales transmitidas y recibidas no deben estar correlacionadas. Por lo tanto, los datos de entrada que ingresan al módem para su transmisión se codifican en primer lugar, es decir, se convierten en un flujo de bits pseudoaleatorio. En este caso, los dos módems que interactúan utilizan codificadores diferentes, lo que garantiza la no correlación.

Enviar su buen trabajo a la base de conocimientos es fácil. Utilice el siguiente formulario

Los estudiantes, estudiantes de posgrado y jóvenes científicos que utilicen la base de conocimientos en sus estudios y trabajos le estarán muy agradecidos.

MINISTERIO DE EDUCACIÓN Y CIENCIA DE LA FEDERACIÓN DE RUSIA

INSTITUCIÓN EDUCATIVA DEL PRESUPUESTO DEL ESTADO FEDERAL

EDUCACIÓN PROFESIONAL SUPERIOR

(FSBEI HPE)

"UNIVERSIDAD ESTATAL DE VORONEZH"

FACULTAD DE MATEMÁTICAS APLICADAS, INFORMÁTICA Y MECÁNICA

DEPARTAMENTO DE CIBERNÉTICA TÉCNICA Y REGULACIÓN AUTOMÁTICA

Uso de filtros adaptativos para identificar sistemas

Trabajo de curso

Terminado:

estudiante universitario de 5to año

Litikova A.S.

Supervisor científico:

Doctor en Ciencias Físicas y Matemáticas Averina L.I.

Vorónezh 2014

Introducción

2.1 Filtro de salchicha óptimo

2.2 Algoritmo LMS adaptativo

2.4 Algoritmo RLS adaptativo

4. Implementación de modelos de filtros adaptativos, comparación de resultados.

Aplicaciones

Bibliografía

Introducción

El procesamiento de señales digitales en sistemas radioelectrónicos complejos se caracteriza por una serie de características que complican la solución de los problemas de ingeniería de radio. En los sistemas de alta gama, el procesamiento de señales digitales suele realizarse en condiciones de incertidumbre. características del sistema. La información a priori y actual sobre los parámetros del sistema está incompleta. Además, durante el funcionamiento del sistema, los parámetros de sus objetos y el entorno operativo pueden cambiar de forma inesperada, y luego la no estacionariedad actúa como uno de los tipos de incertidumbre. El comportamiento estocástico también es una característica importante que caracteriza el procesamiento de señales en sistemas complejos. Esto se debe a la presencia de fuentes de interferencia aleatoria y todo tipo de procesos secundarios (desde el punto de vista de la resolución del problema) con comportamiento impredecible. Así, la estocasticidad y no estacionariedad de los objetos y las condiciones de su funcionamiento determinan el factor de complejidad del sistema.

Una de las formas más prometedoras de superar las dificultades generadas por este factor de complejidad es el uso de métodos de adaptación. Con el procesamiento digital adaptativo, la información sobre el objeto y influencias externas recopilados durante el procesamiento y utilizados para cambiar los parámetros de los bloques de procesamiento. Los dispositivos de procesamiento de señales adaptativos funcionan según un principio de circuito cerrado. La señal de entrada se filtra o pondera en un filtro programable para producir una señal de salida, que luego se compara con la señal útil, estándar o de entrenamiento para encontrar la señal de error. Esta señal de error se utiliza luego para ajustar los parámetros de ponderación del procesador para minimizar gradualmente el error. En este caso, el sistema adaptativo requiere un objeto mínimo de información inicial sobre la señal entrante.

Los procesadores de procesamiento de radio se pueden dividir en dos clase grande: filtros adaptativos y antenas adaptativas. Las antenas adaptativas realizan el procesamiento espacial de señales utilizando un conjunto de antenas, formando un patrón de radiación de tal manera que crea un máximo principal en la dirección de llegada de la señal y genera ceros en la dirección de las fuentes de interferencia. Los filtros digitales adaptativos utilizan un filtro programable cuya respuesta de frecuencia o función de transferencia se cambia o adapta para pasar los componentes de señal deseados sin distorsión y atenuar señales o interferencias no deseadas, es decir, Reduce la distorsión de la señal útil de entrada. El filtro adaptativo funciona según el principio de estimar los parámetros estadísticos de la señal entrante y ajustar su propia respuesta transitoria de esta manera. para minimizar alguna función de costo. Estos filtros adaptativos se utilizan a menudo para restaurar señales con características variables en el tiempo en las salidas de los canales.

El propósito de este trabajo de curso es explorar y estudiar literatura científica sobre el tema en consideración, examine el funcionamiento de los principales algoritmos de adaptación (algoritmo LMS, algoritmo RLS y algoritmo RLS con olvido exponencial) utilizando el ejemplo de identificación de un filtro de orden 31 con una respuesta de impulso en forma de una sinusoide que decae exponencialmente. Además, se considerará la reacción de los algoritmos ante cambios bruscos en los parámetros del sistema.

1. Idea básica del procesamiento adaptativo de señales.

La estructura general del filtro adaptativo se muestra en la Fig. 1. La señal discreta de entrada x(k) es procesada por un filtro discreto, lo que da como resultado una señal de salida y(k). Esta señal de salida se compara con la señal de referencia d(k), la diferencia entre ellas forma la señal de error e(k). La tarea del filtro adaptativo es minimizar el error en la reproducción de la señal de referencia. Para ello, el bloque de adaptación, después de procesar cada muestra, analiza la señal de error y los datos adicionales provenientes del filtro, utilizando los resultados de este análisis para ajustar los parámetros (coeficientes) del filtro.

Publicado en http://www.allbest.ru/

Arroz. 1. Estructura general de un filtro adaptativo.

También es posible otra opción de adaptación en la que no se utiliza la señal de referencia o no se pueden medir directamente los parámetros de señal necesarios. Este modo de funcionamiento se denomina adaptación ciega o aprendizaje no supervisado. El estudio de la última opción de adaptación no está dentro del alcance de este trabajo de curso.

Como filtro en la estructura que se muestra en la Fig. 1, el más utilizado es un filtro digital no recursivo. Una de las principales ventajas de esta opción es que el filtro no recursivo es estable para cualquier valor de los coeficientes. Sin embargo, debe recordarse que el algoritmo de adaptación en cualquier caso introduce retroalimentación en el sistema, como resultado de lo cual el sistema adaptativo en su conjunto puede volverse inestable.

A continuación, consideraremos dos algoritmos adaptativos que utilizan una señal de referencia, que se utilizan a menudo en la práctica en varios sistemas de procesamiento de información. Para simplificar los cálculos, asumimos que las señales y los filtros son reales. Sin embargo, las fórmulas resultantes se generalizan fácilmente al caso de señales y filtros complejos.

2. Algoritmos filtrado adaptativo

2.1 Filtro de salchicha óptimo

Antes de considerar los algoritmos de adaptación en sí, es necesario determinar los parámetros de filtrado óptimos a los que deben esforzarse estos algoritmos. El enfoque del problema de filtrado óptimo puede ser estadístico o determinista. Veamos primero la opción estadística.

Deje que la señal aleatoria discreta de entrada () sea procesada por un filtro discreto no recursivo de orden N, con coeficientes (wn),

norte=0,1,…,norte. La salida del filtro es

Además, existe una señal ejemplar (también aleatoria) d(k). El error al reproducir la señal de referencia es

Es necesario encontrar coeficientes de filtro (wn) que aseguren la máxima proximidad de la señal de salida del filtro a la señal de referencia, es decir, minimicen el error. Dado que también es un proceso aleatorio, es razonable tomar el cuadrado medio como medida de su magnitud. Por lo tanto, la funcionalidad optimizada se ve así

Para resolver el problema, reescribimos (2) en forma matricial. Para hacer esto, denotaremos el vector columna de los coeficientes del filtro como w, y el vector columna del contenido de la línea de retardo en el k-ésimo paso como x(k):

Entonces (2) tomará la forma:

El error al cuadrado es

Promediando estadísticamente esta expresión obtenemos lo siguiente:

algoritmo de filtro de señal adaptativo

Los valores promediados incluidos en la fórmula resultante tienen el siguiente significado:

c es el cuadrado medio de la señal de muestra, no depende de los coeficientes del filtro y, por lo tanto, puede descartarse;

c es el vector columna de correlaciones cruzadas entre késimo conteo señal de muestra y el contenido de la línea de retardo del filtro en el k-ésimo paso. Consideraremos los procesos aleatorios x(k) y conjuntamente estacionarios, entonces el vector de correlaciones mutuas no depende del número de paso k. Denotemos este vector como p:

c es la matriz de correlación de la señal, que tiene un tamaño. Para un proceso aleatorio estacionario, la matriz de correlación tiene la forma de una matriz de Toeplitz, es decir, a lo largo de sus diagonales se encuentran los valores de la función de correlación:

Dónde - función de correlación(KF) señal de entrada.

Teniendo en cuenta las notaciones introducidas, (4) toma la siguiente forma:

Esta expresión es una forma cuadrática con respecto a w y por lo tanto, con una matriz R no singular, tiene un mínimo único, para encontrar el cual es necesario igualar el vector gradiente a cero:

De aquí obtenemos la igualdad:

Multiplicando ambos lados de la izquierda por la matriz de correlación inversa, obtenemos la solución deseada para los coeficientes de filtro óptimos:

Este filtro se llama filtro Wiener. Sustituyendo (8) en (5) se obtiene la varianza mínima alcanzable de la señal de error:

También es fácil demostrar que la señal de error de un filtro Wiener no está correlacionada con las señales de entrada y salida del filtro.

2.2 Algoritmo LMS adaptativo

Uno de los algoritmos adaptativos más comunes se basa en encontrar el mínimo de la función objetivo utilizando el método de descenso más pronunciado. Al usar este método En la optimización, el vector de coeficientes de filtro w depende del número de iteración k: y en cada iteración debe desplazarse en una cantidad proporcional al gradiente de la función objetivo en un punto dado, de la siguiente manera:

donde es un coeficiente positivo llamado tamaño de paso. Análisis de convergencia detallado este proceso dado, por ejemplo, en [filtro Wiener]. Se demuestra que el algoritmo converge si

donde está el valor propio máximo de la matriz de correlación R. La velocidad de convergencia depende de la dispersión de los valores propios de la matriz de correlación R: cuanto menor es la relación, más rápido converge el proceso de iteración.

Sin embargo, para implementar el algoritmo es necesario calcular los valores del gradiente, y para ello es necesario conocer los valores de la matriz R y el vector p. En la práctica, sólo pueden estar disponibles estimaciones de estos valores obtenidas a partir de los datos de entrada. Las estimaciones más simples son los valores instantáneos de la matriz de correlación y el vector de correlaciones mutuas, obtenidos sin ningún promedio:

Cuando se utilizan estas estimaciones, la fórmula toma la siguiente forma:

La expresión entre paréntesis, según (3), representa la diferencia entre la señal de muestra y la señal de salida del filtro en el k-ésimo paso, es decir, el error de filtrado e(k). Teniendo esto en cuenta, la expresión para actualizar recursivamente los coeficientes del filtro es muy sencilla:

El algoritmo de filtrado adaptativo basado en esta fórmula se llama LMS (Least Mean Square). Puedes obtener la misma fórmula de una manera ligeramente diferente: usando el gradiente de su valor instantáneo en lugar del gradiente del error cuadrático promediado estadísticamente.

Analizar la convergencia del algoritmo LMS resulta ser una tarea extremadamente difícil para la cual no existe una solución exacta. solución analítica. Suficiente análisis detallado El uso de aproximaciones se da en el libro de S. Khaikin. Muestra que el límite superior del tamaño del paso en este caso es más pequeño que cuando se utilizan valores de gradiente verdaderos. Este límite es aproximadamente igual a:

donde están los valores propios de la matriz de correlación R y es el cuadrado medio de la señal de entrada del filtro.

La fórmula anterior se basa en el algoritmo LMS normalizado, en el que el coeficiente en cada paso se calcula en función de la energía de la señal contenida en la línea de retardo:

donde µ0 es el valor normalizado de µ, que se encuentra en el rango de 0 a 2, y e es una pequeña constante positiva, cuyo propósito es limitar el crecimiento de µ con una señal cero en la entrada del filtro.

Incluso si el algoritmo LMS converge, las varianzas de los coeficientes de filtro para k>? no tiende a cero: los coeficientes fluctúan alrededor de valores óptimos. Debido a esto, el error de filtrado en estado estacionario resulta ser mayor que el error del filtro Wiener:

donde Eex es el exceso de error cuadrático medio del algoritmo LMS.

En el mismo libro de S. Khaikin, se da la siguiente fórmula aproximada para el llamado coeficiente de desalineación, igual a la relación de los cuadrados medios del exceso y los errores de Wiener:

El valor del coeficiente µ afecta a dos parámetros principales del filtro LMS: velocidad de convergencia y coeficiente de desafinación. Cuanto mayor sea µ, más rápido converge el algoritmo, pero mayor será el coeficiente de desafinación y viceversa.

La principal ventaja del algoritmo LMS es su extrema simplicidad computacional: para ajustar los coeficientes del filtro en cada paso, es necesario realizar N + 1 pares de operaciones de multiplicación y suma. El precio de la simplicidad es una convergencia lenta y una mayor varianza del error (en comparación con el valor mínimo alcanzable) en el estado estacionario.

2.3 Problema de filtrado óptimo determinista

Al considerar un problema de optimización estadística, la señal de entrada se consideró un proceso aleatorio y se minimizó la varianza del error en la reproducción de la señal de referencia. Sin embargo, es posible otro enfoque que no utilice métodos estadísticos.

Sea, como antes, una secuencia de muestras (x(k)), los coeficientes de un filtro no recursivo de orden N forman un conjunto (wn), y las muestras de la señal de muestra son iguales a (d(k) )). La señal de salida del filtro está determinada por la fórmula (1) y el error en la reproducción de la señal de referencia está determinado por la fórmula (2) o, en forma vectorial, (3).

Ahora el problema de optimización se formula de la siguiente manera: necesitamos encontrar tales coeficientes de filtro (wn) para que el error cuadrático total al reproducir la señal de referencia sea mínimo:

Para resolver el problema, es necesario pasar en la fórmula (3) a la notación matricial a lo largo de la coordenada k, obteniendo fórmulas para los vectores columna de la señal de salida y y para el error en la reproducción de la señal de entrada e:

Aquí d es un vector de columna de muestras de la señal de muestra y X es una matriz cuyas columnas representan el contenido de la línea de retardo del filtro en diferentes ciclos de reloj:

La expresión (18) para el error cuadrático total se puede reescribir en forma matricial de la siguiente manera:

Sustituyendo (19) en (20), tenemos:

Para encontrar el mínimo es necesario calcular el gradiente. esta funcionalidad y lo igualamos a cero:

A partir de aquí se obtiene fácilmente la solución óptima deseada:

La fórmula está estrechamente relacionada con la fórmula (8), que describe el filtro de Wiener estadísticamente óptimo. De hecho, si tenemos en cuenta que la estimación de la matriz de correlación de la señal obtenida de una implementación de un proceso aleatorio ergódico mediante promedio de tiempo da, pero es una estimación similar de las correlaciones mutuas entre la señal de muestra y el contenido del filtro. línea de retardo, entonces las fórmulas (8) y (21) coincidirán.

2.4 Algoritmo RLS adaptativo

En principio, en el proceso de recepción de una señal, es posible recalcular los coeficientes del filtro directamente utilizando la fórmula (21) en cada paso sucesivo, pero esto está asociado con costos computacionales excesivamente grandes. De hecho, el tamaño de la matriz X aumenta constantemente y, además, es necesario recalcular la matriz inversa cada vez.

Puede reducir los costos computacionales si observa que en cada paso solo se agrega uno a la matriz X nueva columna, y al vector d - un nuevo elemento. Esto permite organizar los cálculos de forma recursiva. El algoritmo correspondiente se llama mínimos cuadrados recursivos (RLS).

En el k-ésimo paso, el vector óptimo de coeficientes de filtro, según (21), es igual a

En cada paso, se agrega una nueva columna x(k+1) a la matriz X y un nuevo elemento d(k+1) al vector d:

Cuando se utiliza el algoritmo RLS, la estimación de la matriz de correlación inversa se actualiza de forma recursiva.

Al pasar al siguiente paso tenemos:

Ahora usemos la identidad matricial.

donde A y C son matrices cuadradas arbitrarias no singulares, y B y D son matrices arbitrarias de tamaños compatibles.

Establezcamos una correspondencia entre (24) y (25):

c (matriz cuadrada);

c(vector de columna);

c(escalar);

c (vector de fila).

Como resultado, (24) se puede escribir de la siguiente manera:

Tenga en cuenta que el fragmento de la expresión elevado a la primera potencia menos es un escalar. Usamos (23) y (26) en la expresión (22) para los coeficientes de filtro:

Ampliemos los corchetes:

El primer término de la fórmula resultante, según (22), representa los coeficientes del filtro óptimo para el k-ésimo paso: w(k). El mismo vector se puede aislar como multiplicador en el segundo término. En el tercer y cuarto término podemos identificar un factor común P(k)x(k+1)d(k+1):

Después de realizar el cálculo entre paréntesis y quitar el factor común, obtenemos:

Tenga en cuenta que el producto es el resultado del procesamiento de la señal de entrada recibida en el k-ésimo paso con un filtro con los antiguos coeficientes w(k). Es decir, este producto representa la salida del filtro adaptativo y(k+1). En consecuencia, la diferencia entre paréntesis es el error de filtrado e(k+1):

Ahora introduzcamos la notación para el multiplicador vectorial sacado entre paréntesis:

Teniendo esto en cuenta, la fórmula de los coeficientes del filtro quedará como:

El vector K(k+1) se llama vector de ganancia.

Entonces, cuando se utiliza el algoritmo RLS adaptativo, es necesario realizar los siguientes pasos en cada ciclo de reloj:

1. Cuando llegan nuevos datos de entrada x(k), la señal se filtra utilizando los coeficientes de filtro actuales w(k-1) y se calcula el valor de error de la señal de referencia:

2. Se calcula el vector columna de los factores de ganancia (cabe señalar que el vector K se calcula de nuevo cada vez, es decir, los cálculos no son recursivos, y además que el denominador de la fracción es un escalar):

3. Se actualiza la estimación de la matriz de correlación inversa de la señal:

Finalmente, se actualizan los coeficientes del filtro:

En cuanto a la matriz P y el vector w actualizados recursivamente, generalmente el vector w se toma como cero, y el análisis de la matriz P muestra que después de llenar la línea de retardo del filtro con muestras de señal, el resultado no dependerá de las condiciones iniciales si

En la práctica, la diagonal se llena con números positivos grandes, por ejemplo, 100/y2x.

En comparación con el algoritmo LMS, el algoritmo RLS requiere un número significativamente mayor de operaciones computacionales (con una organización óptima de los cálculos 2,5N2+4N pares de operaciones de multiplicación y suma). La organización óptima aquí significa tener en cuenta la simetría de la matriz P. Por lo tanto, el número de operaciones en el algoritmo RLS aumenta cuadráticamente al aumentar el orden de filtro.

Pero el algoritmo RLS converge mucho más rápido que el algoritmo LMS. Estrictamente hablando, ni siquiera es un algoritmo de aproximación sucesiva, ya que en cada paso proporciona coeficientes de filtro óptimos correspondientes a la fórmula (21).

2.5 Algoritmo RLS con olvido exponencial

En las fórmulas (18) y (20), los valores de error en todos los pasos de tiempo reciben el mismo peso. Como resultado, si las propiedades estadísticas de la señal de entrada cambian con el tiempo, esto conducirá a un deterioro en la calidad del filtrado. Para permitir que el filtro rastree una señal de entrada no estacionaria, podemos aplicar el olvido exponencial en (18), en el que el peso de los valores pasados ​​​​de la señal de error disminuye exponencialmente:

donde l es el coeficiente de olvido,

Cuando se utiliza el olvido exponencial, las fórmulas (28) y (29) toman la siguiente forma:

3. Filtros adaptativos en la identificación del sistema.

Los filtros adaptativos se utilizan actualmente en muchos sistemas de procesamiento de señales de telecomunicaciones y ingeniería de radio. Sin embargo, todos los métodos de uso de filtros adaptativos de una forma u otra se reducen a resolver el problema de identificación, es decir, determinar las características de un determinado sistema.

Hay dos opciones de identificación posibles: directa e inversa. En el primer caso, el filtro adaptativo se enciende en paralelo con el sistema en estudio (Fig. 2, a).

Publicado en http://www.allbest.ru/

Fig.2 Identificación de sistemas mediante filtro adaptativo:

a - directo, b - inverso.

La señal de entrada es común al sistema en estudio y al filtro adaptativo, y la señal de salida del sistema sirve como señal de referencia para el filtro adaptativo. Durante el proceso de adaptación, las características de tiempo y frecuencia del filtro tenderán a las características correspondientes del sistema en estudio.

Durante la identificación inversa, el filtro adaptativo se enciende en serie con el sistema en estudio (Fig. 2, b). La señal de salida del sistema se envía a la entrada del filtro adaptativo y la señal de entrada del sistema es una muestra para el filtro adaptativo. Así, el filtro busca compensar la influencia del sistema y restaurar la señal original, eliminando las distorsiones introducidas por el sistema.

4. Implementación de modelos de filtros adaptativos.

En este trabajo, implementamos una solución al problema de identificación directa del sistema según la Fig. 2.a utilizando tres algoritmos: LMS, RLS y RLS con olvido exponencial.

La señal de entrada será ruido gaussiano blanco discreto y el sistema en sí será un filtro no recursivo de orden 31 con una respuesta de impulso en forma de una sinusoide que decae exponencialmente, cuyo período de oscilación representa cuatro muestras. Además, después de procesar la mitad de la señal de entrada, los parámetros del sistema cambiarán abruptamente: su respuesta al impulso cambiará de signo. Esto nos permitirá observar cómo reaccionan los algoritmos ante un cambio brusco en las propiedades estadísticas de la señal procesada.

Para consultar el texto del programa que implementa los algoritmos, consulte el Apéndice 1.

Comparación de modelos

Entonces, en la Fig. 3 puede ver que en la etapa inicial, los algoritmos RLS muestran una transición mucho más rápida y un error menor en comparación con el algoritmo LMS. Ahora echemos un vistazo más de cerca al error de tiempo en la etapa inicial (Fig. 4).

La Figura 4 muestra que los algoritmos LMS y RLS dan aproximadamente el mismo error en estado estable, mientras que el algoritmo RLS con olvido exponencial prácticamente no da error.

Volvamos a la Fig. 3 y pasemos al cambio abrupto en las características del sistema. Aquí vemos que el algoritmo LMS, después de algún proceso transitorio, redujo el error de filtrado al mismo nivel que tenía antes, pero el RLS no pudo adaptarse a las condiciones cambiadas.

Fig.3. Resultados de la identificación del sistema utilizando los algoritmos LMS (línea superior), RLS (línea media) y RLS con olvido exponencial (línea inferior): a la izquierda - la dependencia del error en el tiempo, a la derecha - las respuestas impulsivas finales del filtros.

Fig.4. Gráfico ampliado de error versus tiempo hasta que cambian las características del sistema.

Sin embargo, el algoritmo RLS con olvido exponencial (que tiene la capacidad de rastrear cambios en las propiedades estadísticas de la señal procesada) hizo un excelente trabajo con las características cambiantes del sistema, e incluso con menos transitorios que LMS. Esto lo confirman las características de impulso final de los filtros (Fig.3, derecha): las características del filtro LMS y RLS con olvido exponencial coinciden bien con las oscilaciones amortiguadas exponencialmente de la respuesta al impulso del sistema analizado (Fig.6) , y la característica del filtro RLS parece un conjunto aleatorio de valores.

Si amplía los gráficos de error de filtrado después de cambiar las características del sistema (Fig. 6), puede ver que el algoritmo RLS con olvido exponencial, como antes, da un error menor que el algoritmo LMS. No consideramos el algoritmo RLS en esta etapa, ya que su error es visible en la Fig. 3 y no es comparable con los errores de otros algoritmos.

Fig.5. Gráfico ampliado del error de filtrado tras un cambio brusco en las características del sistema

Fig.6. Respuesta impulsiva del sistema.

El trabajo realizado ha demostrado que el algoritmo LMS se adapta bien a ambos señal estacionaria, y con una señal con características cambiantes. El algoritmo RLS en su forma "pura" da excelentes resultados basado en una señal estacionaria, pero no es capaz de hacer frente a cambios en las características del sistema. El algoritmo RLS con olvido exponencial hace un gran trabajo con las dos señales anteriores y muestra mucho menos proceso de transición y un error menor en comparación con otros algoritmos considerados.

Sin embargo, no olvide que los algoritmos RLS requieren mucha más potencia informática que LMS (2,5N2+4N pares de operaciones de multiplicación-suma en comparación con N + 1 pares de operaciones en cada paso para LMS).

En consecuencia, podemos concluir que para los casos que no requieren alta precisión, lo más conveniente es utilizar el algoritmo LMS. Si se requiere alta precisión y suficiente potencia informática, los algoritmos RLS son más adecuados. Además, hay que recordar que el algoritmo RLS en su forma "pura" sólo se puede utilizar en sistemas con una señal estacionaria. Si la naturaleza de la señal puede cambiar, es necesario utilizar el algoritmo RLS con olvido exponencial.

Aplicaciones

Apéndice 1

Implementación de filtros adaptativos en MATLAB

Primero, generamos las señales de entrada y salida del sistema identificado:

x=randn(2000,1); %ruido gaussiano blanco discreto

b=exp(-t/5).*cos(t*pi/2); % de respuesta al impulso del sistema

% genera la primera mitad de la señal de salida.

Filtro(b, 1, x(1:1000));

% genera la segunda mitad de la señal de salida.

y(1001:2000) = filtro(-b, 1, x(1001:2000), estado);

A continuación, crearemos objetos de filtro adaptativos utilizando los constructores adecuados. Para el algoritmo LMS, primero calcularemos el valor del coeficiente m, eligiéndolo como la mitad del valor límite determinado por la fórmula (15), y para el algoritmo RLS con olvido exponencial, tomaremos m = 0,6. Para todos los demás parámetros utilizamos el valor predeterminado:

% crear objetos de filtro adaptativo LMS y RLS

norte = 32; % longitud del filtro

mu = 1/N/var(y); % de tamaño de paso para LMS

ha_lms = adaptfilt.lms(N,mu); % creando un objeto para el LMS

ha_rls = adaptfilt.rls(N); % creando un objeto para RLS

ha_erls = adaptfilt.rls(N,0.6); % de creación de objetos para RLS con olvido exponencial

Ahora implementemos el filtrado usando la función de filtro. De acuerdo con la Fig. 2, a la señal de entrada del filtro adaptativo coincide con la señal de entrada del sistema en estudio (x), y la señal de referencia es la señal de salida del sistema (y):

% implementar filtrado:

Filtro(ha_lms, x, y);

Filtro(ha_rls, x, y);

Filtro(ha_erls, x, y);

Ahora construiremos la respuesta al impulso del sistema (Fig.3) y gráficos de la señal de error versus el tiempo, y también mostraremos las respuestas al impulso de los filtros obtenidos al momento de completar el procesamiento de la señal (Fig.4):

% construimos gráficos:

título("Error del LMS")

eje()

impz(ha_lms.coeficientes)

título ("respuesta de impulso LMS")

título("Error de RLS")

eje()

impz(ha_rls.coeficientes)

título("Respuesta al impulso RLS")

eje()

título("error eRLS")

eje()

impz(ha_erls.coeficientes)

título("respuesta al impulso eRLS")

título("Respuesta al impulso del sistema")

Bibliografía

1. Sergienko A.B. Procesamiento de señales digitales.-- 3ª ed. - San Petersburgo: BHV-Petersburgo, 2011. - 768 p.

2. Khaikin S. Redes neuronales. curso completo. - M.: Williams, 2006. - 1104 p.

3. Filtros adaptativos: Por. Del inglés/[Ed. C. F. N. Cowan y P. M. Grant]. - M.: Mir, 1988. - 392 p.

4. Shakhtarin B.I. Procesos aleatorios en ingeniería de radio: una serie de conferencias. - M.: Radio y Comunicaciones, 2000. - 584 p.

5. Fundamentos del procesamiento de señales digitales: Curso de conferencias / A.I Solonina, D.A. Ulakhovich, S.M. -- 2ª ed., revisada. y corr. - San Petersburgo: BHV-Petersburgo, 2005. - 768 p.

6. Solonina A.I. Procesamiento de señales digitales. Modelado en MATLAB / A.I Solonina, S.M. Arbuzov. - San Petersburgo: BHV-Petersburgo, 2008. - 816 p.

7. Dzhigan V. Filtros adaptativos. medios modernos simulaciones y ejemplos de implementación. / V. Dzhigan // Electrónica: ciencia, tecnología, negocio. -- 2012. -- N° 7 (00121). -- págs. 106-125.

8. Seogienko A.B. Algoritmos de filtrado adaptativo: características de implementación en MATLAB. / A.B.Sergienko // Exponenta Pro. -- 2003. -- N° 1(1). -- págs. 18-28.

Publicado en Allbest.ru

Documentos similares

    Clasificación de sistemas adaptativos. Ventajas y desventajas de los tipos y clases de sistemas adaptativos y autoajustables. Desarrollo de un esquema de sistema adaptativo original. Sistemas con estabilización del contorno principal, identificador o modelo refinado del objeto.

    artículo, añadido el 24/07/2013

    Umbrales de filtrado de señales de voz rígidos y flexibles. Gráficos de descomposición de ondas de una señal de voz. Diagrama de bloques de un algoritmo de filtrado con umbral flexible. Método estadístico Filtrar la señal de voz. Evaluación de la calidad de la señal de voz reconstruida.

    resumen, añadido el 01/12/2008

    Investigación del procesamiento digital de señales y su aplicación en diversos campos de actividad. Estudiando las ventajas y desventajas. filtrado mediano. Análisis de los principios de funcionamiento de filtros de mediana. Implementación de filtrado de mediana utilizando MatLab712 R2011a.

    trabajo del curso, añadido el 04/07/2013

    Datos iniciales para el cálculo de filtros RC pasivos. Cálculo de parámetros de elementos filtrantes. Filtros de frecuencia señales electricas diseñado para aumentar la inmunidad al ruido de varios dispositivos electronicos y sistemas. Parámetros de filtros reales.

    prueba, añadido el 04/10/2008

    Características de los requisitos básicos para métodos y algoritmos de filtrado. Requisitos previos para la aparición de interferencias y distorsiones. Características de los filtros basados ​​en transformadas de coseno ortogonales y discretas. Usando un filtro con un tamaño de ventana variable.

    trabajo del curso, añadido el 08/12/2011

    Características generales de amplitud-frecuencia (AFC) de varios tipos de filtros. Construcción de un circuito de filtro paso alto y paso bajo: filtros activos y pasivos de primer y segundo orden. Principios de funcionamiento, funciones y aplicaciones de los filtros paso banda y muesca.

    resumen, añadido el 18/12/2011

    Clasificación de sistemas de identificación por radiofrecuencia (RFI) y sus áreas de aplicación. Composición del sistema RFID, principios físicos de funcionamiento. Ventajas y desventajas de la identificación por radiofrecuencia. Características de los sistemas RFID y sus elementos, estándares internacionales.

    resumen, añadido el 15/12/2010

    Clasificación de los sistemas de localización acústica por finalidad y tipo de transductor primario, por naturaleza del espectro de frecuencia de la señal, por tipo de efecto modulador, por selectividad. Ámbito de aplicación de los sensores de localización. Algoritmo de identificación.

    trabajo del curso, añadido el 11/08/2010

    Diseño de filtros eléctricos, tecnología de su fabricación, principio de funcionamiento. Medidas de transferencia y opciones de filtrado. Utilizándolos en sistemas. comunicación multicanal, dispositivos de radio, dispositivos de automatización, telemecánica. Filtros de paso bajo.

    prueba, añadido el 07/04/2016

    La esencia y principio de funcionamiento de los filtros anti-aliasing. Clasificación y tipos. Valores que caracterizan la calidad del filtro. Cálculo del coeficiente de suavizado. Diseño de filtros anti-aliasing activos y pasivos: ventajas, desventajas, aplicación.

PROCESAMIENTO DE SEÑAL DIGITAL

Procesamiento de señales digitales

Tema 11. FILTRADO ADAPTABLE DE DATOS DIGITALES

Que intenten subyugar las circunstancias, en lugar de estar ellos mismos sujetos a ellas.

Horacio. Mensajes. Poeta romano, siglo I a.C.

Si no le ves ningún sentido a esta teoría, mucho mejor. Puedes saltarte las explicaciones e inmediatamente empezar a utilizarlo en la práctica.

Valentín Rovinsky. Teoría de los juegos de cartas.

Geofísico de Kiev de la escuela de los Urales, siglo XX.
Contenido

Introducción.

1. información general sobre adaptativo. Principales áreas de aplicación. Cancelador de ruido adaptativo. Filtro Wiener adaptativo. Algoritmo adaptativo de mínimos cuadrados de Widrow-Hopf. Diseños recursivos de mínimos cuadrados.

2. Conceptos básicos de agrupación estadística de información. Requisitos previos del método. Problema de agrupación estadística. Uso de datos a priori. Eficiencia del método.

Regularización de datos estadísticos. Comprobación de los principios teóricos del método. Evaluación de la conservación de la resolución. Evaluación estadística de la regularización de datos. Resultados de la simulación. Representación de frecuencia. Ejemplo uso práctico.

4. Agrupación estadística información útil. La esencia de la implementación de hardware. Características de la implementación de hardware. Implantación de sistemas de agrupación de información. Un ejemplo de la implementación de un sistema de agrupación de información.

Introducción

En los métodos tradicionales de procesamiento de datos, la información se extrae de las señales de entrada. sistemas lineales Con parámetros constantes Algoritmos de transformación de datos. Los sistemas pueden tener una respuesta al impulso tanto finita como infinita, pero la función de transferencia de los sistemas no depende de los parámetros de las señales de entrada y sus cambios a lo largo del tiempo.

Los dispositivos de procesamiento de datos adaptativos se distinguen por la presencia de una cierta conexión entre los parámetros de la función de transferencia con los parámetros de entrada, salida, esperada, predicha y otras señales adicionales o con los parámetros de sus relaciones estadísticas, lo que permite el autoajuste para procesamiento óptimo de la señal. En el caso más simple, un dispositivo adaptativo contiene un filtro de procesamiento de datos programable y un bloque de adaptación (algoritmo) que, en base a programa especifico El análisis de entrada, salida y otros datos adicionales produce una señal para controlar los parámetros del filtro programable. La respuesta al impulso de los sistemas adaptativos también puede ser finita o infinita.

Como regla general, los dispositivos adaptativos están diseñados para fines funcionales específicos. ciertos tipos señales. La estructura interna de los sistemas adaptativos y el algoritmo de adaptación están casi completamente regulados por el propósito funcional y una cierta cantidad mínima de información inicial a priori sobre la naturaleza de los datos de entrada y sus parámetros estadísticos y de información. Esto da lugar a una variedad de enfoques para el desarrollo de sistemas y complica significativamente su clasificación y desarrollo de principios teóricos generales /l38/. Pero cabe señalar que dos enfoques son los más utilizados en el desarrollo de sistemas de procesamiento adaptativo de señales: el basado en el esquema de mínimos cuadrados (LSC) y el esquema de mínimos cuadrados recursivo (RLS).

^ 11.1. INFORMACIÓN GENERAL SOBRE FILTRACIÓN DIGITAL ADAPTATIVA.

Aplicaciones principales Filtrado adaptativo: limpieza de datos de señales de interferencia inestables y ruido que se superponen en el espectro con el espectro de señales útiles, o cuando la banda de frecuencia de interferencia es desconocida, variable y no se puede especificar a priori para calcular filtros paramétricos. Por ejemplo, en las comunicaciones digitales, una fuerte interferencia activa puede interferir con la señal útil y, cuando se transmite información digital a través de canales con características de frecuencia deficientes, se pueden observar interferencias entre símbolos de códigos digitales. Solución efectiva Estos problemas sólo son posibles con filtros adaptativos.

La respuesta de frecuencia de los filtros adaptativos se ajusta o modifica automáticamente según un determinado criterio, lo que permite que el filtro se adapte a los cambios en las características de la señal de entrada. Se utilizan ampliamente en radio y sonar, en sistemas de navegación, en la selección de señales biomédicas y en muchas otras ramas de la tecnología. Como ejemplo, considere los esquemas de filtrado de señales adaptativos más comunes.

Cancelador de ruido adaptativo . El diagrama de bloques del filtro se muestra en la Fig. 11.1.1.

Arroz. 11.1.1.
El filtro consta de un bloque de filtro digital con coeficientes ajustables y un algoritmo adaptativo para sintonizar y cambiar los coeficientes del filtro. El filtro recibe señales de entrada y(k) y x(k) simultáneamente. La señal y(k) contiene la señal útil s(k) y la señal contaminante g(k) no correlacionada con ella. La señal x(k) de cualquier fuente de ruido está correlacionada con g(k) y se utiliza para formar una estimación de la señal ğ(k). La señal útil se estima por la diferencia:

š(k) = y(k) – ğ(k) = s(k) + g(k) – ğ(k). (11.1.1)

Cuadramos la ecuación y obtenemos:

š 2 (k) = s 2 (k) + (g(k) – ğ(k)) 2 + 2.s(k) (g(k) – ğ(k)). (11.1.2)

Calculemos la expectativa matemática de los lados izquierdo y derecho de esta ecuación:

M[š 2 (k)] = M + M[(g(k) – ğ(k)) 2 ] + 2M. (11.1.3)

El último término de la expresión es igual a cero, ya que la señal s(k) no se correlaciona con las señales g(k) y ğ(k).

M[š 2 (k)] = M + M[(g(k) – ğ(k)) 2 ]. (11.1.4)

En esta expresión, M = W(s(k)) es la potencia de la señal s(k), M[š 2 (k)] = W(š(k)) es la estimación de la potencia de la señal s(k) y el total potencia de salida, M[(g(k) – ğ(k)) 2 ] = W( g) - potencia de ruido residual que puede estar contenida en la señal de salida. Al ajustar el filtro adaptativo a la posición óptima, se minimiza la potencia del ruido residual y, en consecuencia, la potencia de la señal de salida:

Mín W(š(k)) = W(s(k)) + mín W( g). (11.1.5)

La configuración no afecta la potencia de la señal útil, ya que la señal no está correlacionada con el ruido. El efecto de minimizar la potencia de salida total será maximizar la relación señal-ruido de salida. Si la configuración del filtro garantiza la igualdad ğ(k) = g(k), entonces š(k) = s(k). Si la señal no contiene ruido, el algoritmo adaptativo debe establecer valores cero todos los coeficientes del filtro digital.


Arroz. 11.1.2.
Filtro salchicha adaptativo . La señal de entrada y(k) del filtro mostrado en la Fig. 11.1.2 incluye un componente correlacionado con la segunda señal x(k) y un componente útil no correlacionado con x(k). El filtro forma la señal ğ(k) a partir de x(t) - evaluación óptima esa parte de y(k) que está correlacionada con x(k) y la resta de la señal y(k). Señal de salida:

E(k) = y(k) - ğ(k) = y(k) - h t incógnita k = y(k) - h(n)x(kn),

Dónde h t y incógnita k – vectores de coeficientes de peso del filtro y su señal de entrada.

Asimismo al método anterior, elevamos al cuadrado los lados izquierdo y derecho de la ecuación, encontramos las expectativas matemáticas de ambos lados y obtenemos la ecuación de optimización  de la señal de salida:

   2 PAG t h + h t RH, (11.1.6)

Donde  2 = M – varianza y(k), PAG= M – vector correlación cruzada, R= METRO[ incógnita k incógnita k T ] – matriz de autocorrelación.


Arroz. 11.1.3.
En un entorno estacionario, una gráfica de  versus coeficientes h tiene forma de copa superficie de adaptación(Figura 11.1.3). gradiente de superficie:

d / d h = -2PAG + 2RH.

Cada conjunto de coeficientes h(n) en esta superficie corresponde a un punto determinado. En el punto mínimo, el gradiente es cero y el vector de coeficientes de ponderación del filtro es óptimo:

h optar = R -1 PAG. (11.1.7)

Esta fórmula se llama ecuación de Wiener-Hopf. La tarea del algoritmo. ajustes automáticos es la selección de tales coeficientes de ponderación del filtro que aseguren el funcionamiento en el punto óptimo de la superficie de adaptación.

Sin embargo aplicación práctica El filtro se complica por el uso de matrices de correlación R y P, que a priori son desconocidas y que pueden cambiar con el tiempo para señales no estacionarias.

Algoritmo de mínimos cuadrados adaptativo de Widrow-Hopf . Esencialmente, se trata de una modificación del filtro de Wiener, en la que, en lugar de calcular los coeficientes (11.1.7) en un solo paso, se utiliza un algoritmo para descender secuencialmente hasta el punto óptimo al procesar cada muestra:

h k +1 = h k - e k incógnita k , (11.1.8)

mi k = y k - h t incógnita k. (11.1.9)

Condición de convergencia al óptimo:

0 <  >1/ máx., (11.1.10)

Donde  es el parámetro de velocidad de descenso,  m ax es el máximo valor propio matriz de covarianza de datos. El diagrama de bloques del algoritmo se muestra en la Fig. 11.1.4.

Arroz. 11.1.4. Algoritmo de adaptación de mínimos cuadrados.

En la práctica, el punto de máxima optimización fluctúa alrededor del teóricamente posible. Si la señal de entrada no es estacionaria, entonces el cambio en las estadísticas de la señal debe ocurrir lo suficientemente lento para que los coeficientes del filtro tengan tiempo de seguir estos cambios.

Diseños recursivos de mínimos cuadrados. se diferencian en que el cálculo de cada muestra posterior de coeficientes h(n) se realiza no solo a partir de los coeficientes de una sola muestra anterior, sino también con una cierta longitud de memoria que se desvanece gradualmente de muestras anteriores, lo que permite reducir las fluctuaciones en estimaciones al procesar señales estacionarias.

^ 11.2. Conceptos básicos de agrupación estadística de información.

Al construir sistemas de filtrado de datos adaptativos gran valor tener características estadísticas de las señales procesadas y del ruido, su estacionariedad y la presencia de cualquier información adicional, correlacionado con el principal. Consideremos la posibilidad de utilizar información adicional al construir sistemas adaptativos usando un ejemplo específico: un sistema para el filtrado adaptativo de datos de mediciones geofísicas nucleares continuas.

Requisitos previos del método. La cantidad física registrada durante las mediciones de física nuclear en geofísica suele ser la frecuencia. señales de pulso a la salida de detectores de radiación ionizante en el modo de selección de amplitud integral o diferencial. Los valores de la cantidad medida, al estar distribuidos estadísticamente por naturaleza, sólo pueden determinarse promediando el número de registros de partículas ionizantes a lo largo de intervalos de tiempo. El número registrado de pulsos determina el error estadístico de una sola medición, y el intervalo de tiempo promedio que proporciona el error estándar determina su desempeño. Para los métodos con registro continuo de información en el tiempo (o en el espacio), la ventana de tiempo de las mediciones también determina la resolución temporal (o espacial, teniendo en cuenta la velocidad de movimiento del detector) de la interpretación de los resultados de las mediciones, mientras que la eficiencia La posibilidad de registrar información suele estar limitada por las condiciones de medición y/o los medios técnicos para su ejecución. Un ejemplo típico es el registro de pozos, donde las posibilidades de aumentar la intensidad de los flujos de información están limitadas por los parámetros de eficiencia de registro y sensibilidad de los detectores de radiación, que dependen de su tipo y tamaño. Las dimensiones de los detectores, naturalmente, dependen en gran medida de las dimensiones de los instrumentos de fondo de pozo, que, a su vez, están limitadas por los diámetros de los pozos.

A continuación consideramos la posibilidad de aumentar la precisión y productividad de las mediciones físicas nucleares continuas, para mayor claridad, en relación con las condiciones de medición en la versión de muestreo gamma de pozo, aunque en la misma medida se puede utilizar en estudios gamma automáticos y aéreos. en enriquecimiento radiométrico de minerales, en radiometría de rayos X y otros métodos de geofísica nuclear. Se supone que el registro de datos se lleva a cabo en formulario digital con acumulación de muestras a intervalos constantes de muestreo de datos (en el tiempo y el espacio, siempre que el detector se mueva a una velocidad constante).

En el caso general, la información útil (objetivo) puede estar presente en varios intervalos de energía del espectro de radiación. Los intervalos de medición de trabajo generalmente se consideran secciones del espectro donde la información útil está presente en forma "pura" o mezclada con interferencias (fondo), cuyo valor se puede tener en cuenta al procesar los resultados de las mediciones. Por ejemplo, durante las pruebas gamma de rocas para determinar el contenido de radionucleidos naturales (RNN), se registra radiación con una energía de más de 250-300 keV, representada principalmente por cuantos primarios y individualmente dispersos, cuya densidad de flujo es proporcional a la fracción de masa de NRN en las rocas. La densidad del flujo de radiación en el rango de baja energía del espectro (20-250 keV, principalmente radiación multidispersada) también depende de la fracción de masa de la NRN, pero esta dependencia está relacionada paramétricamente con el número atómico efectivo del emisor-absorbente. medio en la región del detector, cuyas variaciones a lo largo del pozo pueden provocar un gran error en la interpretación de los resultados de las mediciones. Mientras tanto, la densidad del flujo de información (en relación con la fracción de masa de NRN) en el rango de 20-250 keV es mucho mayor que en el rango de más de 250 keV, especialmente cuando se registra radiación con detectores de centelleo de pequeño volumen, que han aumentado sensibilidad específicamente a la parte de baja energía del espectro de radiación.

Problema de agrupación estadística La información en flujos de señales en una forma general y más simple se puede formular de la siguiente manera. La información útil está presente en dos flujos de señales estadísticamente independientes (en dos intervalos no superpuestos del espectro de emisión). En el primer flujo de señales, condicionalmente, principalmente, la información útil está presente en forma "pura": la densidad del flujo de señales es proporcional a la cantidad física determinada. En la segunda corriente, condicionalmente adicional, la información útil está influenciada por factores desestabilizadores cuyo significado se desconoce. En ausencia de factores desestabilizadores, el coeficiente de correlación de las densidades de flujo promedio en estos dos flujos de señales es constante y cercano a 1. Para reducir el error de medición estadística, es necesario extraer información útil del flujo de señales adicional y sumarla con la corriente principal.

Denotamos los flujos, así como las frecuencias de los flujos de señal principal y adicional, mediante los índices n y m (pulsos por segundo), la conexión de los flujos por frecuencia con el índice x = m/n. Debe determinarse la frecuencia de flujo n. El valor x puede cambiar debido a la influencia de factores desestabilizadores en el flujo m y en el caso general es una variable aleatoria distribuida según una determinada ley con densidad de probabilidad P(x), expectativa matemática y varianza D x.

Según el teorema de Bayes, la densidad de probabilidad de la distribución de frecuencia n sobre el número de muestras de señal N medidas en un intervalo unitario t se determina mediante la expresión:

P N (n) = P(n) P n (N) P(N), (11.2.1)

P n (N) = (nT) N e -n  N! , (11.2.2)

P(norte) = P n (N) P(n) dn, (11.2.3)

Donde: P(n) es la densidad de probabilidad a priori de la frecuencia n, P n (N) es la distribución de probabilidad posterior de muestras numéricas N (ley de Poisson). Tomando además como valor deseado los valores de las muestras z=n en intervalos  (exposición de muestras digitales o ventana de tiempo deslizante de datos analógicos) y sustituyendo (11.2.2, 11.2.3) en (11.2.1), obtenemos:

P N (z) = P(z) z N e -z  P(z) z norte mi -z dz. (11.2.4)

Con una distribución desconocida de los valores z, se supone que la densidad de distribución a priori P(z) es uniforme de 0 a , mientras que de la expresión (11.2.4) se derivan expresiones bien conocidas:

Z = D z = N+1  N, (11.2.5)

 z 2 = D z z 2 = 1 (N+1)  1N. (11.2.6)

Descuidamos los valores de las unidades en las expresiones, lo cual no sólo es correcto en condiciones de "buenas" estadísticas, sino también necesario en el modo de mediciones continuas secuenciales para eliminar el desplazamiento de los valores promedio.

Como se desprende de la teoría del registro de rayos gamma (GC) y está bastante bien confirmado por la práctica del muestreo de rayos gamma, la resolución espacial de las mediciones del registro de rayos gamma al interpretar los resultados del GC para el contenido de elementos radiactivos naturales en Las rocas a lo largo del pozo tienen un tamaño promedio de 10 cm, y en pozos pequeños el diámetro puede incluso aumentar a 5-7 cm. Sin embargo, la implementación de dicha resolución sólo es posible en condiciones de estadísticas suficientemente "buenas". El factor de mejora de la dispersión del ruido de los filtros de deconvolución digitales, que se utilizan en la interpretación de GC, es en promedio aproximadamente 12 y varía de 4 a 25 dependiendo de la densidad de las rocas, el diámetro del pozo, el diámetro de la herramienta del pozo, etc. Para lograr una resolución de 10 cm con un error de interpretación diferencial estándar de no más del 10-20%, el error de medición estadística no debe exceder el 3-7%. Y esto, a su vez, determina el volumen de conteo para una sola exposición de al menos 200-1000 pulsos. En el registro de rayos gamma, esto último sólo es posible para rocas con un contenido relativamente alto de NRN (más del 0,001% de uranio equivalente), cuando se utilizan detectores grandes (con una eficiencia de registro de más de 10 pulsos/seg por 1 µR/hora) y a baja velocidad de registro (no más de 100-300 m/hora). En un grado u otro, este problema es característico de todos los métodos de la geofísica nuclear y es especialmente grave en las modificaciones espectrométricas de las mediciones.

Sin embargo, cabe señalar que el proceso de mediciones continuas tiene una cierta base fisica tanto para aplicar métodos de regularización de los resultados de la interpretación de datos, como para regularizar los propios datos estadísticos (matrices de muestras N) al procesarlos.

La forma más sencilla de preparar datos digitales para su interpretación es filtrarlos mediante un filtro de paso bajo utilizando el método de mínimos cuadrados (LSM) o funciones de ponderación (Laplace-Gaussian, Kaiser-Bessel, etc.). Sin embargo, cualquier método de filtrado de datos de baja frecuencia reduce la resolución espacial de interpretación, ya que además de reducir las fluctuaciones estadísticas, conducen a una cierta deformación de los componentes de frecuencia de la parte útil de la señal, cuyo espectro, según la deconvolución condiciones, debe tener valores reales hasta la frecuencia de Nyquist. Hasta cierto punto, este factor negativo puede eliminarse mediante el método de regularización adaptativa de datos (ARD).

Las expresiones (11.2.5-6) ​​​​se obtuvieron bajo el supuesto de que la distribución a priori P(z) para las lecturas en cada exposición actual  es completamente desconocida. Mientras tanto, cuando se procesan datos de medición continua, y especialmente datos de registro, que normalmente son multiparamétricos, para cada muestra actual durante el procesamiento de datos se puede llevar a cabo una cierta evaluación de la distribución P(z). Como mínimo, hay dos formas de estimar la distribución P(z).

Método 1. Utilizar matrices de datos de mediciones paralelas de cualquier otro parámetro de información, cuyos valores estén claramente correlacionados con la matriz de datos procesada, ya sea en todo el espacio de medición o en un determinado intervalo de comparación de datos móviles. Dichos conjuntos incluyen, por ejemplo, mediciones de registro preliminares durante la perforación de pozos, mediciones con un dispositivo diferente, con una velocidad de registro diferente, en un rango espectral de radiación diferente e incluso con un método de registro diferente. En el muestreo gamma, la distribución P(z) se puede evaluar utilizando mediciones paralelas de la intensidad del flujo m en el rango de baja frecuencia del espectro de la roca.

Método 2. Con un único diagrama de GC, la evaluación de la distribución P(z) en cada punto de procesamiento de datos actual se puede realizar utilizando las vecindades más cercanas de un punto determinado, cubriendo un intervalo espacial más amplio en comparación con el intervalo de muestreo.

Uso de datos a priori. Supongamos que además de la matriz de datos principal N , para procesar (preparar para interpretación), tenemos una matriz de datos adicional M, cuyos valores están hasta cierto punto correlacionados con la matriz N. En ausencia de matrices adicionales, el método 2 nos permite obtener la matriz M procesando la matriz N con un filtro de mínimos cuadrados digitales (o cualquier otro filtro de peso) con una ventana de tiempo deslizante T  3 (M(k) = m(k)señal suavizada m(k) = n(k) ③ h, donde h es el operador del filtro digital simétrico). Tenga en cuenta también que el segundo método siempre se puede utilizar para regularizar los datos, independientemente de la disponibilidad de datos para el primer método.

Array M le permite dar una estimación características estadísticas distribuciones P(z). Entonces, si para los mismos intervalos de tiempo  en la matriz M hay muestras M = m k  (o muestras de algún otro parámetro reducido a ellas), entonces podemos escribir:

P M (z) =
, (11.2.7)

Donde P(x) es la densidad de distribución a priori de los valores x k = m k /n k, que en el caso general también puede ser aleatoria. Con una distribución uniforme de P(x) de 0 a  para la lectura M, cualquier valor z es igualmente probable, es decir no hay ningún efecto por las mediciones en caudal m. Sin embargo, de acuerdo con las condiciones iniciales del problema, la presencia de información útil en la corriente m es obligatoria y, en consecuencia, la existencia de al menos ciertos límites de la distribución P(x) desde x min > 0 hasta x max<< , и среднего значения по пространству измерений. При этом из выражения (11.2.7) следует, что наиболее вероятное значение z a , "априорное" для отсчетов z=n в потоке n по измерениям в потоке m (отсчетам М), должно быть равно:

Z a = (M+1)  M. (11.2.8)

Con independencia estadística de los valores x y M, la raíz del error cuadrático medio relativo al determinar los valores z a a partir de muestras en la matriz M:

 za 2 =  M 2 +  x 2 . (11.2.9)

De ahí la dispersión de la distribución de los valores de z a:

D za = (D M +M 2  x 2) 2 = D(M)  2, (11.2.10)

D(M) = D M +M 2  x 2 = D M +D xm , (11.2.11)

D M = M+1  M, D xm = M 2  x 2,

Donde el valor de la dispersión D M está determinado por las estadísticas de muestras en la matriz M en x = const, el valor D xm representa la dispersión de los valores de M debido a las fluctuaciones en el valor de x, y la suma D (M) determina la dispersión total de las muestras M.

La influencia de P(x) en la forma de la distribución Р М (z) se refleja en su “estiramiento” a lo largo de la coordenada z con respecto al valor modal, mientras que la solución a la integral (11.2.7) en una primera aproximación se puede representar de la siguiente forma:

P M (z)  b
e-bz. (11.2.12)

Para una distribución dada:

= z a = ab, (11.2.13)

D za = ab 2 , (11.2.14)

Teniendo en cuenta las expresiones (11.2.8) y (11.2.10):

A = MD M (D za 2) = MD M D(M), (11.2.15)

B = D M (D za ) = D M D(M). (11.2.16)

Se supone que el valor "a" en la expresión (11.2.15) es un número entero. La expresión (11.2.12) puede aceptarse para la distribución (11.2.4) como distribución de probabilidad a priori P(z), en este caso:

P norte (z) = (b+1)
mi-z(b+1) . (2.11.17)

Por tanto, la expectativa matemática y la varianza z:

Z = (N+a)(b+1), (11.2.18)

D z = (N+a)(b+1) 2 . (2.11.19)

Usando expresiones (11.2.15-16):

Z = N+(1-)M, (11.2.20)

Donde  y (1-) son los coeficientes de confianza de ponderación en las lecturas N y M:

 = D(M)(D norte 2 +D(M)). (2.11.21)

Dispersión y error cuadrático medio relativo de las lecturas z:

Dz = D(M)
, (11.2.22)

 z 2 =1(N+MD M D(M)). (11.2.23)

Eficiencia del método. La comparación de las expresiones (11.2.20-23) y (11.2.5-6) ​​nos permite evaluar el efecto del uso de información adicional de un flujo M estadísticamente independiente de N (información adicional arbitraria).

1. En  constante,  x 2  0, D xm  0 y la dispersión de muestras en la matriz M está determinada únicamente por las estadísticas de flujo:

D(M)  D M = M, z = (N+M) (+1),

 z 2  1(N+M)<  N 2 = 1N, (11.2.24)

 =  N 2  z 2 = N  1+MN,

Lo cual corresponde a la definición de z en dos mediciones independientes y el efecto de utilizar información adicional es máximo. Por lo tanto, para M  N,   2 y el error de medición disminuye en
1,4 veces.

2. En el caso general, D xm  0, mientras que D(M) > D M y el efecto positivo disminuye. En el límite:  x  , D xm  , D(M)  ,   1, z  N,  z   N y el efecto positivo degenera completamente. En todos los demás casos  > 1 y  z<  N . Отсюда следует, что при наличии коррелированной информации в массиве М положительный эффект, в той или иной мере, всегда имеет место.

3. Cuanto mayor sea el valor de x = m/n, menor será la fluctuación de x (valor  x) y mayor será el efecto positivo. menos que el valor muestras N = n. El efecto positivo aumenta precisamente en aquellos casos en los que la falta de información es especialmente aguda: con valores bajos de densidad de flujo de radiación y/o exposición de las mediciones.

Un efecto similar ocurrirá cuando se formen M muestras en las proximidades puntos actuales procesar datos determinando su valor promedio (suavizado de baja frecuencia de la matriz n). El suavizado preliminar de baja frecuencia también se puede utilizar para una matriz adicional estadísticamente independiente m, lo que aumentará la confiabilidad de las muestras de pronóstico y aumentará la profundidad de la regularización, si este suavizado durante la regularización según las fórmulas (11.2.20 y 21) no afecta el cambio en la forma de la señal principal. Este último está determinado por la relación entre los espectros de frecuencia de la señal principal y el operador de suavizado.

Hay dos formas posibles de implementar la ecuación (11.2.20): directamente en el proceso de mediciones utilizando el método de agrupación estadística de información útil (SGPI) en tiempo real, o el método de regularización estadística de datos (SRD), registrados en la forma de una distribución temporal (espacial) en conjuntos paralelos de muestras.

^ 11.3. Regularización de datos estadísticos.

Como se desprende de la expresión (11.2.21), para el uso práctico de información de flujos de datos adicionales, es necesario establecer los valores y la varianza D(M) y, basándose en la configuración de este último mediante la expresión (11.2.11 ), es necesario conocer el valor  x: fluctuación cuadrática media relativa del valor x.

En relación con el DRS, determinar los valores y  x a partir de las matrices de datos registrados no presenta ninguna dificultad tanto en todo el espacio de medición como en forma de distribuciones en ventana corredera promedio de datos. Esto último equivale a llevar D xm => 0 para el punto de procesamiento de datos actual en función de la información de su entorno inmediato y permite la máxima extracción de información útil de flujos de señales adicionales si el espectro de frecuencia de la distribución de la cantidad x sobre la medición El espacio es mucho menor que el espectro de frecuencia de la señal de información útil. Tenga en cuenta que la información sobre la distribución de x también puede tener significado práctico(en particular, durante el muestreo gamma con un flujo adicional de señales en el rango de baja energía del espectro de radiación, para estimar el número atómico efectivo de las rocas).

Verificación de las disposiciones teóricas del método. SRD se llevó a cabo mediante modelado estadístico de los correspondientes conjuntos de datos y su procesamiento con filtros digitales.

La Tabla 1 muestra 4 grupos de resultados de procesamiento según fórmulas (11.2.20-21) de dos valores promedio constantes y estadísticamente independientes de matrices de datos n y m (modelos de campo constante) con diferentes configuraciones del DRS según la ventana deslizante K de la cuenta de valores actuales. = m i /n i y D i (M) sobre la matriz m. El punto de procesamiento de datos actual está en el centro de la ventana. El número de muestras en cada matriz es 1000, la distribución de los valores de las muestras corresponde a la ley de Poisson. La determinación de las muestras de pronóstico M i a partir de la matriz m para usar en la ecuación (11.2.20) se llevó a cabo suavizando las muestras en la ventana deslizante K s de un filtro digital de baja frecuencia (opción sin suavizado en K s = 1 ). La ventana de peso de Laplace-Gauss se utiliza como filtro de paso bajo en el algoritmo DRS (en adelante). Valor teórico de D z.t. la dispersión de los resultados z se determinó mediante la expresión (11.2.22) con el cálculo de la dispersión D(M) mediante la expresión D(M) =
. Al suavizar las muestras de pronóstico, el valor de D M en la expresión (11.2.22) se tomó igual a D M . = H s , donde H s es la ganancia del filtro de suavizado de dispersión de ruido (la suma de los cuadrados de los coeficientes del filtro digital). Además, la tabla muestra los valores promedio registrados del coeficiente de reducción de fluctuaciones estadísticas  =  n 2 / z 2 .

Tabla 1. Estadísticas de resultados de simulación DRS.

(matriz principal = 9,9, D n = 9,7, matriz adicional = 9,9, Dm = 9,9, 1000 cuentas.)


kc

ks

z

D z

Dz.t.



kc

ks

z

D z

Dz.t.



3

1

9,7

5,7

6,19

1,7

11

3

9,6

3,6

3,80

2,8

5

1

9,7

5,4

5,78

1,8

11

5

9,6

3,3

3,55

3,0

11

1

9,6

5,1

5,36

1,9

11

11

9,6

3,1

3,22

3,2

21

1

9,6

5,0

5,18

2,0

11

21

9,6

3,0

3,11

3,3

51

1

9,6

5,0

5,05

2,0

11

51

9,6

3,0

2,99

3,3

3

3

9,7

4,1

4,71

2,4

3

11

9,8

4,5

4,26

2,2

5

5

9,7

3,6

4,01

2,8

5

11

9,7

3,5

3,78

2,8

11

11

9,6

3,1

3,22

3,2

11

11

9,6

3,1

3,22

3,2

21

21

9,6

2,9

2,91

3,4

21

11

9,6

3,1

3,12

3,2

51

51

9,6

2,7

2,66

3,7

51

11

9,6

3,1

2,99

3,2

Como se puede ver en los datos de la tabla, resultados prácticos Las tasas de filtración coinciden bastante bien con las esperadas a partir de los cálculos teóricos. Una ligera disminución en el valor promedio de z con respecto al valor promedio inicial de n está determinada por la asimetría del modelo de tipo Poisson. Para valores promedio pequeños de los recuentos del modelo en la matriz m, esto conduce a una cierta asimetría estadística en el funcionamiento del DRS, ya que para (+ m) 2 > (- m) 2, la confianza estadística promedio en información adicional con muestras Mi + es menor que con muestras Mi -. El mismo factor, aparentemente, es responsable de la mayor discrepancia entre los valores teóricos y reales de Dz en valores pequeños de la ventana Kc. También se puede observar que según el valor del coeficiente , el filtrado alcanza valores teóricos ( 1+MN) solo con una determinación suficientemente precisa de los valores y D i (M), lo que requiere aumentar la ventana K a partir del cálculo de estos parámetros para utilizar plenamente la información adicional.


Tabla 2.


El efecto de utilizar información adicional, en total conformidad con la expresión (11.2.22), se mejora suavizando preliminarmente las variaciones estadísticas de las lecturas M i y aumentando los valores de las lecturas de la matriz adicional (materiales para el este último caso no se dan por no disponer de información adicional). En campos con dinámica tranquila, se puede lograr una profundidad de regularización aún mayor contando los valores de y D m de una matriz M suavizada, lo que permite aumentar el peso de las muestras de pronóstico M i. Los resultados de modelar esta opción en las mismas condiciones que para la Tabla 1 se muestran en la Tabla 2. El mismo efecto, en principio, se puede lograr introduciendo directamente un coeficiente de peso adicional en la expresión (11.2.20) como multiplicador del valor. D(M ), que permite control externo profundidad de la regularización.

Evaluación de la conservación de la resolución Se filtró información útil. señales deterministas n y m de la forma límite, en forma de pulsos rectangulares. Se evaluaron dos factores: mantener la forma de la señal útil y suprimir el ruido estadístico superpuesto a la señal útil.

Al instalar el RDS sin promediar datos sobre la matriz M (K s = 1, pronóstico M i basado en los valores actuales de la matriz M) para cualquier valor de la ventana K c, la matriz de salida Z repite la matriz N sin ningún cambio, es decir no cambia la señal útil y conserva completamente sus características de frecuencia. Naturalmente, siempre que la matriz M sea proporcional a la matriz N.

Cuando K s > 1, la forma de las curvas de salida cambia ligeramente y se muestra en la Fig. 11.3.1. Los índices de las curvas de salida z contienen información sobre la configuración de las ventanas RDS: el primer dígito es la ventana para calcular la dispersión D M y el valor actual (en el número de puntos de muestreo), el segundo dígito (vía flash) es el ventana para suavizar las lecturas M con la función de ponderación de Laplace-Gauss y determinar las lecturas predichas M i. Para comparar con los resultados del filtrado de paso bajo típico, la figura muestra una curva de n25 muestras N, suavizada por la función de ponderación de Laplace-Gauss con una ventana de 25 puntos.

Arroz. 11.3.1. RDS de pulso rectangular. Contando D m sobre la matriz M sin suavizar.

En la figura. La Figura 11.3.1a muestra el resultado del RDS de un pulso rectangular con un valor de amplitud de 10 sobre un fondo de 5 con la relación m/n = 1 (valores iguales de lecturas N y M). La varianza D N en la expresión (2.11.21) se tomó igual al valor de las muestras N (estadística de Poisson). Como se puede ver en la figura, manteniendo los frentes de la función de la señal, suavizar los valores predichos de Mi conduce a la aparición de una distorsión de la forma de la señal en ambos lados del salto, cuyo intervalo es mayor , mayor será el valor de K s. El valor de amplitud de las distorsiones, como se desprende de la expresión (11.2.21), depende principalmente de la relación de los valores actuales de D N y D(M) y, en menor medida, de la profundidad de suavizado de las muestras de pronóstico. .

El valor máximo de distorsión para los puntos de salto se puede estimar en una primera aproximación a partir de las siguientes consideraciones. Los valores de D(M) entre los puntos de salto son iguales a D(M) = A 2 /4, donde A es la amplitud del salto, mientras que los valores del coeficiente  para los puntos inferior y superior del Los saltos están determinados por las expresiones   A 2 /(4D N +A 2), donde D N = N puntos de salto (para estadísticas de Poisson). Por lo tanto, con el valor predicho M  N+A/2 para el punto inferior del salto y M  N-A/2 para el punto superior, la magnitud relativa de los cambios en N estará determinada por la expresión   1/(2N /A+A), es decir será menor cuanto mayores sean los valores de A y N y mayor sea la relación N/A, lo que se puede observar claramente en la Fig. 11.3.1c. También se deduce de esta expresión que la distorsión máxima de los saltos introducida por el sistema DRS siempre será varias veces menor que las fluctuaciones estadísticas de las lecturas directas  = 1/
en los bordes de los saltos.

A medida que aumenta la profundidad de la regularización al introducir el cálculo de varianza D(M) sobre la matriz suavizada M, la imagen de las distorsiones cambia algo y se muestra en la Fig. 11.3.2. La reacción del RSD para suavizar la dispersión D(M) se manifiesta en una especie de compensación de las desviaciones absolutas de las muestras directamente en los lados del choque por desviaciones de signo opuesto en una zona más alejada del choque. Los valores máximos de distorsión se mantienen aproximadamente en el mismo nivel que para el trabajo sobre la dispersión no suavizada D(M), con una dependencia ligeramente menor del aumento de los valores de N y A.

Arroz. 11.3.2. RDS de pulso rectangular. Contando D m sobre la matriz suavizada M.

En los ejemplos dados, el valor de la ventana de conteo K c se tomó igual al valor de la ventana de suavizado K s de la matriz adicional M. Cuando K c > K s la imagen del proceso prácticamente no cambia. Cuando se invierten los tamaños de las ventanas, entra en juego el segundo factor: la desviación de los valores de conteo reales de los valores actuales x i = m/n en la ventana pequeña K s sobre el conjunto de lecturas suavizadas con la ventana grande Ks. A distancias de la función de salto mayores que K c /2, el DRS cambia al modo de preferencia para valores suavizados de la matriz M, porque D(M)  0, que en K s< K s может приводить к появлению существенной погрешности – выбросов на расстояниях  К с /2 от скачков. Естественно, что при практических измерениях таких условий наблюдаться не будет и эффект резко уменьшится, но для полного его исключения вариант K c  K s можно считать предпочтительным.

Arroz. 11.3.3. RDS de la señal N sobre la matriz M. Fig. 11.3.4. Coeficiente .

(Cuente D m sobre la matriz M sin suavizar). (Promedio estadístico de 50 ciclos)

En la figura. 11.3.3 muestra un ejemplo de grabación de una señal de modelo aleatorio en forma de pulso rectangular con una amplitud de 40 sobre un fondo de 10, en el que se ve el principio de funcionamiento del DRS. Como era de esperar, el DRS suaviza las fluctuaciones estadísticas del fondo y la señal fuera de la zona K s desde el salto, dando preferencia a los valores de pronóstico suavizados de Mi , y no cambia los valores del fondo. y señal dentro de esta zona debido a un fuerte aumento en los valores actuales de D( M) en la expresión (3.11.21). El cambio en el coeficiente  en la zona de salto, que controla la formación de muestras de salida, se muestra en la Fig. 11.3.4 (promedio estadístico de 50 ciclos de aleatorización para el pulso modelo en la Fig. 11.3.3) y muestra claramente el principio de adaptar el DRS a la dinámica de cambios en los valores de las señales procesadas.

Evaluación estadística de la regularización de datos. basado en pulsos rectangulares, se llevaron a cabo 50 ciclos de aleatorización de los arreglos originales N y M. Como ejemplo, las Figuras 11.3.5 y 6 muestran los resultados del procesamiento de las estadísticas de los arreglos N y Z. Además de las estadísticas de aleatorización. ciclos, se realizó un procesamiento resumido de todos los ciclos de acuerdo con las estadísticas generales de los impulsos de fondo y de vértice. Los resultados del procesamiento para la misma configuración de filtro se muestran en la Tabla 3.

Arroz. 11.3.5. Estadísticas de señal N Fig. 11.3.6. Estadísticas de señal Z

(Medidas sobre 50 ciclos). (50 ciclos. Contando D m por M sin suavizar)

Tabla 3.

Estadísticas de valores de pulso de fondo y pico (50 ciclos).

Resultados de la simulación confirma la ventaja de DRS sobre los métodos de suavizado simples. En forma numérica, esto se manifiesta claramente en una disminución en la dispersión de muestras de la matriz de salida Z mientras se mantienen prácticamente los valores promedio de la matriz N tanto para las muestras de fondo como para valores de amplitud señal. Con un simple suavizado, el "colapso" de los frentes de señal (supresión de los componentes de alta frecuencia del espectro de la señal), como debería ser cuando se utilizan filtros de paso bajo, provoca una disminución en relación con la matriz original de valores medios. en los máximos y un aumento en los valores de fondo de la señal, que es mayor cuanto mayor es la ventana de ponderación. Este efecto es especialmente pronunciado en el intervalo de la ventana del filtro a ambos lados de cambios repentinos de señal.

En ausencia de matrices adicionales M correlacionadas con la matriz regularizada N, la formación de valores de pronóstico M i se puede llevar a cabo utilizando las vecindades más cercanas de los valores actuales N i en la ventana deslizante K s. Con un enfoque estrictamente correcto, el punto actual N i no debería incluirse en el cálculo de los valores predichos M i , pero, como ha demostrado el modelado, esto prácticamente no tiene ningún efecto en los resultados de la regularización. Al predecir M i para todos los puntos de la ventana K s, la matriz M se forma mediante cualquier método de suavizado a partir de la matriz N, y todas las características del funcionamiento del DRS para matrices suavizadas M, discutidas anteriormente, permanecen sin cambios siempre que la Los valores de D m se cuentan en la ventana K s utilizando la matriz M. Para excluir valores atípicos en ambos lados de los saltos de señal útiles, el cálculo de D m como la dispersión de los valores predichos Mi debe realizarse directamente usando la matriz N.

Una característica fundamental del DRS es la posibilidad de filtrado múltiple secuencial de datos, que puede principalmente aumentar el grado de regularización de los datos con una distorsión mínima de la forma útil de la señal. Para lograr esto último, el tamaño de la ventana K de la cuenta x i y D m se establece al mínimo (3-5 puntos), y la profundidad de la regularización de datos (grado de supresión de ruido) se establece según el número de filtrados sucesivos. operaciones (hasta 3-5 pasadas). En la figura se muestra un ejemplo de regularización de una matriz modelo N en tres pasadas. 11.3.7.

Arroz. 11.3.7. RDS de una sola matriz N (3 pasadas. Contando D m sobre la matriz n)

A modo de comparación, la línea de puntos de la figura muestra el suavizado de la matriz con un filtro Laplace-Gaussiano de 5 puntos, que tiene un coeficiente de reducción de ruido equivalente a un DRS de 3 pasos (ver Fig. 11.3.9).

Las Figuras 11.3.8 y 11.3.9 muestran los resultados del procesamiento estadístico de un DRS de 3 pasos durante 25 ciclos de simulación en comparación con el 1er paso y con un filtro Laplace-Gaussiano de 5 puntos (curva n5).

Arroz. 11.3.8. Estadísticas de valores medios Fig. 11.3.9. Estadísticas de varianza

(25 ciclos. Contando D m sobre el conjunto n) (25 ciclos. Contando D m sobre el conjunto n)

El número de pasadas se puede limitar en el modo automático, por ejemplo, mediante el valor cuadrático medio de las muestras de corrección z i = N i - z i en cada pasada en comparación con la pasada anterior, que al principio disminuye bruscamente debido a las fluctuaciones de suavizado. , y luego, dependiendo de la dinámica de la función de la señal, se estabiliza o incluso comienza a aumentar debido a la distorsión de la propia señal.

Representación de frecuencia El funcionamiento del SRD es claramente visible en la Fig. 11.3.10, que muestra los módulos de los espectros de una señal aleatoria en forma de meandro (valores promedio como mínimo - 20, como máximo - 100, 25 períodos de 40 muestras, un total de 1000 muestras) y los resultados de su procesamiento por el RDS (ventana K c = 3, ventana K s = 3).

Arroz. 11.3.10. Modelo de módulos de espectros de señales. Fig.11.3.11. Sección de espectro.

(1 – matriz de entrada N, 2 – matriz de salida Z , un ciclo de SRD,

3 – matriz de salida Z , tres ciclos de RDS), 4 – conjunto de meandros no aleatorios).

El módulo espectral de la señal útil principal (en este caso, una onda cuadrada pura) es una secuencia de armónicos de frecuencia individuales en todo el rango del espectro. En el espectro de un meandro aleatorio, estos armónicos de frecuencia se suman con un espectro de ruido que está estadísticamente distribuido uniformemente en todo el rango de frecuencia (el espectro de ruido en la figura está suavizado para mayor claridad). El RDS suprime los componentes de ruido de la señal, prácticamente sin afectar los armónicos de frecuencia del meandro y sin cambiar su amplitud. Esto último se puede ver en la Fig. 11.3.11, que muestra un segmento del espectro de señales en la parte de alta frecuencia del rango principal en la región de un armónico del meandro (las componentes de frecuencia del ruido no están suavizadas). Con un DRS de 3 ciclos, los componentes de ruido de alta frecuencia se suprimen en casi un orden de magnitud.

Ejemplo práctico El SRD se muestra en la Fig. 11.3.12 al probar una sección de un pozo que cruza capas de sal gema para determinar el contenido de silvinita mediante radiación gamma de potasio-40. Según los datos de muestreo geológico, las capas de silvinita en la roca huésped (halita) tienen límites bastante definidos y son uniformes en el contenido de silvinita dentro de las capas. El diagrama de GC original (detector CsJ(Tl) con un filtro de plomo de 2 mm de espesor) y los resultados del filtrado de la matriz de datos de GC original usando un DRS y un filtro de paso bajo con una ventana de ponderación de Laplace-Gauss se muestran en la Fig. 11.3.12.

Arroz. 11.3.12. Diagramas de BG.

Los resultados de la interpretación de los diagramas de GC con un filtro digital deconvolucional simétrico (ventana de 13 puntos) se muestran en la Fig. 11.3.13. Como se puede ver en la figura, la deconvolución del diagrama de GC sin suavizar produce variaciones significativas en el contenido de silvinita dentro de las capas. El uso de filtrado de baja frecuencia del diagrama GC elimina las fluctuaciones de contenido dentro de las capas, pero suaviza significativamente los límites de las capas. El uso de SRD nos permite eliminar este inconveniente.

Arroz. 11.3.13. Resultados de la interpretación de diagramas BG.

En conclusión, observamos que el DRS se puede utilizar para regularizar no solo los datos de física nuclear, sino también cualquier otro. matrices numéricas mediciones continuas, si su radio de correlación es de al menos 3-5 cuentas. Como ejemplo en la Fig. La Figura 11.3.14 muestra un diagrama de registro acústico registrado con un paso de muestreo de datos de 20 cm, suavizado por el SRD sin pérdida de resolución espacial.

Arroz. 11.3.14. Diagrama de registro acústico y resultado de su procesamiento por RDS.

(5 ciclos, K c = K s = 3, ventana física 0,6 m).

Trabajo de curso 17-07. Modernización de un filtro adaptativo para suavizar datos distribuidos estadísticamente según la ley de Poisson.

^ 11.3. Agrupación estadística de información útil.

En cuanto a los métodos de hardware para implementar SGPI, se puede realizar en tiempo real si la información está representada por un flujo de pulsos y el principal parámetro informativo es la tasa de repetición de pulsos.

La esencia de la implementación de hardware. consiste en un muestreo estadístico (casi estadístico) normalizado de pulsos de un flujo adicional m y su suma con el flujo principal n con el establecimiento de condiciones de muestreo en relación con la tasa de repetición de pulsos en los flujos. Suponiendo para el modo de medición continua M+1 = M, reescribimos la expresión (5.2.20) con sustitución del valor  en la siguiente forma:

Z = N + (M/-N)·M/(M+D(M)). (11.3.1)

Multipliquemos los lados izquierdo y derecho de la expresión por el factor de multiplicación de normalización del flujo de salida K = l+R:

Z = K z= N + RN+(M/-N) KM/(M+D(M). (11.3.2)

Reemplacemos las muestras RN con una muestra de señales del flujo m:

RN = P en M, (11.3.3)

Donde P in es la probabilidad de muestrear señales de la corriente m. Si la probabilidad de muestreo de la señal se mantiene igual al valor

P pulg = R/, (11.3.4)

Entonces tendrá lugar

M/-N = P en M/R-N  0, (11.3.5)

Y en consecuencia, para la expresión (11.3.2) tenemos:

(M/-N)·KM/(M+D(M)  0, (11.3.6)

Z = N+P en M  N+RN. (11.3.7)

Si el valor x es estadísticamente independiente de la frecuencia de los flujos n y m, las expresiones dadas son válidas para determinar el valor tanto en todo el espacio de medición como para ventanas deslizantes de valores actuales en ciertos intervalos de mediciones anteriores. La conclusión opuesta también es cierta: si durante un cierto intervalo de medición la expresión (11.3.5) se vuelve cero, entonces la probabilidad de muestreo establecida corresponde a la condición (11.3.4). Según este principio, se puede llevar a cabo una implementación de hardware de SGPI con adaptación automática a las condiciones de medición: controlando el proceso de muestreo de pulsos del flujo m y dirigiéndolos a la suma con el flujo n de acuerdo con las señales de retroalimentación de un dispositivo que monitorea el retorno a cero. de expresión (11.3.5).

Características de la implementación de hardware. Los SGPI con adaptación automática a las condiciones de medición son los siguientes.

El valor de la probabilidad de muestreo P in no puede ser mayor que 1. De (11.3.3) se deduce que para cualquier intervalo de medición debe cumplirse la condición M ≥ RN y, en consecuencia, en todo el espacio de medición debe cumplirse la condición ≥ R , que determina la elección del coeficiente R. El valor del coeficiente R limita fundamentalmente el grado efecto positivo SGPI (k max  1+R), a diferencia de SRD, donde no existe tal limitación.

El error estadístico relativo de las mediciones del flujo de salida de muestras Z corresponde a la expresión (11.2.23) siempre que el valor de P in sea constante, es decir al establecer el valor de P en el valor promedio de la cantidad en su conjunto en el espacio de medición. Con la adaptación automática a las condiciones de medición, el valor de probabilidad P en el valor promedio actual de la relación n/m de un determinado intervalo de medición anterior también es un valor estadísticamente fluctuante con dispersión de distribución (sin tener en cuenta los cambios en el valor real de x) :

D p = R 2 (n+m)n/(m 3 T), (11.3.8)

Donde T es el intervalo de promediación de información al determinar el valor actual. En consecuencia, la dispersión y el error cuadrático medio de las lecturas actuales Z:

D z = D N + P en D M +M 2 D p = N+P en M+M 2 D p, (11.3.9)

 z 2 = (N+P en M+M 2 D p)/(N+P en M) 2. (11.3.10)

Con mediciones de exposición constantes , el efecto positivo aumenta al aumentar el valor T:

K = K 2 /(K+R 2 (n+m)/mT). (3.11.11)

K máx  1+R,  z 2  1/(N+P en M) en T  . (11.3.12)

En el caso general, teniendo en cuenta el error cuadrático medio de predicción  xi de los valores x i para los puntos de medición actuales basados ​​en valores en intervalos anteriores en T > :

D z = N+P en M+M 2 (D p +P en 2  xi 2). (11.3.13)

La formación del valor P a partir de información sobre los valores medios de los intervalos de medición anteriores al actual determina el SGPI como sistema dinámico con un tiempo de respuesta correspondiente constante a los cambios en las condiciones de medición. Teniendo en cuenta que, en primer lugar, para cualquier punto del espacio de medición debe cumplirse la condición m > nR y, en segundo lugar, un aumento en el intervalo T conduce a un aumento en el tiempo de reacción a los cambios en las condiciones de medición, es aconsejable limitar el valor de T a un valor del orden de (5-10) valores de exposición actuales. Cuanto menor sea la frecuencia espacial de la distribución x en relación con la distribución n, mayor será el valor T permitido.

Implantación de sistemas SGPI facilitado en gran medida por restricciones puramente prácticas objetivo: obtener el máximo efecto positivo en condiciones de medición extremadamente desfavorables (con valores bajos de la densidad de flujo de radiación registrada, en alta velocidad mediciones) con degeneración del efecto positivo a medida que disminuye el error estadístico de medición en el flujo principal. Entonces, por ejemplo, si durante las pruebas gamma de fondo de pozo el error estadístico al medir el flujo de señal principal en áreas con mayor intensidad de radiación se reduce al 2-3%, entonces su reducción adicional no tiene significado práctico, porque El principal error al registrar equipos radiométricos no suele superar el 5%.

El uso de esta restricción objetivo permite aplicar la formación del parámetro P no en una ventana deslizante de promediación temporal o espacial de información, sino de acuerdo con un cierto volumen registrado de información previa, es decir, con variación automática del intervalo de promediación de información y la constante de control P in dependiendo de la frecuencia de los flujos de señal, mientras que la cantidad de información que forma P in se puede configurar teniendo en cuenta la naturaleza de las variaciones en la magnitud y el valor permitido de la medición dinámica error.

Para implementar esta posibilidad, transformamos la expresión (11.3.5) sobre el intervalo promedio t a la forma:

P en mt/R-nt+Q = q, (11.3.14)

P in = nR/m = q/, (11.3.15)

Q  Q en t  ,

Donde Q es el nivel de desplazamiento promedio del equivalente numérico de la señal de retroalimentación del sistema AVR - regulación automática probabilidad de muestreo P en, en la que se garantiza el cumplimiento de la igualdad (11.3.15),  es el coeficiente de proporcionalidad de la transformación señal digital ARV en la señal R en. Ecuación diferencial para el sistema de control automático:

Dq/dt = n-mq/R. (3.11.16)

Solución de la ecuación diferencial en condiciones iniciales t = 0 y q = O (función de transición AVR):

Q = R(n/m) . (3.11.17)

P en = R(n/m) = R(n/m) . (3.11.18)

Como puede verse en estas expresiones, el valor de la señal de retroalimentación ARC es proporcional a la relación (n/m) de las frecuencias de flujo, y la constante de tiempo ARC R/m es directamente proporcional al valor del coeficiente de conversión  con proporcionalidad inversa al valor de la frecuencia del flujo adicional m, igual y, teniendo en cuenta (11.3.15), directamente proporcional al valor actual de la señal de retroalimentación q con proporcionalidad inversa al valor del flujo principal frecuencia El primero es completamente equivalente al segundo en (n/m)  const y q = Rn/m  Q. En la primera aproximación, usando la expresión (11.3.8) y la equivalencia del valor de las fluctuaciones estadísticas en T≈ 2 para ventanas de tiempo rectangulares deslizantes y ventanas de medidor de intensidad con una función de transición exponencial, para fluctuaciones relativas del valor de P en obtenemos:

 ð 2 = (n+m)/(2Rn)= (n+m)/(2qm). (3.11.19)

La expresión es válida para la medición directa de la relación 2-intensímetro (n/m) y es calificación máxima. Para una valoración más precisa hay que tener en cuenta que en este caso el intensímetro es un dispositivo con negativo comentario a lo largo de la cadena ARV, lo que reduce en cierta medida el valor de fluctuación. Se puede hacer una estimación precisa utilizando la fórmula de Campbell para la dispersión de la variable aleatoria x(t), formada sumando los impulsos del flujo de Poisson, por separado para el flujo n en m = const y el flujo m en n = const, seguido de la suma de los cuadrados del valor cuadrático medio relativo de la fluctuación. Así, para el esquema que se presenta a continuación, el valor obtenido es  p 2 ≈ (R+1)m/(2nR 2).

Cuando se selecciona el valor del coeficiente R ≤ (m/n) min para el espacio de medición, utilizando la expresión (11.3.19), los parámetros del sistema de control automático (coeficiente  y el valor promedio Q para el valor promedio espacial de la relación n/m) se puede establecer en el valor especificado de fluctuaciones permitidas en la probabilidad de muestreo de pulsos P en:

 ≤ (l+(m/n) máx)/(2R p 2). (3.11.20)

Durante el proceso de medición, el AVR realiza una adaptación continua a las condiciones de medición actuales (nq, m  mR, P in  q/) con regulación del valor actual de P in según la cantidad de información q = (n/m) R = n del intervalo de medición anterior cambiando correspondientemente la constante de tiempo de integración de esta información dependiendo del cambio en las frecuencias de los flujos de señales. Cuando n/m  const este último tiene carácter absoluto:  p  const,   (l/n + l/m)/(2 p 2).

Cabe señalar que en muchos métodos geofísicos existen condiciones bastante favorables para utilizar tanto SGPI como SRD. Entonces, por ejemplo, en relación con las pruebas gamma de fondo de pozo con la extracción de información adicional de la parte de baja energía del espectro de radiación, las condiciones para una respuesta bastante precisa a los cambios en el parámetro a lo largo del pozo son muy buenas, porque el factor principal en la variación de los valores de x es el número atómico efectivo del medio, los cambios en un rango pequeño con una frecuencia espacial baja de variaciones y en zonas de rocas activas, donde se obtiene la mayor precisión en la interpretación de los resultados de las mediciones. Son posibles cambios necesarios y significativos en el número atómico de las rocas, debido a que con un aumento en las densidades de flujo de radiación, la constante de tiempo del ARV disminuirá significativamente y la resolución espacial de las mediciones aumentará en consecuencia. Condiciones similares son típicas, por regla general, de otros métodos de geofísica nuclear.

Un ejemplo de implementación del sistema SGPI para dos flujos de señales de pulso se muestra en la Fig. 11.3.1. El diagrama funcional del SGPI contiene un contador de pulsos reversible 1, cuya entrada de suma recibe pulsos del flujo principal n, y la entrada de resta recibe pulsos del flujo adicional m, que primero pasan por el circuito de muestreo de pulsos 3 y el pulso Contador de tasa de repetición 4 con un nuevo cálculo del coeficiente R.


Arroz. 11.3.1. Básico diagrama funcional SGPI.

1 - contador de pulso inverso, 2 - bloque de generación de señal de muestreo de pulso, 3 - circuito de muestreo de pulso, 4 - divisor de contrafrecuencia en R, 5 - bloque sumador de flujo de pulso.
La información sobre el estado del contador 1 (señal q) desde las salidas del contador se envía al bloque generador de señal de muestreo de pulso 3. En el caso más simple, este bloque puede ser un dispositivo de umbral (basado en el código numérico Q) que abre circuito 3, pero el muestreo en este caso tiene un carácter cercano al estadístico, sólo para diferencias suficientemente pequeñas en las frecuencias de los flujos n y m/R (del orden de n

Los pulsos del flujo principal n y los pulsos de muestreo del flujo m, cuya frecuencia es igual a P en m = R·n, se suministran a la entrada del bloque 5 para sumar los flujos de señales. La intensidad del flujo de pulsos en la salida del bloque 5 es z = n+P en m = (1+R)n. El bloque 5 puede contener un circuito de recálculo con un coeficiente K=(1+R), mientras que el flujo de salida se reducirá a la escala de la corriente principal n y será posible cambiar sincrónicamente los factores de conversión de los esquemas 4 y 5 para diferentes condiciones de medición, mientras se establece el valor óptimo del coeficiente R, se puede cambiar al modo automático con control basado en el valor actual (en un cierto intervalo) del código de información del circuito 1. Una solución alternativa es suministrar un flujo de pulsos desde el salida del circuito 4 a la entrada sumatoria del circuito 5, siendo la frecuencia de flujo z siempre será 2 veces mayor que el flujo n.

De paso, observamos que al emitir información q = R(n/m) en código digital desde el contador 1, este circuito puede realizar las funciones de un medidor de intensidad digital universal: frecuencia de pulso promedio (n-var, m-const de el generador de frecuencia de reloj), el intervalo de tiempo promedio entre pulsos (m-var, n-const) y la relación de frecuencia n/m de dos flujos de pulsos estadísticamente distribuidos.

literatura

38. Filtros adaptativos. /Ed. C. F. N. Cowan y P. M. Grant. – M.: Mir, 1988, 392 p.

43. Ayficher E., Jervis B. Procesamiento de señales digitales. Enfoque práctico. / M., "Williams", 2004, 992 p.

El eterno problema de cualquier medición es su baja precisión. Hay dos formas principales de aumentar la precisión, la primera es aumentar la sensibilidad al valor medido; sin embargo, como regla general, también aumenta la sensibilidad a los parámetros no informativos, lo que requiere tomar medidas adicionales para compensarlos. El segundo método consiste en el procesamiento estadístico de múltiples mediciones, siendo la desviación estándar inversamente proporcional a la raíz cuadrada del número de mediciones.

Los métodos estadísticos para aumentar la precisión son variados y numerosos, pero también se dividen en pasivos para mediciones estáticas y activos para mediciones dinámicas, cuando el valor medido cambia con el tiempo. En este caso, el propio valor medido, así como el ruido, son variables aleatorias con dispersiones variables.

La adaptabilidad de los métodos para aumentar la precisión de las mediciones dinámicas debe entenderse como el uso de la predicción de los valores de desviaciones y errores para el siguiente ciclo de medición. Esta previsión se realiza en cada ciclo de medición. Para ello se utilizan filtros de Wiener que funcionan en el dominio de la frecuencia. A diferencia del filtro de Wiener, el filtro de Kalman opera en el dominio del tiempo en lugar de en el dominio de la frecuencia. El filtro de Kalman fue desarrollado para problemas multidimensionales que se formulan en forma matricial. La forma matricial se describe con suficiente detalle para su implementación en Python en el artículo. La descripción del funcionamiento del filtro Kalman que se proporciona en estos artículos está destinada a especialistas en el campo del filtrado digital. Por lo tanto, se hizo necesario considerar el funcionamiento del filtro de Kalman en una forma escalar más simple.

una pequeña teoría

Consideremos el circuito de filtro de Kalman en su forma discreta.

Aquí G(t) es un bloque cuya operación se describe mediante relaciones lineales. Se genera una señal no aleatoria y(t) en la salida del bloque. Esta señal se suma al ruido w(t), que se produce dentro del objeto controlado. Como resultado de esta suma, obtenemos una nueva señal x(t). Esta señal representa la suma de la señal no aleatoria y el ruido y es una señal aleatoria. A continuación, la señal x(t) es transformada por el bloque lineal H(t), sumando con el ruido v(t), distribuido de manera diferente a la ley w(t). A la salida del bloque lineal H(t), obtenemos una señal aleatoria z(t), a partir de la cual se determina la señal no aleatoria y(t). Cabe señalar que las funciones lineales de los bloques G(t) y Н(t) también pueden depender del tiempo.

Supondremos que los ruidos aleatorios w(t) y v(t) son procesos aleatorios con varianzas Q, R y expectativas matemáticas cero. La señal x(t) después de la transformación lineal en el bloque G(t) se distribuye en el tiempo según la ley normal. Teniendo en cuenta lo anterior, la relación para la señal medida tomará la forma:

Declaración del problema

Después del filtro, es necesario obtener la máxima aproximación posible y"" a la señal no aleatoria y(t).

Con la medición dinámica continua, cada estado posterior del objeto y, en consecuencia, el valor de la cantidad controlada, difiere del anterior según una ley exponencial con un tiempo constante T en el intervalo de tiempo actual.

A continuación se muestra un programa Python que resuelve la ecuación de una señal desconocida y no ruidosa y(t). El proceso de medición se considera para la suma de dos variables pseudoaleatorias, cada una de las cuales se forma en función de la distribución normal a partir de la distribución uniforme.

Un programa para demostrar el funcionamiento de un filtro de Kalman adaptativo discreto.

#!/usr/bin/env python #coding=utf8 importar matplotlib.pyplot como plt importar numpy como np de numpy importar exp,sqrt de scipy.stats importar norma Q=0.8;R=0.2;y=0;x=0 #Varianzas de ruido iniciales (seleccionadas arbitrariamente) y valores cero de las variables. P=Q*R/(Q+R)# primera estimación de las variaciones del ruido. T=5.0#constante de tiempo. n=;X=;Y=;Z=#listas de variables. para i en np.arange(0,100,0.2): n.append(i)#variable de tiempo.

x=1-exp(-1/T)+x*exp(-1/T)#función modelo para x.

y=1-exp(-1/T)+y*exp(-1/T)# función modelo para y.

Y.append(y)#acumular una lista de valores de y.

X.append(x)# acumulación de una lista de valores x.

norma1 = norma(y, sqrt(Q))# distribución normal con #expectativa matemática – y.

norm2 = norm(0, sqrt(R))#))# distribución normal con #esperanza matemática – 0. ravn1=np.random.uniform(0.2*sqrt(Q))#distribución uniforme #para ruido con dispersión Q . =np.random.uniform(0.2*sqrt(R))# distribución uniforme #para ruido con varianza R. z=norm1.pdf(ravn1)+norm2.pdf(ravn2)#variable medida z.

#!/usr/bin/env python #coding=utf8 importar matplotlib.pyplot como plt importar numpy como np de numpy importar exp,sqrt de scipy.stats importar norma Q=0.8;R=0.2;y=0;x=0 #Varianzas de ruido iniciales (seleccionadas arbitrariamente) y valores cero de las variables. P=Q*R/(Q+R)# primera estimación de las variaciones del ruido. T=5.0#constante de tiempo. n=;X=;Y=;Z=#listas de variables. para i en np.arange(0,100,0.2): n.append(i)#variable de tiempo.

x=1-exp(-1/T)+x*exp(-1/T)#función modelo para x.


y=1-exp(-1/T)+y*exp(-1/T)# función modelo para y.

Y.append(y)#acumular una lista de valores de y.


Arriba