Filtros adaptativos. Aplicación de filtros adaptativos en la identificación de sistemas. Resultado del programa

  • Una igualdad con una variable se llama ecuación.
  • Resolver una ecuación significa encontrar sus muchas raíces. Una ecuación puede tener una, dos, varias, muchas raíces o ninguna.
  • Cada valor de una variable en el que una ecuación dada se convierte en una igualdad verdadera se llama raíz de la ecuación.
  • Las ecuaciones que tienen las mismas raíces se llaman ecuaciones equivalentes.
  • Cualquier término de la ecuación se puede trasladar de un lado de la igualdad a otro, cambiando el signo del término al contrario.
  • Si ambos lados de una ecuación se multiplican o dividen por el mismo número distinto de cero, se obtiene una ecuación equivalente a la ecuación dada.

Ejemplos. Resuelve la ecuación.

1. 1,5x+4 = 0,3x-2.

1,5x-0,3x = -2-4. Recopilamos los términos que contienen la variable en el lado izquierdo de la igualdad y los términos libres en el lado derecho de la igualdad. En este caso se utilizó la siguiente propiedad:

1,2x = -6. Se dieron términos similares según la regla:

x = -6 : 1.2. Ambos lados de la igualdad se dividieron por el coeficiente de la variable, ya que

x = -5. Divida según la regla para dividir una fracción decimal por una fracción decimal:

Para dividir un número por una fracción decimal, debes mover las comas en el dividendo y el divisor tantos dígitos hacia la derecha como haya después del punto decimal en el divisor, y luego dividir por el número natural:

6 : 1,2 = 60 : 12 = 5.

Respuesta: 5.

2. 3(2x-9) = 4 (x-4).

6x-27 = 4x-16. Abrimos los corchetes usando la ley distributiva de la multiplicación relativa a la resta: (a-b) c = un c-b do.

6x-4x = -16+27. Recopilamos los términos que contienen la variable en el lado izquierdo de la igualdad y los términos libres en el lado derecho de la igualdad. En este caso se utilizó la siguiente propiedad: cualquier término de la ecuación se puede transferir de una parte de la igualdad a otra, cambiando así el signo del término al opuesto.

2x = 11. Se dieron términos similares según la regla: para obtener términos similares, debe sumar sus coeficientes y multiplicar el resultado resultante por su parte alfabética común (es decir, sumar su parte alfabética común al resultado obtenido).

x = 11 : 2. Ambos lados de la igualdad se dividieron por el coeficiente de la variable, ya que Si ambos lados de la ecuación se multiplican o dividen por el mismo número distinto de cero, se obtiene una ecuación equivalente a la ecuación dada.

Respuesta: 5,5.

3. 7x-(3+2x)=x-9.

7x-3-2x = x-9. Abrimos los corchetes según la regla de apertura de corchetes precedida por un signo “-”: si hay un signo "-" delante de los corchetes, elimine los corchetes, el signo "-" y escriba los términos entre paréntesis con signos opuestos.

7x-2xx-x = -9+3. Recopilamos los términos que contienen la variable en el lado izquierdo de la igualdad y los términos libres en el lado derecho de la igualdad. En este caso se utilizó la siguiente propiedad: cualquier término de la ecuación se puede transferir de una parte de la igualdad a otra, cambiando así el signo del término al opuesto.

4x = -6. Se dieron términos similares según la regla: para obtener términos similares, debe sumar sus coeficientes y multiplicar el resultado resultante por su parte alfabética común (es decir, sumar su parte alfabética común al resultado obtenido).

x = -6 : 4. Ambos lados de la igualdad se dividieron por el coeficiente de la variable, ya que Si ambos lados de la ecuación se multiplican o dividen por el mismo número distinto de cero, se obtiene una ecuación equivalente a la ecuación dada.

Respuesta: -1,5.

3 (x-5) = 7 12 — 4 (2x-11). Multiplicamos ambos lados de la ecuación por 12, el mínimo común denominador de los denominadores de estas fracciones.

3x-15 = 84-8x+44. Abrimos los corchetes usando la ley distributiva de la multiplicación relativa a la resta: Para multiplicar la diferencia de dos números por un tercer número, puedes multiplicar por separado el minuendo y el sustraendo por el tercer número y luego restar el segundo resultado del primer resultado, es decir(a-b) c = un c-b do.

3x+8x = 84+44+15. Recopilamos los términos que contienen la variable en el lado izquierdo de la igualdad y los términos libres en el lado derecho de la igualdad. En este caso se utilizó la siguiente propiedad: cualquier término de la ecuación se puede transferir de una parte de la igualdad a otra, cambiando así el signo del término al opuesto.

(nx)2

(∑ r yo )

yo = 1

= (nx ) 2= n 2x 2= nP x . nD r nP r P r

Por lo tanto, en las condiciones enumeradas anteriormente, como resultado de un muestreo n veces, la relación entre las potencias de la señal y el ruido aumenta n veces. El intervalo de tiempo entre lecturas individuales debe ser mayor.

intervalo de correlación de interferencia τ r 0 . En caso contrario, la ganancia debida

la acumulación será menos que el valor dado por la expresión (5.21).

Al aumentar el número de muestras m, es decir tiempo de transmisión Tx, puede aumentar la relación señal/interferencia tanto como desee.

Si la señal representa una función periódica del tiempo, entonces se deben tomar muestras a intervalos iguales o múltiplos del período de esta función. En tales casos, el método se denomina método de acumulación síncrono o coherente. El efecto de acumulación es el mismo que en el caso señal constante.

El efecto de acumulación también se puede lograr integrando la señal de entrada en el tiempo Tx. Este método se llama técnica integral.

Es aconsejable utilizar la recepción integral en el caso de que la señal útil sea constante (o casi constante).

5.8. Filtros adaptativos.

La propiedad principal de un sistema adaptativo es el funcionamiento variable en el tiempo con autorregulación. La necesidad de tal funcionamiento resulta obvia a partir de las siguientes consideraciones. Si un diseñador diseña un sistema "fijo" que considera óptimo, entonces esto significa que anticipa todas las condiciones de entrada posibles, al menos en un sentido estadístico, y espera que el sistema funcione bajo cada una de esas condiciones. A continuación, el diseñador selecciona un criterio mediante el cual se debe evaluar el rendimiento, por ejemplo, el número promedio de errores entre la señal de salida sistema real y la señal de salida de algún modelo seleccionado o sistema “ideal”. Finalmente, el diseñador selecciona el sistema que es mejor según el criterio de desempeño establecido, generalmente de alguna clase a priori limitada (por ejemplo, de la clase de sistemas lineales).

Sin embargo, en muchos casos es posible que no se conozca con precisión toda la gama de condiciones de entrada, ni siquiera en sentido estadístico, o las condiciones pueden cambiar de vez en cuando. Entonces, un sistema adaptativo que, mediante un proceso de búsqueda regular, busca constantemente el óptimo dentro de una clase aceptable de posibilidades, tiene ventajas sobre un sistema invariante.

Los sistemas adaptativos, por su naturaleza, deben ser variables en el tiempo y no lineales. Sus propiedades dependen, entre otras cosas, de las señales de entrada. Si se aplica una señal x1 a la entrada, entonces el sistema adaptativo la sintonizará y generará una señal de salida; llamémosla y1. Si se suministra otra señal x2 a la entrada, entonces el sistema sintonizará esta señal y generará una señal de salida; llamémosla y2. EN caso general La estructura y los procesos de corrección del sistema adaptativo serán diferentes para dos señales de entrada diferentes.

Para obtener una solución óptima, existen muchos métodos para ajustar los valores de los coeficientes de peso del filtro. Se utilizaron métodos de perturbación aleatoria para cambiar los coeficientes de ponderación del filtro; analizado más a fondo señal de entrada para establecer si su perturbación aleatoria se acerca o se aleja de la solución deseada. Actualmente, un algoritmo adaptativo basado en el método se utiliza ampliamente para calcular los coeficientes de peso de los filtros adaptativos. mínimos cuadrados(LSM) porque utiliza métodos de gradiente, que son mucho más eficientes que otros para proporcionar convergencia a solución óptima. Se puede demostrar que el método de mínimos cuadrados del gradiente es muy similar al método de maximización de la relación señal-ruido, que fue desarrollado para su uso en los casos en que es necesario obtener pesos óptimos para adaptativos. conjuntos de antenas. También se ha demostrado que el filtro de corrección de anulación de Luckey es una simplificación del método más general de mínimos cuadrados de gradiente.

Por tanto, un filtro adaptativo es un filtro cuya función de transferencia (o respuesta de frecuencia) está adaptada, es decir se cambia de tal manera que transmita componentes de señal útiles sin distorsión y atenúe señales no deseadas o interferencias. El circuito de filtro adaptativo se muestra en la Fig. 5.5.

señal de entrada

Digital

salida del filtro

salida de error

señal de referencia

mi norte =y norte −y norte

adaptación

Fig.5.5. Filtro adaptativo

Un filtro de este tipo funciona según el principio de estimar los parámetros estadísticos de la señal y ajustar su propia función de transferencia de tal manera que minimice algunos función objetivo. Esta función generalmente se genera usando una señal de “referencia” en la entrada maestra. Este

La señal de referencia se puede considerar como la señal deseada en la salida del filtro. La tarea del bloque de adaptación es ajustar los coeficientes.

x n, que determina el error en la operación del filtro.

La función más importante que realiza un filtro adaptativo es el modelado del sistema. Esto se ilustra en la Fig. 5.6, donde la señal primaria con densidad espectral uniforme se alimenta directamente a la entrada s o a la entrada del filtro adaptativo. La señal primaria se suministra a la entrada del sistema con una respuesta de impulso H(n), la salida del sistema se conecta a la segunda entrada del filtro adaptativo. Para obtener vectores de peso óptimos Hopt del filtro adaptativo, puede aplicar dos diferentes enfoques, lo que conducirá a resultados diferentes. Esto ocurre en los siguientes casos:

1. Sistema desconocido H(n) está conectado a la entrada del filtro adaptativo (Fig. 5.6,a). En este caso, la respuesta de impulso óptima del filtro adaptativo es modelo preciso característica correspondiente del sistema H(n).

2. Sistema desconocido H(n) está conectado a la entrada s del filtro adaptativo (Fig. 5.6, b). En este caso, la respuesta de impulso óptima del filtro adaptativo es la función inversa de la característica correspondiente del sistema desconocido.

Adaptado

Adaptado

Arroz. 5.6. Aplicación de un filtro adaptativo para modelado directo del sistema: Hopt =H(n) (a) y modelado inverso del sistema: Hopt =H-1 (n) (b).

Un ejemplo práctico que ilustra el funcionamiento del primer tipo de filtro adaptativo (es decir, modelado directo del sistema) es la supresión de la señal reflejada en una línea telefónica híbrida.

Un ejemplo que se puede utilizar para ilustrar el principio de funcionamiento de un filtro adaptativo que modela la característica inversa de un sistema es la corrección de distorsiones al transmitir datos a través de líneas telefónicas. En este caso, la entrada de la línea telefónica se excita con una señal conocida y la señal distorsionada de la salida de la línea se alimenta a la entrada s(n) del filtro adaptativo. Luego, el filtro se reconstruye aplicando una serie secuencial de señales primarias conocidas (sin distorsionar) a la entrada (n). El filtro adaptativo modela la respuesta al impulso, característica inversa líneas para obtener datos filtrados (sin distorsiones) en la salida.

El siguiente campo de aplicación de los filtros adaptativos es la supresión de ruido. En este circuito, la señal primaria que contiene la información deseada junto con la señal de interferencia se aplica a la entrada y(n). Luego, una señal correlacionada independiente (una muestra de la señal de interferencia) proviene de otra fuente que no contiene ningún componente de la señal original. Si esta señal correlacionada se aplica directamente a la entrada s(n) del filtro adaptativo, el filtro genera una respuesta de impulso que produce una señal de salida y(n) que resta coherentemente el componente no deseado de y(n), dejando solo la señal deseada. señal en la salida e(n).

Un ejemplo del uso de este método es el registro de los latidos del corazón fetal. La señal primaria proviene de un transductor ubicado en la superficie del abdomen de la madre. Este transductor produce una señal que contiene impulsos de los latidos del corazón del feto, que, sin embargo, quedan significativamente enmascarados por los latidos del corazón de la madre. Luego se recibe una señal secundaria desde un segundo transductor ubicado en el pecho de la madre, que registra solo los latidos del corazón de la madre. Luego, el filtro adaptativo modela la trayectoria de distorsión desde el transductor torácico hasta el transductor abdominal para producir una señal que se sustrae coherentemente de la señal abdominal. Los filtros adaptativos se utilizan en otros casos, como para eliminar el ruido del motor del micrófono del piloto en la cabina de un avión o para suprimir el ruido acústico. ambiente, por ejemplo, en grandes centrales eléctricas.

Otra aplicación de los filtros adaptativos es la implementación de un filtro autoajustable utilizado para aislar una sinusoide enmascarada por ruido de banda ancha. Tal aplicación en adaptativo. amplificador lineal(ALU) se lleva a cabo aplicando una señal directamente a la entrada del filtro y(n) y aplicando una modificación de la señal con un retardo de tiempo a la entrada del filtro s(n). Si el retraso es mayor que la inversa del ancho de banda del filtro, los componentes de ruido en las dos entradas no estarán correlacionados. Adaptado

el filtro produce una salida sinusoidal con una relación señal-ruido aumentada, mientras que la señal de error produce componentes sinusoidales reducidas.

Los filtros IIR adaptativos se han utilizado principalmente para resolver problemas como la mitigación de trayectos múltiples en sistemas de radar y radiocomunicaciones. En este caso, la señal recibida contiene la señal transmitida original convolucionada con la respuesta al impulso del canal, que en la propagación por trayectos múltiples contiene sólo ceros. Luego, para eliminar la interferencia, el receptor adaptativo modela una característica inversa a la característica del canal (Fig. 5.6b). Esto se logra de manera más efectiva utilizando un modelo de filtro adaptativo con una respuesta de solo polos, con las posiciones de los polos seleccionadas para que coincidan con las posiciones de los ceros en la respuesta del canal.

A la hora de diseñar un filtro FIR adaptativo también se puede tener en cuenta este modelo, pero es más económico utilizar una estructura recursiva, ya que implementa la estructura inversa del filtro en un orden inferior y con pesos más pequeños. Por lo tanto, podemos decir con razón que una estructura de este tipo proporcionará una convergencia más rápida que su contraparte transversal. Sin embargo, para garantizar la estabilidad del filtro recursivo adaptativo, se requiere un alto grado de precisión en el cálculo. circuito digital. El método de procesamiento adaptativo de señales basado en filtros IIR se utiliza en receptores de medición de radares electrónicos para aislar pulsos. Los filtros adaptativos de Kalman son de interés para identificar los tipos de oscilaciones de radar generadas por ciertos tipos de emisores. También encuentran uso en filtrado y mitigación de trayectos múltiples en canales de alta frecuencia (3 a 30 MHz). comunicaciones digitales, donde la alta velocidad de convergencia inherente a estos filtros es de primordial importancia.

La mayoría de los filtros FIR están diseñados utilizando suposiciones bastante simples y generalmente aceptadas. Estas suposiciones conducen a algoritmos de adaptación no complejos bien conocidos (por ejemplo, OLS), cuya implementación se ha desarrollado en detalle con respecto a la tasa de convergencia, el error residual, etc. Este enfoque se utiliza más ampliamente cuando se utilizan filtros adaptativos en sistemas de comunicación de larga distancia, por ejemplo, para nivelar y cancelar la señal reflejada.

En 1971, Chang hizo una contribución significativa a la clasificación de los tipos de filtros: intentó combinar todos los enfoques y crear una estructura generalizada de ecualizador o filtro de corrección (Fig. 5.7.). Esta estructura contiene un conjunto de filtros aleatorios conectados a un circuito lineal de pesaje y combinación. Se puede obtener un filtro FIR a partir de esta estructura generalizada reemplazando filtro personalizado una línea de retardo con derivaciones, dando a las salidas una serie de muestras de señal con un retardo de tiempo. Filtro tipo IIR debido a la presencia de objetos recursivos.

Arroz. 5.7. Diagrama de bloques generalizado de un filtro de corrección.

Una forma alternativa de implementar un filtro FIR es una estructura reticular, que puede considerarse como una cascada de filtros predictivos de errores en línea recta (Figura 5.8). Esta estructura, ampliamente utilizada en predictores lineales para el procesamiento de voz, divide la señal en un conjunto de muestras de señales de diversidad hacia adelante (f) y hacia atrás (b) con retrasos agregados. canal inverso. Las señales se multiplican por los coeficientes de correlación parcial PARCOR (correlación parcial)k(n), denominados así por su analogía con los coeficientes de reflexión de una rejilla discreta. El coeficiente PARCOR de diferencia directa para cualquier vínculo suele ser igual al conjugado complejo del coeficiente inverso; la excepción son los procesadores que procesan información discreta a lo largo del canal principal y en el que estos coeficientes son iguales.

f0(n

f1(n+

f2(n

k1(n

k2(n

∑ b2(n

b0(n

b1(n

Arroz. 5.8. Diagrama de bloques Filtro de rejilla con respuesta de impulso finita.

La propiedad principal de un sistema adaptativo es el funcionamiento variable en el tiempo con autorregulación. La necesidad de tal funcionamiento resulta obvia a partir de las siguientes consideraciones. Si un diseñador diseña un sistema "fijo" que considera óptimo, entonces esto significa que anticipa todas las condiciones de entrada posibles, al menos en un sentido estadístico, y espera que el sistema funcione bajo cada una de esas condiciones. Luego, el diseñador selecciona un criterio mediante el cual se evaluará el desempeño, como el número promedio de errores entre la salida del sistema real y la salida de algún modelo seleccionado o sistema "ideal". Finalmente, el diseñador selecciona el sistema que es mejor según el criterio de desempeño establecido, generalmente de alguna clase a priori limitada (por ejemplo, de la clase de sistemas lineales).

Sin embargo, en muchos casos es posible que no se conozca con precisión toda la gama de condiciones de entrada, ni siquiera en sentido estadístico, o las condiciones pueden cambiar de vez en cuando. Entonces, un sistema adaptativo que, mediante un proceso de búsqueda regular, busca constantemente el óptimo dentro de una clase aceptable de posibilidades, tiene ventajas sobre un sistema invariante.

Los sistemas adaptativos, por su naturaleza, deben ser variables en el tiempo y no lineales. Sus propiedades dependen, entre otras cosas, de las señales de entrada. Si se aplica una señal x 1 a la entrada, entonces el sistema adaptativo la sintonizará y generará una señal de salida; llamémosla y 1. Si se aplica otra señal x 2 a la entrada, entonces el sistema sintonizará esta señal y generará una señal de salida; llamémosla y 2. En general, la estructura y los procesos de corrección del sistema adaptativo serán diferentes para dos señales de entrada diferentes.

Para obtener una solución óptima, existen muchos métodos para ajustar los valores de los coeficientes de peso del filtro. Se utilizaron métodos de perturbación aleatoria para cambiar los coeficientes de ponderación del filtro; A continuación, se analizó la señal de entrada para determinar si su perturbación aleatoria se acercaba o se alejaba de la solución deseada. Actualmente, un algoritmo adaptativo basado en el método de mínimos cuadrados (LS) se usa ampliamente para calcular los pesos de los filtros adaptativos, ya que utiliza métodos de gradiente, que son mucho más efectivos que otros para asegurar la convergencia a la solución óptima. Se puede demostrar que el método de mínimos cuadrados de gradiente es muy similar al método de maximización de la relación señal-ruido, que se desarrolló para su uso en los casos en que es necesario obtener pesos óptimos para conjuntos de antenas adaptativas. También se ha demostrado que el filtro de corrección de anulación de Luckey es una simplificación del método más general de mínimos cuadrados de gradiente.


Por tanto, un filtro adaptativo es un filtro cuya función de transferencia (o respuesta de frecuencia) está adaptada, es decir se cambia de tal manera que transmita componentes de señal útiles sin distorsión y atenúe señales no deseadas o interferencias. El circuito de filtro adaptativo se muestra en la Fig. 5.5.

PROCESAMIENTO DE SEÑAL DIGITAL

Procesamiento de señales digitales

Tema 11. FILTRADO ADAPTABLE DE DATOS DIGITALES

Que intenten subyugar las circunstancias, en lugar de estar ellos mismos sujetos a ellas.

Horacio. Mensajes. Poeta romano, siglo I a.C.

Si no le ves ningún sentido a esta teoría, mucho mejor. Puedes saltarte las explicaciones e inmediatamente empezar a utilizarlo en la práctica.

Valentín Rovinsky. Teoría juegos de cartas.

Geofísico de Kiev de la escuela de los Urales, siglo XX.
Contenido

Introducción.

1. información general sobre adaptativo. Principales áreas de aplicación. Cancelador de ruido adaptativo. Filtro Wiener adaptativo. Algoritmo adaptativo de mínimos cuadrados de Widrow-Hopf. Diseños recursivos de mínimos cuadrados.

2. Conceptos básicos de agrupación estadística de información. Requisitos previos del método. Problema de agrupación estadística. Uso de datos a priori. Eficiencia del método.

Regularización de datos estadísticos. Comprobación de los principios teóricos del método. Evaluación de la conservación de la resolución. Evaluación estadística de la regularización de datos. Resultados de la simulación. Representación de frecuencia. Ejemplo uso práctico.

4. Agrupación estadística información útil. La esencia de la implementación de hardware. Características de la implementación de hardware. Implantación de sistemas de agrupación de información. Un ejemplo de la implementación de un sistema de agrupación de información.

Introducción

En los métodos tradicionales de procesamiento de datos, la información se extrae de las señales de entrada. sistemas lineales Con parámetros constantes Algoritmos de transformación de datos. Los sistemas pueden tener una respuesta al impulso tanto finita como infinita, pero la función de transferencia de los sistemas no depende de los parámetros de las señales de entrada y sus cambios a lo largo del tiempo.

Los dispositivos de procesamiento de datos adaptativos se distinguen por la presencia de una cierta conexión entre los parámetros de la función de transferencia y los parámetros de entrada, salida, esperados, pronosticados y otros. señales adicionales o con los parámetros de sus relaciones estadísticas, lo que permite el autoajuste para un procesamiento óptimo de la señal. En el caso más simple, un dispositivo adaptativo contiene un filtro de procesamiento de datos programable y un bloque de adaptación (algoritmo) que, basándose en un programa específico para analizar entradas, salidas y otros datos adicionales, genera una señal para controlar los parámetros del filtro programable. . La respuesta al impulso de los sistemas adaptativos también puede ser finita o infinita.

Como regla general, los dispositivos adaptativos están diseñados para fines funcionales específicos. ciertos tipos señales. Estructura interna Los sistemas adaptativos y el algoritmo de adaptación están casi completamente regulados. propósito funcional y una determinada cantidad mínima de información inicial a priori sobre la naturaleza de los datos de entrada y sus parámetros estadísticos e informativos. Esto da lugar a una variedad de enfoques para el desarrollo de sistemas y complica significativamente su clasificación y desarrollo de principios teóricos generales /l38/. Pero se puede observar que mayor aplicación Al desarrollar sistemas para el procesamiento adaptativo de señales, se encuentran dos enfoques: el basado en el esquema de mínimos cuadrados (LSC) y el esquema de mínimos cuadrados recursivo (RLS).

^ 11.1. INFORMACIÓN GENERAL SOBRE FILTRACIÓN DIGITAL ADAPTATIVA.

Aplicaciones principales filtrado adaptativo– limpieza de datos de señales perturbadoras inestables y ruidos que se superponen en espectro con el espectro de señales útiles, o cuando la banda de frecuencias perturbadoras es desconocida, variable y no puede especificarse a priori para calcular filtros paramétricos. Por ejemplo, en las comunicaciones digitales, una fuerte interferencia activa puede interferir con la señal útil y durante la transmisión. información digital En canales con características de frecuencia deficientes, se pueden observar interferencias entre símbolos de códigos digitales. Solución efectiva Estos problemas sólo son posibles con filtros adaptativos.

La respuesta de frecuencia de los filtros adaptativos se ajusta o modifica automáticamente según un determinado criterio, lo que permite que el filtro se adapte a los cambios en las características de la señal de entrada. Se utilizan ampliamente en radio y sonar, en sistemas de navegación, en la selección de señales biomédicas y en muchas otras ramas de la tecnología. Como ejemplo, considere los esquemas de filtrado de señales adaptativos más comunes.

Cancelador de ruido adaptativo . El diagrama de bloques del filtro se muestra en la Fig. 11.1.1.

Arroz. 11.1.1.
El filtro consta de un bloque de filtro digital con coeficientes ajustables y un algoritmo adaptativo para sintonizar y cambiar los coeficientes del filtro. El filtro recibe señales de entrada y(k) y x(k) simultáneamente. La señal y(k) contiene la señal útil s(k) y la señal contaminante g(k) no correlacionada con ella. La señal x(k) de cualquier fuente de ruido está correlacionada con g(k) y se utiliza para formar una estimación de la señal ğ(k). La señal útil se estima por la diferencia:

š(k) = y(k) – ğ(k) = s(k) + g(k) – ğ(k). (11.1.1)

Cuadramos la ecuación y obtenemos:

š 2 (k) = s 2 (k) + (g(k) – ğ(k)) 2 + 2.s(k) (g(k) – ğ(k)). (11.1.2)

Calculemos la expectativa matemática de los lados izquierdo y derecho de esta ecuación:

M[š 2 (k)] = M + M[(g(k) – ğ(k)) 2 ] + 2M. (11.1.3)

El último término de la expresión es cero, ya que la señal s(k) no se correlaciona con las señales g(k) y ğ(k).

M[š 2 (k)] = M + M[(g(k) – ğ(k)) 2 ]. (11.1.4)

En esta expresión, M = W(s(k)) es la potencia de la señal s(k), M[š 2 (k)] = W(š(k)) es la estimación de la potencia de la señal s(k) y el total potencia de salida, M[(g(k) – ğ(k)) 2 ] = W( g) - potencia de ruido residual que puede estar contenida en la señal de salida. Al ajustar el filtro adaptativo a la posición óptima, se minimiza la potencia del ruido residual y, en consecuencia, la potencia de la señal de salida:

Mín W(š(k)) = W(s(k)) + mín W( g). (11.1.5)

La configuración no afecta la potencia de la señal útil, ya que la señal no está correlacionada con el ruido. El efecto de minimizar la potencia de salida total será maximizar la relación señal-ruido de salida. Si la configuración del filtro garantiza la igualdad ğ(k) = g(k), entonces š(k) = s(k). Si la señal no contiene ruido, el algoritmo adaptativo debe establecer todos los coeficientes del filtro digital en cero.


Arroz. 11.1.2.
Filtro salchicha adaptativo . La señal de entrada y(k) del filtro mostrado en la Fig. 11.1.2, incluye un componente correlacionado con la segunda señal x(k), y componente útil, no correlacionado con x(k). El filtro genera una señal ğ(k) a partir de x(t), una estimación óptima de esa parte de y(k) que está correlacionada con x(k), y la resta de la señal y(k). Señal de salida:

E(k) = y(k) - ğ(k) = y(k) - h t incógnita k = y(k) - h(n)x(kn),

Dónde h t y incógnita k – vectores de coeficientes de peso del filtro y su señal de entrada.

Asimismo al método anterior, elevamos al cuadrado los lados izquierdo y derecho de la ecuación, encontramos las expectativas matemáticas de ambos lados y obtenemos la ecuación de optimización  de la señal de salida:

   2 PAG t h + h t RH, (11.1.6)

Donde  2 = M – varianza y(k), PAG= M – vector de correlación cruzada, R= METRO[ incógnita k incógnita k T ] – matriz de autocorrelación.


Arroz. 11.1.3.
En un entorno estacionario, una gráfica de  versus coeficientes h tiene forma de copa superficie de adaptación(Figura 11.1.3). gradiente de superficie:

d / d h = -2PAG + 2RH.

Cada conjunto de coeficientes h(n) en esta superficie corresponde a un punto determinado. En el punto mínimo, el gradiente es cero y el vector de coeficientes de ponderación del filtro es óptimo:

h optar = R -1 PAG. (11.1.7)

Esta fórmula se llama ecuación de Wiener-Hopf. La tarea del algoritmo. ajustes automáticos es la selección de tales coeficientes de ponderación del filtro que aseguren el funcionamiento en el punto óptimo de la superficie de adaptación.

Sin embargo aplicación práctica El filtro se complica por el uso de matrices de correlación R y P, que a priori son desconocidas y que pueden cambiar con el tiempo para señales no estacionarias.

Algoritmo de mínimos cuadrados adaptativo de Widrow-Hopf . Esencialmente, se trata de una modificación del filtro de Wiener, en la que, en lugar de calcular los coeficientes (11.1.7) en un solo paso, se utiliza un algoritmo para descender secuencialmente hasta el punto óptimo al procesar cada muestra:

h k +1 = h k - e k incógnita k , (11.1.8)

mi k = y k - h t incógnita k. (11.1.9)

Condición de convergencia al óptimo:

0 <  >1/ máx., (11.1.10)

Donde  es el parámetro de velocidad de descenso,  m ax es el máximo valor propio matriz de covarianza datos. El diagrama de bloques del algoritmo se muestra en la Fig. 11.1.4.

Arroz. 11.1.4. Algoritmo de adaptación de mínimos cuadrados.

En la práctica, el punto de máxima optimización fluctúa alrededor del teóricamente posible. Si la señal de entrada no es estacionaria, entonces el cambio en las estadísticas de la señal debe ocurrir lo suficientemente lento para que los coeficientes del filtro tengan tiempo de seguir estos cambios.

Diseños recursivos de mínimos cuadrados. se diferencian en que el cálculo de cada muestra posterior de coeficientes h(n) se realiza no solo a partir de los coeficientes de una sola muestra anterior, sino también con una cierta longitud de memoria que se desvanece gradualmente de muestras anteriores, lo que permite reducir las fluctuaciones en estimaciones al procesar señales estacionarias.

^ 11.2. Conceptos básicos de agrupación estadística de información.

Al construir sistemas de filtrado de datos adaptativos gran valor tener características estadísticas de las señales procesadas y del ruido, su estacionariedad y la presencia de cualquier información adicional correlacionada con la principal. Consideraremos la posibilidad de utilizar información adicional al construir sistemas adaptativos en ejemplo específico– un sistema de filtrado adaptativo de datos procedentes de mediciones geofísicas nucleares continuas.

Requisitos previos del método. La cantidad física registrada durante las mediciones de física nuclear en geofísica suele ser la frecuencia. señales de pulso a la salida de detectores de radiación ionizante en el modo de selección de amplitud integral o diferencial. Los valores de la cantidad medida, al estar distribuidos estadísticamente por naturaleza, sólo pueden determinarse promediando el número de registros de partículas ionizantes a lo largo de intervalos de tiempo. El número registrado de pulsos determina el error estadístico de una sola medición, y el intervalo de tiempo promedio que proporciona el error estándar determina su desempeño. Para los métodos con registro continuo de información en el tiempo (o en el espacio), la ventana de tiempo de las mediciones también determina la resolución temporal (o espacial, teniendo en cuenta la velocidad de movimiento del detector) de interpretación de los resultados de las mediciones, mientras que la eficiencia de La información de registro suele estar limitada por las condiciones de medición y/o medios tecnicos su ejecución. Un ejemplo típico es el registro de pozos, donde las posibilidades de aumentar la intensidad de los flujos de información están limitadas por los parámetros de eficiencia de registro y sensibilidad de los detectores de radiación, que dependen de su tipo y tamaño. Las dimensiones de los detectores, naturalmente, dependen en gran medida de las dimensiones de los instrumentos de fondo de pozo, que, a su vez, están limitadas por los diámetros de los pozos.

A continuación consideramos la posibilidad de aumentar la precisión y productividad de las mediciones físicas nucleares continuas, para mayor claridad, en relación con las condiciones de medición en la versión de muestreo gamma de pozo, aunque en la misma medida se puede utilizar en fotografía gamma automática y aérea. en enriquecimiento radiométrico de minerales, en radiometría de rayos X y otros métodos de geofísica nuclear. Se supone que el registro de datos se lleva a cabo en formulario digital con acumulación de muestras a intervalos constantes de muestreo de datos (en el tiempo y el espacio, siempre que el detector se mueva a una velocidad constante).

En el caso general, la información útil (objetivo) puede estar presente en varios intervalos de energía del espectro de radiación. Los intervalos de medición de trabajo generalmente se consideran secciones del espectro donde la información útil está presente en forma "pura" o mezclada con interferencias (fondo), cuyo valor se puede tener en cuenta al procesar los resultados de las mediciones. Por ejemplo, durante las pruebas gamma de rocas para determinar el contenido de radionucleidos naturales (RNN), se registra radiación con una energía de más de 250-300 keV, representada principalmente por cuantos primarios y individualmente dispersos, cuya densidad de flujo es proporcional a la fracción de masa de NRN en las rocas. La densidad del flujo de radiación en el rango de baja energía del espectro (20-250 keV, principalmente radiación multidispersada) también depende de la fracción de masa de la NRN, pero esta dependencia está relacionada paramétricamente con el número atómico efectivo del emisor-absorbente. medio en la región del detector, cuyas variaciones a lo largo del pozo pueden provocar un gran error en la interpretación de los resultados de las mediciones. Mientras tanto, la densidad del flujo de información (en relación con la fracción de masa de NRN) en el rango de 20-250 keV es mucho mayor que en el rango de más de 250 keV, especialmente cuando se registra radiación con detectores de centelleo de pequeño volumen, que han aumentado sensibilidad específicamente a la parte de baja energía del espectro de radiación.

Problema de agrupación estadística La información en flujos de señales en una forma general y más simple se puede formular de la siguiente manera. La información útil está presente en dos flujos de señales estadísticamente independientes (en dos intervalos no superpuestos del espectro de emisión). En el primer flujo de señales, básicamente, la información útil está presente en forma "pura": la densidad del flujo de señales es proporcional a la determinada cantidad fisica. En la segunda corriente, condicionalmente adicional, la información útil está influenciada por factores desestabilizadores cuyo significado se desconoce. En ausencia de factores desestabilizadores, el coeficiente de correlación de las densidades de flujo promedio en estos dos flujos de señales es constante y cercano a 1. Para reducir el error de medición estadística, es necesario extraer información útil del flujo de señales adicional y sumarla con la corriente principal.

Denotamos los flujos, así como las frecuencias de los flujos de señal principal y adicional, mediante los índices n y m (pulsos por segundo), la conexión de los flujos por frecuencia con el índice x = m/n. Debe determinarse la frecuencia de flujo n. El valor x puede cambiar debido a la influencia de factores desestabilizadores en el flujo m y en el caso general es una variable aleatoria distribuida según una determinada ley con densidad de probabilidad P(x), expectativa matemática y varianza D x.

Según el teorema de Bayes, la densidad de probabilidad de la distribución de frecuencia n sobre el número de muestras de señal N medidas en un intervalo unitario t se determina mediante la expresión:

P N (n) = P(n) P n (N) P(N), (11.2.1)

P n (N) = (nT) N e -n  N! , (11.2.2)

P(norte) = P n (N) P(n) dn, (11.2.3)

Donde: P(n) es la densidad de probabilidad a priori de la frecuencia n, P n (N) es la distribución de probabilidad posterior de muestras numéricas N (ley de Poisson). Tomando además como valor deseado los valores de las muestras z=n en intervalos  (exposición de muestras digitales o ventana de tiempo deslizante de datos analógicos) y sustituyendo (11.2.2, 11.2.3) en (11.2.1), obtenemos:

P N (z) = P(z) z N e -z  P(z) z norte mi -z dz. (11.2.4)

Con una distribución desconocida de los valores z, se supone que la densidad de distribución a priori P(z) es uniforme de 0 a , mientras que de la expresión (11.2.4) se derivan expresiones bien conocidas:

Z = D z = N+1  N, (11.2.5)

 z 2 = D z z 2 = 1 (N+1)  1N. (11.2.6)

Descuidamos los valores de las unidades en las expresiones, lo cual no sólo es correcto en condiciones de "buenas" estadísticas, sino también necesario en el modo de mediciones continuas secuenciales para eliminar el desplazamiento de los valores promedio.

Como se desprende de la teoría del registro de rayos gamma (GC) y está bastante bien confirmado por la práctica del muestreo de rayos gamma, la resolución espacial de las mediciones del registro de rayos gamma al interpretar los resultados del GC para el contenido de elementos radiactivos naturales en Las rocas a lo largo del pozo tienen un tamaño promedio de 10 cm, y en pozos pequeños el diámetro puede incluso aumentar a 5-7 cm. Sin embargo, la implementación de dicha resolución sólo es posible en condiciones de estadísticas suficientemente "buenas". El factor de mejora de la dispersión del ruido de los filtros de deconvolución digitales, que se utilizan en la interpretación de GC, es en promedio aproximadamente 12 y varía de 4 a 25 dependiendo de la densidad de las rocas, el diámetro del pozo, el diámetro de la herramienta del pozo, etc. Para lograr una resolución de 10 cm con un error de interpretación diferencial estándar de no más del 10-20%, el error de medición estadística no debe exceder el 3-7%. Y esto, a su vez, determina el volumen de conteo para una sola exposición de al menos 200-1000 pulsos. En el registro de rayos gamma, esto último sólo es posible para rocas con un contenido relativamente alto de NRN (más del 0,001% de uranio equivalente), cuando se utilizan detectores grandes (con una eficiencia de registro de más de 10 pulsos/seg por 1 µR/hora) y a baja velocidad de registro (no más de 100-300 m/hora). En un grado u otro, este problema es característico de todos los métodos de la geofísica nuclear y es especialmente grave en las modificaciones espectrométricas de las mediciones.

Sin embargo, cabe señalar que el proceso de mediciones continuas tiene una cierta base fisica tanto para aplicar métodos de regularización de los resultados de la interpretación de datos, como para regularizar los propios datos estadísticos (matrices de muestras N) al procesarlos.

La forma más sencilla de preparar datos digitales para su interpretación es filtrarlos mediante un filtro de paso bajo utilizando el método de mínimos cuadrados (LSM) o funciones de ponderación (Laplace-Gaussian, Kaiser-Bessel, etc.). Sin embargo, cualquier método de filtrado de datos de baja frecuencia reduce la resolución espacial de interpretación, ya que además de reducir las fluctuaciones estadísticas, conducen a una cierta deformación de los componentes de frecuencia de la parte útil de la señal, cuyo espectro, según la deconvolución condiciones, debe tener valores reales hasta la frecuencia de Nyquist. Hasta cierto punto, este factor negativo puede eliminarse mediante el método de regularización adaptativa de datos (ARD).

Las expresiones (11.2.5-6) ​​​​se obtuvieron bajo el supuesto de que la distribución a priori P(z) para las lecturas en cada exposición actual  es completamente desconocida. Mientras tanto, cuando se procesan datos de medición continua, y especialmente datos de registro, que normalmente son multiparamétricos, para cada muestra actual durante el procesamiento de datos se puede llevar a cabo una cierta evaluación de la distribución P(z). Como mínimo, hay dos formas de estimar la distribución P(z).

Método 1. Utilizar matrices de datos de mediciones paralelas de cualquier otro parámetro de información, cuyos valores estén claramente correlacionados con la matriz de datos procesada, ya sea en todo el espacio de medición o en un determinado intervalo de comparación de datos móviles. Dichos conjuntos incluyen, por ejemplo, mediciones de registro preliminares durante la perforación de pozos, mediciones con un dispositivo diferente, con una velocidad de registro diferente, en un rango espectral de radiación diferente e incluso con un método de registro diferente. En el muestreo gamma, la distribución P(z) se puede evaluar utilizando mediciones paralelas de la intensidad del flujo m en el rango de baja frecuencia del espectro de la roca.

Método 2. Con un único diagrama de GC, la evaluación de la distribución P(z) en cada punto de procesamiento de datos actual se puede realizar utilizando las vecindades más cercanas de un punto determinado, cubriendo un intervalo espacial más amplio en comparación con el intervalo de muestreo.

Uso de datos a priori. Supongamos que además de la matriz de datos principal N , para procesar (preparar para interpretación), tenemos una matriz de datos adicional M, cuyos valores están hasta cierto punto correlacionados con la matriz N. En ausencia de matrices adicionales, el método 2 nos permite obtener la matriz M procesando la matriz N con un filtro de mínimos cuadrados digitales (o cualquier otro filtro de peso) con una ventana de tiempo deslizante T  3 (M(k) = m(k)señal suavizada m(k) = n(k) ③ h, donde h es el operador del filtro digital simétrico). Tenga en cuenta también que el segundo método siempre se puede utilizar para regularizar los datos, independientemente de la disponibilidad de datos para el primer método.

Array M le permite dar una estimación características estadísticas distribuciones P(z). Entonces, si para los mismos intervalos de tiempo  en la matriz M hay muestras M = m k  (o muestras de algún otro parámetro reducido a ellas), entonces podemos escribir:

P M (z) =
, (11.2.7)

Donde P(x) es la densidad de distribución a priori de los valores x k = m k /n k, que en el caso general también puede ser aleatoria. Con una distribución uniforme de P(x) de 0 a  para la lectura M, cualquier valor z es igualmente probable, es decir no hay ningún efecto por las mediciones en caudal m. Sin embargo, de acuerdo con las condiciones iniciales del problema, la presencia de información útil en la corriente m es obligatoria y, en consecuencia, la existencia de al menos ciertos límites de la distribución P(x) desde x min > 0 hasta x max<< , и среднего значения по пространству измерений. При этом из выражения (11.2.7) следует, что наиболее вероятное значение z a , "априорное" для отсчетов z=n в потоке n по измерениям в потоке m (отсчетам М), должно быть равно:

Z a = (M+1)  M. (11.2.8)

Con independencia estadística de los valores x y M, la raíz del error cuadrático medio relativo al determinar los valores z a a partir de muestras en la matriz M:

 za 2 =  M 2 +  x 2 . (11.2.9)

De ahí la dispersión de la distribución de los valores de z a:

D za = (D M +M 2  x 2) 2 = D(M)  2, (11.2.10)

D(M) = D M +M 2  x 2 = D M +D xm , (11.2.11)

D M = M+1  M, D xm = M 2  x 2,

Donde el valor de la dispersión D M está determinado por las estadísticas de muestras en la matriz M en x = const, el valor D xm representa la dispersión de los valores de M debido a las fluctuaciones en el valor de x, y la suma D (M) determina la dispersión total de las muestras M.

La influencia de P(x) en la forma de la distribución Р М (z) se refleja en su “estiramiento” a lo largo de la coordenada z con respecto al valor modal, mientras que la solución a la integral (11.2.7) en una primera aproximación se puede representar de la siguiente forma:

P M (z)  b
e-bz. (11.2.12)

Para una distribución dada:

= z a = ab, (11.2.13)

D za = ab 2 , (11.2.14)

Teniendo en cuenta las expresiones (11.2.8) y (11.2.10):

A = MD M (D za 2) = MD M D(M), (11.2.15)

B = D M (D za ) = D M D(M). (11.2.16)

Se supone que el valor "a" en la expresión (11.2.15) es un número entero. La expresión (11.2.12) puede aceptarse para la distribución (11.2.4) como distribución de probabilidad a priori P(z), en este caso:

P norte (z) = (b+1)
mi-z(b+1) . (2.11.17)

Por tanto, la expectativa matemática y la varianza z:

Z = (N+a)(b+1), (11.2.18)

D z = (N+a)(b+1) 2 . (2.11.19)

Usando expresiones (11.2.15-16):

Z = N+(1-)M, (11.2.20)

Donde  y (1-) son los coeficientes de confianza de ponderación en las lecturas N y M:

 = D(M)(D norte 2 +D(M)). (2.11.21)

Dispersión y error cuadrático medio relativo de las lecturas z:

Dz = D(M)
, (11.2.22)

 z 2 =1(N+MD M D(M)). (11.2.23)

Eficiencia del método. La comparación de las expresiones (11.2.20-23) y (11.2.5-6) ​​nos permite evaluar el efecto del uso de información adicional de un flujo M estadísticamente independiente de N (información adicional arbitraria).

1. En  constante,  x 2  0, D xm  0 y la dispersión de muestras en la matriz M está determinada únicamente por las estadísticas de flujo:

D(M)  D M = M, z = (N+M) (+1),

 z 2  1(N+M)<  N 2 = 1N, (11.2.24)

 =  N 2  z 2 = N  1+MN,

Lo cual corresponde a la definición de z en dos mediciones independientes y el efecto de utilizar información adicional es máximo. Por lo tanto, para M  N,   2 y el error de medición disminuye en
1,4 veces.

2. En el caso general, D xm  0, mientras que D(M) > D M y el efecto positivo disminuye. En el límite:  x  , D xm  , D(M)  ,   1, z  N,  z   N y el efecto positivo degenera completamente. En todos los demás casos  > 1 y  z<  N . Отсюда следует, что при наличии коррелированной информации в массиве М положительный эффект, в той или иной мере, всегда имеет место.

3. Cuanto mayor sea el valor de x = m/n, menor será la fluctuación de x (valor  x), y cuanto menor sea el valor de las lecturas N = n, mayor será el efecto positivo. El efecto positivo aumenta precisamente en aquellos casos en los que la falta de información es especialmente aguda: con valores bajos de densidad de flujo de radiación y/o exposición de las mediciones.

Un efecto similar ocurrirá cuando se formen M muestras en las proximidades puntos actuales procesar datos determinando su valor promedio (suavizado de baja frecuencia de la matriz n). El suavizado preliminar de baja frecuencia también se puede utilizar para una matriz adicional estadísticamente independiente m, lo que aumentará la confiabilidad de las muestras de pronóstico y aumentará la profundidad de la regularización, si este suavizado durante la regularización según las fórmulas (11.2.20 y 21) no afecta el cambio en la forma de la señal principal. Este último está determinado por la relación entre los espectros de frecuencia de la señal principal y el operador de suavizado.

Hay dos formas posibles de implementar la ecuación (11.2.20): directamente en el proceso de mediciones utilizando el método de agrupación estadística de información útil (SGPI) en tiempo real, o el método de regularización estadística de datos (SRD), registrado en la forma de una distribución temporal (espacial) en conjuntos paralelos de muestras.

^ 11.3. Regularización de datos estadísticos.

Como se desprende de la expresión (11.2.21), para el uso práctico de información de flujos de datos adicionales, es necesario establecer los valores y la varianza D(M) y, basándose en la configuración de este último mediante la expresión (11.2.11 ), es necesario conocer el valor  x: fluctuación cuadrática media relativa del valor x.

En relación con el DRS, determinar los valores y  x a partir de las matrices de datos registrados no presenta ninguna dificultad tanto en todo el espacio de medición como en forma de distribuciones en una ventana deslizante de promediación de datos. Esto último equivale a llevar D xm => 0 para el punto de procesamiento de datos actual en función de la información de su entorno inmediato y permite la máxima extracción de información útil de flujos de señales adicionales si el espectro de frecuencia de la distribución de la cantidad x sobre la medición El espacio es mucho menor que el espectro de frecuencia de la señal de información útil. Tenga en cuenta que la información sobre la distribución de x también puede ser de importancia práctica (en particular, durante el muestreo gamma con un flujo adicional de señales en el rango de baja energía del espectro de radiación, para estimar el número atómico efectivo de las rocas).

Verificación de los principios teóricos del método. SRD se llevó a cabo mediante modelado estadístico de los correspondientes conjuntos de datos y su procesamiento con filtros digitales.

La Tabla 1 muestra 4 grupos de resultados de procesamiento según fórmulas (11.2.20-21) de dos valores promedio constantes y estadísticamente independientes de matrices de datos n y m (modelos de campo constante) con diferentes configuraciones del DRS según la ventana deslizante K de la cuenta de valores actuales. = m i /n i y D i (M) sobre la matriz m. El punto de procesamiento de datos actual está en el centro de la ventana. El número de muestras en cada matriz es 1000, la distribución de los valores de las muestras corresponde a la ley de Poisson. La determinación de las muestras de pronóstico M i a partir de la matriz m para usar en la ecuación (11.2.20) se llevó a cabo suavizando las muestras en la ventana deslizante K s de un filtro digital de baja frecuencia (opción sin suavizado en K s = 1 ). La ventana de peso de Laplace-Gauss se utiliza como filtro de paso bajo en el algoritmo DRS (en adelante). Valor teórico de D z.t. la varianza de los resultados z se determinó mediante la expresión (11.2.22) con el cálculo de la varianza D(M) mediante la expresión D(M) =
. Al suavizar las muestras de pronóstico, el valor de D M en la expresión (11.2.22) se tomó igual a D M . = H s , donde H s es la ganancia del filtro de suavizado de dispersión de ruido (la suma de los cuadrados de los coeficientes del filtro digital). Además, la tabla muestra los valores promedio registrados del coeficiente de reducción de fluctuaciones estadísticas  =  n 2 / z 2 .

Tabla 1. Estadísticas de resultados de simulación DRS.

(matriz principal = 9,9, D n = 9,7, matriz adicional = 9,9, Dm = 9,9, 1000 cuentas.)


kc

ks

z

D z

Dz.t.



kc

ks

z

D z

Dz.t.



3

1

9,7

5,7

6,19

1,7

11

3

9,6

3,6

3,80

2,8

5

1

9,7

5,4

5,78

1,8

11

5

9,6

3,3

3,55

3,0

11

1

9,6

5,1

5,36

1,9

11

11

9,6

3,1

3,22

3,2

21

1

9,6

5,0

5,18

2,0

11

21

9,6

3,0

3,11

3,3

51

1

9,6

5,0

5,05

2,0

11

51

9,6

3,0

2,99

3,3

3

3

9,7

4,1

4,71

2,4

3

11

9,8

4,5

4,26

2,2

5

5

9,7

3,6

4,01

2,8

5

11

9,7

3,5

3,78

2,8

11

11

9,6

3,1

3,22

3,2

11

11

9,6

3,1

3,22

3,2

21

21

9,6

2,9

2,91

3,4

21

11

9,6

3,1

3,12

3,2

51

51

9,6

2,7

2,66

3,7

51

11

9,6

3,1

2,99

3,2

Como se puede ver en los datos de la tabla, resultados prácticos Las tasas de filtración coinciden bastante bien con las esperadas a partir de los cálculos teóricos. Una ligera disminución en el valor promedio de z con respecto al valor promedio inicial de n está determinada por la asimetría del modelo de tipo Poisson. Para valores promedio pequeños de los recuentos del modelo en la matriz m, esto conduce a una cierta asimetría estadística en el funcionamiento del DRS, ya que para (+ m) 2 > (- m) 2, la confianza estadística promedio en información adicional con muestras Mi + es menor que con muestras Mi -. Este mismo factor aparentemente provoca una mayor discrepancia entre los valores teóricos y reales de D z para valores pequeños de la ventana K c. También se puede observar que según el valor del coeficiente , el filtrado alcanza valores teóricos ( 1+MN) solo con suficiente definición precisa valores y D i (M), lo que requiere aumentar la ventana K a partir del cálculo de estos parámetros para uso completo información adicional.


Tabla 2.


El efecto de utilizar información adicional, en total conformidad con la expresión (11.2.22), se mejora suavizando preliminarmente las variaciones estadísticas de las lecturas M i y aumentando los valores de las lecturas de la matriz adicional (materiales para el este último caso no se dan por no disponer de información adicional). En campos con dinámica tranquila, se puede lograr una profundidad de regularización aún mayor contando los valores de y D m de una matriz M suavizada, lo que permite aumentar el peso de las muestras de pronóstico M i. Los resultados de modelar esta opción en las mismas condiciones que para la Tabla 1 se muestran en la Tabla 2. El mismo efecto, en principio, se puede lograr introduciendo directamente un coeficiente de peso adicional en la expresión (11.2.20) como multiplicador del valor. D(M ), que permite control externo profundidad de la regularización.

Evaluación de la conservación de la resolución Se filtró información útil. señales deterministas n y m de la forma límite, en forma de pulsos rectangulares. Se evaluaron dos factores: mantener la forma de la señal útil y suprimir el ruido estadístico superpuesto a la señal útil.

Al instalar el RDS sin promediar datos sobre la matriz M (K s = 1, pronóstico M i basado en los valores actuales de la matriz M) para cualquier valor de la ventana K c, la matriz de salida Z repite la matriz N sin ningún cambio, es decir no cambia la señal útil y la conserva por completo características de frecuencia. Naturalmente, siempre que la matriz M sea proporcional a la matriz N.

Cuando K s > 1, la forma de las curvas de salida cambia ligeramente y se muestra en la Fig. 11.3.1. Los índices de las curvas de salida z contienen información sobre la configuración de las ventanas RDS: el primer dígito es la ventana para calcular la dispersión D M y el valor actual (en el número de puntos de muestreo), el segundo dígito (vía flash) es el ventana para suavizar las lecturas M con la función de ponderación de Laplace-Gauss y determinar las lecturas predichas M i. Para comparar con los resultados del filtrado de paso bajo típico, la figura muestra una curva de n25 muestras N, suavizada por la función de ponderación de Laplace-Gauss con una ventana de 25 puntos.

Arroz. 11.3.1. RDS de pulso rectangular. Contando D m sobre la matriz M sin suavizar.

En la figura. La Figura 11.3.1a muestra el resultado del RDS de un pulso rectangular con un valor de amplitud de 10 sobre un fondo de 5 con la relación m/n = 1 (valores iguales de lecturas N y M). La varianza D N en la expresión (2.11.21) se tomó igual al valor de las muestras N (estadística de Poisson). Como se puede ver en la figura, manteniendo los frentes de la función de la señal, suavizar los valores predichos de Mi conduce a la aparición de una distorsión de la forma de la señal en ambos lados del salto, cuyo intervalo es mayor , mayor será el valor de K s. El valor de amplitud de las distorsiones, como se desprende de la expresión (11.2.21), depende principalmente de la relación de los valores actuales de D N y D(M) y, en menor medida, de la profundidad de suavizado de las muestras de pronóstico. .

El valor máximo de distorsión para los puntos de salto se puede estimar en una primera aproximación a partir de las siguientes consideraciones. Los valores de D(M) entre los puntos de salto son iguales a D(M) = A 2 /4, donde A es la amplitud del salto, mientras que los valores del coeficiente  para los puntos inferior y superior del Los saltos están determinados por las expresiones   A 2 /(4D N +A 2), donde D N = N puntos de salto (para estadísticas de Poisson). Por lo tanto, con el valor predicho M  N+A/2 para el punto inferior del salto y M  N-A/2 para el punto superior valor relativo Los cambios N estarán determinados por la expresión   1/(2N/A+A), es decir será cuanto menor, mayores serán los valores de A y N y mayor será la relación N/A, lo que se puede observar claramente en la Fig. 11.3.1c. También se deduce de esta expresión que la distorsión máxima de los saltos introducida por el sistema DRS siempre será varias veces menor que las fluctuaciones estadísticas de las lecturas directas  = 1/
en los bordes de los saltos.

A medida que aumenta la profundidad de la regularización al introducir el cálculo de varianza D(M) sobre la matriz suavizada M, la imagen de las distorsiones cambia algo y se muestra en la Fig. 11.3.2. La reacción del RSD para suavizar la dispersión D(M) se manifiesta en una especie de compensación de las desviaciones absolutas de las muestras directamente en los lados del choque por desviaciones de signo opuesto en una zona más alejada del choque. Los valores máximos de distorsión se mantienen aproximadamente en el mismo nivel que para el trabajo sobre la dispersión no suavizada D(M), con una dependencia ligeramente menor del aumento de los valores de N y A.

Arroz. 11.3.2. RDS de pulso rectangular. Contando D m sobre la matriz suavizada M.

En los ejemplos dados, el valor de la ventana de conteo K c se tomó igual al valor de la ventana de suavizado K s de la matriz adicional M. Cuando K c > K s la imagen del proceso prácticamente no cambia. Cuando se invierten los tamaños de las ventanas, entra en juego el segundo factor: la desviación de los valores de conteo reales de los valores actuales x i = m/n en la ventana pequeña K s sobre el conjunto de lecturas suavizadas con la ventana grande Ks. A distancias de la función de salto mayores que K c /2, el DRS cambia al modo de preferencia para valores suavizados de la matriz M, porque D(M)  0, que en K s< K s может приводить к появлению существенной погрешности – выбросов на расстояниях  К с /2 от скачков. Естественно, что при практических измерениях таких условий наблюдаться не будет и эффект резко уменьшится, но для полного его исключения вариант K c  K s можно считать предпочтительным.

Arroz. 11.3.3. RDS de la señal N sobre la matriz M. Fig. 11.3.4. Coeficiente .

(Cuente D m sobre la matriz M sin suavizar). (Promedio estadístico de 50 ciclos)

En la figura. 11.3.3 muestra un ejemplo de grabación de una señal de modelo aleatorio en forma de pulso rectangular con una amplitud de 40 sobre un fondo de 10, en el que se ve el principio de funcionamiento del DRS. Como era de esperar, el DRS suaviza las fluctuaciones estadísticas del fondo y la señal fuera de la zona K s desde el salto, dando preferencia a los valores de pronóstico suavizados M i, y no cambia los valores del fondo y señal dentro de esta zona debido a un fuerte aumento en los valores actuales de D( M) en la expresión (11.3.21). El cambio en el coeficiente  en la zona de salto, que controla la formación de muestras de salida, se muestra en la Fig. 11.3.4 (promedio estadístico de 50 ciclos de aleatorización para el pulso modelo en la Fig. 11.3.3) y muestra claramente el principio de adaptar el DRS a la dinámica de cambios en los valores de las señales procesadas.

Evaluación estadística de la regularización de datos. A partir de pulsos rectangulares se realizaron 50 ciclos de aleatorización de los arreglos iniciales N y M. A modo de ejemplo, las Figuras 11.3.5 y 6 muestran los resultados del procesamiento de las estadísticas de los arreglos N y Z. Además de las estadísticas de aleatorización. ciclos, se llevó a cabo un procesamiento resumido de todos los ciclos de acuerdo con estadísticas generales Fondo y vértices de los pulsos. Los resultados del procesamiento para la misma configuración de filtro se muestran en la Tabla 3.

Arroz. 11.3.5. Estadísticas de señal N Fig. 11.3.6. Estadísticas de señal Z

(Medidas sobre 50 ciclos). (50 ciclos. Contando D m por M sin suavizar)

Tabla 3.

Estadísticas de valores de pulso de fondo y pico (50 ciclos).

Resultados de la simulación confirmar la ventaja de SRD sobre métodos simples suavizado. En forma numérica, esto se manifiesta claramente en una disminución en la dispersión de muestras de la matriz de salida Z mientras se mantienen prácticamente los valores promedio de la matriz N tanto para las muestras de fondo como para valores de amplitud señal. Con un simple suavizado, el "colapso" de los frentes de señal (supresión de los componentes de alta frecuencia del espectro de la señal), como debería ser cuando se utilizan filtros de paso bajo, provoca una disminución en relación con la matriz original de valores medios. en los máximos y un aumento en los valores de fondo de la señal, que es mayor cuanto mayor es la ventana de ponderación. Este efecto es especialmente pronunciado en el intervalo de la ventana del filtro a ambos lados de cambios repentinos de señal.

En ausencia de matrices adicionales M correlacionadas con la matriz regularizada N, la formación de valores de pronóstico M i se puede llevar a cabo utilizando las vecindades más cercanas de los valores actuales N i en la ventana deslizante K s. Con un enfoque estrictamente correcto, el punto actual N i no debería incluirse en el cálculo de los valores predichos M i , pero, como ha demostrado el modelado, esto prácticamente no tiene ningún efecto en los resultados de la regularización. Al predecir M i para todos los puntos de la ventana K s, la matriz M se forma mediante cualquier método de suavizado a partir de la matriz N, y todas las características del funcionamiento del DRS para matrices suavizadas M, discutidas anteriormente, permanecen sin cambios siempre que la Los valores de D m se cuentan en la ventana K s utilizando la matriz M. Para eliminar las emisiones en ambos lados de los saltos de señal útiles, el cálculo de D m como la dispersión de los valores predichos Mi debe realizarse directamente. usando la matriz N.

Una característica fundamental del DRS es la posibilidad de filtrado múltiple secuencial de datos, que puede principalmente aumentar el grado de regularización de los datos con una distorsión mínima de la forma útil de la señal. para realizar último tamaño la ventana K de la cuenta x i y D m se establece al mínimo (3-5 puntos), y la profundidad de la regularización de datos (grado de supresión de ruido) se establece por el número de operaciones de filtrado sucesivas (hasta 3-5 pasadas) . En la figura se muestra un ejemplo de regularización de una matriz modelo N en tres pasadas. 11.3.7.

Arroz. 11.3.7. RDS de una sola matriz N (3 pasadas. Contando D m sobre la matriz n)

A modo de comparación, la línea de puntos de la figura muestra el suavizado de la matriz con un filtro Laplace-Gaussiano de 5 puntos, que tiene un coeficiente de reducción de ruido equivalente a un DRS de 3 pasos (ver Fig. 11.3.9).

Las figuras 11.3.8 y 11.3.9 muestran los resultados. procesamiento estadístico RDS de 3 pasadas para 25 ciclos de simulación respecto a la 1.ª pasada y con filtro Laplace-Gaussiano de 5 puntos (curva n5).

Arroz. 11.3.8. Estadísticas de valores medios Fig. 11.3.9. Estadísticas de varianza

(25 ciclos. Contando D m sobre el conjunto n) (25 ciclos. Contando D m sobre el conjunto n)

El número de pasadas se puede limitar en el modo automático, por ejemplo, mediante el valor cuadrático medio de las muestras de corrección z i = N i - z i en cada pasada en comparación con la pasada anterior, que al principio disminuye bruscamente debido a las fluctuaciones de suavizado. , y luego, dependiendo de la dinámica de la función de la señal, se estabiliza o incluso comienza a aumentar debido a la distorsión de la propia señal.

Representación de frecuencia El funcionamiento del SRD es claramente visible en la Fig. 11.3.10, que muestra los módulos de los espectros de una señal aleatoria en forma de meandro (valores promedio como mínimo - 20, como máximo - 100, 25 períodos de 40 muestras, un total de 1000 muestras) y los resultados de su procesamiento por el RDS (ventana K c = 3, ventana K s = 3).

Arroz. 11.3.10. Modelo de módulos de espectros de señales. Fig.11.3.11. Sección de espectro.

(1 – matriz de entrada N, 2 – matriz de salida Z , un ciclo de SRD,

3 – matriz de salida Z , tres ciclos de SRD), 4 – conjunto de meandros no aleatorios).

El módulo espectral de la señal útil principal (en este caso, una onda cuadrada pura) es una secuencia de armónicos de frecuencia individuales en todo el rango del espectro. En el espectro de una onda cuadrada aleatoria, estos armónicos de frecuencia se suman con un espectro de ruido que está estadísticamente distribuido uniformemente a lo largo de rango de frecuencia(El espectro de ruido en la figura está suavizado para mayor claridad). El RDS suprime los componentes de ruido de la señal, prácticamente sin afectar los armónicos de frecuencia del meandro y sin cambiar su amplitud. Esto último se puede ver en la Fig. 11.3.11, que muestra un segmento del espectro de señales en la parte de alta frecuencia del rango principal en la región de un armónico del meandro (las componentes de frecuencia del ruido no están suavizadas). Con un DRS de 3 ciclos, los componentes de ruido de alta frecuencia se suprimen en casi un orden de magnitud.

Ejemplo práctico El SRD se muestra en la Fig. 11.3.12 al probar una sección de un pozo que cruza capas de sal gema para determinar el contenido de silvinita mediante radiación gamma de potasio-40. Según los datos de muestreo geológico, las capas de silvinita en la roca huésped (halita) tienen límites bastante definidos y son uniformes en el contenido de silvinita dentro de las capas. El diagrama de GC original (detector CsJ(Tl) con un filtro de plomo de 2 mm de espesor) y los resultados del filtrado de la matriz de datos de GC original usando un DRS y un filtro de paso bajo con una ventana de ponderación de Laplace-Gauss se muestran en la Fig. 11.3.12.

Arroz. 11.3.12. Diagramas de BG.

Los resultados de la interpretación de los diagramas de GC con un filtro digital deconvolucional simétrico (ventana de 13 puntos) se muestran en la Fig. 11.3.13. Como se puede ver en la figura, la deconvolución del diagrama de GC sin suavizar produce variaciones significativas en el contenido de silvinita dentro de las capas. El uso de filtrado de baja frecuencia del diagrama GC elimina las fluctuaciones de contenido dentro de las capas, pero suaviza significativamente los límites de las capas. El uso de SRD nos permite eliminar este inconveniente.

Arroz. 11.3.13. Resultados de la interpretación de diagramas BG.

En conclusión, observamos que el DRS se puede utilizar para regularizar no solo los datos de física nuclear, sino también cualquier otro. matrices numéricas mediciones continuas, si su radio de correlación es de al menos 3-5 cuentas. Como ejemplo en la Fig. La Figura 11.3.14 muestra un diagrama de registro acústico registrado con un paso de muestreo de datos de 20 cm, suavizado por el SRD sin pérdida de resolución espacial.

Arroz. 11.3.14. Diagrama de registro acústico y resultado de su procesamiento por RDS.

(5 ciclos, K c = K s = 3, ventana física 0,6 m).

Trabajo de curso 17-07. Modernización de un filtro adaptativo para suavizar datos distribuidos estadísticamente según la ley de Poisson.

^ 11.3. Agrupación estadística de información útil.

En cuanto a los métodos de hardware para implementar SGPI, se puede realizar en tiempo real si la información está representada por un flujo de pulsos y el principal parámetro informativo es la tasa de repetición de pulsos.

La esencia de la implementación de hardware. consiste en un muestreo estadístico (casi estadístico) normalizado de pulsos de un flujo adicional m y su suma con el flujo principal n con el establecimiento de condiciones de muestreo en relación con la tasa de repetición de pulsos en los flujos. Suponiendo para el modo de medición continua M+1 = M, reescribimos la expresión (5.2.20) con la sustitución del valor  en la siguiente forma:

Z = N + (M/-N)·M/(M+D(M)). (11.3.1)

Multipliquemos los lados izquierdo y derecho de la expresión por el factor de multiplicación de normalización del flujo de salida K = l+R:

Z = K z= N + RN+(M/-N) KM/(M+D(M). (11.3.2)

Reemplacemos las muestras de RN con una muestra de señales del flujo m:

RN = P en M, (11.3.3)

Donde P in es la probabilidad de muestrear señales de la corriente m. Si la probabilidad de muestreo de la señal se mantiene igual al valor

P pulg = R/, (11.3.4)

Entonces tendrá lugar

M/-N = P en M/R-N  0, (11.3.5)

Y en consecuencia, para la expresión (11.3.2) tenemos:

(M/-N)·KM/(M+D(M)  0, (11.3.6)

Z = N+P en M  N+RN. (11.3.7)

Si el valor x es estadísticamente independiente de la frecuencia de los flujos n y m, las expresiones dadas son válidas para determinar el valor tanto en todo el espacio de medición como para ventanas deslizantes de valores actuales en ciertos intervalos de mediciones anteriores. La conclusión opuesta también es cierta: si durante un cierto intervalo de medición la expresión (11.3.5) se vuelve cero, entonces la probabilidad de muestreo establecida corresponde a la condición (11.3.4). Según este principio, se puede llevar a cabo una implementación de hardware de SGPI con adaptación automática a las condiciones de medición: controlando el proceso de muestreo de pulsos del flujo m y dirigiéndolos a la suma con el flujo n de acuerdo con las señales de retroalimentación de un dispositivo que monitorea el retorno a cero. de expresión (11.3.5).

Características de la implementación de hardware. Los SGPI con adaptación automática a las condiciones de medición son los siguientes.

El valor de la probabilidad de muestreo P in no puede ser mayor que 1. De (11.3.3) se deduce que para cualquier intervalo de medición se debe cumplir la condición M ≥ RN y, en consecuencia, la condición ≥ R debe cumplirse durante toda la medición. espacio, que determina la elección del coeficiente R. El valor del coeficiente R limita fundamentalmente el grado de efecto positivo del SGPI (k max  1+R), a diferencia del SRD, donde no existe tal limitación.

El error estadístico relativo de las mediciones del flujo de salida de muestras Z corresponde a la expresión (11.2.23) siempre que el valor de P in sea constante, es decir al establecer el valor de P en el valor promedio de la cantidad en su conjunto en el espacio de medición. Con la adaptación automática a las condiciones de medición, el valor de probabilidad P en el valor promedio actual de la relación n/m de un determinado intervalo de medición anterior también es un valor estadísticamente fluctuante con dispersión de distribución (sin tener en cuenta los cambios en el valor real de x) :

D p = R 2 (n+m)n/(m 3 T), (11.3.8)

Donde T es el intervalo de promediación de información al determinar el valor actual. En consecuencia, la dispersión y el error cuadrático medio de las lecturas actuales Z:

D z = D N + P en D M +M 2 D p = N+P en M+M 2 D p, (11.3.9)

 z 2 = (N+P en M+M 2 D p)/(N+P en M) 2. (11.3.10)

Con mediciones de exposición constantes , el efecto positivo aumenta al aumentar el valor T:

K = K 2 /(K+R 2 (n+m)/mT). (3.11.11)

K máx  1+R,  z 2  1/(N+P en M) en T  . (11.3.12)

En el caso general, teniendo en cuenta el error cuadrático medio de predicción  xi de los valores x i para los puntos de medición actuales basados ​​en valores en intervalos anteriores en T > :

D z = N+P en M+M 2 (D p +P en 2  xi 2). (11.3.13)

La formación del valor P a partir de información sobre los valores medios de los intervalos de medición anteriores al actual determina el SGPI como sistema dinámico con un tiempo de respuesta correspondiente constante a los cambios en las condiciones de medición. Teniendo en cuenta que, en primer lugar, para cualquier punto del espacio de medición debe cumplirse la condición m > nR y, en segundo lugar, un aumento en el intervalo T conduce a un aumento en el tiempo de reacción a los cambios en las condiciones de medición, es aconsejable limitar el valor de T a un valor del orden de (5-10) valores de exposición actuales. Cuanto menor sea la frecuencia espacial de la distribución x en relación con la distribución n, mayor será el valor T permitido.

Implantación de sistemas SGPI facilitado en gran medida por restricciones puramente prácticas objetivo: obtención del máximo efecto positivo en condiciones de medición extremadamente desfavorables (a valores bajos de la densidad de flujo de radiación registrada, a altas velocidades de medición) con la degeneración del efecto positivo a medida que disminuye el error estadístico de medición en el flujo principal. Entonces, por ejemplo, si durante las pruebas gamma de fondo de pozo el error estadístico al medir el flujo de señal principal en áreas con mayor intensidad de radiación se reduce al 2-3%, entonces su reducción adicional no tiene significado práctico, porque El principal error al registrar equipos radiométricos no suele superar el 5%.

El uso de esta restricción objetivo permite aplicar la formación del parámetro P no en una ventana deslizante de promediación temporal o espacial de información, sino de acuerdo con un cierto volumen registrado de información previa, es decir, con variación automática del intervalo de promediación de información y regulación constante P in dependiendo de la frecuencia de los flujos de señales, mientras que la cantidad de información para la formación de P in se puede establecer teniendo en cuenta la naturaleza de las variaciones en el valor y valor permitido error de medición dinámica.

Para implementar esta posibilidad, transformamos la expresión (11.3.5) sobre el intervalo promedio t a la forma:

P en mt/R-nt+Q = q, (11.3.14)

P in = nR/m = q/, (11.3.15)

Q  Q en t  ,

Donde Q- nivel intermedio desplazamiento del equivalente numérico de la señal de retroalimentación del sistema ARC - regulación automática probabilidad de muestreo P en, en la que se garantiza el cumplimiento de la igualdad (11.3.15),  es el coeficiente de proporcionalidad de la transformación señal digital ARV en la señal R en. Ecuación diferencial para el sistema de control automático:

Dq/dt = n-mq/R. (3.11.16)

Solución de la ecuación diferencial en condiciones iniciales t = 0 y q = O (función de transición AVR):

Q = R(n/m) . (3.11.17)

P en = R(n/m) = R(n/m) . (3.11.18)

Como puede verse en estas expresiones, el valor de la señal de retroalimentación ARC es proporcional a la relación (n/m) de las frecuencias de flujo, y la constante de tiempo ARC R/m es directamente proporcional al valor del coeficiente de conversión  con proporcionalidad inversa al valor de la frecuencia del flujo adicional m, igual y, teniendo en cuenta (11.3.15), directamente proporcional al valor actual de la señal de retroalimentación q con proporcionalidad inversa al valor del flujo principal frecuencia El primero es completamente equivalente al segundo en (n/m)  const y q = Rn/m  Q. En la primera aproximación, usando la expresión (11.3.8) y la equivalencia del valor de las fluctuaciones estadísticas en T≈ 2 para ventanas de tiempo rectangulares deslizantes y ventanas de medidor de intensidad con una función de transición exponencial, para fluctuaciones relativas del valor de P en obtenemos:

 ð 2 = (n+m)/(2Rn)= (n+m)/(2qm). (3.11.19)

La expresión es válida para la medición directa de la relación (n/m) con un intensímetro de 2 y es la estimación máxima. Para una valoración más precisa hay que tener en cuenta que en este caso el intensímetro es un dispositivo con retroalimentación negativa a través del circuito ARV, lo que reduce algo el valor de fluctuación. Se puede hacer una estimación precisa utilizando la fórmula de varianza de Campbell. variable aleatoria x(t), formado por la suma de los impulsos de flujo de Poisson, por separado para el flujo n en m = const y el flujo m en n = const, seguido de la suma de los cuadrados del valor cuadrático medio relativo de la fluctuación. Así, para el esquema que se presenta a continuación, el valor obtenido es  p 2 ≈ (R+1)m/(2nR 2).

Cuando se selecciona el valor del coeficiente R ≤ (m/n) min para el espacio de medición, utilizando la expresión (11.3.19), los parámetros del sistema de control automático (coeficiente  y el valor promedio de Q para el valor promedio espacial de la relación n/m) se puede ajustar en valor establecido fluctuaciones permitidas en la probabilidad de muestreo de pulsos P en:

 ≤ (l+(m/n) máx)/(2R p 2). (3.11.20)

Durante el proceso de medición, el AVR realiza una adaptación continua a las condiciones de medición actuales (nq, m  mR, P in  q/) con regulación del valor actual de P in según la cantidad de información q = (n/m) R = n del intervalo de medición anterior cambiando correspondientemente la constante de tiempo de integración de esta información dependiendo del cambio en las frecuencias de los flujos de señales. Cuando n/m  const este último tiene carácter absoluto:  p  const,   (l/n + l/m)/(2 p 2).

Cabe señalar que en muchos métodos geofísicos existen condiciones bastante favorables para utilizar tanto SGPI como SRD. Entonces, por ejemplo, en relación con las pruebas gamma de fondo de pozo con la extracción de información adicional de la parte de baja energía del espectro de radiación, las condiciones para una respuesta bastante precisa a los cambios en el parámetro a lo largo del pozo son muy buenas, porque el factor principal en la variación de los valores de x es el número atómico efectivo del medio, los cambios en un rango pequeño con una frecuencia espacial baja de variaciones y en zonas de rocas activas, donde se obtiene la mayor precisión en la interpretación de los resultados de las mediciones. Son posibles cambios necesarios y significativos en el número atómico de las rocas, debido a que con un aumento en las densidades de flujo de radiación, la constante de tiempo del ARV disminuirá significativamente y la resolución espacial de las mediciones aumentará en consecuencia. Condiciones similares son típicas, por regla general, de otros métodos de geofísica nuclear.

Un ejemplo de implementación del sistema SGPI para dos flujos de señales de pulso se muestra en la Fig. 11.3.1. El diagrama funcional del SGPI contiene un contador de pulsos reversible 1, cuya entrada de suma recibe pulsos del flujo principal n, y la entrada de resta recibe pulsos del flujo adicional m, que primero pasan por el circuito de muestreo de pulsos 3 y el pulso Contador de tasa de repetición 4 con un nuevo cálculo del coeficiente R.


Arroz. 11.3.1. Básico diagrama funcional SGPI.

1 - contador de pulso inverso, 2 - bloque de generación de señal de muestreo de pulso, 3 - circuito de muestreo de pulso, 4 - divisor de contrafrecuencia en R, 5 - bloque sumador de flujo de pulso.
La información sobre el estado del contador 1 (señal q) desde las salidas del contador se suministra al bloque generador de señal de muestreo de pulsos 3. En el caso más simple, este bloque puede ser un dispositivo de umbral (basado en el código numérico Q) que abre circuito 3, pero el muestreo en este caso tiene un carácter cercano al estadístico, sólo para diferencias suficientemente pequeñas en las frecuencias de los flujos n y m/R (del orden de n

Los pulsos del flujo principal n y los pulsos de muestreo del flujo m, cuya frecuencia es igual a P en m = R·n, se suministran a la entrada del bloque 5 para sumar los flujos de señales. La intensidad del flujo de pulsos en la salida del bloque 5 es z = n+P en m = (1+R)n. El bloque 5 puede contener un circuito de recálculo con un coeficiente K=(1+R), mientras que el flujo de salida se reducirá a la escala de la corriente principal n y será posible cambiar sincrónicamente los factores de conversión de los esquemas 4 y 5 para diferentes condiciones de medición, mientras se establece el valor óptimo del coeficiente R, se puede cambiar al modo automático con control basado en el valor actual (en un cierto intervalo) del código de información del circuito 1. Una solución alternativa es suministrar un flujo de pulsos desde el salida del circuito 4 a la entrada sumatoria del circuito 5, siendo la frecuencia de flujo z siempre será 2 veces mayor que el flujo n.

De paso, observamos que al emitir información q = R(n/m) en código digital desde el contador 1, este circuito puede realizar las funciones de un medidor de intensidad digital universal: frecuencia de pulso promedio (n-var, m-const de el generador de frecuencia de reloj), el intervalo de tiempo promedio entre pulsos (m-var, n-const) y la relación de frecuencia n/m de dos flujos de pulsos estadísticamente distribuidos.

literatura

38. Filtros adaptativos. /Ed. C. F. N. Cowan y P. M. Grant. – M.: Mir, 1988, 392 p.

43. Ayficher E., Jervis B. Procesamiento de señales digitales. Enfoque práctico. / M., "Williams", 2004, 992 p.




Arriba