Cuál es el eslabón principal de la red informática y de información. Redes de información e informática, su clasificación y tipos. Los IVS se clasifican según una serie de criterios.

Dos variables aleatorias $X$ y $Y$ se llaman independientes si la ley de distribución de una variable aleatoria no cambia dependiendo de qué valores posibles tomó otra variable aleatoria. Es decir, para cualquier $x$ e $y$, los eventos $X=x$ y $Y=y$ son independientes. Dado que los eventos $X=x$ y $Y=y$ son independientes, entonces por el teorema del producto de probabilidades de eventos independientes $P\left(\left(X=x\right)\left(Y=y\ derecha)\derecha)=P \izquierda(X=x\derecha)P\izquierda(Y=y\derecha)$.

Ejemplo 1 . Sea la variable aleatoria $X$ expresar las ganancias en efectivo de los billetes de una lotería " lotería rusa”, y la variable aleatoria $Y$ expresa las ganancias en efectivo de los billetes de otra lotería “Golden Key”. Es obvio que las variables aleatorias $X,\Y$ serán independientes, ya que las ganancias de los billetes de una lotería no dependen de la ley de distribución de las ganancias de los billetes de otra lotería. En el caso en que las variables aleatorias $X,\Y$ expresaran las ganancias de la misma lotería, entonces, obviamente, estas variables aleatorias serían dependientes.

Ejemplo 2 . Dos trabajadores trabajan en diferentes talleres y producen diversos productos que no están relacionados entre sí ni por las tecnologías de fabricación ni por las materias primas utilizadas. La ley de distribución del número de productos defectuosos fabricados por el primer trabajador por turno tiene la siguiente forma:

$\begin(matriz)(|c|c|)
\hline
Número de productos \ defectuosos \ x & 0 & 1 \\
\hline
Probabilidad y 0,8 y 0,2 \\
\hline
\end(matriz)$

El número de productos defectuosos producidos por el segundo trabajador por turno obedece a la siguiente ley de distribución.

$\begin(matriz)(|c|c|)
\hline
Número de productos \ defectuosos \ y & 0 & 1 \\
\hline
Probabilidad y 0,7 y 0,3 \\
\hline
\end(matriz)$

Encontremos la ley de distribución para el número de productos defectuosos producidos por dos trabajadores por turno.

Sea la variable aleatoria $X$ el número de productos defectuosos producidos por el primer trabajador por turno, y $Y$ el número de productos defectuosos producidos por el segundo trabajador por turno. Por condición, las variables aleatorias $X,\Y$ son independientes.

El número de productos defectuosos producidos por dos trabajadores por turno es una variable aleatoria $X+Y$. Sus valores posibles son $0,\1$ y $2$. Encontremos las probabilidades con las que la variable aleatoria $X+Y$ toma sus valores.

$P\left(X+Y=0\right)=P\left(X=0,\ Y=0\right)=P\left(X=0\right)P\left(Y=0\right) =0,8\cdot 0,7=0,56.$

$P\left(X+Y=1\right)=P\left(X=0,\ Y=1\ o\ X=1,\ Y=0\right)=P\left(X=0\right) )P\left(Y=1\right)+P\left(X=1\right)P\left(Y=0\right)=0.8\cdot 0.3+0.2\cdot 0.7 =0.38.$

$P\left(X+Y=2\right)=P\left(X=1,\ Y=1\right)=P\left(X=1\right)P\left(Y=1\right) =0.2\cdot 0.3=0.06.$

Entonces la ley de distribución del número de productos defectuosos fabricados por dos trabajadores por turno:

$\begin(matriz)(|c|c|)
\hline
Número de productos \ defectuosos \ & 0 & 1 & 2 \\
\hline
Probabilidad y 0,56 y 0,38 y 0,06\\
\hline
\end(matriz)$

En el ejemplo anterior, realizamos una operación con variables aleatorias $X,\Y$, es decir, encontramos su suma $X+Y$. Demos ahora una definición más rigurosa de operaciones (suma, diferencia, multiplicación) sobre variables aleatorias y demos ejemplos de soluciones.

Definición 1. El producto $kX$ de la variable aleatoria $X$ por valor constante$k$ es una variable aleatoria que toma valores $kx_i$ con las mismas probabilidades $p_i$ $\left(i=1,\ 2,\ \dots ,\ n\right)$.

Definición 2. Suma (diferencia o producto) variables aleatorias$X$ y $Y$ es una variable aleatoria que toma todos los valores posibles de la forma $x_i+y_j$ ($x_i-y_i$ o $x_i\cdot y_i$), donde $i=1,\ 2, \dots ,\ n$, con probabilidades $p_(ij)$ de que la variable aleatoria $X$ tome el valor $x_i$, y $Y$ el valor $y_j$:

$$p_(ij)=P\left[\left(X=x_i\right)\left(Y=y_j\right)\right].$$

Dado que las variables aleatorias $X,\Y$ son independientes, entonces, según el teorema de multiplicación de probabilidad para eventos independientes: $p_(ij)=P\left(X=x_i\right)\cdot P\left(Y=y_j\ derecha)= p_i\cdot p_j$.

Ejemplo 3 . Las variables aleatorias independientes $X,\ Y$ se especifican mediante sus leyes de distribución de probabilidad.

$\begin(matriz)(|c|c|)
\hline
x_i y -8 y 2 y 3 \\
\hline
p_i y 0,4 y 0,1 y 0,5 \\
\hline
\end(matriz)$

$\begin(matriz)(|c|c|)
\hline
y_i & 2 & 8 \\
\hline
p_i y 0,3 y 0,7 \\
\hline
\end(matriz)$

Formulemos la ley de distribución de la variable aleatoria $Z=2X+Y$. La suma de las variables aleatorias $X$ y $Y$, es decir, $X+Y$, es una variable aleatoria que toma todos los valores posibles de la forma $x_i+y_j$, donde $i=1,\ 2 ,\dots ,\ n$ , con probabilidades $p_(ij)$ de que la variable aleatoria $X$ tome el valor $x_i$, y $Y$ el valor $y_j$: $p_(ij)=P\left [\left(X=x_i\right )\left(Y=y_j\right)\right]$. Dado que las variables aleatorias $X,\Y$ son independientes, entonces, según el teorema de multiplicación de probabilidad para eventos independientes: $p_(ij)=P\left(X=x_i\right)\cdot P\left(Y=y_j\ derecha)= p_i\cdot p_j$.

Entonces, tiene leyes de distribución para las variables aleatorias $2X$ e $Y$, respectivamente.

$\begin(matriz)(|c|c|)
\hline
x_i y -16 y 4 y 6 \\
\hline
p_i y 0,4 y 0,1 y 0,5 \\
\hline
\end(matriz)$

$\begin(matriz)(|c|c|)
\hline
y_i & 2 & 8 \\
\hline
p_i y 0,3 y 0,7 \\
\hline
\end(matriz)$

Para facilitar la búsqueda de todos los valores de la suma $Z=2X+Y$ y sus probabilidades, elaboraremos una tabla auxiliar, en cada celda de la cual colocaremos en la esquina izquierda los valores de la suma $ Z=2X+Y$, y en la esquina derecha, las probabilidades de estos valores obtenidas como resultado de multiplicar las probabilidades de los valores correspondientes de las variables aleatorias $2X$ y $Y$.

Como resultado, obtenemos la distribución $Z=2X+Y$:

$\begin(matriz)(|c|c|)
\hline
z_i y -14 y -8 y 6 y 12 y 10 y 16 \\
\hline
p_i y 0,12 y 0,28 y 0,03 y 0,07 y 0,15 y 0,35 \\
\hline
\end(matriz)$

Conozcamos las desviaciones estándar de varias variables aleatorias mutuamente independientes. ¿Cómo encontrar la desviación estándar de la suma de estas cantidades? La respuesta a esta pregunta viene dada por el siguiente teorema.

Teorema. La desviación estándar de la suma de un número finito de variables aleatorias mutuamente independientes es igual a raíz cuadrada de la suma de los cuadrados de las desviaciones estándar de estas cantidades."

Prueba. Denotemos por incógnita la suma de las cantidades mutuamente independientes consideradas:

La varianza de la suma de varias variables aleatorias mutuamente independientes es igual a la suma de las varianzas de los términos (ver § 5, Corolario 1), por lo tanto

o finalmente

Variables aleatorias mutuamente independientes distribuidas idénticamente

Ya se sabe que según la ley de distribución se pueden encontrar las características numéricas de una variable aleatoria. De ello se deduce que si varias variables aleatorias tienen distribuciones idénticas, entonces sus características numéricas son las mismas.

consideremos norte variables aleatorias mutuamente independientes X v X v ..., xfi, que tienen las mismas distribuciones, y por tanto las mismas características (expectativa matemática, dispersión, etc.). De mayor interés es el estudio de las características numéricas de la media aritmética de estas cantidades, que es lo que haremos en este apartado.

Denotemos la media aritmética de las variables aleatorias consideradas por incógnita:

Las siguientes tres disposiciones establecen una conexión entre las características numéricas de la media aritmética. incógnita y las características correspondientes de cada cantidad individual.

1. La expectativa matemática de la media aritmética de variables aleatorias mutuamente independientes distribuidas idénticamente es igual a la expectativa matemática a de cada una de las variables:

Prueba. Usando las propiedades de la expectativa matemática ( factor constante se puede sacar como signo de expectativa matemática; la expectativa matemática de la suma es igual a la suma de las expectativas matemáticas de los términos), tenemos


Teniendo en cuenta que la esperanza matemática de cada una de las cantidades según la condición es igual a A, obtenemos

2. La dispersión de la media aritmética de n variables aleatorias mutuamente independientes distribuidas idénticamente es n veces menor que la dispersión D de cada una de las variables:

Prueba. Usando las propiedades de dispersión (el factor constante se puede quitar del signo de dispersión elevándolo al cuadrado; la dispersión de la suma de cantidades independientes es igual a la suma de las dispersiones de los términos), tenemos

§ 9. Variables aleatorias mutuamente independientes distribuidas idénticamente 97

Teniendo en cuenta que la dispersión de cada una de las cantidades por condición es igual a D, obtenemos

3. Desviación estándar de la media aritmética de n aleatorios mutuamente independientes e idénticamente distribuidos

Los valores son 4n veces menores que la desviación estándar a de cada uno de los valores:

Prueba. Porque D(X) = D/n entonces la desviación estándar incógnita es igual

Conclusión general de las fórmulas (*) y (**): recordando que la dispersión y la desviación estándar sirven como medidas de la dispersión de una variable aleatoria, concluimos que la media aritmética es suficiente gran número variables aleatorias mutuamente independientes tiene

significativamente menos dispersión que cada valor individual.

Expliquemos con un ejemplo el significado de esta conclusión para la práctica.

Ejemplo. Generalmente para medir algunos cantidad fisica Realice varias mediciones y luego encuentre la media aritmética de los números obtenidos, que se toma como un valor aproximado del valor medido. Suponiendo que las mediciones se realizan en las mismas condiciones, demuestre:

  • a) la media aritmética da un resultado más fiable que las mediciones individuales;
  • b) con un aumento en el número de mediciones, aumenta la confiabilidad de este resultado.

Solución, a) Se sabe que las mediciones individuales dan valores desiguales de la cantidad medida. El resultado de cada medición depende de muchas razones aleatorias (cambios de temperatura, fluctuaciones del instrumento, etc.) que no se pueden tener en cuenta de antemano.

Por lo tanto, tenemos derecho a considerar posibles resultados. norte mediciones individuales como variables aleatorias X v X 2,..., Xp(el índice indica el número de medida). Estas cantidades tienen la misma distribución de probabilidad (las mediciones se realizan utilizando la misma técnica y los mismos instrumentos), y por tanto las mismas características numéricas; además, son mutuamente independientes (el resultado de cada medición individual no depende de otras mediciones).

Ya sabemos que la media aritmética de tales cantidades tiene menos dispersión que cada cantidad individual. En otras palabras, la media aritmética resulta estar más cerca del valor real del valor medido que el resultado de una medición separada. Esto significa que la media aritmética de varias mediciones da un resultado más caso que una sola medición.

b) Ya sabemos que a medida que aumenta el número de variables aleatorias individuales, la dispersión de la media aritmética disminuye. Esto significa que a medida que aumenta el número de mediciones, la media aritmética de varias mediciones difiere cada vez menos del valor real del valor medido. Así, al aumentar el número de mediciones, obtenemos más resultado confiable.

Por ejemplo, si la desviación estándar de una medición individual es a = 6 m, y un total de norte= 36 mediciones, entonces la desviación estándar de la media aritmética de estas mediciones es de solo 1 m.

Vemos que la media aritmética de varias mediciones, como era de esperar, resultó estar más cerca del valor real del valor medido que el resultado de una sola medición.

Trabajo de curso

sobre el tema: “Leyes grandes números»


Variables aleatorias distribuidas idénticamente

para resolver muchos problemas prácticos es necesario conocer el conjunto de condiciones por las cuales el resultado del impacto acumulativo gran cantidad Los factores aleatorios son casi independientes del azar. Estas condiciones se describen en varios teoremas llamados nombre común la ley de los grandes números, donde la variable aleatoria k es igual a 1 o 0 dependiendo de si el resultado del k-ésimo ensayo es éxito o fracaso. Por tanto, Sn es la suma de n variables aleatorias mutuamente independientes, cada una de las cuales toma los valores 1 y 0 con probabilidades p y q.

forma más simple la ley de los grandes números: el teorema de Bernoulli, que establece que si la probabilidad de un evento es la misma en todas las pruebas, entonces, a medida que aumenta el número de pruebas, la frecuencia del evento tiende a la probabilidad del evento y deja de ser aleatoria. .

El teorema de Poisson establece que la frecuencia de un evento en una serie de ensayos independientes tiende a la media aritmética de sus probabilidades y deja de ser aleatorio.

Los teoremas límite de la teoría de la probabilidad, el teorema de Moivre-Laplace, explican la naturaleza de la estabilidad de la frecuencia de ocurrencia de un evento. Esta naturaleza radica en el hecho de que la distribución límite del número de ocurrencias de un evento con un aumento ilimitado en el número de ensayos (si la probabilidad del evento es la misma en todos los ensayos) es una distribución normal.

El teorema del límite central explica la distribución generalizada de la ley de distribución normal. El teorema establece que siempre que se forma una variable aleatoria como resultado de la suma de un gran número de variables aleatorias independientes con varianzas finitas, la ley de distribución de esta variable aleatoria resulta ser una ley casi normal.

El teorema de Lyapunov explica la distribución generalizada de la ley de distribución normal y explica el mecanismo de su formación. El teorema nos permite afirmar que siempre que se forma una variable aleatoria como resultado de la suma de un gran número de variables aleatorias independientes, cuyas varianzas son pequeñas en comparación con la dispersión de la suma, la ley de distribución de esta variable aleatoria se vuelve resulta ser una ley casi normal. Y dado que las variables aleatorias siempre se generan por un número infinito de causas y, en la mayoría de los casos, ninguna de ellas tiene una dispersión comparable a la dispersión de la propia variable aleatoria, la mayoría de las variables aleatorias que se encuentran en la práctica están sujetas a la ley de distribución normal.

Los enunciados cualitativos y cuantitativos de la ley de los grandes números se basan en Desigualdad de Chebyshev. Determina el límite superior de la probabilidad de que la desviación del valor de una variable aleatoria de su expectativa matemática sea mayor que un número específico. Es notable que la desigualdad de Chebyshev proporcione una estimación de la probabilidad de un evento para una variable aleatoria cuya distribución se desconoce; sólo se conocen su expectativa matemática y su varianza.

La desigualdad de Chebyshev. Si una variable aleatoria x tiene varianza, entonces para cualquier x > 0 la desigualdad es verdadera, donde METRO x y D x - expectativa matemática y varianza de la variable aleatoria x.

Teorema de Bernoulli. Sea x n el número de éxitos en n ensayos de Bernoulli y p la probabilidad de éxito en un ensayo individual. Entonces, para cualquier s > 0, .

Teorema de Lyapunov. Sea s 1, s 2,…, s n,… una secuencia ilimitada de variables aleatorias independientes con expectativas matemáticas m 1, m 2,…, m n,… y varianzas s 1 2, s 2 2,…, s n 2…. Denotemos , , , .

Entonces = Ф(b) - Ф(a) para cualquier números reales a y b, donde Ф(x) es la función de distribución normal.

Sea una variable aleatoria discreta. Consideremos la dependencia del número de éxitos Sn del número de ensayos n. Para cada ensayo, Sn aumenta en 1 o 0. Esta afirmación se puede escribir como:

Sn = 1 +…+ norte. (1.1)

Ley de los grandes números. Sea (k) una secuencia de variables aleatorias mutuamente independientes con distribuciones idénticas. Si existe la expectativa matemática = M(k), entonces para cualquier > 0 para n

En otras palabras, la probabilidad de que el promedio S n /n difiera de la expectativa matemática en menos que un valor dado arbitrariamente tiende a uno.

Teorema del límite central. Sea (k) una secuencia de variables aleatorias mutuamente independientes con distribuciones idénticas. Supongamos que existen. Sea Sn = 1 +…+ n, entonces para cualquier fijo

F () - F () (1.3)

Aquí Ф(х) es la función de distribución normal. Este teorema fue formulado y demostrado por Linlberg. Lyapunov y otros autores lo demostraron antes, en condiciones más restrictivas. Es necesario imaginar que el teorema formulado anteriormente es sólo un caso muy especial de un caso mucho más teorema general, que a su vez está estrechamente relacionado con muchos otros teoremas de límites. Tenga en cuenta que (1.3) es mucho más fuerte que (1.2), ya que (1.3) da una estimación de la probabilidad de que la diferencia sea mayor que . Por otro lado, la ley de los números grandes (1.2) es cierta incluso si las variables aleatorias k no tienen varianza finita, por lo que se aplica a más caso general que el teorema del límite central (1.3). Ilustremos los dos últimos teoremas con ejemplos.

Ejemplos. a) Considere una secuencia de lanzamientos independientes de un dado simétrico. Sea k el número de puntos obtenidos cuando késimo lanzamiento. Entonces

M(k)=(1+2+3+4+5+6)/6=3.5,

a D( k)=(1 2 +2 2 +3 2 +4 2 +5 2 +6 2)/6-(3.5) 2 =35/12 y S n /n

es el número medio de puntos resultantes de n lanzamientos.

La ley de los grandes números establece que es plausible que para n grande este promedio sea cercano a 3,5. El teorema del límite central establece la probabilidad de que |Sn - 3,5n |< (35n/12) 1/2 близка к Ф() - Ф(- ). При n = 1000 и а=1 мы находим, что вероятность неравенства 3450 < Sn < 3550 равна примерно 0,68. Выбрав для а значение а 0 = 0,6744, удовлетворяющее соотношению Ф( 0)- Ф(- 0)=1/2, мы получим, что для Sn шансы находиться внутри или вне интервала 3500 36 примерно одинаковы.

b) Muestreo. Supongamos que en la población general,

que consta de N familias, Nk familias tienen exactamente k hijos cada una

(k = 0, 1...; Nk = N). Si se selecciona una familia al azar, entonces el número de hijos que hay en ella es una variable aleatoria que toma un valor con probabilidad p = N /N. En la selección consecutiva, se puede ver una muestra de tamaño n como una colección de n variables aleatorias independientes u "observaciones" 1, ..., n que tienen todas la misma distribución; S n /n es la media muestral. La ley de los números grandes establece que para una muestra aleatoria suficientemente grande, es probable que la media esté cerca de , es decir, la media poblacional. El teorema del límite central permite estimar la magnitud probable de la discrepancia entre estas medias y determinar el tamaño de muestra requerido para una estimación confiable. En la práctica, y y suelen ser desconocidos; sin embargo, en la mayoría de los casos es fácil obtener una estimación preliminar y siempre puede encerrarse dentro de límites confiables. Si queremos una probabilidad de 0,99 o mayor de que la media muestral S n /n difiera de la media poblacional desconocida en menos de 1/10, entonces el tamaño de la muestra debe tomarse de modo que

La raíz x de la ecuación F(x) - F(- x) = 0,99 es x = 2,57..., y por tanto n debe ser tal que 2,57 o n > 660. Precavido evaluación preliminar permite encontrar el tamaño de muestra requerido.

c) Distribución de Poisson.

Supongamos que las variables aleatorias k tienen una distribución de Poisson (p(k; )). Entonces Sn tiene una distribución de Poisson con media y varianza iguales a n.

Escribiendo en lugar de n, concluimos que para n


La suma se realiza sobre todos los k desde 0 hasta . Ph-la (1.5) también se cumple de forma arbitraria.

Anteriormente consideramos la cuestión de encontrar la PDF para la suma de variables aleatorias estadísticamente independientes. En esta sección, consideraremos nuevamente la suma de variables estadísticamente independientes, pero nuestro enfoque será diferente y no dependerá de las PDF parciales de las variables aleatorias en la suma. En particular, supongamos que los términos de la suma son variables aleatorias estadísticamente independientes y distribuidas de manera idéntica, cada una de las cuales tiene medias y varianzas acotadas.

Se define como la suma normalizada, llamada media muestral.

Primero, determinaremos los límites superiores de la probabilidad de la cola y luego demostraremos un teorema muy importante que determina la PDF en el límite cuando tiende al infinito.

La variable aleatoria definida por (2.1.187) se encuentra a menudo al estimar el promedio de una variable aleatoria sobre una serie de observaciones. En otras palabras, pueden considerarse realizaciones muestrales independientes de una distribución y son una estimación de la media.

La expectativa matemática es

.

La varianza es

Si lo consideramos como una estimación de la media, vemos que su expectativa matemática es igual a , y su dispersión disminuye al aumentar el tamaño de la muestra. Si aumenta sin límite, la varianza tiende a cero. Estimación de parámetros (en en este caso), que satisface las condiciones de que su expectativa matemática tienda al valor real del parámetro y la varianza se acerque estrictamente a cero, se denomina estimación consistente.

La probabilidad de cola de una variable aleatoria se puede estimar desde arriba utilizando los límites indicados en la Sección. 2.1.5. La desigualdad de Chebyshev en relación con tiene la forma

,

. (2.1.188)

En el límite cuando , de (2.1.188) se sigue

. (2.1.189)

En consecuencia, la probabilidad de que la estimación de la media difiera del valor real en más de , tiende a cero si crece sin límite. Esta afirmación es una forma de la ley de los grandes números. Dado que el límite superior converge a cero relativamente lentamente, es decir inversamente proporcional. la expresión (2.1.188) se llama ley débil de los grandes números.

Si aplicamos el límite de Chernoff a la variable aleatoria, que contiene una dependencia exponencial de , obtenemos un límite superior ajustado para la probabilidad de una sola cola. Siguiendo el procedimiento descrito en el art. 2.1.5, encontramos que la probabilidad de cola para está determinada por la expresión

donde y. Pero , son estadísticamente independientes y están distribuidos de manera idéntica. Por eso,

¿Dónde está una de las cantidades? El parámetro , que da el límite superior más preciso, se obtiene derivando (2.1.191) e igualando la derivada a cero. Esto lleva a la ecuación

(2.1.192)

Denotemos la solución (2.1.192) por . Entonces el límite para la probabilidad de la cola superior es

, . (2.1.193)

De manera similar, encontraremos que la probabilidad de cola inferior tiene el límite

, . (2.1.194)

Ejemplo 2.1.7. Sea , una serie de variables aleatorias estadísticamente independientes definidas de la siguiente manera:

Queremos definir un límite superior estricto para la probabilidad de que la suma de sea mayor que cero. Dado que , la cantidad tendrá valor negativo para la expectativa matemática (promedio), por lo tanto, buscaremos la probabilidad de la cola superior. Porque en (2.1.193) tenemos

, (2.1.195)

¿Dónde está la solución de la ecuación?

Por eso,

. (2.1.197)

En consecuencia, para la frontera en (2.1.195) obtenemos

Vemos que el límite superior disminuye exponencialmente con , como se esperaba. Por el contrario, según el límite de Chebyshev, la probabilidad de la cola disminuye en proporción inversa a .

Teorema del límite central. En esta sección, consideramos un teorema extremadamente útil sobre la FDI de una suma de variables aleatorias en el límite cuando el número de términos de la suma aumenta sin límite. Hay varias versiones de este teorema. Demostremos el teorema para el caso en que las variables aleatorias sumables , , son estadísticamente independientes y están distribuidas de manera idéntica, cada una de ellas tiene una media limitada y una varianza limitada.

Por conveniencia, definimos una variable aleatoria normalizada.

Por tanto, tiene media cero y varianza unitaria.

Ahora deja

Dado que cada sumando de la suma tiene media cero y varianza unitaria, el valor normalizado (por el factor ) tiene media cero y varianza unitaria. Queremos definir el FMI para el límite cuando.

La función característica es igual a

, (2.1.200).

,

o, equivalentemente,

. (2.1.206)

Pero ésta es precisamente la función característica de una variable aleatoria gaussiana con media cero y varianza unitaria. Así tenemos un resultado importante; La PDF de la suma de variables aleatorias estadísticamente independientes e idénticamente distribuidas con media y varianza limitadas se aproxima a Gauss en . Este resultado se conoce como teorema del límite central.

Aunque hemos supuesto que la suma de las variables aleatorias está distribuida equitativamente, este supuesto puede flexibilizarse siempre que se cumplan ciertas condiciones. restricciones adicionales todavía se superponen con las propiedades de cantidades sumables aleatorias. Hay una variación del teorema, por ejemplo, cuando se abandona el supuesto de una distribución idéntica de variables aleatorias en favor de una condición impuesta al tercer momento absoluto de las variables aleatorias de la suma. Para una discusión de esta y otras versiones del teorema del límite central, se remite al lector a Cramer (1946).

Ya se sabe que según la ley de distribución se pueden encontrar las características numéricas de una variable aleatoria. De ello se deduce que si varias variables aleatorias tienen distribuciones idénticas, entonces sus características numéricas son las mismas.

consideremos norte variables aleatorias mutuamente independientes incógnita 1 , incógnita 2 , …,X norte, que tienen las mismas distribuciones y, por tanto, las mismas características (esperanza matemática, dispersión, etc.). De mayor interés es el estudio de las características numéricas de la media aritmética de estas cantidades.

Denotemos la media aritmética de las variables aleatorias consideradas por:

.

Las siguientes tres disposiciones establecen una conexión entre las características numéricas de la media aritmética y las características correspondientes de cada valor individual.

1. La esperanza matemática de la media aritmética de variables aleatorias mutuamente independientes distribuidas idénticamente es igual a la esperanza matemática a de cada una de las cantidades:

Prueba. Usando las propiedades de la expectativa matemática (el factor constante se puede sacar del signo de la expectativa matemática; la expectativa matemática de la suma es igual a la suma de las expectativas matemáticas de los términos), tenemos

Teniendo en cuenta que la esperanza matemática de cada una de las cantidades según la condición es igual a A, obtenemos

.

2. Dispersión de la media aritmética norte variables aleatorias mutuamente independientes distribuidas idénticamente en norte veces menos variación D cada una de las cantidades:

Prueba. Usando las propiedades de dispersión (el factor constante se puede quitar del signo de dispersión elevándolo al cuadrado; la dispersión de la suma de cantidades independientes es igual a la suma de las dispersiones de los términos), tenemos

Teniendo en cuenta que la dispersión de cada una de las cantidades según la condición es igual a D, obtenemos

.

3. Desviación estándar de la media aritmética norte Las variables aleatorias mutuamente independientes distribuidas idénticamente son veces menores que la desviación estándar a de cada uno de los valores:

Prueba. Dado que , entonces la desviación estándar es igual a

.

La conclusión general de las fórmulas (7.3) y (7.4): recordando que la dispersión y la desviación estándar sirven como medidas de la dispersión de una variable aleatoria, concluimos que la media aritmética de un número suficientemente grande de variables aleatorias mutuamente independientes tiene significativamente menos dispersión que cada valor individual.

Expliquemos con un ejemplo el significado de esta conclusión para la práctica.

Ejemplo. Por lo general, para medir una determinada cantidad física se realizan varias mediciones y luego se encuentra la media aritmética de los números obtenidos, que se toma como un valor aproximado de la cantidad medida. Suponiendo que las mediciones se realizan en las mismas condiciones, demuestre:



a) la media aritmética da un resultado más fiable que las mediciones individuales;

b) con un aumento en el número de mediciones, aumenta la confiabilidad de este resultado.

Solución. a) Se sabe que las mediciones individuales dan diferentes valores de la cantidad medida. El resultado de cada medición depende de muchas razones aleatorias (cambios de temperatura, fluctuaciones del instrumento, etc.) que no se pueden tener en cuenta de antemano.

Por lo tanto, tenemos derecho a considerar posibles resultados. norte mediciones individuales como variables aleatorias incógnita 1 , incógnita 2 , …,X norte(el índice indica el número de medida). Estas cantidades tienen la misma distribución de probabilidad (las mediciones se realizan con el mismo método y con los mismos instrumentos), y por tanto las mismas características numéricas; además, son mutuamente independientes (el resultado de cada medición individual no depende de otras mediciones).

Como se ha demostrado, la media aritmética de tales cantidades tiene menos dispersión que cada cantidad individual. En otras palabras, la media aritmética resulta estar más cerca del valor real del valor medido que el resultado de una medición separada. Esto significa que la media aritmética de varias mediciones da un resultado más fiable que una sola medición.

b) Se sabe que a medida que aumenta el número de variables aleatorias individuales, la dispersión de la media aritmética disminuye. Esto significa que a medida que aumenta el número de mediciones, la media aritmética de varias mediciones difiere cada vez menos del valor real del valor medido. Así, al aumentar el número de mediciones se obtiene un resultado más fiable.

Por ejemplo, si la desviación estándar de una medición individual es s = 6 m, y un total de norte= 36 mediciones, entonces la desviación estándar de la media aritmética de estas mediciones es de solo 1 m.

.

Obviamente, la media aritmética de varias mediciones, como era de esperar, resultó estar más cerca del valor real del valor medido que el resultado de una medición separada.




Arriba