El tipo de servicio difiere de qos. Teoría "Conceptos básicos de la tecnología QoS". Mecanismos y métodos de procesamiento del tráfico.

01/12/2016 | Vladímir Jázov

No todo el tráfico de Internet es igual. Un vídeo en línea sin una imagen entrecortada o una llamada de Skype sin una voz entrecortada es más importante que descargar un archivo grande usando un cliente torrent. La función de calidad de servicio (QoS) de un enrutador, modelador o sistema de análisis de tráfico profundo (DPI) le permite priorizar qué tráfico es más importante y darle el mayor ancho de banda.

Y si en casa cada usuario puede configurar QoS en su enrutador, entonces el operador de telecomunicaciones, utilizando equipos de red modernos, administra el ancho de banda para todos sus suscriptores y proporciona constantemente alta calidad para cada uno de ellos.

¿Qué es la calidad del servicio (calidad de servicio)

QoS es una herramienta excelente pero poco utilizada que se puede utilizar para priorizar diferentes tipos de tráfico y, con los sistemas DPI, incluso aplicaciones específicas dividiendo el ancho de banda entre ellas en diferentes proporciones. Ajuste correcto Las reglas de QoS garantizarán una reproducción fluida de vídeos en línea durante la descarga archivo grande, o navegación web rápida mientras los niños juegan juegos en línea.

Una conexión a Internet se puede comparar con un hospital, donde el ancho de banda es el número de médicos que tratan a los pacientes, los pacientes son las aplicaciones y la enfermera es el enrutador que las distribuye.

En una red regular, una enfermera indiferente distribuye a los pacientes de manera uniforme entre los médicos disponibles, independientemente de la complejidad de la enfermedad, ya sea una persona con un brazo magullado o una víctima de un accidente automovilístico con una conmoción cerebral y huesos rotos. Cada uno de ellos recibirá ayuda, pero tendrán que esperar el mismo tiempo hasta que haya un médico disponible. Si todos los pacientes son tratados con la misma prioridad, tarde o temprano esto tendrá consecuencias desastrosas para el hospital y las víctimas.

Lo mismo ocurre en una red doméstica o en una red de proveedores. El ancho de banda de comunicación se asigna de manera uniforme dentro del plan tarifario, sin tener en cuenta la importancia de cada aplicación. Por ejemplo, si estás en una llamada de Skype y tus hijos están viendo una película de Netflix, la calidad de la llamada se deteriorará drásticamente. El proveedor de Internet, a su vez, está limitado por la velocidad del canal al operador de telecomunicaciones ascendente, y su ancho de banda puede no ser suficiente para garantizar la calidad de la conexión si todos los usuarios comienzan simultáneamente a descargar archivos a través de un cliente torrent a la máxima velocidad.

El router reparte el ancho de banda a partes iguales entre todos, sin dar prioridad a ningún tipo de tráfico.

Volviendo a nuestra comparación con un hospital, la calidad de la atención es una enfermera competente que distribuye a los pacientes entre los médicos de la manera más eficiente: varios especialistas atenderán a los heridos en un accidente y una persona con un hematoma esperará a un médico. cuando esté libre.

En una red con función de calidad de servicio, se dará prioridad a la aplicación o servicio que tú determines de forma independiente (video online, IPTV, juegos online, etc.), obtendrá mayor velocidad y mínimos retrasos.

Cómo habilitarcalidad de servicio

Hay cientos de enrutadores diferentes, domésticos y de oficina, así como dispositivos complejos de nivel de operador. No todos tienen una función QoS y, si la tienen, su implementación puede diferir en la gama de configuraciones posibles. Algunos solo pueden determinar la prioridad entre dispositivos, otros pueden seleccionar ciertos tipos tráfico (por ejemplo, video o voz), los sistemas DPI pueden reconocer aplicaciones que no utilizan encabezados y estructuras de datos previamente conocidos para el intercambio de datos, realizar cambios en el campo de prioridad de los paquetes que lo atraviesan para aplicar aún más las reglas de QoS.

Es imposible entrar en detalles sobre la configuración de cada dispositivo, pero podemos describir los pasos básicos para comenzar a usar QoS para una mejor experiencia en Internet.

Primer paso: define tu objetivo

Antes de comenzar a configurar cualquier dispositivo, debe definir claramente sus objetivos de configuración de QoS. Si decide configurar un enrutador doméstico, esta puede ser la prioridad de su computadora de trabajo sobre otros dispositivos con acceso a Internet para garantizar un trabajo cómodo, o la prioridad de los juegos en línea sobre la transmisión de video para garantizar retrasos mínimos durante el juego.

En una red doméstica, las reglas deben ser selectivas y extremadamente simples. Si aplica docenas de prioridades diferentes, puede obtener un resultado negativo cuando ninguna de las aplicaciones funcione correctamente.

El operador de telecomunicaciones utiliza QoS para lograr objetivos más globales:

  • diferenciación de tráfico;
  • asegurar un flujo uniforme de tráfico;
  • garantía de calidad y velocidad de acceso a Internet para cada suscriptor;
  • prevenir la congestión de la red;
  • Reducción de costos de Uplink.

Pero los principios para lograrlos son similares a los de una red doméstica: determinar los tipos prioritarios de tráfico y aplicaciones, establecer reglas en función de la prioridad y la duración.

Segundo paso: determinar la velocidad de Internet

Para un operador de telecomunicaciones, la velocidad de Internet es la velocidad de acceso a un proveedor de nivel superior (Uplink) o a varios proveedores. Este valor es fijo y se distribuye entre todos los suscriptores según sus planes tarifarios. El problema de su optimización y distribución competente debe resolverse mediante reglas de QoS para garantizar la satisfacción del cliente con el servicio recibido.

La velocidad de Internet residencial a menudo por algún motivo no coincide con la declarada por el proveedor, por lo que determinar su cifra real es una tarea importante antes de configurar la QoS. Hay conceptos de velocidad de salida y de entrada que usted mismo debe determinar.

Para obtener una imagen real, debe cerrar todas las aplicaciones en su computadora que crean una carga en la red y conectarla al enrutador con un cable de cobre. La tecnología de red inalámbrica Wi-Fi, especialmente si no utiliza los modernos protocolos Wireless N o Wireless AC, puede ser un cuello de botella en el ancho de banda. Las mediciones pueden mostrar velocidades de 40 Mbps en lugar de los 75 Mbps disponibles precisamente debido a las limitaciones de velocidad de transferencia de datos inalámbrica.

Vaya al sitio web www.speedtest.net y haga clic en el botón "Iniciar prueba". El resultado obtenido debe convertirse de “Mbit/s” a “Kbit/s”, ya que la configuración de QoS se especifica con mayor frecuencia en estas unidades. Esto se puede hacer multiplicando los valores resultantes por 1000.

En este ejemplo, recibimos una velocidad entrante de 42900 Kbps y una velocidad saliente de 3980 Kbps. Son estos valores los que se pueden distribuir entre usuarios y aplicaciones en la red.

Tercer paso: habilitarcalidad de servicioen el enrutador

Es imposible describir el procedimiento para habilitar QoS en todos los enrutadores, ya que cada fabricante proporciona al usuario su propia interfaz de administración y los dispositivos de red de clase operador, como Cisco, Juniper, Huawei, se configuran desde la línea de comando.

En la mayoría de los casos, deberá ir a la página de administración del dispositivo (escriba su dirección en el navegador, la mayoría de las veces es 192.168.1.1), ingrese el nombre de usuario y la contraseña del administrador, que se especifican en el manual del usuario, y vaya a Sección NAT de la configuración de red, pestaña QoS. Seleccione Habilitar junto a la función Iniciar QoS, el puerto para aplicar las reglas es WAN (puerto de conexión con el proveedor), la configuración de velocidad entrante y saliente (enlace descendente y ascendente) debe especificarse en una cantidad del 85 al 90% de esa medido en el segundo paso.

Se especifican velocidades reducidas para darle al controlador de QoS cierto espacio de maniobra para que pueda funcionar de manera efectiva. La función QoS ahora está habilitada y necesita configurar las reglas de priorización.

Cómo priorizar el tráfico

Una vez habilitada la función QoS, es necesario definir las reglas mediante las cuales funcionará con el tráfico.

Los operadores configuran reglas basadas en datos de herramientas de análisis del sistema DPI que muestran cuellos de botella en el ancho de banda y tendencias horarias. Algunos dispositivos domésticos tienen ajustes preestablecidos que el usuario debe utilizar para priorizar.

Si el enrutador permite la configuración de prioridad manual, debe configurar sus "bifurcaciones" como un porcentaje del ancho de banda total:

  • Máximo: 60–100%
  • Prima: 25–100%
  • Expreso: 10–100%
  • Estándar: 5–100%
  • A granel: 1–100%

Estos parámetros definen el valor. ancho de banda para un dispositivo o aplicación específica. Por ejemplo, al configurar una aplicación en Máximo, le asigna el uso del 60 % del ancho de banda cuando la red está ocupada y el 100 % cuando la red está completamente disponible. Si lo configura en "Troncal", cuando la red esté inactiva, la aplicación puede usar cualquier velocidad de ancho de banda, pero si hay una carga, solo recibirá el 1%.

Nos gustaría recordarle que la priorización debe abordarse con una comprensión clara de lo que desea limitar.

Opciones de priorización

1. Prioridad del servicio o aplicación

Permite que cualquier dispositivo de la red priorice el ancho de banda de una aplicación o servicio específico sobre otros. Por ejemplo, si es necesario que la aplicación Skype siempre tenga ancho de banda dedicado, y las comunicaciones de video y audio no tengan retrasos, distorsiones o artefactos.

2. Prioridad de interfaz

La interfaz en este caso es el método mediante el cual sus dispositivos se conectan a la red. Puede configurar una prioridad más alta para los dispositivos que se conectan mediante cable o red inalámbrica o, por el contrario, reducir la prioridad para los dispositivos invitados.

3. Prioridad de dispositivos por dirección IP

Puede asignar mayor prioridad a un dispositivo específico en su red en función de su dirección IP (estática o dinámica reservada), proporcionándole así velocidades de acceso más rápidas que otros.

4. Priorice los dispositivos por dirección MAC

Si utiliza direccionamiento dinámico, aún puede asignar alta prioridad a uno de los dispositivos de red según su dirección MAC, que es única y la información sobre la cual se puede obtener de software, o de la etiqueta del estuche.

Prueba y evaluación

Las reglas más importantes al configurar la QoS son agregar reglas secuencialmente y no apresurarse. Debe comenzar con los más globales y luego configurar aplicaciones y servicios individuales. Si logró el resultado deseado y QoS cumple con todos sus requisitos, debe guardar la configuración como capturas de pantalla o un archivo de respaldo en caso de que necesite restablecer el enrutador y restaurar la configuración.

Puede verificar que las reglas funcionan correctamente iniciando servicios con prioridad alta y baja y comparando sus velocidades, o ejecutando una prueba de velocidad en dispositivos de red con diferentes prioridades y ver cuál muestra el mejor resultado.

Configurar QoS es un proceso más complejo que la configuración básica de un enrutador, y para un operador de telecomunicaciones también existen costos de capital adicionales para comprar una plataforma DPI, pero el resultado le permitirá lograr un mejor acceso a Internet, así como ahorrar dinero en la compra de un canal de comunicación de alta velocidad.

QoS es un paquete completo de tecnologías, sin el cual una red moderna funciona extremadamente mal y no puede realizar ninguna tarea. Estos incluyen la lógica de clasificación del tráfico, un esquema de marcado, cuando los datos se marcan colocando marcas apropiadas en el enlace o encabezado de la capa de red, y el control de la lógica de cola, cuando es necesario enviar varios flujos de datos a través de una interfaz con ancho de banda limitado, y modelado y muchas otras disciplinas, sin las cuales una imagen completa simplemente no funcionará. Esto sólo se estudia fundamentalmente en un curso, y aun así no siempre encajamos en cinco días, hay mucho material ahí.

Sin embargo, la configuración de red de Windows en términos de "más que simplemente asignar una dirección IP" suele representar algo místico para el administrador (y también para la mayoría de los formadores de Microsoft, ya que los problemas de red en los cursos autorizados de Microsoft se tratan de una manera extremadamente minimalista). Aunque no hay nada de malo en las tecnologías de red, más bien, al contrario, a menudo existe la opinión de que "esto no está en Windows", basándose en la profunda conclusión de que el hablante no lo encontró en 10 segundos.

Intentemos resolverlo.

Supongamos que ya lo sabes tecnologías de red en nivel básico, al menos oído hablar de Ethernet, 802.1Q y el formato de paquete IP. Si no lo has oído, tiene sentido escuchar nuestro curso, es gratis. Por supuesto, es mejor estudiar la QoS a fondo, pero esto, en principio, no es estrictamente necesario para comprender este material.

QoS en Windows Server 2012 y otras versiones del sistema operativo

  • Configuración global de QoS
  • Configurar políticas de QoS
  • Precedencia de IP, DSCP: qué y cómo
  • WMM_AC y las particularidades de las redes 802.11
  • Interacción de políticas de QoS

Habilite el soporte de QoS en el subsistema de red de Windows

Para marcar tanto CoS como ToS, Windows tiene un componente de red especial llamado QoS Packet Scheduler. Instálelo y habilítelo en todas las interfaces de red en las que planea administrar QoS.

QoS para versiones anteriores de Windows: Windows XP y Windows Server 2003

Para admitir QoS en NT 5.1 / NT 5.2, también debe habilitar explícitamente el soporte de etiquetado ToS; está deshabilitado de forma predeterminada allí. Esto se hace cambiando el valor DWORD32. Desactivar configuración de UserTOS en la clave de registro HKLM\SYSTEM\CurrentControlSet\Services\Tcpip\Parameters a cero. Si no existe tal valor, créelo y bórrelo explícitamente, y luego reinicie el sistema; sin esto, el parámetro no se aplicará y el sistema operativo continuará ignorando la opción IP_TOS especificada por las aplicaciones a través de Winsock.

Ahora continuemos con las configuraciones comunes a diferentes versiones Ventanas.

Si observa con atención, este componente es esencialmente un controlador NDIS:

Próximo. Para que podamos especificar no solo los parámetros QoS L3 (que están en el encabezado IP en el campo ToS), sino también los parámetros L2 (que están en el encabezado 802.1Q, en la parte llamada 802.1p), necesitamos para habilitarlo en el adaptador de red compatible con 802.1Q. Esto se verá diferente en diferentes adaptadores de red, pero algo como esto:

Si no existe tal elemento, entonces no hay ningún lugar para colocar etiquetas CoS en el marco 802.3. Esto reducirá el beneficio práctico de la configuración de QoS, pero, en general, no lo eliminará. La conclusión es que un host normal no agrega este encabezado al marco 802.3, y esta configuración, dependiendo del adaptador de red, puede significar cosas diferentes, o "recibir marcos con un encabezado 802.1Q y analizarlo, incluido 802.1p". o "haga esto solo si enviamos una trama con la etiqueta 802.1Q". Mire con más detalle los detalles de su adaptador de red; aquí solo hay un consejo general: si no hay un encabezado 802.1Q, los datos de calidad de servicio solo se pueden agregar al encabezado L3.

Si ha hecho todo lo anterior, el sistema está listo para implementar los parámetros de QoS que especificó. Ahora tenemos que preguntarles.

Configuración global de QoS en Windows

La configuración global de QoS afectará dos cosas: cómo se procesará el tráfico TCP entrante y cómo interactuarán las políticas de QoS y las configuraciones de QoS a nivel. aplicaciones individuales. Están ubicados en el Objeto de política de grupo, o más precisamente, en, en menú contextual Configuración avanzada de QoS... llamado presionando el botón derecho del mouse. Veámoslos por separado.

Configuración del tráfico TCP entrante

Se verán así:

De hecho, esto no es QoS, sino gestión de ventanas TCP para el tráfico hacia un host determinado. La idea es que esta configuración afecta directamente lo que valor máximo La ventana de recepción se ofrecerá cuando se estén ejecutando conexiones TCP. A partir de NT 6.0, Windows introdujo soporte humano para ventanas TCP de más de 64 K y esta política le permite establecer este valor máximo de ventana de forma centralizada. Al configurar el nivel 0, la ventana se limitará a 64 KB, 1 a 256 KB, 2 a 1 MB y 3 a 16 MB.

Tenga en cuenta que cuanto más grande es la ventana, menos frecuentemente TCP envía acuses de recibo y menos "dinámicamente" reacciona ante situaciones de fuerza mayor cuando segmento TCP retrasado o perdido. Cuanto menos, más rápida será la respuesta, pero mayor será el tráfico de servicios. En general, en redes confiables al transferir grandes cantidades de datos (por ejemplo, un servidor de archivos en red local office) es aconsejable establecer un valor más alto, y en el escenario "No fluyen muchos datos a través de la sesión TCP, pero la latencia y la calidad del canal varían", un valor más bajo.

Configuración de anulación de marcado DSCP

Estas configuraciones se verán así:

Esta es una configuración bastante simple, una especie de analogía. mls qos confianza porque en Cisco IOS. La cuestión es si permitir o no que las aplicaciones que pueden etiquetar el tráfico hagan esto. Si elige que es explícitamente posible, cuando la aplicación establezca el campo ToS, las políticas de QoS se ignorarán; si no, viceversa; aplicaciones en este anfitrión llamará a funciones API para marcar el tráfico sin éxito, y todo el marcado seguirá la lógica especificada explícitamente en las políticas.

Veamos ahora cómo se forman estas políticas.

Configurar políticas de QoS

Están ubicados allí - Configuración del ordenador/Configuración de Windows/QoS basada en políticas. Considere la posibilidad de crear una política.

Lo primero a considerar son las restricciones políticas. Sólo el tráfico TCP y UDP puede incluirse en ellos. No se pueden restringir otros protocolos IP. Además, hay configuraciones adicionales para las sesiones HTTP, lo que mejora la situación. Por tanto, una solución estándar para la gestión de la calidad del servicio no afecta a todo el tráfico posible, pero en la gran mayoría de los casos es suficiente. Por ejemplo, no se puede establecer la prioridad del tráfico saliente IPSec o PPTP.

Al crear una política, lo primero que deberá hacer es especificar su nombre (arbitrario, no tiene ningún propósito técnico), el valor de DSCP y el límite de banda. Recordemos un poco qué es y por qué.

QoS es un gran paquete de tecnologías. Esto incluye cómo marcar paquetes y tramas (Marcado), cómo formar colas para enviar múltiples flujos con diferentes etiquetas a través de una interfaz (Colas) y cómo deshacerse del exceso de tráfico de estas colas (Conformación). Cuando hablamos de un segmento de red en el que esta lógica es uniforme y pensada (el tráfico X se marca en todos los dispositivos de la misma forma y se agrega a las colas de la misma forma), dicen que se trata de un dominio QoS. Contaremos con el hecho de que los dispositivos de red percibirán de manera similar las configuraciones que ahora realizamos a través de la Política de grupo; esto ya está fuera del alcance de este artículo, pero para apoyo total Es necesario realizar QoS en la organización. De lo contrario, no tiene ningún sentido clasificar cuidadosamente el tráfico, luego marcarlo y luego agruparlo todo con lógica FIFO en el primer conmutador en el proceso de enviarlo al enlace ascendente.

Cuando los árboles eran grandes, hace 31 años, en 1981, en el encabezado del paquete IP, como ahora, había un campo solitario del tamaño de un byte llamado ToS (Tipo de servicio). Qué hacer con este campo fue escrito en RFC 791 y se llamó Precedencia IP. Se propuso hacer mucho: marcar cada paquete con un "nivel de importancia" de 0 a 7, utilizando 3 bits de este campo, y agregar deseos como "si es posible, enviar tráfico a través de un canal con menor latencia / mayor confiabilidad / mayor ancho de banda nominal”, utilizando más de 3 bits. Dos bits reservados mejores tiempos. Algo como esto:

[
Bit de prioridad N0 |
Bit de prioridad N1 |
Bit de prioridad N2 |
Bit de retraso |
Grosor de la broca |
Bit de confiabilidad |
Sin usar |
No usado
]

Luego pensamos un poco más y usamos un bit adicional, agregando el cuarto deseo: "para que a través del canal sea más barato en términos de dinero" - RFC 1349. En total, quedó un bit no utilizado, lo que dio como resultado 8 niveles de prioridad de tráfico más 4 bits y sus combinaciones influyeron en la elección "en igualdad de condiciones".

Se suponía que esto sería suficiente. Quedó así:

[
Bit de prioridad N0
Bit de prioridad N1
Bit de prioridad N2
Bit de retraso no deseado
Grosor de la broca (canal)
Poco de confiabilidad
Por amor o por dinero
No usado
]

Se nota claramente que el modelo lógico de los deseos fue desarrollado por una mujer.

El modelo de precedencia de IP era simple y suponía que todo el tráfico se podía dividir en 8 clases, entre las cuales habría una relación lógica simple como “5 es siempre más importante que 4”, además de agregar algunos deseos. Todas las tareas para implementar este esquema (para que el mismo tráfico se marque con la misma prioridad de IP y se procese de manera similar, además se tengan en cuenta los deseos en forma de 4 bits adicionales) recayeron en el administrador. Posteriormente, los 4 bits de "deseos" prácticamente ya no se utilizaron, y el esquema de precedencia de IP se convirtió en un minimalista "8 tipos globales de tráfico, clasificados por importancia". Se pueden interpretar y llamar de manera diferente, esto no cambiará la lógica de su trabajo, por ejemplo así:

  • 0 – Como se llama Mejor esfuerzo– tráfico que se entregará de forma residual cuando sea posible. Best Effort no es “la mejor manera”, es “queríamos lo mejor, pero veremos cómo resulta”. Normalmente 0 es todo tráfico no clasificado.
  • 1 – Tráfico reconocido. Por ejemplo, HTTP, SMB, FTP. Esto no significa que este tráfico sea nada especial. Al menos está "claro cómo es".
  • 2 – Tráfico prioritario. Por ejemplo, RDP: al descargar un archivo, no será muy bueno si el trabajo con el servidor de terminal comienza a disminuir.

Pero hace 14 años, en 1998, los chicos de EMC y Cisco decidieron que esto no era suficiente y crearon un sistema mucho más flexible, tanto para ToS en IPv4 como para su descendiente: Traffic Class en IPv6. Lo llamaron Servicios Diferenciados. El sistema ya ha utilizado los 8 bits del campo ToS: 6 para el identificador de clase (DSCP) y 2 para señalización en caso de congestión en la red (ECN). Es este método más moderno el que se utiliza en las políticas de Windows. Las etiquetas especificadas por DSCP son más numerosas, por lo que se dividen en varios grupos.

Etiquetas DSCP del grupo CS – Selectores de clase

Este mecanismo, que se describe en RFC 2474, es necesario por motivos de compatibilidad con la implementación anterior. En este caso, solo se utilizan los primeros 3 bits de 6, el resto se establece en cero, por lo que desde el punto de vista de la ubicación de los datos dentro del byte ToS, los CS establecen los mismos bits que la precedencia IP. En consecuencia, habrá 8 CS, desde CS0 hasta CS7, y parecerán predecibles:

  • CS0 = 000 000
  • CS1 = 001 000
  • CS2 = 010 000
  • CS3 = 011 000
  • CS4 = 100.000
  • CS5 = 101.000
  • CS6 = 110.000
  • CS7 = 111.000

Etiquetas DSCP del grupo AF: reenvío asegurado

Estas etiquetas, cuya lógica está en RFC 2597, ya son más interesantes: contienen 2 valores, xey, por lo que están escritas en una versión legible como AFxy.

El primer valor, x, indicará la clase de tráfico. Hay 4 clases definidas: del uno al cuatro. A veces se les llama palabras: uno = bronce, dos = plata, tres = oro, cuatro = platino. Este valor se escribirá en los primeros 3 bits. El segundo contendrá y; indicará prioridad cuando sea necesario restablecer el tráfico. Se definirán tres valores: uno indicará una prioridad de caída baja, dos – media, tres – alta. Esto significará que el tráfico de la misma clase, pero con diferentes prioridades, se eliminará según esta prioridad cuando surja una situación: primero baja, luego media y luego alta. No se confunda: el paquete con alta prioridad de eliminación se descarta en último lugar y el paquete con baja prioridad de eliminación se descarta primero.

Si la red no admite 3 prioridades, entonces debe admitir al menos 2; entonces se verán como AFx1 en el papel de "menos importante" y AFx2-AFx3 en el papel de "más importante".

Se definen los siguientes valores:

  • AF11 = 001 010 (DSCP decimal = 10)
  • AF12 = 001 100 (DSCP decimal = 12)
  • AF13 = 001 110 (DSCP decimal = 14)
  • AF21 = 010 010 (DSCP decimal = 18)
  • AF22 = 010 100 (DSCP decimal = 20)
  • AF23 = 010 110 (DSCP decimal = 22)
  • AF31 = 011 010 (DSCP decimal = 26)
  • AF32 = 011 100 (DSCP decimal = 28)
  • AF33 = 011 110 (DSCP decimal = 30)
  • AF41 = 100 010 (DSCP decimal = 34)
  • AF42 = 100 100 (DSCP decimal = 36)
  • AF43 = 100 110 (DSCP decimal = 38)

Etiqueta DSCP EF: reenvío acelerado

Esta es la clase de servicio "premium" más alta. El valor de esta etiqueta es 46, indica tráfico que debe enviarse de la mejor manera posible en todos los aspectos.

Eso es todo en pocas palabras. Como está claro, un valor de DSCP igual a cero indicará una entrega con el mejor esfuerzo.

Detalles de las redes 802.11

WiFi tendrá su propia clasificación de tipos de tráfico. Se llamará WMM_AC (Categorías de acceso multimedia inalámbrico) y será bastante sencillo.

  1. Todo el tráfico con un DSCP de 48 y superior pertenece a la clase de Voz (indicada como VO)
  2. Todo el tráfico con DSCP del 32 al 47 pertenece a la clase Vídeo (indicada como VI)
  3. Todo el tráfico con DSCP del 24 al 31 pertenece a la clase BestEffort (indicada como BE)
  4. Todo el tráfico con DSCP del 8 al 23 pertenece a la clase de fondo (indicada como BK)
  5. Todo el tráfico con DSCP de 0 a 7 pertenece (nuevamente, ¿verdad?) a la clase BestEffort (también designada como BE)

En consecuencia, si su adaptador WiFi admite WMM, puede habilitarlo en el nivel del controlador del adaptador WiFi y clasificará su tráfico saliente en 4 colas de acuerdo con "VO es el más importante, VI es el segundo, BE es normal, y BK es fondo " Si las políticas de QoS en su red se aplicarán a hosts con adaptadores WiFi, considere estos puntos al planificar políticas.

Creando una política

Al crear una política, podemos especificar la clase DSCP deseada y el límite de ancho de banda para el tráfico saliente que cumpla con el criterio deseado. O ambos significados o uno de ellos.

Aplicar la política a aplicaciones específicas

Aquí hay tres opciones: la política actuará sobre el tráfico de cualquier aplicación, desde la especificada (se indica el módulo ejecutable), o solo sobre las respuestas HTTP de nuestras aplicaciones que cumplan con los criterios requeridos. La tercera opción será interesante cuando sea necesario, a través de una política, limitar el ancho de banda del tráfico transmitido para recursos HTTP específicos; por ejemplo, si queremos limitar los archivos de video "enviados por nosotros" que caen bajo el criterio de la formulario “http://www..

Aplicar la política a las direcciones IPv4/IPv6 de origen/destino especificadas

Configuraciones bastante triviales: puede limitar aún más la aplicación de políticas de QoS al tráfico según los criterios L3. Tenga en cuenta que si en la configuración anterior se seleccionó "limitar el tráfico enviado por nosotros en respuesta a una solicitud HTTP específica", entonces solo estará disponible el filtrado por destino, porque De dónde viene el tráfico está claro: de nosotros.

Aplicar la política a los puertos TCP/UDP de origen/destino especificados

Es simple: solo recuerde que el rango de puertos se indica con dos puntos (como 1024:65535, no 1024-65535).

En general, todo, se ha creado la política. Puedes crear más. ¿Cómo interactuarán si se cruzan?

Interacción de políticas de QoS

En el caso de que el tráfico caiga bajo varias políticas, se determinará el "ganador" y las prioridades se establecerán de la siguiente manera:

  • Las políticas de QoS a nivel de usuario anulan las políticas de QoS a nivel de máquina
  • Si se define una política que afecta a una aplicación específica, y hay una política bajo la cual cae el mismo tráfico, pero de acuerdo con criterios de red (direcciones, números de puerto), entonces gana la política de la aplicación.
  • Una política que se aplique a configuraciones más específicas anulará la general. Esto se aplica a dos políticas de plan de red a la vez (estar bajo 192.168.1.0/24 es más importante que bajo 192.168.0.0/16), y bajo "un puerto especificado explícitamente es mejor que una variedad de puertos", y bajo “una URL más específica como http://host/video/* es mejor que http://host/*”

También tenga en cuenta una cosa interesante: en los sistemas operativos de servidor de Microsoft, la configuración de QoS siempre se aplica, pero en los sistemas operativos de cliente, solo cuando la interfaz de red para el tráfico saliente se reconoce como red de dominio. Esto se hizo específicamente para que las restricciones que se aplican a la computadora portátil de un empleado cuando trabaja en una red corporativa no limiten la velocidad y la calidad de su trabajo durante redes externas. Esto no afecta la seguridad, por lo que no supone un debilitamiento de la misma; Estas son sólo restricciones al tráfico saliente.

Ahora - oh configuraciones globales“Motor QoS” – componente de red Programador de paquetes QoS.

Estos parámetros indicarán la configuración de todo el sistema (no relacionada con un tipo específico de tráfico e interfaz de red) para este mecanismo. Estarán ubicados en la sucursal de póliza de grupo correspondiente:

Parámetro del programador de paquetes QoS: limitar los paquetes pendientes

Esta configuración especifica el tamaño máximo de la cola del sistema de paquetes salientes. Aquellos. Si un paquete está designado para ser enviado en una interfaz específica (encontrado por el siguiente salto y asignado a la interfaz de salida), se considera "enviado" en este criterio, y aumenta este contador en uno. Tan pronto como el paquete se envíe correctamente (tenga en cuenta que es un paquete, este contador solo funciona para paquetes L3), el contador disminuirá. Técnicamente, en Windows no hay una cola L3 para una interfaz específica, solo hay L2 (es decir, de marcos), por lo que si el número total de dichos paquetes "en espera" es mayor que el número especificado, entonces nuevo paquete no se enviará en absoluto hasta que se descargue la cola. Esto no depende del tamaño del paquete; se cuentan las “cabezas” de los paquetes en espera. paquetes de todo protocolos de red(tanto IPv4 como IPv6) se consideran juntos, es decir con el valor predeterminado - 65536 - no será posible "poner en cola", digamos, 35 mil paquetes IPv4 e IPv6 - el paquete 65537 de cualquier protocolo se descartará de acuerdo con la lógica de caída de cola (es decir, no se colocará en la cola) .

Recomendaría recordar que el paquete saliente está limitado por la MTU de la trama, que, si la compatibilidad con Jumbo Frames está habilitada en las interfaces de red, será de 9 KB, por lo que incluso la configuración predeterminada esencialmente asigna un búfer para paquetes en espera con un tamaño total de hasta 589.824.000 bytes, es decir más de medio gigabyte (en el caso de una interfaz de red normal de 10/100 Mbit, menos, 98.304.000 bytes). Esto es más que suficiente para todas las ocasiones (piense qué tipo de aplicación es la que intentará enviar tantos paquetes a la cola saliente de la interfaz), por lo que a menudo es aconsejable reducir este valor: la cantidad de RAM ocupada por Se reducen las estructuras de servicio del controlador QoS Packet Scheduler. Establecí el valor en 4096 en hosts que tienen interfaces de red virtuales y cargas no intensivas (por ejemplo, DC/GC), y la huella del controlador QoS disminuye.

Para los nodos a los que están conectadas muchas sesiones externas, se configura QoS y los datos transmitidos consisten en paquetes pequeños (voz, torrents), este valor se puede aumentar. Creo que la lógica general es clara: hay memoria y la necesidad de enviar muchos paquetes pequeños; es muy posible alcanzar el límite de 65536.

Programador de paquetes QoS: configuración del parámetro de resolución del temporizador

En el caso de que se configure una limitación de cualquier tipo de tráfico saliente por banda (“shaping”), este parámetro indica qué intervalo de tiempo mínimo se utiliza para los cálculos.

La lógica es simple: digamos que se utiliza el valor estándar de 10 ms. Esto quiere decir que un segundo se divide en 100 partes iguales. Digamos que existe una regla que limita el servicio de envío X a 5 MB por segundo. Por tanto, se ejecutará un contador 100 veces por segundo, que medirá el tráfico realmente enviado por el servicio sujeto a la regla. Si este tráfico alcanza los 50 KB dentro de un período de contabilización de 10 ms, ya no se enviará y comenzará a entrar en la cola de "espera", que se describió en el párrafo anterior. Pues cuando comience un nuevo periodo de 10ms se podrán volver a enviar 50KB.

En consecuencia, cuanto mayor sea este número, más tosca será la configuración, pero se gastarán menos recursos del procesador. Y cuanto menor sea el número, más "suave" fluirá el tráfico; tenga en cuenta que todo esto se aplica sólo al tráfico que está sujeto a reglas de QoS, el tráfico sin marcas no se verá afectado. Tiene sentido aumentar la resolución del temporizador (hasta 2 ms, por ejemplo) en el caso de que exista una regla de envío. tráfico de voz– esto tendrá un efecto positivo en la calidad del flujo saliente.

Parámetro del programador de paquetes QoS: limitar el ancho de banda reservable

El escenario más terrible es la cantidad de cuentos de hadas que se han contado sobre él durante 10 años, simplemente guau. Escuché la leyenda de que "Venda, por defecto, está acaparando el 20% del ancho de banda de la red sin ningún motivo", la escuché en docenas de variantes, desde las inofensivas "porque son estúpidas allí y no pueden". "No cargue completamente la unidad de red correctamente" para el esquizoide "esto es para que los datos del tornillo del usuario se envíen al Pentágono".

En realidad es simple. Esta es la cantidad total de ancho de banda reservado por todas las reglas de QoS que se ejecutan en un sistema determinado. Aquellos. si es del 20% y tiene una interfaz de red de 100 Mbit, entonces no importa cuánto lo intente y cree, por ejemplo, 3 reglas, cada una de las cuales reserva 15 megabits para la aplicación (3*15=45), entonces No lo harás. Como resultado, no ocuparás más de 20 megabits con tu tráfico priorizado.

En términos generales, este valor muestra cuánto tráfico "QoS clasificado" puede ser como porcentaje del ancho de banda nominal de la interfaz. Es aconsejable, si está redactando políticas de QoS, aumentar este número, por ejemplo, al 90%. ¿Por qué no hasta 100? Porque en el caso de que, por alguna razón, todo el tráfico de una determinada aplicación se vuelva súper prioritario y el ancho de banda de reserva sea del 100%, el resto del tráfico perderá para siempre la competencia por el pedido de envío y el sistema no podrá hacer sus tareas; en términos generales, por ejemplo, todo tipo de protocolos de servicio como IKE, que se ejecuta en el puerto 500, UDP, NTP, DNS y otros, desaparecerán. De aquí viene el seguro cuando no hacen el 100, y no del hecho de que “Windows simplemente lo toma y no usa parte de la red”.

Experiencia de calidad de audio y vídeo de Windows (qWave): ¿qué es y se necesita?

Este componente, aparecido a partir de NT 6.0, es un servicio cliente-servidor que técnicamente opera en los puertos TCP/UDP 2177, y es necesario para que dos servicios funcionen. diferentes anfitriones podrían “acordar” a qué flujo de datos dar qué prioridad. El servidor que inicia la transferencia de datos tiene la función de iniciador, el lado receptor tiene la función de sumidero. La conclusión es que una aplicación que puede "ordenar" un nivel de calidad para sus datos de qWave debe desarrollarse de manera adecuada (por ejemplo, usar la funcionalidad .NET para configurar una sesión). qWave, de hecho, anulará la configuración del sistema con su configuración, si la hubiera. El enfoque integrado tiene muchas ventajas: qWave determina automáticamente si 802.1p es compatible no solo en los hosts finales, sino también en los equipos de red intermedios, le permite redefinir de manera flexible y sobre la marcha el ancho de banda reservado para el tráfico requerido y también monitorear constantemente los parámetros. como la latencia del canal (QoS Packet Scheduler no puede hacer esto), enviar periódicamente paquetes de prueba y "medir" la calidad de la línea entre dos hosts.

Permítame recordarle que puede instalar este componente "así", pero necesita un software que pueda solicitarle funcionalidad. Por defecto, qWave no funciona porque... si funcionara, desperdiciaría recursos de la red en mediciones de prueba de la calidad del canal.

En lugar de una conclusión

Espero que esta breve excursión al interesante mundo de la gestión del tráfico haya sido interesante y le resulte útil en la práctica.

No hay una sola persona que no haya leído al menos una vez algunas preguntas frecuentes sobre Windows XP. Y si es así, entonces todo el mundo sabe que existe un servicio de calidad de servicio tan perjudicial: QoS para abreviar. Se recomienda encarecidamente desactivarlo al configurar su sistema porque limita el ancho de banda de la red en un 20% de forma predeterminada y este problema parece existir también en Windows 2000.

Estas son las líneas:

"P: ¿Cómo puedo desactivar completamente el servicio QoS (Calidad de Servicio)? ¿Cómo configurarlo? ¿Es cierto que limita la velocidad de la red? R: De hecho, de forma predeterminada, Calidad de Servicio reserva el 20% de la capacidad del canal para sus necesidades (cualquier canal, ya sea un módem 14400 o gigabits ethernet). Además, incluso si elimina el servicio Programador de paquetes QoS de la conexión Propiedades, este canal no se libera. Puede liberar un canal o simplemente configurar QoS aquí. Inicie el subprograma de política de grupo (gpedit.msc). En Política de grupo, busque Política de computadora local y haga clic en Plantillas administrativas. Seleccione Red - Programador de paquetes QoS. Habilite Limitar el ancho de banda reservable. Ahora bajamos el límite de Ancho de Banda del 20% al 0% o simplemente lo apagamos. Si lo desea, también puede configurar otros parámetros de QoS aquí. Para activar los cambios solo tienes que reiniciar".

El 20% es, por supuesto, mucho. Realmente Microsoft es Mazda. Declaraciones de este tipo vagan de preguntas frecuentes en preguntas frecuentes, de foro en foro, de medios en medios, se utilizan en todo tipo de "ajustes": programas para "ajustar" Windows XP (por cierto, abra "Políticas de grupo" y "Políticas locales"). Políticas de seguridad”, y ningún modificador puede compararse con ellos en términos de riqueza de opciones de personalización). Las acusaciones infundadas de este tipo deben exponerse cuidadosamente, que es lo que haremos ahora, utilizando un enfoque sistemático. Es decir, estudiaremos a fondo el tema problemático, basándonos en fuentes primarias oficiales.

¿Qué es una red con servicio de calidad?

Aceptemos la siguiente definición simplificada de un sistema de red. Las aplicaciones se ejecutan y ejecutan en hosts y se comunican entre sí. Las aplicaciones envían datos al sistema operativo para su transmisión a través de la red. Una vez que los datos se transfieren al sistema operativo, se convierten en tráfico de red.

La QoS de la red depende de la capacidad de la red para procesar este tráfico de una manera que garantice que se cumplan ciertas solicitudes de aplicaciones. Esto requiere un mecanismo fundamental para procesar el tráfico de red que pueda identificar el tráfico elegible para un tratamiento especial y el derecho a controlar esos mecanismos.

Funcionalidad QoS está diseñado para satisfacer dos entidades de red: aplicaciones de red y administradores de red. A menudo tienen desacuerdos. El administrador de la red limita los recursos utilizados por una aplicación en particular, mientras que al mismo tiempo la aplicación intenta aprovechar tantos recursos de la red como sea posible. Sus intereses pueden alinearse, teniendo en cuenta el hecho de que el administrador de la red desempeña un papel dominante en relación con todas las aplicaciones y usuarios.

Parámetros básicos de QoS

Diferentes aplicaciones tienen diferentes requisitos para manejar el tráfico de su red. Las aplicaciones son más o menos tolerantes a los retrasos y la pérdida de tráfico. Estos requisitos han encontrado aplicación en los siguientes parámetros relacionados con la QoS:

Ancho de banda: la velocidad a la que el tráfico generado por una aplicación debe transmitirse a través de la red.
- Latencia: el retraso que una aplicación puede tolerar en la entrega de un paquete de datos.
- Jitter: cambia el tiempo de retraso.
- Pérdida: porcentaje de datos perdidos.

Si hubiera infinitos recursos de red disponibles, entonces todo el tráfico de la aplicación podría transmitirse a la velocidad requerida, con cero latencia, cero variación de latencia y cero pérdidas. Sin embargo, los recursos de la red no son ilimitados.

El mecanismo QoS controla la asignación de recursos de red al tráfico de aplicaciones para cumplir con los requisitos de transmisión.

Recursos fundamentales de QoS y mecanismos de procesamiento de tráfico.

Las redes que conectan hosts utilizan una variedad de dispositivos de red, incluidos adaptadores de red de host, enrutadores, conmutadores y concentradores. Cada uno de ellos tiene interfaces de red. Cada interfaz de red puede recibir y transmitir tráfico a una velocidad finita. Si la velocidad a la que se envía el tráfico a una interfaz es más rápida que la velocidad a la que la interfaz reenvía el tráfico, entonces se produce una congestión.

Los dispositivos de red pueden manejar condiciones de congestión poniendo en cola el tráfico en la memoria del dispositivo (búfer) hasta que pase la congestión. En otros casos, los equipos de red pueden rechazar el tráfico para aliviar la congestión. Como resultado, las aplicaciones experimentan cambios de latencia (a medida que el tráfico se almacena en colas en las interfaces) o pérdida de tráfico.

Capacidad interfaces de red El reenvío de tráfico y la disponibilidad de memoria para almacenar el tráfico en dispositivos de red (hasta que el tráfico no pueda enviarse más) constituyen los recursos fundamentales necesarios para proporcionar QoS para los flujos de tráfico de aplicaciones.

Distribución de recursos de QoS entre dispositivos de red.

Los dispositivos que admiten QoS utilizan de forma inteligente los recursos de la red para transmitir tráfico. Es decir, el tráfico de aplicaciones más tolerantes a la latencia se pone en cola (almacenado en un búfer en la memoria), mientras que el tráfico de aplicaciones con latencia crítica se transmite.

Para realizar esta tarea, el dispositivo de red debe identificar el tráfico clasificando los paquetes y también tener colas y mecanismos para atenderlos.

Mecanismo de procesamiento de tráfico

El mecanismo de procesamiento de tráfico incluye:

802.1p
- Servicios diferenciados de comportamientos por salto (diffserv PHB).
- Servicios integrados (intserv).
- Cajero automático, etc

La mayoría de las redes locales se basan en tecnologías IEEE 802, incluidos Ethernet, token-ring, etc. 802.1p es un mecanismo de procesamiento de tráfico para admitir QoS en dichas redes.

802.1p define un campo (capa 2 en el modelo de red OSI) en el encabezado del paquete 802 que puede transportar uno de los ocho valores de prioridad. Como regla general, los hosts o enrutadores, cuando envían tráfico a una red local, marcan cada paquete enviado, asignándole un cierto valor de prioridad. Se espera que los dispositivos de red, como conmutadores, puentes y concentradores, procesen los paquetes de forma adecuada mediante mecanismos de cola. El alcance de 802.1p se limita a la red de área local (LAN). Una vez que el paquete cruza la red local (a través de OSI Layer 3), se elimina la prioridad 802.1p.

Diffserv es un mecanismo de capa 3. Define un campo en el encabezado de capa 3 de los paquetes IP llamado punto de código diffserv (DSCP).

Intserv es toda una gama de servicios que define un servicio garantizado y un servicio de gestión de descargas. Un servicio garantizado promete transportar una cierta cantidad de tráfico con una latencia mensurable y limitada. El servicio que gestiona la descarga acepta transportar algo de tráfico cuando "se produce una ligera congestión de la red". Estos son servicios cuantificables en el sentido de que están definidos para proporcionar QoS mensurable a una cierta cantidad de tráfico.

Debido a que la tecnología ATM fragmenta los paquetes en celdas relativamente pequeñas, puede ofrecer una latencia muy baja. Si es necesario enviar un paquete con urgencia, la interfaz ATM siempre se puede liberar para la transmisión durante el tiempo que sea necesario para enviar una celda.

QoS tiene muchos mecanismos más complejos que hacen que esta tecnología funcione. Notemos solo un punto importante: para que QoS funcione, es necesario el soporte de esta tecnología y una configuración adecuada durante toda la transmisión desde el punto de inicio hasta el punto final.

Para mayor claridad, considere la Fig. 1.

Aceptamos lo siguiente:

Todos los enrutadores participan en la transmisión de los protocolos requeridos.
- Se inicia una sesión de QoS que requiere 64 Kbps entre el Host A y el Host B.
- Se inicia otra sesión que requiere 64 Kbps entre el Host A y el Host D.
- Para simplificar el diagrama, asumimos que los enrutadores están configurados para que puedan reservar todos los recursos de la red.

En nuestro caso, una solicitud de reserva de 64 Kbps llegaría a tres enrutadores en la ruta de datos entre el Host A y el Host B. Otra solicitud de 64 Kbps llegaría a tres enrutadores entre el Host A y el Host D. Los enrutadores aceptarían estas solicitudes de reserva de recursos. porque no superan el máximo. Si, en cambio, cada uno de los hosts B y C iniciara simultáneamente una sesión de QoS de 64 Kbps con el host A, entonces el enrutador que atiende a estos hosts (B y C) denegaría una de las conexiones.

Ahora supongamos que el administrador de red desactiva el procesamiento de QoS en los tres enrutadores descendentes que sirven a los hosts B, C, D, E. En este caso, las solicitudes de recursos de hasta 128 Kbps se satisfacerían independientemente de la ubicación del host involucrado en la conexión. Sin embargo, la garantía de calidad sería baja porque el tráfico a un host pondría en riesgo el tráfico a otro. La calidad del servicio podría mantenerse si el enrutador superior limitara todas las solicitudes a 64 Kbps, pero esto daría como resultado un uso ineficiente de los recursos de la red.

Por otro lado, el rendimiento de todas las conexiones de red podría aumentarse hasta 128 Kbps. Pero el ancho de banda aumentado sólo se utilizará cuando los hosts B y C (o D y E) soliciten recursos simultáneamente. Si este no es el caso, los recursos de la red nuevamente se utilizarán de manera ineficiente.

Componentes de calidad de servicio de Microsoft

Windows 98 contiene sólo componentes de QoS a nivel de usuario, incluidos:

Componentes de la aplicación.
- API GQoS (parte de Winsock 2).
- Proveedor de servicios QoS.

El sistema operativo Windows 2000/XP/2003 contiene todo lo descrito anteriormente y los siguientes componentes:

Proveedor de servicios de protocolo de reserva de recursos (Rsvpsp.dll) y servicios RSVP (Rsvp.exe) y QoS ACS. No utilizado en Windows XP, 2003. Gestión del tráfico (Traffic.dll).
- Clasificador de paquetes genérico (Msgpc.sys). El clasificador de paquetes determina la clase de servicio a la que pertenece el paquete. En este caso, el paquete se colocará en la cola correspondiente. Las colas son gestionadas por el Programador. paquetes de calidad de servicio.
- Programador de paquetes QoS (Psched.sys). Define los parámetros de QoS para un flujo de datos específico. El tráfico está marcado con un valor de prioridad específico. El programador de paquetes QoS determina el cronograma de colas para cada paquete y maneja solicitudes en competencia entre paquetes en cola que necesitan acceder a la red al mismo tiempo.

El diagrama de la Fig. 2 ilustra la pila de protocolos. Componentes de Windows y su interacción en el anfitrión. Los elementos que se usaron en Windows 2000 pero no en Windows XP/2003 no se muestran en el diagrama.

Las aplicaciones están en la parte superior de la pila. Es posible que sepan o no acerca de la QoS. Para aprovechar todo el poder de QoS, Microsoft recomienda utilizar llamadas API de QoS genéricas en sus aplicaciones. Esto es especialmente importante para aplicaciones que requieren garantías de servicio de alta calidad. Se pueden utilizar algunas utilidades para invocar QoS en nombre de aplicaciones que no conocen la QoS. Funcionan a través de la API de gestión de tráfico. Por ejemplo, NetMeeting utiliza la API GQoS. Pero para este tipo de aplicaciones la calidad no está garantizada.

el ultimo clavo

Los puntos teóricos anteriores no proporcionan una respuesta clara a la pregunta de dónde va el notorio 20% (que, observo, nadie ha medido con precisión todavía). Según lo anterior, esto no debería suceder. Pero los opositores esgrimen un nuevo argumento: el sistema QoS es bueno, pero la implementación es torcida. Por tanto, el 20% sigue siendo “gordo”. Al parecer, el problema también afecta al gigante del software, que hace tiempo desmintió por separado tales mentiras.

Sin embargo, daremos la palabra a los desarrolladores y presentaremos puntos seleccionados del artículo "316666 - Mejoras y comportamiento de la calidad de servicio (QoS) de Windows XP" en ruso literario:

"El cien por ciento del ancho de banda de la red está disponible para su distribución entre todos los programas a menos que un programa solicite explícitamente un ancho de banda prioritario. Este ancho de banda "reservado" está disponible para otros programas a menos que el programa que lo solicitó no envíe datos.

De forma predeterminada, los programas pueden reservar hasta el 20% de la velocidad de conexión principal en cada interfaz de computadora. Si el programa que reservó el ancho de banda no envía suficientes datos para usarlos todos, la porción no utilizada del ancho de banda reservado está disponible para otros flujos de datos.

Ha habido afirmaciones en varios artículos técnicos y grupos de noticias de que Windows XP siempre reserva el 20% del ancho de banda disponible para QoS. Estas declaraciones son incorrectas."

Si ahora alguien todavía está consumiendo el 20% de su ancho de banda, bueno, puedo aconsejarle que siga usando más ajustes de todo tipo y controladores de red corruptos. Tampoco será tanto "engordar".


Actualmente, junto con el aumento sistemático de las velocidades de transferencia de datos en el sector de las telecomunicaciones, está aumentando la proporción del tráfico interactivo, que es extremadamente sensible a los parámetros del entorno del transporte. Por tanto, la tarea de garantizar la calidad del servicio (QoS) es cada vez más importante.

Al considerar una cuestión de esta complejidad, es mejor comenzar con preguntas simples y ejemplos claros configuración del equipo, por ejemplo, de Cisco. El material presentado aquí ciertamente no puede competir con www.cisco.com. Nuestra tarea es la clasificación inicial de una gran cantidad de información de forma compacta para facilitar su comprensión y estudio posterior.

1. Definiciones y términos.

Hay tantas definiciones del término QoS que elegiremos la única correcta, la correcta de Cisco: “QoS – QoS se refiere a la capacidad de una red para proporcionar un mejor servicio al tráfico de red seleccionado a través de varias tecnologías subyacentes...” . Que puede traducirse literalmente como: “QoS es la capacidad de una red para proporcionar servicio requerido tráfico dado dentro de ciertos marcos tecnológicos."

El servicio requerido se describe mediante muchos parámetros; entre ellos destacamos los más importantes.

Ancho de banda (BW)- ancho de banda, describe la capacidad nominal del medio de transmisión de información, determina el ancho del canal. Medido en bit/s (bps), kbit/s (kbps), mbit/s (mbps).

Demora- retraso durante la transmisión de paquetes.

Estar nervioso- fluctuación (variación) del retraso durante la transmisión de paquetes.

Pérdida de paquetes– pérdida de paquetes. Determina la cantidad de paquetes descartados por la red durante la transmisión.

Muy a menudo, para describir la capacidad de un canal, se utiliza una analogía con una tubería de agua. Dentro de su marco, el ancho de banda es el ancho de la tubería y el retardo es la longitud.

Tiempo para transmitir un paquete a través del canal Tiempo de transmisión [s] = tamaño del paquete / bw.

Por ejemplo, encontremos el tiempo de transmisión de un paquete de 64 bytes en un canal de 64 kilobits/s de ancho:

Tamaño del paquete = 64*8=512 (bit) Tiempo de transmisión = 512/64000 = 0,008 (s)

2. Modelos de servicio QoS.

2.1. Servicio al mejor esfuerzo.

Entrega no garantizada. Ausencia absoluta de mecanismos de QoS. Todos los recursos de red disponibles se utilizan sin ninguna asignación de clases de tráfico ni regulación separadas. Se cree que el mejor mecanismo para proporcionar QoS es aumentar el rendimiento. Esto es correcto en principio, pero algunos tipos de tráfico (por ejemplo, voz) son muy sensibles a los retrasos de los paquetes y a las variaciones en su velocidad. El modelo Best Effort Service, incluso con grandes reservas, permite que se produzcan sobrecargas en caso de picos repentinos de tráfico. Por lo tanto, se han desarrollado otros enfoques para proporcionar QoS.

2.2. Servicio Integrado (IntServ).

Servicio Integrado (IntServ, RFC 1633): modelo de servicio integrado. Puede proporcionar calidad de servicio de extremo a extremo, garantizando el rendimiento necesario. IntServ utiliza el protocolo de señalización RSVP para sus fines. Permite que las aplicaciones expresen requisitos de recursos de un extremo a otro y contiene mecanismos para hacer cumplir esos requisitos. IntServ se puede describir brevemente como una reserva de recursos.

2.3. Servicio Diferenciado (DiffServ).

Servicio Diferenciado (DiffServ, RFC 2474/2475) - Modelo de servicio diferenciado. Define la provisión de QoS basada en componentes bien definidos que se combinan para proporcionar los servicios requeridos. La arquitectura DiffServ asume la presencia de clasificadores y formadores de tráfico en el borde de la red, así como soporte para funciones de asignación de recursos en el núcleo de la red para proporcionar la política de comportamiento por salto (PHB) requerida. Separa el tráfico en clases mediante la introducción de múltiples niveles de QoS. DiffServ consta de los siguientes bloques funcionales: formadores de borde de tráfico (clasificación de paquetes, marcado, control de intensidad) e implementadores de políticas PHB (asignación de recursos, política de caída de paquetes). DiffServ se puede describir brevemente como priorización del tráfico (Priorización).

3. Funciones básicas de QoS.

Las funciones básicas de la QoS son proporcionar los parámetros de servicio necesarios y se definen en relación con el tráfico como: clasificación, marcado, control de congestión, evitación de congestión y limitación. Funcionalmente, la clasificación y el marcado se proporcionan con mayor frecuencia en los puertos de entrada del equipo, y el control y la prevención de sobrecarga se proporcionan en los puertos de salida.

3.1. Clasificación y Marcado.

La clasificación de paquetes es un mecanismo para asignar un paquete a una clase de tráfico específica.

Otra tarea igualmente importante al procesar paquetes es el marcado de paquetes: asignar una prioridad adecuada (etiqueta).

Dependiendo del nivel de consideración (es decir, OSI), estas tareas se resuelven de manera diferente.

3.1.1. Clasificación y Marcado de Capa 2.

Los conmutadores Ethernet (Capa 2) utilizan protocolos de capa de enlace de datos. protocolo ethernet en su forma pura no admite el campo de prioridad. Por lo tanto, en los puertos Ethernet (puerto de acceso) solo es posible la clasificación interna (en relación con el conmutador) según el número del puerto entrante y no hay ninguna marca.

Una solución más flexible es utilizar el estándar IEEE 802.1P, que se desarrolló junto con 802.1Q. La jerarquía de relaciones aquí es la siguiente: 802.1D describe la tecnología de puente y es la base para 802.1Q y 802.1P. 802.1Q describe la tecnología de red virtual (VLAN) y 802.1P proporciona calidad de servicio. En general, habilitar la compatibilidad con 802.1Q (troncal con vilans) hace posible utilizar 802.1P automáticamente. Según el estándar, se utilizan 3 bits en el encabezado de segundo nivel, que se denomina Clase de servicio (CoS). Así, CoS puede tomar valores de 0 a 7.

3.1.2. Clasificación y Marcado de Capa 3.

El equipo de enrutamiento (Capa 3) opera con paquetes IP, en los que se proporciona un campo correspondiente en el encabezado para fines de marcado: Tipo de servicio IP (ToS) de un byte de tamaño. Los ToS se pueden completar con un clasificador de precedencia de IP o DSCP según la tarea. La precedencia de IP (IPP) tiene una dimensión de 3 bits (acepta valores 0-7). DSCP es un modelo DiffServ y consta de 6 bits (valores 0-63).

Además de en forma digital, los valores DSCP se pueden expresar utilizando palabras clave especiales: BE - Best Effort, AF - Assured Forwarding y EF - Expedited Forwarding. Además de estas tres clases, existen códigos selectores de clases que se agregan a la notación de clases y son compatibles con versiones anteriores de IPP. Por ejemplo, un valor DSCP de 26 se puede escribir como AF31, que es completamente equivalente.

MPLS contiene un indicador de QoS dentro de la etiqueta en los bits MPLS EXP correspondientes (3 bits).

Puede marcar paquetes IP con un valor de QoS de diferentes formas: PBR, CAR, BGP.

Ejemplo 1: marcado PBR

La ruta basada en políticas (PBR) se puede utilizar para fines de marcado, realizada en la subrutina adecuada (el mapa de ruta puede contener establecer parámetro precedencia de ip):

!
interfaz FastEthernet0/0
política ip mapa de ruta MARCA
velocidad 100
dúplex completo
sin habilitación de cdp
!
!
mapa de ruta MARCA permiso 10
coincidir con la dirección IP 1
establecer prioridad de precedencia de IP
!

Puede ver el resultado en la salida de la interfaz (por ejemplo, usando el programa tcpdump en Unix):

# tcpdump -vv -n -i em0
... IP (hasta 0x20 ...)

Ejemplo 2: marcado CAR.

El mecanismo de velocidad de acceso comprometida (CAR) está diseñado para limitar la velocidad, pero además puede marcar paquetes (parámetro set-prec-transmit en rate-limit):

!
interfaz FastEthernet0/0
dirección IP 192.168.0.2 255.255.255.252
entrada de límite de velocidad grupo de acceso 1 1000000 10000 10000 acción-conforme set-prec-transmit 3 exceder-action set-prec-transmit 3
sin habilitación de cdp
!
lista de acceso 1 permiso 192.168.0.0 0.0.0.255
!

#sh interfaz FastEthernet0/0 límite de velocidad

3.2. Gestión de la congestión. Mecanismo de cola.

3.2.1. Congestiones.

La congestión ocurre cuando los buffers de salida del equipo que transmite tráfico se desbordan. Los principales mecanismos para la aparición de congestiones (o, equivalentemente, congestiones) son la agregación de tráfico (cuando la velocidad del tráfico entrante excede la velocidad del tráfico saliente) y la inconsistencia de velocidades en las interfaces.

La gestión del ancho de banda en caso de congestión (cuellos de botella) se realiza mediante un mecanismo de cola. Los paquetes se colocan en colas, que se procesan de forma ordenada según un algoritmo específico. De hecho, el control de la congestión es la determinación del orden en que los paquetes abandonan la interfaz (colas) en función de las prioridades. Si no hay sobrecargas, las colas no funcionan (y no son necesarias). Enumeremos los métodos para procesar colas.

3.2.2. Cola de capa 2.

La estructura física de un conmutador clásico se puede simplificar de la siguiente manera: un paquete llega al puerto de entrada, es procesado por el mecanismo de conmutación, que decide dónde reenviar el paquete, y termina en las colas de hardware del puerto de salida. Las colas de hardware son memorias rápidas que almacenan paquetes antes de enviarlos directamente al puerto de salida. A continuación, de acuerdo con un determinado mecanismo de procesamiento, los paquetes se eliminan de las colas y abandonan el conmutador. Inicialmente, las colas son iguales y es el mecanismo de procesamiento de colas (Programación) el que determina la priorización. Normalmente, cada puerto del conmutador contiene una cantidad limitada de colas: 2, 4, 8, etc.

En términos generales, la configuración de priorizaciones es la siguiente:

1. Inicialmente, las colas son iguales. Por tanto, primero es necesario configurarlos, es decir, determinar el orden (o proporcionalidad del volumen) de su procesamiento. La forma más común de hacerlo es vincular las prioridades 802.1P a las colas.

2. Es necesario configurar el manejador de colas (Scheduler). El peso más utilizado algoritmo de operación por turnos(Round Robin ponderado WRR) o colas de prioridad estricta.

3. Asignar prioridad a los paquetes entrantes: por puerto de entrada, por CoS o, en el caso características adicionales(Conmutador de capa 3), por algunos campos de IP.

Todo funciona así:

1. El paquete llega al conmutador. Si se trata de un paquete Ethernet normal (puerto de acceso del cliente), entonces no tiene etiquetas de prioridad y el conmutador puede configurarlas, por ejemplo, mediante el número de puerto de entrada, si es necesario. Si el puerto de entrada es troncal (802.1Q o ISL), entonces el paquete puede llevar una etiqueta de prioridad y el conmutador puede aceptarla o reemplazarla por la necesaria. En cualquier caso, el paquete es en esta etapa Entró en el interruptor y tiene la marca CoS necesaria.

2. Después del procesamiento mediante el proceso de conmutación, el clasificador (Classify) envía el paquete de acuerdo con la etiqueta de prioridad CoS a la cola apropiada del puerto de salida. Por ejemplo, el tráfico crítico pasa a una cola de alta prioridad y el tráfico menos importante pasa a una cola de baja prioridad.

3. El mecanismo de procesamiento (Programación) recupera paquetes de las colas según sus prioridades. Se enviarán más paquetes al puerto de salida por unidad de tiempo desde una cola de alta prioridad que desde una cola de baja prioridad.


3.2.3. Cola de capa 3.

Los dispositivos de enrutamiento operan paquetes en la tercera capa OSI (Capa 3). La mayoría de las veces, el soporte de colas se proporciona mediante software. Esto significa, en la mayoría de los casos, la ausencia de restricciones de hardware en su número y una configuración más flexible de los mecanismos de procesamiento. El paradigma general de QoS Layer 3 incluye el marcado y clasificación de paquetes en la entrada (Marking & Classification), su distribución en colas y su procesamiento (Scheduling) según ciertos algoritmos.

Y enfaticemos una vez más que la priorización (colas) se requiere principalmente solo en lugares congestionados y con cuellos de botella, cuando la capacidad del canal no es suficiente para transmitir todos los paquetes entrantes y es necesario diferenciar de alguna manera su procesamiento. Además, la priorización también es necesaria en el caso de prevenir la influencia de ráfagas. actividad de red para tráfico sensible a retrasos.

Clasifiquemos la QoS de Capa 3 según los métodos de procesamiento de colas.

3.2.3.1. FIFO.

Una cola elemental con paso secuencial de paquetes, que funciona según el principio de primero en entrar, primero en salir (FIFO), que tiene el equivalente ruso de primero en entrar, primero en salir y zapatillas. Básicamente, aquí no hay priorización. Habilitado por defecto en interfaces con velocidades superiores a 2 Mbit/s.

3.2.3.2. P.Q. Colas prioritarias.

Priority Queuing (PQ) proporciona prioridad incondicional para algunos paquetes sobre otros. Hay 4 colas en total: alta, media, normal y baja. El procesamiento se realiza de forma secuencial (de mayor a menor), comenzando desde la cola de alta prioridad y hasta ella. limpieza completa no pasa a colas de menor prioridad. Por tanto, es posible que el canal esté monopolizado por colas de alta prioridad. El tráfico cuya prioridad no se especifica explícitamente terminará en la cola predeterminada.

Parámetros de comando.
Distribución de protocolos por colas:
lista de prioridades LIST_NUMBER protocolo PROTOCOLO (alto|medio|normal|bajo) lista ACCESS_LIST_NUMBER
definición de cola predeterminada:
lista de prioridades LIST_NUMBER predeterminada (alta|media|normal|baja)
determinar el tamaño de la cola (en paquetes):
lista-prioridad LIST_NUMBER límite-cola HIGH_QUEUE_SIZE MEDIUM_QUEUE_SIZE NORMAL_QUEUE_SIZE LOW_QUEUE_SIZE

designaciones:
LIST_NUMBER: número de controlador de PQ (hoja)
PROTOCOLO - protocolo
ACCESS_LIST_NUMBER – número de lista de acceso
HIGH_QUEUE_SIZE – tamaño de cola ALTO
MEDIUM_QUEUE_SIZE - Tamaño de cola MEDIANO
NORMAL_QUEUE_SIZE: tamaño de cola NORMAL
LOW_QUEUE_SIZE: tamaño de cola BAJO

Algoritmo de configuración.

1. Definir 4 colas
lista de acceso 110 permitir ip cualquier red de precedencia
lista de acceso 120 permitir ip cualquier precedencia crítica
lista de acceso 130 permitir ip cualquier cualquier precedencia internet
lista de acceso 140 permitir ip cualquier rutina de precedencia

lista de prioridades 1 protocolo ip lista alta 110
lista de prioridades 1 protocolo ip lista media 120
lista de prioridades 1 protocolo ip lista normal 130
lista de prioridades 1 protocolo ip lista baja 140
lista de prioridades 1 valor predeterminado bajo


lista de prioridades 1 límite de cola 30 60 90 120

2. Enlace a la interfaz

!
interfaz FastEthernet0/0
dirección IP 192.168.0.2 255.255.255.0
velocidad 100
dúplex completo
grupo prioritario 1
sin habilitación de cdp
!

3. Ver el resultado
#sh prioridad de cola

Configuración actual de la cola de prioridad:

Lista Argumentos en cola - - 1 bajo por defecto - 1 alto protocolo ip lista 110 1 medio protocolo ip lista 120 1 normal protocolo ip lista 130 1 bajo protocolo ip lista 140

#sh interfaces fastEthernet 0/0

Estrategia de cola: lista de prioridades 1


Estrategia de cola de interfaz FastEthernet0/0: prioridad


alto/19 medio/0 normal/363 bajo/0

3.2.3.3. C.Q. Colas aleatorias.

Custom Queueing (CQ) proporciona colas personalizadas. Proporciona control de la proporción de ancho de banda del canal para cada cola. Se admiten 17 colas. La cola 0 del sistema está reservada para paquetes de control de alta prioridad (enrutamiento, etc.) y no está disponible para el usuario.

Las colas se recorren secuencialmente, comenzando por la primera. Cada cola contiene un contador de bytes, que al comienzo del recorrido contiene un valor determinado y se reduce según el tamaño del paquete pasado desde esa cola. Si el contador no es cero, entonces el siguiente paquete se omite en su totalidad, y no su fragmento igual al resto del contador.

Parámetros de comando.
determinación del ancho de banda de la cola:
lista de colas LISTA-NÚMERO cola QUEUE_NUMBER recuento de bytes
BYTE_COUT

determinar el tamaño de la cola:
lista-cola LISTA-NÚMERO cola QUEUE_NUMBER límite QUEUE_SIZE

designaciones:
NÚMERO DE LISTA – número de controlador
QUEUE_NUMBER – número de cola
BYTE_COUT – tamaño de cola en paquetes

Algoritmo de configuración.

1. Definiendo colas
lista de acceso 110 permiso ip host 192.168.0.100 cualquiera
lista de acceso 120 permiso ip host 192.168.0.200 cualquiera

lista de cola 1 protocolo ip 1 lista 110
lista de cola 1 protocolo ip 2 lista 120
lista de cola 1 predeterminado 3

lista de colas 1 cola 1 recuento de bytes 3000
lista de colas 1 cola 2 recuento de bytes 1500
lista de colas 1 cola 3 recuento de bytes 1000

Además, puede establecer tamaños de cola en lotes.
lista de colas 1 cola 1 límite 50
lista de cola 1 cola 2 límite 50
lista de colas 1 cola 3 límite 50

2. Vinculación a la interfaz
!
interfaz FastEthernet0/0
dirección IP 192.168.0.2 255.255.255.0
velocidad 100
dúplex completo
lista de cola personalizada 1
sin habilitación de cdp
!

3. Ver resultado
#sh cola personalizada

Configuración de cola personalizada actual:

Lista Cola argumentos - 1 3 por defecto - 1 1 protocolo ip lista 110 1 2 protocolo ip lista 120 1 1 recuento de bytes 1000 - 1 2 recuento de bytes 1000 - 1 3 recuento de bytes 2000 -

#sh interfaz FastEthernet0/0

Estrategia de cola: lista personalizada 1

#sh interfaz de cola fastEthernet 0/0
Interfaz FastEthernet0/0 estrategia de cola: personalizada

Utilización de la cola de salida (cola/recuento)
0/90 1/0 2/364 3/0 4/0 5/0 6/0 7/0 8/0
9/0 10/0 11/0 12/0 13/0 14/0 15/0 16/0

3.2.3.4. WFQ. Colas justas ponderadas.

Las colas justas ponderadas (WFQ) dividen automáticamente el tráfico en flujos. De forma predeterminada, su número es 256, pero se puede cambiar (parámetro de colas dinámicas en el comando fair-queue). Si hay más subprocesos que colas, se colocan varios subprocesos en una cola. La membresía (clasificación) del flujo de un paquete se determina en función de los TOS, el protocolo, la dirección IP de origen, la dirección IP de destino, el puerto de origen y el puerto de destino. Cada hilo utiliza una cola separada.

El controlador (programador) WFQ proporciona una división justa del ancho de banda entre los subprocesos existentes. Para ello, el ancho de banda disponible se divide por el número de subprocesos y cada uno recibe una parte igual. Además, cada hilo recibe su propio peso, con un determinado coeficiente inversamente proporcional a la prioridad de IP (TOS). El manipulador también tiene en cuenta el peso del hilo.

Como resultado, WFQ distribuye automáticamente y de manera justa el ancho de banda disponible, teniendo en cuenta además los TOS. Los flujos con las mismas prioridades de IP TOS recibirán partes iguales de ancho de banda; fluye con alta prioridad IP: una mayor proporción del ancho de banda. En caso de sobrecargas, los subprocesos de alta prioridad descargados funcionan sin cambios, y los subprocesos de baja prioridad y alta carga están limitados.

RSVP trabaja junto con WFQ. De forma predeterminada, WFQ está habilitado en interfaces de baja velocidad.

Algoritmo de configuración.
1. Marcamos el tráfico de alguna manera (establecemos prioridad de IP - TOS) o lo recibimos marcado

2. Habilite WFQ en la interfaz
interfaz FastEthernet0/0
cola justa

interfaz FastEthernet0/0
cola justa CONGESTIVE_DISCARD_THRESHOLD DYNAMIC_QUEUES

Parámetros:
CONGESTIVE_DISCARD_THRESHOLD: la cantidad de paquetes en cada cola; si se excede, los paquetes se ignoran (predeterminado: 64)
DYNAMIC_QUEUES: número de subcolas en las que se clasifica el tráfico (predeterminado: 256)

3. Ver el resultado
#sh feria de colas
# sh interfaz de cola FastEthernet0/0

3.2.3.5. CBWFQ.

Las colas justas ponderadas basadas en clases (CBWFQ) corresponden a un mecanismo de colas basado en clases. Todo el tráfico se divide en 64 clases según los siguientes parámetros: interfaz de entrada, lista de acceso, protocolo, valor DSCP, etiqueta MPLS calidad de servicio

El ancho de banda total de la interfaz de salida se distribuye entre clases. El ancho de banda asignado a cada clase se puede determinar de la siguiente manera: valor absoluto(ancho de banda en kbit/s) o como porcentaje (porcentaje de ancho de banda) en relación con el valor establecido en la interfaz.

Los paquetes que no pertenecen a las clases configuradas terminan en una clase predeterminada, que se puede configurar más y que recibe el ancho de banda de canal libre restante. Si la cola de cualquier clase está llena, los paquetes de esa clase se ignoran. Se puede seleccionar el algoritmo para rechazar paquetes dentro de cada clase: la eliminación normal está habilitada de forma predeterminada (caída de cola, parámetro de límite de cola) o WRED (parámetro de detección aleatoria). Solo para la clase predeterminada puede habilitar la división de franjas uniforme (justa) (parámetro de cola justa).

CBWFQ admite la interoperabilidad con RSVP.

Parámetros de comando.

Criterios para seleccionar paquetes por clase:
mapa-de-clase combinar-todo CLASE
coincidir con el grupo de acceso
coincidir con la interfaz de entrada
protocolo de partido
coincidir con ip dscp
coincidir con ip rtp
emparejar mpls experimental

definición de clase:

clase CLASE
ancho de banda ANCHO DE BANDA
límite de cola LÍMITE DE COLA
detección aleatoria

definición de clase predeterminada:

clase clase predeterminada
ancho de banda ANCHO DE BANDA
porcentaje de ancho de banda BANDWIDTH_PERCENT
límite de cola LÍMITE DE COLA
detección aleatoria
cola justa

designaciones:
CLASE – nombre de la clase.
ANCHO DE BANDA – banda mínima de kbit/s, el valor es independiente del ancho de banda de la interfaz.
BANDWIDTH_PERCENT: porcentaje de ancho de banda en la interfaz.
QUEUE-LIMIT: número máximo de paquetes en la cola.
detección aleatoria: utilice WRED.
cola justa: división uniforme de la franja, solo para la clase predeterminada

De forma predeterminada, el valor absoluto de ancho de banda en la clase CBWFQ no puede exceder el 75% del valor de ancho de banda en la interfaz. Esto se puede cambiar con el comando max-reserved-bandwidth en la interfaz.

Algoritmo de configuración.

1. Distribución de paquetes por clase - class-map

mapa-clase-combinar-todos Clase1
coincidir con el grupo de acceso 101

2. Descripción de las reglas para cada clase - mapa de políticas
mapa de políticas Política1
clase clase1
ancho de banda 100
límite de cola 20
clase clase predeterminada
ancho de banda 50
detección aleatoria

3. Inicie la política especificada en la interfaz: política de servicio
interfaz FastEthernet0/0
ancho de banda 256

4. Ver el resultado
#sh clase Clase1
#sh política Política1
#sh interfaz de política FastEthernet0/0

Ejemplo 1.

División del ancho de banda total por clase en porcentaje (40, 30, 20).
lista de acceso 101 permiso ip host 192.168.0.10 cualquiera
lista de acceso 102 permitir ip host 192.168.0.20 cualquiera
lista de acceso 103 permiso ip host 192.168.0.30 cualquiera

mapa-de-clase-combinación-todo-platino
coincidir con el grupo de acceso 101
mapa-de-clase-combina-todo-oro
coincidir con el grupo de acceso 102
mapa-clase-combina-todo Plata
coincidir con el grupo de acceso 103

mapa de políticas Isp
clase platino
porcentaje de ancho de banda 40
clase oro
porcentaje de ancho de banda 30
clase plata
porcentaje de ancho de banda 20

interfaz FastEthernet0/0
ancho de banda 256
Isp de salida de política de servicio

3.2.3.6. LLQ.

Cola de baja latencia (LLQ): cola de baja latencia. LLQ puede considerarse como un mecanismo CBWFQ con una cola de prioridad PQ (LLQ = PQ + CBWFQ).
PQ en LLQ permite el servicio de tráfico sensible a la latencia. Se recomienda LLQ cuando hay tráfico de voz (VoIP). Además, funciona bien con videoconferencias.

Algoritmo de configuración.

1. Distribución de paquetes por clase - Class-map
lista de acceso 101 permitir ip cualquier precedencia crítica

mapa-clase-combinar-todos Voz
coincidir con la precedencia de ip 6
mapa-clase-combinar-todos Clase1
coincidir con el grupo de acceso 101

2. Descripción de las reglas para cada clase - Policy-map

Similar al CBWFQ, solo para la clase de prioridad (solo hay una) se especifica el parámetro de prioridad.
mapa de políticas Política1
voz de clase
prioridad 1000
clase clase1
ancho de banda 100
límite de cola 20
clase clase predeterminada
ancho de banda 50
detección aleatoria

3. Inicie la política especificada en la interfaz - Política de servicio
interfaz FastEthernet0/0
ancho de banda 256
salida de la política de servicio Política1

Ejemplo 1.
Asignamos la clase de Voz a PQ y todo lo demás a CQWFQ.
!
mapa de clases coincide con cualquier voz
coincidir con la precedencia de ip 5
!
mapa de políticas Voz
voz de clase
prioridad 1000
VPN de clase
porcentaje de ancho de banda 50
clase clase predeterminada
cola justa 16
!
interfaz X
Salida de política de servicio Voz
!

Ejemplo 2.
Además limitamos velocidad general de PQ a LLQ para que no monopolice todo el canal en caso de funcionamiento incorrecto.
!
mapa de clases coincide con cualquier voz
coincidir con la precedencia de ip 5
!
mapa de políticas Voz
voz de clase
prioridad 1000
policía 1024000 32000 32000 acción conforme transmitir caída de acción excedente
VPN de clase
porcentaje de ancho de banda 50
clase clase predeterminada
cola justa 16
!
interfaz FastEthernet0/0
salida de política de servicio Voz
!

« Cos» es una tecnología que garantiza que las preferencias se asignen a los de alta prioridad tráfico de red, dispositivo o aplicación crítica necesaria para el funcionamiento de teléfonos IP, videoconferencias, transmisión de video, aplicaciones CITRIX, telefonía VoIP y tráfico similar sensible a demoras.
En pocas palabras, con su ayuda, aplicaciones como Skype, un reproductor multimedia en red (VLC-Player de algún tipo), colectivo juegos en línea, podrá obtener suficiente ancho de banda (velocidad) en cualquier nivel de carga del canal de Internet, sin ser "estúpido" ni "retrasado".


Vídeo: Conceptos básicos de Qos, cómo funciona.

QoS opera con algunos parámetros de transferencia de datos, estos son los principales:
Ancho de banda Ancho de banda, o ( B.W.). Este parámetro determina el ancho del canal y describe el rendimiento nominal del medio de transmisión. Se puede medir en: Bit/seg (bps), Kbit/seg (kbps), Mbit/seg (mbps).
Demora: describe la cantidad de posible retraso en la transmisión de un paquete a través de la red.
Estar nervioso: fluctuaciones (rango de posibles retrasos) durante la transmisión de paquetes de red.
Pérdida de paquetes: Este parámetro especifica la cantidad de paquetes que se descartan durante la transmisión.

MÉTODOS DE IMPLEMENTACIÓN en una red informática.

La tecnología QoS se puede proporcionar de varias maneras. Cada método tiene sus propias características, ventajas y desventajas. Echemos un vistazo más de cerca.
1) Reserva. La esencia del método de reserva de recursos de red está contenida en su nombre. Inmediatamente antes de la transmisión de información, se solicita y reserva el ancho de banda requerido por la aplicación. Implementado a través de tecnología de servicio integrado IntServ junto con el protocolo Confirmar asistencia.
2) Priorización. El tráfico se divide en clases de diferentes prioridades. Algunas clases, como las de vídeo, tienen prioridad sobre las de voz. La tecnología se implementa a través de un servicio diferenciado. DiffServ.
3) Desvío. El mecanismo reenvía el tráfico a lo largo de la ruta de respaldo cuando la principal está sobrecargada.

Quizás también te interese el siguiente material. Cómo funciona la priorización en redes inalámbricas.

vistas globales de Qos

NIVEL 2

CoS (Clase de servicio): tecnología de segundo nivel, un esquema de marcado simple implementado a través del protocolo 802 1P. Para implementar esta tecnología, es necesario utilizar el protocolo 802 1Q (TRUNK + VLAN), después del cual será posible activar CoS a través de 802_1P. El estándar 802_1P etiqueta las tramas Ethernet de capa 2 con un campo CoS de tres bits que va de 0 a 7.
El método es compatible con conmutadores Cisco económicos, como el Catalyst Express Serie 500 y los conmutadores Catalysts 2900 más antiguos. Este tipo de priorización se utiliza dentro de la red local en el segundo nivel del modelo OSI y no se extiende más allá de la LAN. Para que QoS Layer 2 funcione correctamente, su soporte debe estar habilitado y configurado en todos los conmutadores de la red.

Clasificación y señalización del tráfico en el tercer nivel.

Se puede llamar Qos de tercer nivel ToS (de Tipo de servicio). El equipo de enrutamiento funciona con paquetes IP (Capa 3), en cuyo encabezado objetivos de priorización se asigna un campo especial: "TOS" con un volumen de un byte. El campo se puede completar con diferentes clasificadores.
1) Tres bits PPI(PRECEDENCIA IP) puede tomar valores 0-7.
2) Seis bits DSCP(modelo: DiffServ) es más flexible, le permite establecer el valor de 0 a 63.
Se utiliza para priorizar el tráfico IP (capa tres de OSI); configurado en los enrutadores. Compatible con todos los modelos de enrutadores Cisco Systems, incluida la económica serie Cisco ISR 870, el CoS de nivel 3 puede utilizar dos esquemas de marcado de paquetes. Precedencia del protocolo de Internet— un sistema de priorización simple. En él, el encabezado del paquete IP está marcado con valores del 0 al 7.
Ip Dscp (punto de código de servicios diferenciados): priorización diferenciada profunda con un punto de partida. Le permite configurar prioridades de manera más flexible para las necesidades de una red convergente.

¿Qué redes necesitan QoS de manera crítica?

El soporte total para la "calidad de servicio" es necesario al diseñar redes corporativas convergentes multiservicio, donde se planea transportar tráfico crítico de voz y video a lo largo del canal junto con datos. La necesidad de una implementación correcta de QoS surge de manera especialmente aguda cuando se ejecuta tráfico convergente en un enrutador a través de canales WAN de capacidad limitada (DSL, ISDN, E-3), como opción, durante el intercambio entre oficinas en redes VPN entre oficinas remotas.

O si la organización tiene un proveedor a través del cual las estaciones de trabajo de los clientes acceden a Internet; y a través de él se realiza el reenvío de puertos a la Web interna y servidores de correo desde Internet. En tal situación, es necesario configurar el servicio de calidad del servicio para poder emitir mayor prioridad conexiones entrantes, y si hay varios servidores internos, distribuya correctamente las prioridades entre ellos.

¿Qué dispositivos admiten QoS y en qué medida?

Los teléfonos IP de Cisco requieren soporte integral KoSa (IPDSCP). Aunque existen modelos (Cisco 7920) que admiten un conjunto básico de parámetros “QBSS”, lo que puede resultar en una versatilidad y flexibilidad reducidas al operar este dispositivo en un entorno de red complejo.




Arriba