Historia y tendencias en el desarrollo de la tecnología informática. Tendencias en el desarrollo de receptores de radio.

12.5. TENDENCIAS EN EL DESARROLLO DE EQUIPOS DE MEDICIÓN ELÉCTRICA

El uso de los avances de la microelectrónica y la tecnología informática en la tecnología de medición eléctrica determina actualmente una de las principales tendencias en su desarrollo, que se caracteriza por la informatización de los instrumentos de medición. Consideremos las formas características de manifestación de esta tendencia.

En primer lugar, se manifiesta en la paulatina sustitución de los instrumentos de medida analógicos por digitales, que, a su vez, son cada vez más universales e “inteligentes”.

Como ejemplo, consideremos las etapas de desarrollo de la producción de osciloscopios en Hewlett-Packard, uno de los líderes en este campo. La empresa lanzó sus primeros osciloscopios de tubo HP130A y HP150A en 1956, y el primer semiconductor (HP180A) en 1966. En los años 80, esta y otras empresas habían producido una gran cantidad de osciloscopios analógicos para diversos fines, y muchos de ellos tenían excelentes características técnicas. Sin embargo, ya en 1980, Hewlett-Packard llegó a la conclusión de que la tecnología digital podría ofrecer una solución mejor y más económica al problema de grabar, visualizar y procesar señales analógicas, y desde 1986 dejó de producir osciloscopios analógicos y los reemplazó por digitales. . En 1992, la empresa ya producía toda una serie de osciloscopios digitales; Esta serie modular 54700 incluye, entre otras cosas, la unidad enchufable 54721 A con un ancho de banda de 1 GHz y una velocidad de muestreo de 4 GS/s.

Un proceso similar tuvo lugar en la empresa Gold (Gould, EE. UU.). La empresa lanzó su primer osciloscopio digital en 1975 y en 1988 dejó de producir analógicos. En 1992, la empresa produjo 15 modelos de osciloscopios digitales con un ancho de banda de 7 a 200 MHz y una frecuencia de muestreo de 0,02 a 1,6 muestras/s.

Si bien la resolución de 8 bits es suficiente para la observación visual de los procesos en estudio, a menudo esto no es suficiente para análisis más complejos y precisos. Por lo tanto, se trabaja constantemente para mejorar la precisión de los osciloscopios digitales. Por ejemplo, la empresa "Nicole Instrument Corp." (Nicolet Instrument Corp., EE. UU.) ofrece osciloscopios de la serie 400 con una resolución vertical de 14 bits, que, por supuesto, es inalcanzable para los osciloscopios analógicos.

Los osciloscopios digitales no sólo reemplazaron a los analógicos, sino que también brindaron a los consumidores nuevas capacidades relacionadas con la capacidad de los nuevos instrumentos para almacenar, generar, procesar y comparar parámetros de señales observadas. Los osciloscopios digitales modernos realizan una variedad de funciones de análisis de señales, incluido el análisis de espectro mediante algoritmos rápidos de transformada de Fourier. Es posible que tengan una impresora o un trazador incorporado, lo que le permitirá obtener una copia impresa del protocolo o cronograma. La presencia de nodos de interfaz estándar le permite conectar un osciloscopio digital a una computadora personal y a una red informática; Además, él mismo tiene las capacidades de una computadora pequeña. Las empresas japonesas Hioki (modelo 8850) y Yokogawa (modelos 3655 y 3656) estuvieron entre las primeras en producir este tipo de osciloscopios.

Tomando como ejemplo los osciloscopios digitales, se puede rastrear una de las tendencias en la informatización de los equipos de medición eléctrica. Se están creando nuevos instrumentos de medición con procesamiento digital de señales de información de medición y la capacidad de construir sobre su base sistemas de medición e informática para diversos fines. Estos instrumentos y sistemas de medida incorporan elementos de tecnología informática que proporcionan procesamiento digital de señales, autodiagnóstico, corrección de errores, comunicación con dispositivos externos, etc.

Otra dirección está asociada con la aparición a principios de los años 80 y el uso generalizado de las computadoras personales (IBM PC y otras). Si un consumidor tiene una computadora de este tipo, entonces en realidad tiene muchos componentes de un instrumento de medición por computadora: un dispositivo informático, una pantalla, un dispositivo de control, una carcasa, fuentes de alimentación, etc. Lo único que falta son los dispositivos para ingresar información de medición en la computadora (convertidores de medida analógicos, dispositivos de separación galvánica, escalado, normalización y linealización, ADC, etc.), su preprocesamiento (si se desea liberar la computadora de este trabajo) y software especial.

Por lo tanto, en los años 80, los dispositivos para ingresar información de medición analógica en computadoras personales (PC) comenzaron a producirse en masa en forma de placas integradas en PC cruzadas, en forma de conjuntos de módulos integrados en una carcasa común (cuna). de chasis de PC ampliable, o en forma de módulos funcionales independientes conectados a un PC mediante conectores externos.

El preprocesamiento eficaz de la información en este tipo de dispositivos fue posible con la aparición de circuitos integrados especializados a gran escala: los procesadores de señales digitales (DSP). Los primeros DSP de un solo chip fueron lanzados en 1980 por la empresa japonesa NISi Corp. (NEC Corp.), desde 1983, Fujitsu (Japón) y Texas Instruments (EE.UU.) comenzaron a producir productos similares; posteriormente se les unieron Analogue Devices (EE.UU.), Motorola (Motorola, EE.UU.), etc.

Es necesario tener en cuenta al menos dos características de los instrumentos de medición por computadora. En primer lugar, se pueden adaptar muy fácilmente para medir diversas cantidades; por lo tanto, sobre esta base se construyen instrumentos de medición universales. En segundo lugar, una parte cada vez mayor de su costo la ocupa el costo del software, lo que libera al consumidor de realizar muchas operaciones de rutina y le crea la máxima comodidad para resolver problemas básicos de medición.

Un ejemplo son los llamados instrumentos de medición virtuales. En ellos se genera mediante programación una imagen del panel frontal del dispositivo de medición en la pantalla del PC. En realidad, este panel no existe físicamente y el dispositivo en sí consta, por ejemplo, de un PC y un tablero de medición integrado. Sin embargo, el consumidor tiene la completa ilusión de trabajar con un dispositivo convencional: puede presionar las teclas de control, seleccionar el rango de medición, el modo de funcionamiento, etc., y finalmente obtener el resultado de la medición.

Una mayor microminiaturización de los componentes electrónicos condujo, a partir de los años 80, al desarrollo de otra dirección en la informatización de los instrumentos de medición: la creación no sólo de dispositivos y sistemas "inteligentes", sino también de sensores "inteligentes".

Un sensor de este tipo contiene no sólo un elemento sensible, sino también un dispositivo electrónico complejo que consta de convertidores analógicos y de analógico a digital, así como dispositivos de microprocesador con el software adecuado. El diseño del sensor "inteligente" permite instalarlo muy cerca del objeto de investigación y realizar uno u otro procesamiento de la información de medición. Al mismo tiempo, la información se transmite al centro de recopilación de datos, que puede estar ubicado a una distancia considerable del objeto, utilizando señales con alta inmunidad al ruido, lo que aumenta la precisión de las mediciones.

Como ejemplo, consideremos las capacidades técnicas de un sensor de presión absoluta "inteligente" producido por la empresa japonesa Fuji (FUJI, modelo FKA), que permite medir la presión de líquido, gas o vapor en el rango de 0,16 a 30 bar con un error. de no más del 0, 2% en el rango de temperatura de funcionamiento de -40 a + 85°C. Consiste en un elemento sensor capacitivo y un dispositivo electrónico montado en una caja de acero del tamaño de una caja de cerillas. Está alimentado por una fuente externa de CC con un voltaje de 11 a 45 V, que puede ubicarse a varios kilómetros del sensor en el centro de recolección de datos. La información de medición se transmite a través de los cables de la fuente de alimentación (sensor de dos cables) en forma analógica: corriente continua de 4 a 20 mA, así como una señal digital superpuesta a la analógica.

El sensor se puede convertir fácilmente en un dispositivo de medición instalando en él una pantalla de cristal líquido digital de cuatro dígitos o un milivoltímetro analógico. Estos sensores pueden controlarse mediante mandos a distancia especiales e integrarse en un sistema de medición. Cada sensor realiza autodiagnóstico, linealización de la función de conversión, escalado, configuración del rango de medición, compensación de temperatura, etc.

Junto con la informatización de los equipos de medición eléctrica, se está desarrollando intensamente su soporte metrológico y la industria dispone de estándares de alta precisión. Por ejemplo, en 1982, la empresa Fluke (EE. UU.) lanzó un calibrador de voltaje para probar multímetros de 6,5 y 7,5 dígitos. Este dispositivo (modelo 5440A), construido sobre la base de un DAC con modulación de ancho de pulso, proporciona un error relativo de no más del 0,0004% cuando se trabaja directamente en el taller.

Para la construcción de instrumentos de medición modernos con las más altas características metrológicas, incluidos los estándares de voltios y amperios, es crucial el uso de los efectos cuánticos de B. Josephson y Hall.

El efecto B. Josephson fue predicho en 1962 por el físico inglés B. Josephson y descubierto experimentalmente en 1963 por los físicos estadounidenses P. Anderson y J. Rowell. Una de las manifestaciones de este efecto es la siguiente. Cuando un contacto de B. Josephson, una fina capa de dieléctrico entre dos superconductores, se irradia con un campo electromagnético de alta frecuencia, aparecen sobretensiones proporcionales a la frecuencia en la característica corriente-voltaje de dicho contacto. La alta precisión de la reproducción de sobretensiones en los contactos de B. Josephson hizo posible en los años 80 construir estándares de voltios con errores de no más del 0,0001%.

El uso del efecto B. Josephson y el fenómeno de la cuantificación del campo magnético en superconductores simplemente conectados llevaron a la creación de dispositivos de interferencia cuántica superconductores extremadamente sensibles: los SQUID, que miden los flujos magnéticos. El uso de convertidores de medida de diversas cantidades físicas en flujos magnéticos ha permitido crear, a partir de SQUID, instrumentos y dispositivos de medida para diversos fines con una sensibilidad récord: galvanómetros, comparadores, termómetros, magnetómetros, gradiómetros, amplificadores. Sobre la base del efecto B. Josephson, se construyen otros dispositivos que se utilizan para procesar información de medición, por ejemplo, ADC y procesadores de señales digitales con frecuencias de reloj superiores a 10 GHz.

El efecto Hall cuántico fue descubierto en 1980 por K. von Klitzing (Alemania). El efecto se observa a bajas temperaturas (aproximadamente 1 K) y aparece como una sección horizontal en el gráfico de la dependencia de la resistencia Hall de los sensores Hall semiconductores de la inducción magnética. El error en la resistencia correspondiente a este apartado no supera el 0,00001%. Esto hizo posible utilizar el efecto Hall cuántico para crear estándares de resistencia eléctrica.

El uso de efectos cuánticos por parte de B. Josephson y Hall permitió desarrollar estándares para la corriente eléctrica continua que superan en precisión los estándares basados ​​en balanzas de corriente, que se utilizaron durante casi toda la segunda mitad del siglo XX. En nuestro país, desde 1992 se ha introducido un nuevo estándar primario estatal. Reproduce amperios con un error de no más del 0,00002% (las escalas actuales proporcionaban un error de no más del 0,0008%).

Los efectos considerados aparecen a bajas temperaturas, lo que constituye el principal obstáculo para su uso generalizado. Sin embargo, el descubrimiento de los superconductores de alta temperatura en 1986 permite esperar la creación de instrumentos de medición construidos sobre circuitos integrados y que funcionen a temperaturas de aproximadamente 100 K. Este sería un nuevo salto cualitativo en el desarrollo de la tecnología de medición eléctrica.

REFERENCIAS

12.1. Depre M. Acerca de un galvanómetro, cuyas lecturas son proporcionales a la corriente // Electricidad. 1884. Núm. 24.

12.2. Chatelain M. Contadores de electricidad // Electricidad. 1893. N° 20.

12.3. Gerard Eric. Curso de electricidad. T. 1. San Petersburgo, 1896.

12.4. Chernyshev A. Métodos para medir altos voltajes y un nuevo voltímetro absoluto de alto voltaje // Electricidad. 1910. Núm. 15.

12.5. Feringer A.B. Los últimos instrumentos de medición (revisión) // Electricidad. 1912. No. 1.

12.6. Malikov M.F. Unidades eléctricas básicas en su estado actual // Electricidad. 1924. No. 3.

12.7. Grun K. Instrumentos de medida eléctricos. M.: Gostekhizdat, 1927.

12.8. Bandenburger V.I. Telemedidas eléctricas // Electricidad. 1931. Núm. 17.

12.9. Shumilovsky N.N. Contadores eléctricos: teoría, cálculo, diseño. L.: Kubuch, 1932.

12.10. Stekolnikov I.S. Osciloscopio catódico para fotografía de contacto // Electricidad. 1933. Núm. 12.

12.11. Gorodetsky S.S. Mediciones de alto voltaje. M.-L.: Energoizdat, 1934.

12.12. Diseños de instrumentos de medida eléctricos / Ed. N.N. Ponomareva. L. - M.: Energoizdat, 1935.

12.13. Keinat G. Equipo eléctrico. T. 1. L.: Instituto Industrial de Leningrado, 1935.

12.14. Keykat G. Equipo eléctrico. T.2. L.: Instituto Industrial de Leningrado, 1937.

12.15. Kuznetsov B.G. Historia de la tecnología energética. M.: Gostekhizdat, 1937.

12.16. Medidas eléctricas y magnéticas / Ed. P.EJ. Shrámková. M.-L.: ONTI, 1937.

12.17. Temnikov F.E., Kharchenko P.P. Mediciones eléctricas de cantidades no eléctricas. M.-L.: Gosenergoizdat, 1948.

12.18. Shkurin G.P. Instrumentos de medida eléctricos: Catálogo de directorio M.: Mashgiz, 1948.

12.19.Turichin A.M. Mediciones eléctricas de cantidades no eléctricas. M.-L.: Gosenergoizdat, 1951.

12.20. Karandev K.B. Métodos de medidas eléctricas. M.-L.: Gosenergoizdat, 1952.

21.12. Belkind L.D., Confederatov I.Ya., Shneiberg Ya.A. Historia de la tecnología. M.: Gosenergoizdat, 1956.

22.12. Historia de la tecnología energética de la URSS. T.2. Electrotecnia. M.: Gosenergoizdat, 1957.

23.12.Veselovsky O.N. Mijail Osipovich Dolivo-Dobrovolsky. M.: Gosenergoizdat, 1958.

24.12. Historia de la ingeniería energética / L.D. Belkind, O.N. Veselovsky, I.Ya. Confederados, Ya.A. Schneiberg. M.: Gosenergoizdat, 1960.

12.25. Temnikov F.E. Teoría del despliegue de sistemas. M.-L.: Gosenergoizdat, 1963.

12.26. Veselovsky O.N., Shneyberg Ya.A. La tecnología energética y su desarrollo. M.: Escuela Superior, 1976.

12.27. Steele R. Principios de la modulación delta. Moscú: Sviaz, 1979.

28.12. Arutyunov V.O. Trabajos seleccionados en el campo de las mediciones eléctricas, teoría y cuestiones aplicadas de la metrología. M.: Editorial de Normas, 1979.

29.12. Barone A., efecto Paterno D. Josephson: física y aplicaciones. M.: Mir, 1984.

12.30. Siebert W.M. Circuitos, señales, sistemas. Parte 1.M.: Mir, 1988.

12.31. Electrónica: Diccionario enciclopédico / Cap. ed. V.G. Kolesnikov. M.: Sov. enciclopedia, 1991.

12.32. La magia de los circuitos analógicos // Electrónica (traducción al ruso). 1993. N° 11/12.

12.33. Wheeler R. Pruebas y mediciones durante 40 años // Electrónica (traducción rusa). 1993. N° 11/12.

12.34. Veselovsky O.N., Shneyberg Ya.A. Ensayos sobre la historia de la ingeniería eléctrica. M.: Editorial MPEI, 1993.

12.35. Gerasimov V.G., Orlov I.N., Filippov L.I. Del conocimiento a la creatividad. M.: Editorial MPEI, 1995.

Del libro Coche de alta frecuencia. autor Babat Georgy

VICTORIA DE LA TECNOLOGÍA SOVIÉTICA En los viejos tiempos, un inventor solitario podía crear algo nuevo. La máquina de vapor fue inventada y construida por Polzunov. En una mina lejana, Cherepanov inventó y construyó una locomotora de vapor. El inventor Capitán Mozhaisky creó un avión. Y Mozhaisky, Polzunov y.

Del libro Instrumentación. autor Babaev M A

56. Requisitos previos para el desarrollo exitoso de la fabricación de instrumentos domésticos modernos. Principales tendencias en el desarrollo de la ingeniería de instrumentos Hace apenas 20 años sólo se podía soñar con el nivel moderno de informatización en el país, hoy todo esto es una realidad; En relación con todos estos

Del libro Metalurgia autor Korshever Natalya Gavrílovna

Técnicas para el procesamiento de metales decorativos Esta parte del libro presenta las técnicas básicas para el procesamiento de metales decorativos. En la antigüedad, muchos herreros dominaban una rica gama de técnicas y creaban maravillosas obras de arte dignas de la corte real. Es por eso

Del libro Certificación de sistemas técnicos complejos. autor Vladimir Smírnov

4.3. Certificación de calidad de equipos de aviación 4.3.1. Estándares de Aeronavegabilidad La Organización de Aviación Civil Internacional (OACI), uno de cuyos principales objetivos es garantizar la seguridad de la aviación, ha establecido que los países miembros de la OACI deben emitir

Del libro Autoinvasión de la URSS. Coches trofeo y de préstamo y arrendamiento autor Sokolov Mijaíl Vladímirovich

En la exposición de equipos capturados Para tener una mejor idea del ambiente de estos espectáculos, presentamos extractos de un artículo del famoso diseñador de automóviles nacional Yu A. Dolmatovsky, que visitó la reunión de la capital en ese momento: “Esta exposición es. no como un internacional

Del libro Robots hoy y mañana. autor Reinhard Höttner

Tendencias de desarrollo Dado que el desarrollo, la producción y el uso de robots industriales progresan rápida y dinámicamente, en el futuro resultará difícil generalizar los resultados del trabajo científico y técnico internacional, respectivamente nacional. La dinámica de estos

Del libro 100 grandes logros en el mundo de la tecnología. autor Zigunenko Stanislav Nikolaevich

Los milagros del equipamiento militar Todo el mundo sabe que luchar es malo. Y más aún pelear. Sin embargo, a lo largo de toda su historia, los pueblos no han hecho más que luchar entre sí y las mejores ideas e inventos se han utilizado principalmente en la guerra.

Del libro Perfección de la tecnología. autor Jünger Friedrich Georg

LIBRO UNO LA PERFECCIÓN DE LA TECNOLOGÍA Lema: Hay un lugar para todo, pero para cada cosa hay el suyo. Inscripción en el almacén de herramientas 1 Las obras del género de la utopía técnica, como muestra la observación, no son infrecuentes en la literatura y, por el contrario, hay muchísimas y los lectores las demandan.

Del libro El arte de tejer a mano. autor Tsvetkova Natalya Nikolaevna

¿HAY LÍMITES A LA “PERFECCIÓN TÉCNICA”? Esta edición incluye dos obras de Friedrich Georg Jünger (1898–1977): “Perfección de la tecnología” y “Máquina y propiedad”. Los une un tema: la tecnología. Por lo tanto, obedecer la hipnosis de los académicos establecidos.

Del libro Nanotecnología [Ciencia, Innovación y Oportunidad] por Foster Lynn

1.4 Técnicas de tejido tradicionales La evolución de los telares ha contribuido al desarrollo de diversas técnicas de tejido manual. Uno de los métodos más antiguos de producir tejidos ornamentados es el llamado tejido "hipotecario". Era conocido en la Antigüedad.

Del libro Historia de la ingeniería eléctrica. autor equipo de autores

16.2. Tendencias en los métodos de administración de medicamentos La nanotecnología juega un papel importante en el desarrollo de métodos para administrar y administrar medicamentos dentro del cuerpo, especialmente para moléculas pequeñas y moléculas de proteínas. Actualmente se están llevando a cabo avances muy interesantes en los métodos de entrada.

Del libro Reglamento técnico sobre requisitos de seguridad contra incendios. Ley Federal No. 123-FZ de 22 de julio de 2008 autor equipo de autores

4.14. INFLUENCIA DE LA INGENIERÍA INFORMÁTICA EN EL DESARROLLO DE FC Para crear nuevos dispositivos utilizando sus modelos matemáticos, es importante poder representar las características cuantitativas que determinan los procesos estudiados del nuevo dispositivo en la forma

Del libro Metrología muy general. autor Ashkinazi Leonid Alexandrovich

11.4.4. DESARROLLO DE LA INGENIERÍA DE LA INFORMACIÓN DE SEMICONDUCTOR La creación de los transistores en los años 50 marcó el comienzo del desarrollo de la tecnología de la información de semiconductores. El primer transistor punto-punto doméstico tenía propiedades amplificadoras, pero grandes tecnológicas.

Del libro Hornos microondas de nueva generación [Dispositivo, diagnóstico de fallas, reparación] autor Kashkarov Andrey Petrovich

Del libro del autor.

Estándares para la física y la tecnología Estándar de longitud Al principio, los estándares eran naturales, por ejemplo, el estándar de longitud era, tal vez, el cinturón del rey Carlos tal o cual. Entonces el rey se corroyó un poco y la economía se volvió loca. Por lo tanto, tomamos la longitud de un péndulo con un período determinado (vinculándolo a

Del libro del autor.

3.7. Tendencias de desarrollo y nuevas tecnologías La producción de hornos microondas está asociada al continuo desarrollo del pensamiento creativo, al uso de nuevas tecnologías, entre las que, en primer lugar, cabe destacar la invención y uso de sistemas de recubrimiento biocerámicos.

Los DFS modernos deben ser universales, aceptar todo tipo de datos de varios dispositivos para su procesamiento, proporcionando el resultado con una amplia gama de productos para cartografía, SIG y sistemas de modelado 3D. Una característica importante de DFS es el soporte operativo de nuevos tipos de sensores, principalmente espaciales.

A.Yu. Sechín(JSC "Rakurs")

El desarrollo de la fotogrametría digital está determinado principalmente por el nivel de desarrollo tecnológico. La velocidad de las computadoras modernas permite resolver rápidamente problemas que antes requerían mucho tiempo. Se están mejorando los sensores de los sistemas de teledetección, aparecen nuevas cámaras, instrumentos y dispositivos digitales y se mejoran las características de los existentes. Aumenta el número posible de imágenes en bloques para el ajuste articular. Los requisitos para los productos de salida de las estaciones fotogramétricas digitales (DPS) son cada vez mayores; los usuarios solicitan no sólo ortomosaicos tradicionales y datos vectoriales para SIG, sino también modelos tridimensionales completos como resultado del procesamiento de datos de teledetección. Según el autor, los sistemas digitales modernos deben ser universales, aceptar todo tipo de datos de diversos dispositivos para su procesamiento y proporcionar una amplia gama de productos para cartografía, SIG y sistemas de modelado 3D. Una característica importante de DFS es el soporte operativo de nuevos tipos de sensores, principalmente espaciales.

En los últimos años se ha producido un claro movimiento hacia el uso de cámaras aéreas digitales, que permiten obtener imágenes digitales directamente en vuelo, en lugar de películas. Las etapas de revelado y escaneo de películas pronto serán cosa del pasado. Cuando se utiliza fotografía aérea, tanto los sistemas de marco convencionales (por ejemplo, DMC de Intergraph Corp. (EE. UU.) o UltraСamX de Vexcel Imaging (EE. UU.), parte de Microsoft Corporation) como sensores basados ​​​​en líneas CCD (por ejemplo, ADS-40 de Lieca Geosystems, Suiza), que tiene una geometría de marco y un modelo matemático inusuales para los fotogrametristas. Las cámaras digitales modernas tienen una gran profundidad de color (más de 8 bits por canal), el número de canales registrados simultáneamente está aumentando, además de los tradicionales canales rojo, azul, verde, infrarrojos (zonas cercanas y lejanas). Una mayor profundidad de color le permite distinguir detalles que antes eran inaccesibles a la percepción (por ejemplo, en las sombras). Un DFS moderno debe admitir una cantidad arbitraria de canales con cualquier profundidad de color en la entrada, salida y durante el procesamiento de imágenes. Al trabajar con datos de sensores satelitales, el CFS debería poder procesar imágenes utilizando métodos generalizados (el modelo del sensor está ausente o se conoce en una aproximación aproximada) y teniendo en cuenta los metadatos que lo acompañan, y si hay un modelo estricto disponible, utilícelo. para un procesamiento preciso.


Arroz. 1. Cámaras digitales modernas

El procesamiento de imágenes fotogramétricas implica la mayor precisión de medición de subpíxeles posible. Por lo tanto, los datos ráster que ingresan a la entrada DFS no deben someterse a un procesamiento que reduzca su precisión. Supongamos un conjunto mínimo de algoritmos de preprocesamiento de datos ráster, por ejemplo, pansharpening. Los datos ráster de salida (ortofoto) se pueden someter a varias técnicas de posprocesamiento para mejorar las propiedades visuales. La presencia de módulos de posprocesamiento en el DFS que preservan la georreferenciación de las imágenes es una ventaja indudable del sistema fotogramétrico.

Al tomar fotografías aéreas desde un avión, además de las cámaras digitales, se utilizan cada vez más sistemas de navegación integrales del sistema GPS/IMU, que permiten medir elementos de la orientación externa de las imágenes en vuelo, así como escáneres láser. que aseguran la formación de un modelo de terreno sin procesamiento estéreo de imágenes. La precisión de estos dispositivos aumenta constantemente. Actualmente, si hay un sistema GPS/IMU a bordo y datos del terreno obtenidos mediante tecnología de escaneo láser, es posible construir ortofotomapas con una precisión de 2xGSD (GSD Ground Sample Distance, el tamaño del píxel en el suelo, determina los parámetros de disparo de una cámara digital, similar a la escala de una misión aérea para cámaras analógicas) y mejor sin el ajuste tradicional de fotografías aéreas y la construcción del relieve mediante métodos fotogramétricos.

Si, para lograr la máxima precisión al procesar un bloque de imágenes, es necesario ajustarlo, los sistemas digitales modernos utilizan cada vez más métodos para medir automáticamente los puntos de unión, cuyos resultados, por regla general, requieren un control posterior por parte del operador. En un futuro próximo podemos esperar la aparición de algoritmos más fiables para la colocación automática de puntos y su rechazo durante el ajuste, que no requieren intervención humana.

Si los métodos de construcción de modelos digitales del terreno en los sistemas digitales digitales de las nuevas generaciones están automatizados y requieren sólo simples operaciones de filtrado y, en ocasiones, el trazado de líneas orográficas adicionales por parte del operador, entonces el proceso de vectorización de edificios, carreteras, tramos, etc. todavía se realiza en modo manual. Se trabaja en su automatización desde hace mucho tiempo, el autor espera que en los próximos años aparezcan sistemas fiables que faciliten este arduo trabajo.

Desde un punto de vista computacional, el proceso más laborioso en DFS es la construcción de ortofotomapas. Para bloques grandes (varios miles de imágenes), el tiempo necesario para la ortofototransformación en una computadora puede ser de decenas o cientos de horas. Con el desarrollo de sistemas informáticos multiprocesadores y redes de área local rápidas, el proceso de ortofototransformación se puede distribuir entre computadoras y procesadores (núcleos) de redes locales. La buena escalabilidad y la capacidad de procesar en paralelo cantidades significativas de datos en una red local son características de un DFS moderno. Con el aumento del tamaño de los bloques procesados ​​y los volúmenes de datos, aumenta el papel de los servidores de almacenamiento de datos centralizados. Quizás en un futuro próximo aparezcan sistemas con la capacidad de distribuir imágenes e información relacionada, asegurando una asignación automática óptima de los recursos de almacenamiento.

Por supuesto, un DFS moderno debe "comprender" una amplia gama de datos rasterizados, vectoriales y de otro tipo en diferentes formatos. En este caso, los resultados del procesamiento fotogramétrico deben estar disponibles en formatos aceptados por varios sistemas cartográficos y SIG. Recientemente, ha habido una tendencia hacia el uso y visualización de datos tridimensionales obtenidos mediante DFS, principalmente para áreas urbanas. Estos datos son de interés para los servicios municipales, las empresas de telecomunicaciones, los departamentos del Ministerio de Situaciones de Emergencia, los militares y los desarrolladores de sistemas de navegación; en el futuro, podrán utilizarse para construir modelos tridimensionales realistas de las ciudades;

Tengamos en cuenta que los modelos 3D también son necesarios para construir las llamadas ortofotos "verdaderas" en DFS, que, a pesar de la alta intensidad de trabajo de producción y la complejidad computacional, se están generalizando cada vez más.

Una característica importante de DFS es la compatibilidad con hardware de visualización estéreo moderno. Las primeras estaciones fotogramétricas para observaciones estereoscópicas utilizaban dispositivos óptico-mecánicos (accesorios especiales para el monitor) o gafas anaglifo. Posteriormente, aparecieron sistemas que mostraban imágenes en el monitor a través de una línea (entrelazada) e implicaban el uso de gafas polarizadas especiales. En ocasiones, estos sistemas todavía se utilizan, aunque se caracterizan por su baja precisión, un campo de visión estrecho y una baja calidad de imagen. Como regla general, los métodos anaglifo y entrelazado causan una mayor fatiga visual en los operadores y, en nuestra opinión, solo pueden usarse para demostrar las capacidades del DFS y la capacitación inicial para trabajar con el sistema de software. Los métodos modernos para generar imágenes estéreo se basan en tarjetas de video profesionales que admiten el modo estéreo en hardware y la interfaz de programación de aplicaciones (API) OpenGL. En este caso, se pueden utilizar varios dispositivos estéreo: monitores especiales basados ​​​​en pantallas 2xLCD y vidrio polarizado, proyectores estéreo. En este caso, la compatibilidad con nuevas soluciones de hardware para salida estéreo no requiere adaptación del DFS.

Tradicionalmente, los instrumentos analíticos utilizaban volantes especiales para mover el marcador estéreo. Los operadores que recién están dominando DFS consideran que el control con este tipo de volantes es inconveniente y prefieren manipuladores tipo mouse con múltiples botones, especialmente diseñados para trabajar en modo estéreo. Para un funcionamiento eficaz, es deseable que el CFS admita el trabajo tanto con volantes como con manipuladores especiales.

Algo aparte de los sistemas fotogramétricos tradicionales son los sistemas de procesamiento de imágenes de radar. Con la llegada al mercado de sensores espaciales de alta resolución (TerraSAR-X, COSMO-Skymed, RADARSAT-2), el papel de estos últimos ha aumentado significativamente. Estos sistemas, llamados radargramétricos, permiten construir modelos digitales del terreno con una precisión de altura de unos pocos metros, crear ortoimágenes (incluido el uso de modelos de terreno obtenidos a partir de imágenes de radar), así como mapas de alta precisión de los desplazamientos de la superficie terrestre (con precisión milimétrica). con procesamiento interferométrico).

En resumen, se puede observar que un DFS moderno debe "comprender" la máxima cantidad posible de formatos de datos ráster, vectoriales y otros, proporcionar un alto nivel de automatización y productividad y admitir tecnologías informáticas modernas. La presencia en el DFS de módulos de pre y posprocesamiento de imágenes y herramientas para trabajar con modelos 3D obtenidos mediante métodos fotogramétricos debería convertirse en una parte integral de dichos sistemas.

En el siglo pasado, se realizaron muchos descubrimientos e invenciones que desempeñaron un papel revolucionario en el desarrollo de la civilización moderna.

    creación y desarrollo de las comunicaciones, especialmente inalámbricas.

    La invención del cine.

    El surgimiento y desarrollo de la tecnología aeronáutica y espacial.

    Los aviones modernos en sus características técnicas y de diseño no son comparables a los primeros aviones.

Pero el progreso más espectacular se ha producido en el campo de la tecnología informática. (Hace unos 50 años las primeras computadoras tenían una capacidad de unas 30 toneladas, una superficie de unos 200 m2)

El tiempo de cálculo se midió en horas o días.

Ahora se puede colocar una computadora sobre un cristal de silicio S = 5 mm 2, el tiempo de cálculo es de microsegundos y cuestan poco.

Además, a diferencia de las primeras computadoras, que estaban programadas en códigos matemáticos y solo podían realizar cálculos matemáticos engorrosos, las computadoras modernas son capaces de demostrar teoremas, traducir textos y reproducir objetos en movimiento.

La aparición de la primera máquina capaz de realizar cuatro operaciones aritméticas se remonta a principios del siglo XVII. (1623 V. Schickard inventó una máquina mecánica para sumar, restar, multiplicar parcialmente y dividir), pero la máquina sumadora de escritorio francesa (1642) resultó ser más famosa. el científico Pascal. 1671 Leibniz inventó el llamado Rueda dentada de Leibniz que permite realizar 4 operaciones aritméticas.

En el siglo XIX Se ha agudizado la necesidad de realizar cálculos relacionados con el procesamiento de los resultados de las observaciones astronómicas y cálculos relacionados con la elaboración de tablas matemáticas. Por tanto, en 1823 inglés. El matemático Charles Babbage comenzó a desarrollar una máquina diferencial automatizada propulsada por una máquina de vapor.

En 1894, esbozó sus principios básicos, que se plasmaron en el programa del telar con control de tarjetas perforadas del francés Jacquard.

La Máquina Analítica fue una de las primeras computadoras automáticas programables con control secuencial. Tenía un dispositivo aritmético y memoria.

La patrocinadora del proyecto fue la condesa Ada Augusta Lovelace, la primera mujer programadora. El lenguaje de programación Ada lleva su nombre.

A finales del siglo XIX. Hollerith desarrolló una máquina de entrada de tarjetas perforadas capaz de clasificar y tabular datos automáticamente. Fue utilizado en 1890 en América y se realizaron censos sobre él. El programa se leyó a partir de una tarjeta perforada mediante cepillos de contacto eléctricos. Los relés Em se utilizan como contadores digitales.

En 1896 Horrelite fundó la empresa, predecesora de IBM.

Después de la muerte de Babbage no hubo ningún progreso notable.

calculo de velocidad mecanico o piel eléctrica. Los coches eran limitados, por eso en los años 30. En el siglo XX se inició el desarrollo de las computadoras electrónicas (computadoras). Basado en tubos de vacío de 3 electrodos (triodos), inventados en 1906 por Lead Frest.

La primera computadora universal, Eniak, se desarrolló en el Instituto de Pensilvania en los EE. UU. (1940-1946): el desarrollo de tablas numéricas para calcular la trayectoria de vuelo de los objetos. (18 mil placas electrónicas, 140 kW, 10° CC, programadas manualmente mediante interruptores.

Tendencias modernas en el desarrollo de la tecnología informática.

Actualmente, el mundo está atravesando una transición de una sociedad industrial a una sociedad de la información. Si el contenido principal de la sociedad industrial fuera la producción y consumo de estera. beneficios, entonces la fuerza impulsora de la sociedad de la información es la creación y el consumo de recursos de información de diversos tipos y propósitos. Al mismo tiempo, el logro de resultados económicos y sociales está determinado no tanto ni tanto por la disponibilidad de recursos materiales y energéticos, sino por la escala y el ritmo de informatización de la sociedad y el uso generalizado de las tecnologías de la información en todas las esferas. de la actividad humana.

Independientemente de las diferencias y características de los procesos de información en diversos ámbitos de la vida social, se caracterizan por la presencia de 3 componentes:

    identidad (uniformidad) de los principales medios de producción (tecnología informática e informática)

    identidad de las “materias primas” (datos iniciales a analizar y procesar)

    Identidad de los productos fabricados (información “procesada”)

Un papel clave en la infraestructura de la información corresponde al sistema de telecomunicaciones, así como a la informática. sistemas y sus redes.

Las últimas herramientas informáticas se concentran en estas áreas. tecnología, informática y comunicaciones, y además utiliza las más avanzadas tecnologías de la información.

En la historia pasada del desarrollo de la tecnología informática (a partir de los años 40 del siglo XX), se pueden distinguir 4 generaciones de computadoras, que se diferencian entre sí en su base elemental, organización lógica funcional, diseño y tecnología. ejecución, software, características técnicas y operativas y modos de uso.

El cambio de generaciones fue acompañado por un cambio en el funcionamiento técnico y técnico.

Indicadores económicos de las computadoras.

Primero que nada esto:

rendimiento, capacidad de memoria, confiabilidad, costo.

Al mismo tiempo, esto estuvo acompañado de una tendencia a mejorar el software y aumentar la eficiencia de su uso y acceso.

Actualmente se está trabajando para crear computadoras de quinta generación, que acercarán la creación de inteligencia artificial a la realidad.

Clasificación de equipos electrónicos.

Hasta la fecha, ya se han producido y se están creando en el mundo millones de computadoras de diversos tipos, clases y niveles.

La EVT generalmente se divide en analógico y digital.

En AVM, la información está representada por los valores correspondientes de ciertos análogos (cantidades físicas continuas): corriente, voltaje, ángulo de rotación, etc.

Los AVM proporcionan un rendimiento aceptable, pero una precisión de cálculo moderada de aprox. 10 -2 -10 -3

Las MAV tienen una distribución bastante limitada y se utilizan principalmente en institutos de investigación y organizaciones de diseño para el desarrollo de investigaciones y perfeccionamiento de trazas. muestras de equipos, es decir Las AVM pertenecen al campo de las computadoras especializadas.

Se han generalizado cada vez más los ordenadores digitales en los que la información se muestra mediante códigos digitales o binarios.

El rápido ritmo de desarrollo y cambio de los modelos informáticos digitales dificulta el uso de cualquier clasificación estándar.

El académico Gluzhkov señaló que es posible distinguir tres áreas globales que requieren el uso de tipos de computadoras cualitativamente diferentes, y:

    Uso tradicional de computadoras para cálculos automatizados.

    el uso de computadoras en varios sistemas de control (desde los años 60, la esfera en mayor medida implica el uso de una línea de computadora)

Las máquinas de este perfil deben cumplir lo siguiente. requisitos:

    más barato en comparación con grandes ordenadores centralizados.

    más confiable, especialmente cuando se trabaja directamente en el circuito de control.

    tener mayor flexibilidad y adaptabilidad a las condiciones de trabajo

    era arquitectónicamente transparente, es decir La estructura y funciones de la computadora deben ser comprensibles para el usuario general.

3. Resolver problemas de inteligencia artificial.

El mercado de la informática cuenta con una amplia gama de clases y modelos de informática. Por ejemplo, IBM, que produce aproximadamente el 80% del parque de máquinas del mundo, produce principalmente 4 clases de computadoras:

    computadoras centrales (ordenador central) – máquinas multiusuario con procesamiento de información centralizado y diversas formas de acceso remoto.

Según los especialistas de IBM, aprox. El 50% de los datos totales de los sistemas de información del mundo deberían almacenarse en grandes máquinas. Su nueva generación está pensada para su uso en redes como servidores de gran tamaño.

    El desarrollo de computadoras de esta clase es de gran importancia para la Federación de Rusia, porque Tenemos una enorme acumulación de computadoras bajo el programa de la UE que tomó prestada la arquitectura IBM 360/310, por lo que se tomó la decisión de continuar el desarrollo de esta dirección y en 1993 se firmó un acuerdo con IBM, según el cual la Federación de Rusia recibió el derecho a producir 23 tipos de los últimos modelos, análogos de IBM con un rendimiento de 1,5 a 167 millones de operaciones por segundo.Coches/ 6000 R.S.

    , que tienen un alto rendimiento y están destinados a la construcción de estaciones de trabajo, para trabajar con gráficos, para servidores UNIX y complejos de clústeres para investigación científica. Computadoras medianas

    principalmente para trabajar en estructuras financieras (computadoras comerciales). Prestan especial atención a la preservación y seguridad de los datos, así como a la compatibilidad del software. Estas máquinas se utilizan como servidores de red local.Computadoras basadas en plataformas de microprocesadores

    Intel

Sistemas informáticos que utilizan funcionamiento paralelo. Puedes utilizar lo siguiente. clasificación de las instalaciones informáticas en función de su división en:

    velocidad de acción súper computadora

    , para resolver problemas informáticos complejos y dar servicio a los mayores bancos de datos de información computadoras centrales

    , para departamentos, centros informáticos territoriales y regionales. computadoras medianas

    , para sistemas de control de procesos (sistemas de control de procesos) y sistemas de control de procesos (sistemas de control de producción), así como para gestionar el procesamiento distribuido de información como servidores. ordenadores personales y profesionales

    sobre esta base, se forman lugares de trabajo automatizados (estaciones de trabajo automatizadas) para especialistas en diversos campos. microprocesadores integrados (microcomputadoras)

para el control automatizado de dispositivos y mecanismos individuales.

La Federación Rusa necesita:

Súper computadora ~ 100-200 uds.

Computadoras centrales ~ 1000 unidades.

La implementación de sistemas automatizados de control de subestaciones es una tarea compleja y difícil de unificar. La aparición de nuevos estándares internacionales y tecnologías de la información abre la posibilidad de enfoques modernos para resolver este problema, permitiendo crear un nuevo tipo de subestación: la digital. El grupo de normas IEC 61850 (redes y sistemas de comunicación en subestaciones) abre amplias perspectivas en esta dirección.

La principal característica y diferencia del estándar IEC 61850 es que regula no solo las cuestiones de transferencia de información entre dispositivos individuales, sino también las cuestiones de formalizar la descripción de subestaciones y circuitos de protección, automatización y mediciones, y configuración de dispositivos. La norma prevé la posibilidad de utilizar nuevos dispositivos de medición digitales en lugar de los medidores analógicos tradicionales (transformadores de corriente y tensión). Las tecnologías de la información permiten pasar al diseño automatizado de subestaciones digitales controladas por sistemas integrados digitales. Todas las comunicaciones de información en dichas subestaciones son digitales y forman un único bus de proceso. Esto permite intercambiar información de forma rápida y directa entre dispositivos, lo que permite reducir la cantidad de conexiones de cables, reducir la cantidad de dispositivos con microprocesador y hacerlos más compactos.

Las tecnologías digitales son más económicas en todas las etapas de implementación: durante el diseño, instalación, puesta en servicio y operación. Proporcionan la capacidad de ampliar y modernizar el sistema durante la operación.

Hoy en día, ya se han completado en todo el mundo muchos proyectos relacionados con el uso de la norma IEC 61850, lo que demuestra las ventajas de esta tecnología. Al mismo tiempo, todavía hay una serie de problemas que requieren comprobaciones y soluciones adicionales. Esto se aplica a la confiabilidad de los sistemas digitales, a cuestiones de configuración de dispositivos a nivel de subestación y servicios públicos, a la creación de herramientas de diseño disponibles públicamente dirigidas a diferentes fabricantes de microprocesadores y equipos principales.

La tabla proporciona una comparación de subestaciones tradicionales y digitales, así como consideraciones sobre los beneficios de utilizar fuentes de información digitales.

El primer gran proyecto piloto para implementar el estándar IEC 61850 fue la subestación estadounidense TVA Bradley de 500 kV, puesta en servicio en 2008. El objetivo del proyecto era probar la compatibilidad de la implementación del estándar IEC 61850 en dispositivos de diferentes fabricantes. La implementación del proyecto permitió mejorar la compatibilidad entre dispositivos de diferentes fabricantes, mejorar la calificación del personal de la empresa de redes en términos de la norma IEC 61850, y también identificar problemas que surgen durante su implementación.

En 2009 finalizaron en España las obras del proyecto piloto de la subestación de 132 kV de Alcalá de Henares (Madrid). Para la ejecución del proyecto también se utilizaron dispositivos de distintos fabricantes. Una característica especial de este proyecto fue la implementación experimental del "Process Bus" en términos de transmisión de información discreta. Los sistemas de automatización y protección de relés y los sistemas de control de procesos automatizados en una subestación se pueden dividir en 4 niveles: superior, estación, nivel de conexión (dispositivos MPRPA y controladores de conexión) y nivel de campo, que incluye los dispositivos instalados en el tablero.

Muy cerca de los dispositivos de conmutación, se instalaron módulos de control remoto (MicroRTU) en el cuadro, que se conectaron a los interruptores instalados en el centro de control mediante cables ópticos. Toda la información sobre el estado de los dispositivos de conmutación, así como los comandos para controlarlos, se transmitieron a través de canales de comunicación digitales (mediante mensajes GOOSE). Solo se implementó la lógica más simple en MicroRTU para aumentar la confiabilidad de estos dispositivos. Se han implementado funciones de bloqueo operativo en dispositivos a nivel de bahía. Así, en la subestación se introdujeron los siguientes tipos de flujos de información:
. GOOSE vertical para el intercambio de información entre MicroRTU y dispositivos a nivel de bahía;
. GOOSE diagonal para el intercambio de información entre MicroRTU de una conexión y dispositivos de protección y control de otra (por ejemplo, para informar rápidamente a estos dispositivos sobre una falla en un disyuntor);
. GOOSE horizontal para intercambiar información entre dispositivos a nivel de bahía (con el fin de organizar enclavamientos operativos, iniciar un osciloscopio, etc.);
. transmisión de información dinámica a través del protocolo MMS desde dispositivos a nivel de conexión al nivel de estación;
. Comandos de control desde el nivel de estación hasta el nivel de conexión a través del protocolo MMS.

Los comandos de control pasaron a través de los controladores de bahía, que tradujeron estos comandos en mensajes GOOSE para MicroRTU, lo que hizo posible implementar funciones de bloqueo operativo a nivel del controlador de bahía.

En la subestación de Alcalá de Henares no se instalaron transformadores digitales de corriente y tensión. Sin embargo, el proyecto es extremadamente interesante desde el punto de vista del uso del "Bus de proceso" para transmitir información discreta.

En la subestación Osbaldwick de 400 kV, perteneciente a la red nacional NGT U.K., se realizaron pruebas de transformadores digitales de corriente y tensión en condiciones reales de funcionamiento. Se llevaron a cabo experimentos para comparar las características temporales de MPRZA basado en transformadores de corriente tradicionales y MPRZA basado en transformadores de corriente digitales que utilizan Mergin Units (dispositivos que transmiten información sobre valores instantáneos de corrientes y voltajes utilizando el protocolo IEC 61850-9 SMV). Los resultados mostraron buenas características de rendimiento de los transformadores digitales y MPRZA construidos con tecnologías digitales.

Las subestaciones digitales han recibido un gran desarrollo en China. En 2006 se puso en funcionamiento la primera subestación digital de 110 kV en Qujing, Yunnan. En 2009, China tomó la posición de liderazgo mundial en subestaciones digitales, con 70 subestaciones en funcionamiento. Se espera que el mercado de subestaciones digitales en China crezca entre 4 y 4500 millones de RMB por año durante los próximos 10 años.

OJSC NIIPT realiza activamente investigaciones en el campo de las subestaciones digitales. En 2008-2010 Se creó un banco de pruebas para probar el funcionamiento de sistemas automatizados de control de procesos con dispositivos de varios fabricantes utilizando diversos protocolos e interfaces. La mayoría de los dispositivos del complejo funcionan según el estándar IEC 61850: Satec SA330, Siemens Siportec 4 (7SJ64, 7UT63), Siemens TM1703, AK1703, BC1703, Areva Micom, General Electric (F60), SEL-451, Mikronika, ZIV 7IRV, MKPA Prosoft, MPRZA EKRA.

Para automatizar el proceso de conexión de dispositivos, se creó un configurador IEC 61850, que le permite exportar la configuración del dispositivo a la base de datos del sistema de control de procesos automatizado. De este modo, fue posible simplificar significativamente la integración de dispositivos de varios fabricantes en los sistemas de control de procesos.

La creación del stand permitió evaluar la complejidad de integrar dispositivos que funcionan con diferentes protocolos en sistemas automatizados de control de procesos. Los resultados de las pruebas han demostrado que la integración de dispositivos que funcionan según el estándar IEC 61850 requiere mucho menos tiempo debido a la automatización del proceso de conexión.

Como parte de las pruebas, también se comprobó la compatibilidad de los dispositivos que utilizan el protocolo GOOSE. Las pruebas de banco han demostrado que no siempre es posible garantizar el funcionamiento conjunto de dispositivos de diferentes fabricantes utilizando el protocolo GOOSE.

Con la introducción de la norma IEC 61850, fue posible probar componentes y todo el complejo de sistemas de control de procesos automatizados sin la presencia de la cantidad requerida de dispositivos de nivel inferior. Para resolver este problema, los dispositivos se reemplazan por la cantidad requerida de servidores IEC 61850 (emuladores). El modelo de datos del dispositivo se carga en los servidores en forma de archivos ICD. Para realizar tales pruebas, JSC NIIPT desarrolló un servidor IEC 61850, que permite probar la interacción de dispositivos electrónicos inteligentes en una subestación digital sin la cantidad requerida de dispositivos de nivel inferior.

JSC NIIPT está trabajando activamente para crear un sistema de diseño automatizado para subestaciones digitales, que permitirá utilizar las ventajas de IEC 61850-6 (SCL) y el modelado CIM en el proceso de diseño de subestaciones.

La experiencia nacional y extranjera en la implementación de sistemas basados ​​​​en la norma IEC 61850 muestra que en la etapa actual es necesario prestar mayor atención a la confiabilidad de todo el complejo digital de dispositivos de subestaciones. Para hacer esto, primero se debe probar que todos los dispositivos cumplen con el estándar. Dado que esta prueba es en sí misma una tarea bastante compleja, para resolverla es necesario crear un centro de certificación especial que pueda realizar pruebas completas para verificar el cumplimiento del estándar de cualquier dispositivo.

Además de las pruebas de certificación únicas, se deben organizar pruebas de confiabilidad a largo plazo, que se llevan a cabo de manera más apropiada en el circuito completo de una subestación en operación en condiciones reales de operación. Primero se deben probar las fuentes digitales de información. Para solucionar estos problemas, es aconsejable, según la experiencia estadounidense, crear una subestación digital piloto equipada con un conjunto completo de dispositivos de medición digitales y dispositivos de protección, regulación y medición por microprocesador.

La creación de una subestación digital piloto debe asegurar la solución de las siguientes metas y objetivos:
. comprobar la apertura de la arquitectura de la subestación digital para protección, control y recopilación de datos;
. probar nuevos dispositivos de medición digitales en lugar de medidores analógicos tradicionales (transformadores de corriente y voltaje);
. comprobar la compatibilidad de dispositivos electrónicos inteligentes (IED) de diferentes fabricantes que implementan funciones de control y protección. Verificar la configuración del sistema utilizando herramientas proporcionadas por los fabricantes de dispositivos sin la necesidad de soporte continuo de los propios fabricantes;
. evaluación de funcionalidad y rendimiento comparables en comparación con el principio tradicional de diseño de subestaciones con una reducción significativa del área ocupada por equipos de monitoreo y control;
. evaluación del nivel de funcionamiento seguro y confiable del sistema en su conjunto, basado en una transferencia de datos oportuna y confiable;
. evaluación de la eficiencia económica del proyecto; la experiencia obtenida del proyecto debería reutilizarse para otras subestaciones;
. simplificación de la operación: monitoreo y diagnóstico de la red para reducir el tiempo de mantenimiento, monitoreo del desempeño del sistema;
. probar un control eficiente de la transmisión de datos de alta velocidad; comprobar el intercambio de datos entre IED;
. desarrollo de una metodología para probar y verificar el sistema, incluida la capacidad de probar cualquier IED manteniendo la funcionalidad de otros IED en la misma red;
. desarrollo y prueba de herramientas y metodologías para el diseño de sistemas asistidos por computadora que correspondan a nuevas funciones y principios operativos del sistema; desarrollo de herramientas rusificadas adaptadas a los estándares rusos;
. desarrollo de un documento regulatorio especial sobre algoritmos lógicos básicos para IED.

Las tecnologías digitales han hecho posible la creación de una serie de equipos modernos que brindan una ayuda significativa al trabajo de los organismos encargados de hacer cumplir la ley. Estos incluyen comunicaciones celulares móviles, grabadoras de voz digitales, cámaras fotográficas y de video digitales.

La comunicación se llama móvil, si la fuente de información o su destinatario (o ambos) se mueven en el espacio. Esencia comunicación celular Consiste en dividir el espacio en áreas pequeñas: células (o células con un radio de 1 a 5 km) y separar las comunicaciones por radio dentro de una célula de las comunicaciones entre células. Esto permite utilizar las mismas frecuencias en diferentes celdas. En el centro de cada celda hay una estación de radio base (receptora y transmisora) para garantizar la comunicación por radio dentro de la celda con todos los suscriptores. Cada abonado tiene su propia microestación de radio, un teléfono móvil, una combinación de teléfono, transceptor y miniordenador. Los suscriptores se comunican entre sí a través de estaciones base conectadas entre sí y a la red telefónica de la ciudad. Cada celda de celda cuenta con un transmisor de radio central con un alcance limitado y una frecuencia fija. Esto hace posible reutilizar la misma frecuencia en otras células. Durante una conversación, el radioteléfono celular está conectado a la estación base mediante un canal de radio a través del cual se transmite la conversación telefónica. Las dimensiones de la celda de la celda están determinadas por el alcance máximo de comunicación del dispositivo radiotelefónico con la estación base. Este rango máximo es el radio de la celda.

Idea comunicación celular móvil es que, sin salir aún del área de cobertura de una estación base, el teléfono móvil cae en el área de cobertura de cualquier vecina, hasta el límite exterior de toda la zona de la red.

Para ello, se han creado sistemas de antenas repetidoras que cubren su celda, un área de la superficie terrestre. Para garantizar una comunicación confiable, la distancia entre dos antenas adyacentes debe ser menor que su radio de operación. En las ciudades es de unos 500 my en las zonas rurales de unos 2-3 km. Un teléfono móvil puede recibir señales de varias antenas repetidoras a la vez, pero siempre está sintonizado en la señal más fuerte.

La idea de la comunicación celular móvil también radica en el uso del control informático de la señal telefónica del abonado cuando pasa de un móvil a otro. Fue el control por ordenador el que permitió cambiar un teléfono móvil de un transmisor intermedio a otro en tan sólo una milésima de segundo. Todo sucede tan rápido que el suscriptor simplemente no se da cuenta.

La parte central de un sistema de comunicación móvil celular son las computadoras. Encuentran un abonado ubicado en cualquiera de las celdas y lo conectan a la red telefónica. Cuando un suscriptor se mueve de una celda a otra, lo transfieren de una estación base a otra.

Una ventaja importante de las comunicaciones móviles celulares es la posibilidad de utilizarlas fuera del área general de su operador. itinerancia Para ello, varios operadores acuerdan entre ellos la posibilidad mutua de utilizar sus zonas para los usuarios. En este caso, el usuario, al salir de la zona general de su operador, cambia automáticamente a las zonas de otros operadores, incluso cuando se desplaza de un país a otro, por ejemplo, de Rusia a Alemania o Francia. O, estando en Rusia, el usuario puede realizar llamadas móviles a cualquier país. Así, las comunicaciones celulares brindan al usuario la posibilidad de comunicarse por teléfono con cualquier país, sin importar dónde se encuentre. Las principales empresas fabricantes de teléfonos móviles se centran en un único estándar europeo: GSM.

Dictáfono(del latín dido - hablo, dicto) es un tipo de grabadora que graba el habla con el fin, por ejemplo, de imprimir posteriormente su texto. Los dictáfonos se dividen en mecánicos, en los que se utilizan casetes estándar o microcasetes con película magnética como almacenamiento de información, y digitales.

Las grabadoras de voz digitales se diferencian de las grabadoras de voz mecánicas por la ausencia total de piezas móviles. Utilizan memoria flash de estado sólido como dispositivo de almacenamiento de información en lugar de película magnética.

fotografía digital le permite obtener rápidamente fotografías de alta calidad en formato digital sin el uso de procesos químicos costosos, lentos y dañinos.

El principio de funcionamiento de una cámara digital es que su sistema óptico (lente) proyecta una imagen reducida del objeto fotografiado sobre una matriz semiconductora en miniatura de elementos fotosensibles, el llamado dispositivo de carga acoplada (CCD). Un CCD es un dispositivo analógico: se produce una corriente eléctrica en un píxel de la imagen en proporción directa a la intensidad de la luz incidente. Cuanto mayor sea la densidad de píxeles en el CCD, mayor resolución producirá la cámara. A continuación, la señal analógica recibida se convierte en una imagen digitalizada utilizando un procesador digital, que se comprime en formato JPEG (o similar) y luego se graba en la memoria de la cámara. La capacidad de esta memoria determina el número de fotografías. Se utilizan varios dispositivos de almacenamiento como memoria para las cámaras digitales: disquetes, tarjetas de memoria flash, discos ópticos CD-RW, etc. Las señales eléctricas almacenadas en forma de imágenes se pueden mostrar en la pantalla de una computadora, TV, impresas en papel. utilizando una impresora, o transmitida por correo electrónico a cualquier país. Cuantos más píxeles contenga la matriz CCD, mayor será la claridad de la imagen fotográfica digital. En las matrices de las cámaras digitales modernas, el número de píxeles oscila entre 2 millones y 6 millones o más.

La cámara digital está equipada con una pantalla de cristal líquido en miniatura, en la que aparece la fotografía tomada inmediatamente después de presionar el botón. No se requiere revelado ni fijación de la imagen (como en la fotografía tradicional). Si no te gusta la foto, puedes “borrarla” y poner una nueva en su lugar. Lo único que queda de la fotografía tradicional en una cámara digital es el objetivo.

En fotografía digital queda completamente excluido el uso de materiales fotosensibles con escasas sales de plata. En comparación con las cámaras tradicionales, las cámaras digitales contienen muchas menos piezas mecánicas móviles, lo que garantiza su alta confiabilidad y durabilidad.

Muchas cámaras digitales utilizan lentes de distancia focal variable (lentes con zoom o lentes con zoom) que proporcionan un aumento óptico (con mayor frecuencia triple). Esto significa que al tomar fotografías, puedes, sin moverte del lugar, acercar o alejar visualmente el objeto que estás fotografiando, y esto se puede hacer de forma gradual. Además, se utiliza el zoom digital, en el que un fragmento de una imagen se estira hasta ocupar toda la pantalla.

Otra ventaja de las cámaras digitales es la posibilidad no sólo de tomar fotografías, sino también de grabar vídeos cortos de hasta varios minutos. Las cámaras digitales más avanzadas tienen un micrófono incorporado que permite grabar vídeo con sonido.

Las fotografías digitales ingresadas en la computadora se pueden procesar, por ejemplo, recortándolas (seleccionando áreas individuales con ampliación), cambiando el brillo y el contraste, el balance de color, retocando, etc. Puede crear álbumes de fotografías digitales en su computadora que puede ver de forma secuencial o como una película de diapositivas.

La calidad de las fotografías digitales actuales no es inferior a la calidad de las convencionales. Se puede suponer que en los próximos años la fotografía digital sustituirá por completo a la fotografía tradicional.

camaras de video Le permite grabar imágenes en movimiento con sonido. En las cámaras de vídeo modernas, la imagen óptica, al igual que en las cámaras digitales, se convierte en una imagen eléctrica mediante una matriz CCD. Tampoco requieren película, ni revelado ni fijación. La imagen que contienen está grabada en una cinta de vídeo magnética. Sin embargo, para grabar en una cinta magnética (como se hace al grabar sonido), se necesitaría una velocidad muy alta: más de 200 km/h (aproximadamente 10.000 veces más rápido que al grabar sonido): una persona escucha sonidos en el rango de frecuencia de 20 a 20.000 Hz. En este rango se realiza una grabación de sonido de alta calidad. La grabación de vídeo requiere frecuencias mucho más altas, por encima de 6 MHz.

En lugar de aumentar la velocidad de la cinta magnética al grabar y reproducir imágenes, los cabezales magnéticos de una cámara de vídeo y una videograbadora están montados en un tambor que gira a alta velocidad y las señales no se graban a lo largo de la cinta, sino a lo largo de ella. El eje de rotación del tambor está inclinado hacia la cinta y su cabezal magnético escribe una línea inclinada en la cinta con cada revolución. En este caso, la densidad de grabación aumenta significativamente y la cinta magnética debe moverse relativamente lentamente, a una velocidad de sólo 2 mm/s. Graban imágenes y sonido en color (utilizando un micrófono incorporado) y tienen la mayor sensibilidad. La medición del brillo de la imagen, el ajuste de la apertura y el enfoque están completamente automatizados. El resultado de la grabación de vídeo se puede ver inmediatamente, ya que no es necesario revelar la película (como ocurre con la filmación).

Las videocámaras están equipadas con lentes de alta calidad. Las videocámaras más caras utilizan lentes varifocales que proporcionan un aumento óptico de 10x. Esto significa que al grabar un vídeo, puedes, sin salir del mismo lugar, acercar o alejar el objeto que estás grabando, y esto se puede hacer de forma gradual. Además, se utiliza el zoom digital hasta 400 veces o más, en el que un fragmento de la imagen se estira hasta ocupar toda la pantalla. También se utiliza un sistema de estabilización de imagen, que corrige el movimiento de la cámara con gran precisión y dentro de un amplio rango.

El uso de matrices CCD proporciona a las cámaras de vídeo la máxima sensibilidad, lo que permite disparar en casi completa oscuridad (a la luz de un fuego o una vela).

En una película de vídeo, como en una película sonora, las imágenes en movimiento y el sonido se graban en el mismo medio de almacenamiento: la cinta de vídeo magnética. El estándar de grabación de vídeo doméstico más común es el vídeo doméstico (sistema de vídeo doméstico, VHS). El ancho de la película magnética en esta norma es de 12,5 mm. Para cámaras de video portátiles, se utiliza un casete reducido con película del mismo ancho. VHS compacto.

Sony ha desarrollado y produce videocasetes en miniatura del estándar Vídeo-S(Ш8). El ancho de la película en ellos es de 8 mm. Esto hizo posible reducir el tamaño de las videocámaras domésticas portátiles. Los más avanzados, para controlar la imagen durante la grabación de vídeo, están equipados, además del visor, con una pantalla de cristal líquido en color en miniatura. Con su ayuda, podrá ver el vídeo que acaba de grabar directamente en su videocámara. Otra forma de verlo es en la pantalla de un televisor. Para ello, la salida de la cámara de vídeo se conecta a la entrada del televisor.

Cambiar a un método de grabación digital le permite evitar la pérdida de calidad incluso al volver a grabar varias veces. En 1995, un consorcio de 55 fabricantes líderes de productos electrónicos, incluidos Sony, Philips, Hitachi, Panasonic y JVC, adoptaron el formato de grabación de vídeo digital DVC. (videocassette digital) o DV (vídeo digital). Ya a finales de 1995, Sony presentó la primera cámara de vídeo DV. Ahora el vídeo digital se puede transferir desde una videocámara al disco duro de una computadora y viceversa directamente, sin conversiones complejas.

Cada cuadro de la cinta magnética corresponde a 12 líneas inclinadas de 10 micrones de ancho. En cada uno de ellos, además de grabar información de audio y vídeo, hora, minuto, segundo y número de serie del fotograma, es posible grabar información adicional sobre la grabación de vídeo. Todas las cámaras DV pueden funcionar en modo fotografía y grabar imágenes individuales con sonido durante 6 a 7 segundos. Se convierten en cámaras digitales con una capacidad de 500 a 600 fotogramas. Ya se ha creado un vídeo D V.

Junto con el formato digital DV, Sony ha desarrollado una nueva tecnología digital. Digital 8, que está diseñado para borrar la frontera entre los formatos analógicos y digitales. Le permite utilizar grabación digital DV en un casete Sh8 normal utilizado para grabación analógica.

Las cámaras de vídeo digitales se fabrican sin cinta de vídeo. La imagen que contienen se graba en un disco duro extraíble (disco duro). El vídeo grabado digitalmente se puede ver en una computadora personal o convertir a una señal analógica y verlo en la televisión. La grabación se realiza con compresión de información en el formato MPEv/ZREv, estándar para ordenadores, por lo que puede visualizarse e incluso editarse en el monitor de un ordenador personal.

En las cámaras de video más nuevas, en lugar de cinta magnética, se utilizan discos ópticos EDU-ILU regrabables para grabar imágenes de video. El disco grabado en ellos se puede insertar inmediatamente en el reproductor BUO para verlo. Gracias al pequeño diámetro del disco (8 cm), las dimensiones de la cámara de vídeo son las mismas que las de las convencionales, utilizando casetes con película magnética. El tiempo de grabación en un disco ODU es de 30 minutos, y en el “modo ahorro” es de 60 minutos con una ligera disminución en la calidad de la imagen de video.

Las cámaras de vídeo digitales, las cámaras fotográficas y los grabadores de voz sin piezas ni componentes móviles pertenecen al futuro. Son más fiables, duraderos, ligeros y en miniatura, y no temen los golpes al caminar ni los impactos.

Preguntas de seguridad

1. ¿Qué se entiende por hardware y software informático? 2. Nombra las características distintivas de una PC tipo 1VM RS. 3. Considere la historia del clon de PC 1VM según el tipo de microprocesador utilizado. 4. ¿Cuáles son los principales dispositivos incluidos en el hardware de la PC? 5. ¿Cuál es el propósito del bus del sistema y de los conectores de expansión de la PC? 6. ¿Cómo se relacionan la velocidad del microprocesador y la velocidad de la PC? 7. ¿Cómo afectan las características de MP y memoria al rendimiento de la PC? 8. Explique el propósito de los adaptadores y controladores. 9. ¿Qué son los convertidores analógico a digital (ADC) y digital a analógico (DAC)? 10. ¿Cuál es la diferencia entre medios de almacenamiento y dispositivos de almacenamiento?))

  • Nombra los principales tipos de medios y dispositivos de almacenamiento en una computadora. 12. ¿Cuál es la diferencia entre la RAM de una computadora y la memoria a largo plazo? 13. Nombra los principales tipos de CD ópticos. 14. ¿Qué es la memoria flash? 15. ¿Cuál es la diferencia entre una impresora y un trazador?



Arriba