Historia del desarrollo de la tecnología informática. Informática y Ciencias de la Computación

En nuestra era moderna, que cambia rápidamente, la informática y la informática se han convertido no sólo en la norma, sino en nuestra vida. La calidad de la existencia humana comienza a depender del éxito con que las personas la comprendan. Si una persona sabe cómo manejar equipos informáticos por su nombre de pila, entonces vive al ritmo del tiempo y el éxito siempre le espera.

La misma palabra "informática" en casi todos los idiomas del mundo significa una ciencia asociada con la tecnología informática o las computadoras. Más concretamente, este término tiene la siguiente definición: así se llama la ciencia, que tiene como tarea principal el estudio de diversos métodos de obtención, almacenamiento, acumulación, transmisión, transformación y utilización de información.

La informática aplicada incluye su uso en la sociedad, el software, la lucha contra los virus informáticos y la sociedad de la información. La informática y la tecnología informática se utilizan en la vida moderna en varias áreas principales:

Desarrollo de sistemas informáticos y software necesario;

Teoría de la información, que estudia todos los procesos asociados a ella;

Métodos de inteligencia artificial;

Análisis del sistema;

Métodos de animación y gráficos mecánicos;

Telecomunicaciones, que incluyen las globales;

Una variedad de aplicaciones que cubren casi todos los aspectos de la actividad humana.

No hay duda de que el desarrollo del progreso tecnológico tiene un impacto importante en nuestras vidas y presenta constantemente a la humanidad nuevas oportunidades para obtener, recopilar y almacenar información.

Tan pronto como una persona descubrió el concepto de "cantidad", inmediatamente comenzó a seleccionar herramientas que optimizarían y facilitarían el conteo. Hoy en día, las computadoras superpoderosas, basadas en los principios del cálculo matemático, procesan, almacenan y transmiten información, el recurso y motor más importante del progreso humano. No es difícil hacerse una idea de cómo se desarrolló la tecnología informática, considerando brevemente las principales etapas de este proceso.

Las principales etapas del desarrollo de la tecnología informática.

La clasificación más popular sugiere resaltar las principales etapas del desarrollo de la tecnología informática en orden cronológico:

  • Etapa manual. Comenzó en los albores de la era humana y continuó hasta mediados del siglo XVII. Durante este período surgieron los conceptos básicos del conteo. Más tarde, con la formación de los sistemas numéricos posicionales, aparecieron dispositivos (ábaco, ábaco y más tarde una regla de cálculo) que hicieron posible los cálculos por dígitos.
  • Platina mecánica. Comenzó a mediados del siglo XVII y duró casi hasta finales del siglo XIX. El nivel de desarrollo de la ciencia durante este período hizo posible crear dispositivos mecánicos que realizan operaciones aritméticas básicas y recuerdan automáticamente los dígitos más altos.
  • La etapa electromecánica es la más corta de todas las que unen la historia del desarrollo de la tecnología informática. Sólo duró unos 60 años. Este es el período comprendido entre la invención del primer tabulador en 1887 hasta 1946, cuando apareció la primera computadora (ENIAC). Las nuevas máquinas, cuyo funcionamiento se basaba en un accionamiento eléctrico y un relé eléctrico, permitían realizar cálculos con mucha mayor velocidad y precisión, pero el proceso de conteo aún tenía que ser controlado por una persona.
  • La etapa electrónica comenzó en la segunda mitad del siglo pasado y continúa en la actualidad. Esta es la historia de seis generaciones de computadoras electrónicas, desde las primeras unidades gigantes, basadas en tubos de vacío, hasta las supercomputadoras modernas ultrapotentes con una gran cantidad de procesadores que trabajan en paralelo, capaces de ejecutar muchos comandos simultáneamente.

Las etapas de desarrollo de la tecnología informática se dividen según un principio cronológico de forma bastante arbitraria. En un momento en que se utilizaban algunos tipos de computadoras, se estaban creando activamente los requisitos previos para la aparición de las siguientes.

Los primeros dispositivos de conteo

La herramienta de conteo más antigua conocida en la historia del desarrollo de la tecnología informática son los diez dedos de las manos de una persona. Los resultados del conteo se registraban inicialmente con los dedos, haciendo muescas en madera y piedra, palos especiales y nudos.

Con la llegada de la escritura, aparecieron y se desarrollaron varias formas de escribir números, y se inventaron sistemas numéricos posicionales (decimal en la India, sexagesimal en Babilonia).

Alrededor del siglo IV a. C., los antiguos griegos comenzaron a contar utilizando un ábaco. Inicialmente, era una tablilla plana de arcilla a la que se le habían aplicado rayas con un objeto punzante. El conteo se realizó colocando pequeñas piedras u otros objetos pequeños sobre estas franjas en un orden determinado.

En China, en el siglo IV d.C., apareció un ábaco de siete puntas: suanpan (suanpan). Se tensaron alambres o cuerdas (nueve o más) sobre un marco de madera rectangular. Otro alambre (cuerda), estirado perpendicularmente a los demás, dividía el suanpan en dos partes desiguales. En el compartimento más grande, llamado "tierra", había cinco huesos atados a cables, en el compartimento más pequeño, llamado "cielo", había dos. Cada uno de los cables correspondía a un decimal.

El ábaco soroban tradicional se ha vuelto popular en Japón desde el siglo XVI, habiendo llegado allí desde China. Al mismo tiempo, apareció el ábaco en Rusia.

En el siglo XVII, basándose en los logaritmos descubiertos por el matemático escocés John Napier, el inglés Edmond Gunter inventó la regla de cálculo. Este dispositivo se mejoró constantemente y ha sobrevivido hasta el día de hoy. Te permite multiplicar y dividir números, elevarlos a potencias, determinar logaritmos y funciones trigonométricas.

La regla de cálculo se convirtió en un dispositivo que completó el desarrollo de la tecnología informática en la etapa manual (premecánica).

Los primeros dispositivos de cálculo mecánicos.

En 1623, el científico alemán Wilhelm Schickard creó la primera "calculadora" mecánica, a la que llamó reloj contador. El mecanismo de este dispositivo se parecía a un reloj normal, formado por engranajes y ruedas dentadas. Sin embargo, este invento se conoció sólo a mediados del siglo pasado.

Un salto cualitativo en el campo de la tecnología informática fue la invención de la máquina sumadora Pascalina en 1642. Su creador, el matemático francés Blaise Pascal, comenzó a trabajar en este dispositivo cuando ni siquiera tenía 20 años. "Pascalina" era un dispositivo mecánico en forma de caja con una gran cantidad de engranajes interconectados. Los números que debían sumarse se ingresaban en la máquina girando ruedas especiales.

En 1673, el matemático y filósofo sajón Gottfried von Leibniz inventó una máquina que realizaba las cuatro operaciones matemáticas básicas y podía extraer la raíz cuadrada. El principio de su funcionamiento se basó en el sistema numérico binario, especialmente inventado por el científico.

En 1818, el francés Charles (Karl) Xavier Thomas de Colmar, tomando como base las ideas de Leibniz, inventó una máquina sumadora que podía multiplicar y dividir. Y dos años después, el inglés Charles Babbage comenzó a construir una máquina que sería capaz de realizar cálculos con una precisión de 20 decimales. Este proyecto quedó inconcluso, pero en 1830 su autor desarrolló otro: un motor analítico para realizar cálculos científicos y técnicos precisos. Se suponía que la máquina estaría controlada por software y se utilizarían tarjetas perforadas con diferentes ubicaciones de orificios para ingresar y emitir información. El proyecto de Babbage previó el desarrollo de la tecnología informática electrónica y los problemas que podrían resolverse con su ayuda.

Es de destacar que la fama del primer programador del mundo pertenece a una mujer: Lady Ada Lovelace (de soltera Byron). Fue ella quien creó los primeros programas para la computadora de Babbage. Posteriormente, uno de los lenguajes informáticos recibió su nombre.

Desarrollo de los primeros análogos de computadora.

En 1887, la historia del desarrollo de la tecnología informática entró en una nueva etapa. El ingeniero estadounidense Herman Hollerith logró diseñar la primera computadora electromecánica: el tabulador. Su mecanismo tenía un relé, además de contadores y una caja de clasificación especial. El dispositivo leía y clasificaba registros estadísticos elaborados en tarjetas perforadas. Posteriormente, la empresa fundada por Hollerith se convirtió en la columna vertebral del mundialmente famoso gigante informático IBM.

En 1930, el estadounidense Vannovar Bush creó un analizador diferencial. Funcionaba con electricidad y se utilizaban tubos de vacío para almacenar datos. Esta máquina era capaz de encontrar rápidamente soluciones a problemas matemáticos complejos.

Seis años más tarde, el científico inglés Alan Turing desarrolló el concepto de máquina, que se convirtió en la base teórica de las computadoras modernas. Tenía todas las propiedades principales de la tecnología informática moderna: podía realizar paso a paso operaciones programadas en la memoria interna.

Un año después, George Stibitz, un científico de Estados Unidos, inventó el primer dispositivo electromecánico del país capaz de realizar una suma binaria. Sus operaciones se basaban en el álgebra booleana, la lógica matemática creada a mediados del siglo XIX por George Boole: el uso de los operadores lógicos AND, OR y NOT. Más tarde, el sumador binario se convertirá en parte integral de la computadora digital.

En 1938, Claude Shannon, un empleado de la Universidad de Massachusetts, describió los principios del diseño lógico de una computadora que utiliza circuitos eléctricos para resolver problemas de álgebra booleana.

El comienzo de la era de la informática.

Los gobiernos de los países involucrados en la Segunda Guerra Mundial eran conscientes del papel estratégico de la informática en la conducción de operaciones militares. Este fue el impulso para el desarrollo y aparición paralela de la primera generación de computadoras en estos países.

Un pionero en el campo de la ingeniería informática fue Konrad Zuse, un ingeniero alemán. En 1941 creó la primera computadora controlada por un programa. La máquina, llamada Z3, estaba construida sobre relés telefónicos y sus programas estaban codificados en cinta perforada. Este dispositivo pudo funcionar en el sistema binario, así como operar con números de coma flotante.

El próximo modelo de la máquina de Zuse, el Z4, es reconocido oficialmente como la primera computadora programable que realmente funciona. También pasó a la historia como creador del primer lenguaje de programación de alto nivel, llamado Plankalküll.

En 1942, los investigadores estadounidenses John Atanasoff (Atanasoff) y Clifford Berry crearon un dispositivo informático que funcionaba con tubos de vacío. La máquina también utilizaba código binario y podía realizar una serie de operaciones lógicas.

En 1943, en un laboratorio del gobierno inglés, en una atmósfera de secreto, se construyó la primera computadora, llamada “Colossus”. En lugar de relés electromecánicos, se utilizaron 2.000 tubos electrónicos para almacenar y procesar información. Su objetivo era descifrar y descifrar el código de mensajes secretos transmitidos por la máquina de cifrado alemana Enigma, que era ampliamente utilizada por la Wehrmacht. La existencia de este dispositivo se mantuvo en la más estricta confidencialidad durante mucho tiempo. Después del final de la guerra, la orden de destrucción fue firmada personalmente por Winston Churchill.

Desarrollo de arquitectura

En 1945, el matemático estadounidense húngaro-alemán John (Janos Lajos) von Neumann creó el prototipo de la arquitectura de las computadoras modernas. Propuso escribir un programa en forma de código directamente en la memoria de la máquina, lo que implica el almacenamiento conjunto de programas y datos en la memoria de la computadora.

La arquitectura de Von Neumann formó la base de la primera computadora electrónica universal, ENIAC, que se creó en ese momento en los Estados Unidos. Este gigante pesaba alrededor de 30 toneladas y ocupaba una superficie de 170 metros cuadrados. En el funcionamiento de la máquina se utilizaron 18 mil lámparas. Esta computadora podría realizar 300 operaciones de multiplicación o 5 mil sumas en un segundo.

La primera computadora programable universal de Europa se creó en 1950 en la Unión Soviética (Ucrania). Un grupo de científicos de Kiev, dirigido por Sergei Alekseevich Lebedev, diseñó una pequeña máquina calculadora electrónica (MESM). Su velocidad era de 50 operaciones por segundo y contenía alrededor de 6 mil tubos de vacío.

En 1952, la tecnología informática nacional se reponía con BESM, una gran máquina calculadora electrónica, también desarrollada bajo la dirección de Lebedev. Esta computadora, que realizaba hasta 10 mil operaciones por segundo, era en ese momento la más rápida de Europa. La información se ingresaba en la memoria de la máquina mediante cinta de papel perforada y los datos se generaban mediante impresión fotográfica.

Durante el mismo período, se produjo en la URSS una serie de computadoras grandes con el nombre general "Strela" (el autor del desarrollo fue Yuri Yakovlevich Bazilevsky). Desde 1954, bajo la dirección de Bashir Rameev, comenzó en Penza la producción en serie del ordenador universal "Ural". Los últimos modelos eran compatibles en hardware y software entre sí, había una amplia selección de dispositivos periféricos que permitían ensamblar máquinas de diversas configuraciones.

Transistores. Lanzamiento de las primeras computadoras en serie.

Sin embargo, las lámparas fallaron muy rápidamente, lo que dificultó mucho el trabajo con la máquina. El transistor, inventado en 1947, logró solucionar este problema. Utilizando las propiedades eléctricas de los semiconductores, realizaba las mismas tareas que los tubos de vacío, pero ocupaba un volumen mucho menor y no consumía tanta energía. Junto con la aparición de los núcleos de ferrita para organizar la memoria de las computadoras, el uso de transistores permitió reducir significativamente el tamaño de las máquinas, haciéndolas aún más confiables y rápidas.

En 1954, la empresa estadounidense Texas Instruments comenzó a producir transistores en masa y dos años más tarde apareció en Massachusetts la primera computadora de segunda generación construida con transistores, la TX-O.

A mediados del siglo pasado, una parte importante de las organizaciones gubernamentales y las grandes empresas utilizaban computadoras para realizar cálculos científicos, financieros, de ingeniería y trabajar con grandes cantidades de datos. Poco a poco, las computadoras adquirieron características que hoy conocemos. Durante este período aparecieron los trazadores, las impresoras y los medios de almacenamiento en discos y cintas magnéticos.

El uso activo de la tecnología informática ha llevado a una ampliación de sus áreas de aplicación y ha requerido la creación de nuevas tecnologías de software. Han aparecido lenguajes de programación de alto nivel que permiten transferir programas de una máquina a otra y simplificar el proceso de escritura de código (Fortran, Cobol y otros). Han aparecido programas de traducción especiales que convierten el código de estos idiomas en comandos que la máquina puede percibir directamente.

La aparición de los circuitos integrados.

En 1958-1960, gracias a los ingenieros estadounidenses Robert Noyce y Jack Kilby, el mundo conoció la existencia de los circuitos integrados. Se montaban transistores en miniatura y otros componentes, a veces hasta cientos o miles, sobre una base de cristal de silicio o germanio. Los chips, de poco más de un centímetro de tamaño, eran mucho más rápidos que los transistores y consumían mucha menos energía. La historia del desarrollo de la tecnología informática conecta su aparición con el surgimiento de la tercera generación de computadoras.

En 1964, IBM lanzó la primera computadora de la familia System 360, basada en circuitos integrados. A partir de este momento se puede contar con la producción en masa de ordenadores. En total, se produjeron más de 20 mil copias de esta computadora.

En 1972, la URSS desarrolló la computadora EC (serie unificada). Se trataba de complejos estandarizados para el funcionamiento de centros informáticos que contaban con un sistema de mando común. Se tomó como base el sistema americano IBM 360.

Al año siguiente, DEC lanzó la minicomputadora PDP-8, el primer proyecto comercial en esta área. El costo relativamente bajo de las minicomputadoras ha hecho posible que las pequeñas organizaciones las utilicen.

Durante el mismo período, el software fue mejorado constantemente. Se desarrollaron sistemas operativos destinados a soportar el máximo número de dispositivos externos y aparecieron nuevos programas. En 1964, desarrollaron BASIC, un lenguaje diseñado específicamente para formar programadores novatos. Cinco años después apareció Pascal, que resultó muy conveniente para resolver muchos problemas aplicados.

Computadoras personales

Después de 1970 comenzó la producción de la cuarta generación de ordenadores. El desarrollo de la tecnología informática en este momento se caracteriza por la introducción de grandes circuitos integrados en la producción de computadoras. Estas máquinas ahora podían realizar miles de millones de operaciones computacionales en un segundo y su capacidad de RAM aumentó a 500 millones de bits. Una reducción significativa en el costo de las microcomputadoras ha llevado al hecho de que la oportunidad de comprarlas gradualmente se hizo disponible para el ciudadano medio.

Apple fue uno de los primeros fabricantes de ordenadores personales. Sus creadores, Steve Jobs y Steve Wozniak, diseñaron el primer modelo de PC en 1976, dándole el nombre de Apple I. Costaba sólo 500 dólares. Un año después, se presentó el próximo modelo de esta empresa: Apple II.

La computadora de esta época por primera vez se volvió similar a un electrodoméstico: además de su tamaño compacto, tenía un diseño elegante y una interfaz fácil de usar. La proliferación de ordenadores personales a finales de los años 1970 provocó que la demanda de ordenadores centrales cayera notablemente. Este hecho preocupó seriamente a su fabricante, IBM, que en 1979 lanzó al mercado su primer PC.

Dos años más tarde, apareció el primer microordenador de arquitectura abierta de la empresa, basado en el microprocesador 8088 de 16 bits fabricado por Intel. La computadora estaba equipada con una pantalla monocromática, dos unidades para disquetes de cinco pulgadas y 64 kilobytes de RAM. En nombre de la empresa creadora, Microsoft desarrolló especialmente un sistema operativo para esta máquina. Aparecieron en el mercado numerosos clones de PC de IBM, lo que estimuló el crecimiento de la producción industrial de computadoras personales.

En 1984, Apple desarrolló y lanzó una nueva computadora: la Macintosh. Su sistema operativo era extremadamente fácil de usar: presentaba comandos en forma de imágenes gráficas y permitía introducirlos mediante el ratón. Esto hizo que la computadora fuera aún más accesible, ya que ahora no se requerían habilidades especiales por parte del usuario.

Algunas fuentes fechan los ordenadores de quinta generación de tecnología informática entre 1992 y 2013. Brevemente, su concepto principal se formula de la siguiente manera: se trata de computadoras creadas sobre la base de microprocesadores de alta complejidad, que tienen una estructura de vectores paralelos, lo que permite ejecutar simultáneamente docenas de comandos secuenciales integrados en el programa. Las máquinas con varios cientos de procesadores trabajando en paralelo permiten procesar datos de forma aún más precisa y rápida, así como crear redes eficientes.

El desarrollo de la tecnología informática moderna ya nos permite hablar de ordenadores de sexta generación. Se trata de computadoras electrónicas y optoelectrónicas que funcionan con decenas de miles de microprocesadores, que se caracterizan por un paralelismo masivo y modelan la arquitectura de los sistemas biológicos neuronales, lo que les permite reconocer con éxito imágenes complejas.

Después de examinar sistemáticamente todas las etapas del desarrollo de la tecnología informática, cabe señalar un hecho interesante: los inventos que han demostrado su eficacia en cada una de ellas han sobrevivido hasta el día de hoy y continúan utilizándose con éxito.

Clases de informática

Existen varias opciones para clasificar las computadoras.

Entonces, según su finalidad, las computadoras se dividen:

  • a los universales: aquellos que son capaces de resolver una amplia variedad de problemas matemáticos, económicos, de ingeniería, técnicos, científicos y otros;
  • orientado a problemas: resolver problemas de una dirección más estrecha, asociados, por regla general, con la gestión de ciertos procesos (registro de datos, acumulación y procesamiento de pequeñas cantidades de información, realización de cálculos de acuerdo con algoritmos simples). Tienen recursos de software y hardware más limitados que el primer grupo de computadoras;
  • Las computadoras especializadas suelen resolver tareas estrictamente definidas. Tienen una estructura altamente especializada y, con una complejidad relativamente baja de dispositivo y control, son bastante confiables y productivos en su campo. Se trata, por ejemplo, de controladores o adaptadores que controlan varios dispositivos, así como de microprocesadores programables.

Según el tamaño y la capacidad productiva, los equipos informáticos electrónicos modernos se dividen en:

  • a ultragrandes (supercomputadoras);
  • computadoras grandes;
  • computadoras pequeñas;
  • ultrapequeños (microcomputadoras).

Así, vimos que los dispositivos, primero inventados por el hombre para tener en cuenta recursos y valores, y luego para realizar cálculos y operaciones computacionales complejos de manera rápida y precisa, estaban en constante desarrollo y mejora.

El término "tecnología informática" se entiende como un conjunto de sistemas técnicos, es decir, computadoras y herramientas, métodos y técnicas matemáticas utilizadas para facilitar y acelerar la solución de problemas intensivos en mano de obra asociados con el procesamiento de información (computación), así como la Rama de la tecnología involucrada en el desarrollo y operación de computadoras.

Los principales elementos funcionales de las computadoras modernas, o computadoras (de la palabra inglesa calcular, calcular, contar), se fabrican en dispositivos electrónicos, por lo que se denominan computadoras electrónicas o, para abreviar, computadoras.

Según el método de presentación de información, las computadoras se dividen en tres grupos:

Computadoras analógicas (AVM), en las que la información se presenta en forma de variables que cambian continuamente expresadas por algunas cantidades físicas;

Computadoras digitales (DCM), en las que la información se presenta en forma de valores discretos de variables (números), expresados ​​como una combinación de valores discretos de alguna cantidad física (dígitos);

Computadoras híbridas que utilizan ambos métodos de presentación de información.

Cada una de estas formas de presentar información tiene sus propias ventajas y desventajas. Las computadoras digitales son las más comunes porque la precisión de sus resultados, en principio, no depende de la precisión con la que se fabrican. Esto también explica el hecho de que el primer dispositivo informático analógico, la regla de cálculo, apareció recién en el siglo XVII, y los medios digitales más antiguos para facilitar los cálculos fueron la mano humana y los guijarros. Gracias al conteo con los dedos surgieron los sistemas numéricos quinario y decimal.

Los inventos posteriores para contar fueron las etiquetas con muescas y las cuerdas anudadas. El primer dispositivo diseñado específicamente para la informática fue un simple ábaco, a partir del cual comenzó el desarrollo de la tecnología informática. Contar con el ábaco, ya conocido en el Antiguo Egipto y la Antigua Grecia mucho antes de nuestra era, existió hasta los siglos XVI-XVII, cuando fue sustituido por los cálculos escritos. Tenga en cuenta que el ábaco sirvió no tanto para facilitar los cálculos reales, sino para recordar resultados intermedios. Se conocen varias variedades de ábaco: el ábaco griego (egipcio) en forma de tablilla en la que se dibujaban líneas y se colocaban guijarros en las columnas resultantes; un ábaco romano, sobre el cual los guijarros podían moverse a lo largo de las ranuras; el suan-pan chino y el soroban japonés con bolas ensartadas en ramitas; tablas de conteo, formadas por líneas horizontales correspondientes a unidades, decenas, centenas, etc., y líneas verticales destinadas a términos y factores individuales; Se colocaron fichas (hasta cuatro) en estas líneas. Ábaco ruso: el ábaco apareció en los siglos XVI-XVII y todavía se utiliza en la actualidad. El ábaco ruso ocupa un lugar especial entre las variedades de ábaco, ya que utilizan un sistema numérico decimal y no un sistema numérico de cinco dígitos, como todos los demás ábacos. El principal mérito de los inventores del ábaco es la creación de un sistema posicional para representar números (ver Sistema numérico).

NOBERT WIENER
(1894-1964)

La vida de Wiener se conoce en detalle gracias a sus libros autobiográficos "Ex Prodigy" y "Soy matemático" (este último está disponible en traducción al ruso).

El futuro científico ingresó a la escuela a la edad de 9 años, pero el nivel de sus conocimientos ya entonces correspondía al conocimiento de las clases graduadas. Su padre, profesor de lenguas eslavas en la Universidad de Harvard (EE.UU.), preparó para su hijo un programa de formación especial y muy complejo. N. Wiener se graduó en la universidad a los 14 años y a los 18 se doctoró en Filosofía con una tesis sobre lógica matemática.

Wiener continúa su educación en Europa, en Cambridge y luego en Göttingen, donde conoce a D. Gilbert.

Los primeros años después de regresar a casa fueron para N. Wiener años de búsqueda de su propio camino en las matemáticas. Durante el periodo de 1915 a 1919 cambió muchos trabajos hasta conseguir un trabajo docente en el Instituto Tecnológico de Massachusetts, donde trabajó toda su vida.

Las aplicaciones de las matemáticas siempre estuvieron en el radar de Wiener. A partir de su idea se creó un dispositivo para corregir circuitos eléctricos, piensa en las computadoras y desarrolla temas de codificación y decodificación de mensajes.

Durante la Segunda Guerra Mundial, Wiener se ocupa del problema del control del fuego de artillería antiaérea. En la guerra anterior, compiló tablas para disparar a objetivos estacionarios, pero ¿cómo controlar el fuego a un objetivo en maniobra? Wiener construye una teoría de previsión a partir de la cual se crean instrumentos reales.

Al trabajar en problemas aplicados, Wiener gradualmente dará mayor importancia al papel de la retroalimentación en una amplia variedad de sistemas. El científico comienza a buscar fenómenos de retroalimentación en fisiología. Wiener llega a la conclusión de que existen leyes universales de control, desarrollo y transformación de la información tanto en los sistemas técnicos como en los vivos. Empieza a hablar de una nueva ciencia: la cibernética.

En 1948 se publicó su libro “Cibernética o control y comunicación en animales y máquinas”, cuya circulación se agotó rápidamente. El nombre del creador de la nueva ciencia se ha hecho ampliamente conocido. Escribe nuevos libros y folletos, que se traducen a muchos idiomas del mundo, da conferencias en diferentes países, discute y desarrolla diversos aspectos de la cibernética.

Wiener fue uno de los más grandes matemáticos del siglo XX, pero su amplia fama se debe principalmente a su reputación como creador y divulgador de la cibernética.

El siguiente paso importante en el desarrollo de la tecnología informática fue la creación de máquinas sumadoras y máquinas sumadoras. Estas máquinas fueron diseñadas independientemente unas de otras por diferentes inventores.

En los manuscritos del científico italiano Leonardo da Vinci (1452-1519) hay un boceto de un dispositivo sumador de 13 bits. El diseño de otra máquina de 6 bits fue desarrollado por el científico alemán W. Schickard (1592-1636), y la máquina en sí probablemente fue construida en 1623. Sin embargo, estos inventos permanecieron desconocidos hasta mediados del siglo XX. y por lo tanto no tuvo ninguna influencia en el desarrollo de la tecnología informática.

Durante más de 300 años, se creyó que la primera máquina sumadora (8 bits) fue diseñada en 1641 y construida en 1645 por B. Pascal, quien también estableció la “producción en masa” de sus máquinas. Hasta el día de hoy han sobrevivido varias copias de las máquinas. Estas máquinas mecánicas permitían realizar sumas y restas, así como multiplicaciones (división) mediante sumas (restas) repetidas.

Los diseñadores de máquinas sumadoras fueron los primeros en implementar la idea de representar los números mediante el ángulo de rotación de las ruedas contadoras: cada número del 0 al 9 correspondía a su propio ángulo. Al implementar otra idea, la idea de la transferencia automática de decenas, Pascal encontró una cierta dificultad: el mecanismo que inventó para transferir decenas funcionaba cuando las ruedas contadoras giraban solo en una dirección, y esto no permitía restar girando. las ruedas en la dirección opuesta. La solución sencilla e ingeniosa encontrada por Pascal para salir de esta situación tuvo tanto éxito que se utiliza en los ordenadores modernos. Pascal reemplazó la resta por la suma con la suma del sustraendo. Para una máquina Pascal de 8 bits que se ejecuta en el sistema decimal, el complemento de un número sería el número , por lo que la operación de resta se puede reemplazar por la suma:

El número resultante será mayor que la diferencia deseada en 100.000.000, pero como la máquina es de 8 bits, la unidad del noveno dígito simplemente desaparece al transferir decenas del octavo.

La primera copia de la primera máquina sumadora del mundo, que realizaba las cuatro operaciones aritméticas, fue creada en 1673 por G. W. Leibniz después de casi cuarenta años de trabajo en el "instrumento aritmético".

En los siglos XVII-XIX. Continuó la mejora de las máquinas sumadoras mecánicas y luego de las máquinas sumadoras eléctricas. Estas mejoras eran de naturaleza puramente mecánica y con la transición a la electrónica perdieron su importancia.

Las únicas excepciones son las máquinas del científico inglés C. Babbage (1791-1871): diferencia (1822) y analítica (1830, borrador).

El motor diferencial estaba destinado a tabular polinomios y, desde un punto de vista moderno, era una computadora especializada con un programa fijo (rígido). La máquina tenía “memoria”: varios registros para almacenar números; contador del número de operaciones de campana: cuando se completó un número específico de pasos de cálculo, sonó una campana; dispositivo de impresión: se imprimieron los resultados y esta operación se combinó en el tiempo con los cálculos en el siguiente paso.

Mientras trabajaba en el motor diferencial, a Babbage se le ocurrió la idea de crear una computadora digital para realizar una variedad de cálculos científicos y técnicos que, funcionando automáticamente, ejecutaría un programa determinado. El diseño de esta máquina, que el autor llamó analítica, llama la atención principalmente porque predice todos los dispositivos básicos de las computadoras modernas, así como los problemas que se pueden resolver con su ayuda.

Se suponía que el motor analítico de Babbage incluiría los siguientes dispositivos: un "almacén", un dispositivo para almacenar información digital (ahora llamado almacenamiento o memoria);

“fábrica” es un dispositivo que realiza operaciones con números tomados del “almacén” (hoy en día es un dispositivo aritmético);

un dispositivo al que a Babbage no se le ocurrió ningún nombre y que controlaba la secuencia de acciones de la máquina (ahora es un dispositivo de control);

Dispositivo de entrada y salida de información.

Esperando los resultados de los cálculos.

Como soportes de información de entrada y salida, Babbage pretendía utilizar tarjetas perforadas (perforated cards) como las utilizadas por el tejedor y mecánico francés J.M. Jacquard (1752-1834) para controlar el funcionamiento de la máquina de tejer. Babbage proporcionó la posibilidad de ingresar en la máquina tablas de valores de funciones con control al ingresar valores de argumentos.

La información de salida se podía imprimir y también perforar en tarjetas perforadas, lo que permitía volver a introducirla en la máquina si era necesario.

Babbage también propuso la idea de controlar el proceso computacional mediante programación y el comando correspondiente, un análogo del moderno comando de salto condicional: la cuestión de elegir una de las dos posibles continuaciones del programa la decidía la máquina dependiendo del signo de algún valor calculado.

Babbage también proporcionó un contador especial para el número de operaciones, que está disponible en todas las computadoras modernas.

Por tanto, la máquina analítica de Babbage fue la primera computadora controlada por programa del mundo. Para esta máquina se compilaron los primeros programas del mundo y la primera programadora fue Augusta Ada Lovelace (1815-1852), hija del poeta inglés J. Byron. En su honor, uno de los lenguajes de programación modernos se llama "Ada".

Las computadoras modernas tienen una estructura muy similar a la máquina analítica de Babbage, pero, a diferencia de ella (y de todas las máquinas sumadoras mecánicas), utilizan un principio completamente diferente para realizar los cálculos, basado en el sistema numérico binario.

El principio binario se implementa mediante un relé electromagnético, un elemento que puede estar en uno de dos estados posibles y pasar de un estado a otro cuando se expone a una señal eléctrica externa.

Si en las máquinas sumadoras electromecánicas solo se utilizaban las propiedades energéticas de la electricidad, en las máquinas construidas sobre relés la electricidad se convierte en el participante más importante y directo en el proceso informático.

La primera máquina contadora que utilizaba relés eléctricos fue diseñada en 1888 por un estadounidense de origen alemán, G. Hollerith (1860-1929), y ya en 1890 se utilizó en el censo estadounidense. Esta máquina, llamada tabuladora, incluía relés, contadores y una caja de clasificación. Los datos se aplicaron a tarjetas perforadas, que casi no se diferencian de las modernas, en forma de perforaciones. Cuando una tarjeta perforada pasaba por la máquina en los lugares donde había agujeros, se cerraba el circuito eléctrico, se añadía una a los contadores correspondientes, tras lo cual la tarjeta perforada acababa en un determinado compartimento de la caja de clasificación.

Hoy en día, los ordenadores se utilizan cada vez más para gestionar producciones complejas.

El desarrollo de tabuladores y otros equipos de conteo y punzonado lo hizo posible a finales de los años 30 y principios de los 40. de nuestro siglo, para construir computadoras universales con control de programa, en las que los principales elementos de "conteo" (en terminología moderna, la base de elementos) eran relés electromecánicos.

Las máquinas de relé se utilizaron durante bastante tiempo, a pesar de la aparición de las electrónicas. En particular, la máquina RVM-1, diseñada por el ingeniero soviético N.I. Bessonov, funcionó hasta 1965, pero las máquinas de retransmisión durante mucho tiempo no pudieron competir con las computadoras electrónicas, a medida que crecían los requisitos de confiabilidad y velocidad.

Los primeros proyectos de computadoras electrónicas aparecieron sólo un poco más tarde que los proyectos de máquinas de relés, porque los inventos necesarios para su creación se realizaron a finales de los años 20. de nuestro siglo: en 1904 apareció un tubo-diodo electrónico de dos electrodos; en 1906, un triodo de tubo de electrones de tres electrodos; en 1918, un relé electrónico (gatillo de tubo).

Se considera que la primera computadora electrónica fue la máquina ENIAC (computadora e integradora numérica electrónica), desarrollada en la Universidad de Pensilvania en Estados Unidos. ENIAC fue construido en 1945, tenía control automático de programas, pero no tenía un dispositivo de memoria interna para almacenar comandos.

La primera computadora que tenía todos los componentes de las máquinas modernas fue la máquina inglesa EDSAC, construida en la Universidad de Cambridge en 1949. Fue la primera en implementar el principio de “programa almacenado”, formulado en 1945-1946. Matemático estadounidense J. Neumann (1903-1957).

Este principio es el siguiente:

los comandos y los números son del mismo tipo en la forma de representación en la máquina (escritos en código binario);

los números se colocan en el mismo dispositivo de almacenamiento que el programa;

Gracias a la forma numérica de grabar los comandos del programa, la máquina puede realizar operaciones según los comandos.

La primera computadora doméstica fue la pequeña computadora electrónica (MESM), desarrollada en 1947-1951. bajo el liderazgo del científico soviético y académico S. A. Lebedev (1902-1974), cuyo nombre está asociado con el mayor desarrollo de la tecnología informática soviética.

MESM ejecutó solo 12 comandos, la velocidad nominal fue de 50 operaciones por segundo. La RAM MESM, fabricada en flip-flops, podía almacenar 31 números binarios de diecisiete bits y 64 comandos de veinte bits. Además, había dispositivos de almacenamiento externos.

Curiosamente, el almacenamiento separado de números e instrucciones en la RAM MESM contradice el principio de Neumann de un programa almacenado, en el que se basaron los diseños de computadoras durante muchos años. En los ordenadores modernos también existe una desviación de este principio; en particular, no es necesario realizar operaciones con las cantidades con las que están codificadas las órdenes del programa.

En la historia del desarrollo de las computadoras electrónicas, comenzando con ENIAC, EDSAC, MESM y continuando hasta el presente, se suelen distinguir cuatro períodos, correspondientes a las cuatro llamadas generaciones de computadoras. Estos períodos se pueden distinguir según diferentes criterios, por lo que a menudo resulta difícil atribuir un coche concreto a una generación concreta. Algunas características promedio de generaciones se muestran en la tabla.

El ejemplo de la máquina doméstica BESM-6 (diseñador jefe - S. A. Lebedev) muestra cómo a veces es difícil determinar sin ambigüedades la generación de la máquina. El desarrollo de BESM-6 se completó en 1966; base de elementos: transistores semiconductores; rendimiento: operaciones por segundo, capacidad de la memoria de acceso aleatorio (RAM): bits. Según estas características, pertenece a la segunda generación, según el resto, a la tercera. A veces las computadoras se dividen en clases: minicomputadoras, pequeñas, medianas, grandes y supercomputadoras.

Características de generaciones de computadoras electrónicas.

generación de computadoras

Límites cronológicos de períodos.

Desde principios de los 50 hasta mediados de los 50.

Finales de los 50 - mediados de los 60.

Finales de los 60 - principios de los 70.

Mediados de los 70

Base de elementos: procesadores

Lámparas de vacío

Transistores semiconductores

Circuitos integrados

Grandes circuitos integrados

Memoria de acceso aleatorio (RAM)

Líneas de retardo de mercurio, tubos de rayos catódicos.

Núcleos de ferrita

Núcleos de ferrita

Rendimiento (número de operaciones por segundo)

Capacidad de RAM (dígitos binarios - bits)

Capacidad de almacenamiento flash (bits)

Software, lenguajes de programación.

Lenguaje de máquina, bibliotecas de programas estándar.

Agregado: idiomas de alto nivel, traductores de estos idiomas.

Agregado: lenguajes de gestión de tareas, sistemas operativos, paquetes de aplicaciones.

Agregado: lenguajes no procedimentales, generadores de programas, sistemas operativos en tiempo real.

Paralelismo en la ejecución del programa

Ejecución de comandos puramente secuencial

Ejecutar comandos con superposición: el siguiente comando comienza a ejecutarse antes de que finalice el anterior

Ejecución de comandos superpuesta combinada con E/S

Paralelo: ejecuta múltiples instrucciones en múltiples conjuntos de operandos simultáneamente

Modo de uso

Exclusivo (una tarea se resuelve en un solo procesador), la finalización de la tarea la controla el usuario

Exclusivo, la finalización de la tarea está controlada por un operador humano.

Por lotes, colectivo (se resuelven varias tareas al mismo tiempo), el paso de las tareas está controlado por el sistema operativo

Una tarea se puede resolver en muchos procesadores (en paralelo) el paso de las tareas está controlado por una máquina especial: un "empujador";

Producción

Individual

De serie

Sistemas de máquinas compatibles

sistemas computacionales

Área de aplicación

Cálculos científicos

Añadido: cálculos técnicos.

Añadido: cálculos económicos.

Agregado: control en tiempo real de grandes sistemas.

Representante típico:

computadora nacional computadora extranjera

BESM-4 IBM-7090

EC-1060 IBM-370/75

"Elbrus" KREY-1

Operaciones por segundo para los más antiguos y capacidad de RAM, de bits a bits.

Las máquinas pertenecientes a un mismo sistema tienen compatibilidad de software y, en gran medida, de hardware de abajo hacia arriba. La compatibilidad de software ascendente significa que cualquier programa ejecutado en una máquina junior debe ejecutarse en una más antigua sin modificaciones y, por supuesto, los resultados del cálculo deben ser los mismos.

También se han generalizado las familias de ordenadores pequeños (ordenadores SM) con velocidades de funcionamiento de hasta 1 segundo y capacidad de RAM de hasta bits. Computadora ES – propósito universal; Las principales áreas de aplicación de las computadoras SM son la automatización de objetos y procesos tecnológicos, experimentos científicos e instalaciones de prueba y trabajos de diseño.

Las computadoras ES y SM se producen en la URSS y otros países de la comunidad socialista.

Recientemente, el término computadora personal (PC), o computadora personal, se ha vuelto cada vez más común. Una PC es una máquina de pequeño tamaño que se utiliza tanto en la vida cotidiana como en los campos de actividad científica, de ingeniería, de gestión, editorial y editorial y otros. Las PC, por regla general, pertenecen a las microcomputadoras, ya que se crean sobre la base de un microprocesador, es decir. Basado en uno o más circuitos integrados de gran tamaño.

Si es necesario, los PC pueden interconectarse o conectarse a máquinas más potentes, formando la llamada red informática. Por ejemplo, el equipo típico de un aula de informática de una escuela consta de una estación de trabajo para el profesor y entre 8 y 15 estaciones de trabajo para los estudiantes. Cada uno de ellos está equipado con un monitor de vídeo y un PC. Normalmente se encuentra en el mismo bloque que el teclado. Además, el lugar de trabajo del profesor está equipado con: un dispositivo de impresión, una memoria en disco magnético, un trazador y otros dispositivos. Las líneas de comunicación proporcionan transferencia de datos entre las estaciones de trabajo de profesores y estudiantes.

Las computadoras personales modernas tienen una velocidad del orden de operaciones por segundo y una capacidad de RAM en bits. Ejemplos típicos de PC domésticas son las siguientes máquinas: "Agat", "Corvette", DVK-3 y DVK-4, ES-1840 y ES-1841.

    licenciatura
  • 09.03.01 Informática y Ciencias de la Computación
  • 09.03.02 Sistemas y tecnologías de la información.
  • 09.03.03 Informática Aplicada
  • 09.03.04 Ingeniería de software

El futuro de la industria

La tecnología de la información (TI) es una de las industrias de más rápido crecimiento. Los cambios en esta industria establecieron nuevas tecnologías y prácticas para prácticamente todos los sectores de la economía. Diseño, transporte, gestión de recursos, marketing, gestión de personas: todas estas y muchas otras áreas están cambiando bajo la influencia de las TI.

Hay varios procesos importantes en marcha en el sector de TI. En primer lugar, la conectividad del mundo está creciendo gracias a las soluciones de telecomunicaciones, el volumen de datos que pasan a través de la red está aumentando y se están desarrollando soluciones para procesar estos datos. En segundo lugar, las soluciones digitales son cada vez más móviles y fáciles de usar. Si ahora casi todas las familias tienen una computadora y una de cada dos tiene un teléfono inteligente, dentro de diez años cada residente de la ciudad tendrá al menos 5 o 6 dispositivos conectados al cuerpo y conectados entre sí. Por ejemplo, gafas de realidad aumentada, una pulsera biométrica para el cuidado de la salud, un teléfono inteligente con función de billetera "inteligente", etc. En tercer lugar, se están desarrollando nuevos entornos para el trabajo, la educación y el ocio de las personas: mundos virtuales para una amplia variedad de propósitos, incluidos aquellos creados en base a tecnologías de realidad aumentada.

Las innovaciones en otras industrias nacen en la interfaz con la TI, por lo que surgen una gran cantidad de desafíos entre industrias para lograr un gran avance. Sin embargo, el desarrollo y la producción de hardware, software y sistemas de seguridad siguen siendo prioridades dentro del sector de TI. Una dirección muy prometedora es el diseño de espacios virtuales e interfaces para la interacción con ellos.

Profesiones del futuro

  • Arquitecto de Sistemas de Información
  • diseñador de interfaz
  • Arquitecto de la virtualidad
  • diseñador de mundos virtuales
  • Diseñador de neurointerfaces
  • abogado de la red
  • Organizador de comunidades online.
  • predicador de TI
  • Lingüista digital
  • Desarrollador de modelos BIG-DATA

Los puntos de avance probables en las próximas décadas serán:

  • aumentar el volumen de datos transmitidos y modelos para procesarlos (big data);
  • distribución de software que puede verse influenciado por el usuario medio;
  • desarrollo de interfaces hombre-máquina;
  • tecnologías de inteligencia artificial;
  • sistemas semánticos que trabajan con los significados de los lenguajes naturales (traducción, búsqueda en Internet, comunicación persona-computadora, etc.);
  • nuevas computadoras cuánticas y ópticas que pueden acelerar significativamente el procesamiento de grandes cantidades de datos;
  • desarrollo de interfaces neuronales, incluido el "control del pensamiento", diversos objetos, transmisión de sensaciones y experiencias a distancia.

Un microprocesador es un dispositivo eléctrico programable diseñado para procesar información presentada en forma digital y está implementado en un LSI.

Un sistema de microprocesador es un dispositivo eléctrico especializado fabricado a partir de uno o varios microprocesadores. El dispositivo microprocesador incluye: - memoria; - elemento de entrada/salida - dispositivo que garantiza el funcionamiento del procesador;

Dependiendo del propósito, M.P. se dividen en: - información e informática - dispositivos de control y control.

Dispositivos de información e informática: microcomputadoras, computadoras personales.

Dispositivos de control: microcontrolador, controlador programable.

Los medios de microprocesador son microprocesadores y otros LSI combinados con fines funcionales y destinados a construir sistemas de microprocesadores. Generadores del sistema. Controladores del sistema. Temporizadores del sistema. Controladores de E/S. Controladores de interrupción. Controladores de acceso directo a memoria.

Un microproccontrol es una computadora, que incluye un medio de memoria para comunicarse con dispositivos periféricos, integrado en una estructura de soporte.

Se puede implementar en 1) microprocesador de un solo chip 2) microprocesador seccional (multichip) 3) microprocesador de un solo chip 4) circuitos lógicos programables de matriz compleja

Pregunta 4 Concepto de información. Métodos de transmisión de información.

Analógico Digital

Pulso de relé

La información es información sobre el mundo que nos rodea.

Una señal es un fenómeno físico-material que transmite información.

Mensaje: un conjunto de señales transmitidas.

Señales: 1) continua 2) discreta

Señal continua (analógica) cuyo dominio de definición es un espacio continuo. La información se presenta en una forma conveniente para su almacenamiento, procesamiento y transmisión denominada datos.

La información que se presenta en forma de números se puede almacenar y transmitir. El almacenamiento se realiza en memoria digital. La transmisión se realiza mediante una línea de comunicación y el procesamiento mediante un sistema de bombeo. La unidad mínima de medida de información es 1 bit (0 1); el proceso de convertir información de un tipo a otro se llama codificación.

Informar-texto-numeros-video-audio

Pregunta 5.6 Sistemas numéricos utilizados en tecnología informática

Fundamentos aritméticos de la tecnología MP: aritmética binaria.

El sistema numérico binario es posicional y se utiliza para mostrar números: "0" y "1".

Un sistema numérico es un conjunto de signos y reglas para registrarlos con el fin de procesar números de información.

Sistema numérico posicional - número de dígitos = base del sistema.

El peso de un dígito en un número es igual a su valor, los dígitos multiplicados por la base elevado a 1 son menores que la posición del dígito en el número.

El valor del dígito inicial es 1 menor que el de la base.

Todos los números décimos se pueden convertir a segundos:

En informática se utilizan sistemas numéricos octales y hexadecimales. Se utilizan para simplificar la escritura de números binarios.

Sistema 8-ario:0 1 2 3 4 5 6 7.16-ario: 0-9, A,B,C,D,E,F.1110 1110 1101 =EDD16(H)111 011 101 101 = 73558(Q)

567=101 110 111 ; 1FA= 1 1111 1010Traducción de 10 dígitos a 8-16 dígitos: De 8 a 16 dígitos:

AB816=101 010 111 000=52708 Operaciones aritméticas en el sistema de medida binario: +,-,*,/.0+0=0; 0+1=1; 1+0=1; 1+1=10.

+ 1101110

Multiplicación:

Reglas de multiplicación:1*0=00*0=01*1=1La operación de multiplicación se puede reemplazar por una operación de suma y una operación de desplazamiento.

Operación de divisiónLa operación de división se puede reemplazar por una operación de resta y una operación de cambio.

Sistema de 8 dígitos y hexadecimal.

1F(16) = 111112, no 00011111(2)

F1(16) = 111100012 = 011 110 0012 = 361(8)




Arriba