Computación distribuida en Windows 7. Science@Home: computación distribuida en una PC. World Community Grid - ayudando a IBM

Todos hemos visto la trilogía "Regreso al futuro" y la mayoría de las veces imaginamos a los científicos en la forma de Doc: un poco locos, personas que se dejan llevar por algunas ideas. A veces queremos sentirnos como el mismo pionero, probar una hipótesis, demostrar un teorema, construir una máquina del tiempo. O al menos probar este coche.

Pero volvamos a la realidad. No existe la máquina del tiempo. Los vuelos al espacio aún no están tan lejos. Las enfermedades no han sido vencidas. “¿Dónde están estos científicos? ¿Cuál es el beneficio para mí, por ejemplo, de los descubrimientos de Einstein?”, piensan muchas personas mientras navegan en un barco por el océano. Pero el barco está guiado por GPS, cuyos satélites navegan constantemente sobre el planeta y ayudan a determinar exactamente dónde se encuentra el receptor en la Tierra. Y si no fuera por el trabajo de Einstein, no podríamos utilizar esta tecnología, porque a velocidades de satélite ya se notan efectos que, si no se tienen en cuenta, desviarían todas las miras del GPS. Esto significa que todavía existen beneficios indirectos de la ciencia. ¿Podemos ayudar, si no a Doc, entonces a la ciencia?

Probablemente muchos de ustedes hayan oído hablar de los voluntarios, personas que voluntariamente hacen algo en nombre de algo grandioso: proteger a las ballenas, plantar árboles, limpiar la basura, ayudar a los médicos a combatir enfermedades, tanto participando en la vacunación de los pueblos de África como probando estos medicamentos. en ti mismo. Mucha gente quiere hacer algo grande. Así, la Fundación Bill y Melinda Gates patrocina diversos programas de salud: prevención y tratamiento de la tuberculosis, el SIDA, la lucha contra la malaria y la fiebre.
Imagínese el futuro, dentro de 10 años. Se le acerca un niño que vio un programa sobre la gripe en Discovery y le pregunta: “Papá, ¿sabías que la gente solía enfermarse de gripe todos los años y recientemente los científicos descubrieron una enfermedad? remedio contra ello y ahora ¿No estamos enfermos? Y respondes: “¡Por ​​supuesto que lo sé! Yo participé en esto”.
Está claro que esto sigue siendo una fantasía, pero te alegrarías, ¿verdad?
¿Qué pasaría si pudieras ayudar a la ciencia y la medicina sin donar una fortuna, como Bill Gates, sin derramar sudor y sangre en actividades de voluntariado, sin correr el riesgo de contraer malaria de personas vacunadas? Dices que esto es fantástico.

El proyecto SETI para buscar vida extraterrestre inteligente resulta familiar para muchos. Una red de radiotelescopios escanea el cielo en busca de señales inusuales. Los inusuales son aquellos que se repiten, pero que no pueden explicarse por la actividad humana (radares, satélites, estaciones de radio) o por causas naturales (púlsares, radiación cósmica de fondo de microondas, etc.). Mientras buscan algo interesante en este "ruido", escuchan frecuencia tras frecuencia, como si estuvieras girando lentamente la sintonía de una radio, y todo este silbido entre estaciones de radio es ruido, y en cada frecuencia intentan encontrar algo que se repita. . ¿Cómo? Cada señal se puede representar como una gráfica de una función. Por cálculos complejos puedes "seleccionar" una fórmula que describa esto: realiza una transformada de Fourier para el gráfico. Esto es increíblemente difícil porque entran muchos datos y todos requieren largos cálculos. Usar supercomputadoras para esto sería costoso.

En 1994, David Gidi propuso la idea de utilizar para los cálculos una red integrada de ordenadores de voluntarios que están conectados constante o periódicamente a la red. Los datos de los telescopios se descomponen en miles de ruidos independientes en frecuencias específicas y se envían a las computadoras de las personas que aceptaron ayudar en la búsqueda de inteligencia extraterrestre.

¿Esto interfirió con el uso normal de las computadoras? No, los programas se escribieron para utilizar recursos cuando estaban inactivos. Aproximadamente lo mismo que aparece el protector de pantalla en el monitor. Cuando el usuario comienza a trabajar activamente nuevamente, por ejemplo, iniciando un juego o convirtiendo un video, el programa "se queda dormido" y espera el siguiente momento libre. Por cierto, las computadoras modernas a menudo tienen muchos procesadores (núcleos) y la ejecución de dichos programas se puede realizar incluso mientras se usa la computadora para que el usuario no note la carga en la máquina. El programa cliente se conecta periódicamente al servidor para recibir la siguiente porción de datos para los cálculos. Una vez completados los cálculos, se devuelven los resultados.

La arquitectura así inventada se llama BOIN(Inglés) Infraestructura abierta de Berkeley para informática en red) - abierto plataforma de software(Universidad de Berkeley para GRID Computing). Para ayudar a la ciencia, ahora basta con descargar el programa cliente BOINC y conectarse a uno de los proyectos.

Folding@Home (F@H, FAH): un proyecto informático distribuido para modelado por computadora plegamiento de moléculas de proteínas. El objetivo de este proyecto es comprender la tecnología y los principios del proceso bioquímico de creación (plegamiento) y destrucción (desplegamiento) de proteínas. Esto es necesario para combatir enfermedades como el Alzheimer, el Parkinson, la diabetes y la esclerosis múltiple. Como resultado de la asistencia computacional de voluntarios en este proyecto Hubo muchas simulaciones y se publicaron muchas intermedias basadas en ellas. trabajos científicos. Este es el mayor de los proyectos de computación distribuida voluntarios, rendimiento general Los sistemas involucrados en él son capaces de competir con el rendimiento. las supercomputadoras más poderosas planetas.

Einstein@Home - probando la hipótesis de Einstein

Einstein@Home es un proyecto creado para probar la hipótesis de Einstein sobre las ondas gravitacionales: la forma en que la gravedad se propaga por todo el Universo. Para ello, estudian y compilan un atlas detallado de objetos espaciales "pesados": estrellas de neutrones, agujeros negros, estrellas pulsantes, para comprender cómo se pueden propagar las ondas gravitacionales, si, por supuesto, existen. Las observaciones y mediciones en el marco de este proyecto nos permiten comprender y confirmar mejor (y quizás en el futuro, ¿refutar?) teoria general relatividad (¿Recuerdas el GPS?), descubre a qué velocidad se mueven las ondas gravitacionales: ¿es a la velocidad de la luz? Determina propiedades fisicas estas ondas hipotéticas. Además, desde 2009, parte de la capacidad del proyecto y, en consecuencia, parte de los cálculos de los voluntarios se destinan a la búsqueda de radiopúlsares y otros objetos inusuales en el Universo.

MilkyWay@Home – astrofísica

MilkyWay@Home es un proyecto voluntario de computación distribuida en el campo de la astrofísica cuyo objetivo es estudiar el flujo de materia estelar en la Vía Láctea y compilar imágenes 3D de alta precisión. modelos dinámicos. Actualmente, la corriente estelar de Sagitario está principalmente modelada. Tiene una órbita inestable y probablemente se formó como resultado de la convergencia de una galaxia enana con la Vía Láctea.

World Community Grid - ayudando a IBM

World Community Grid (WCG) es un proyecto voluntario de computación distribuida creado por IBM, a partir del cual se han creado muchos subproyectos. Algunos de estos subproyectos realizan investigaciones para combatir el cáncer y el SIDA. Otros medios modelo para mejor limpieza agua potable, medios para combatir la gripe y los resfriados. La decisión sobre qué cálculos deben recibir atención prioritaria se toma en colaboración con científicos destacados de diferentes países.

PrimeGrid: encuentra números primos

PrimeGrid es un proyecto voluntario de computación distribuida cuyo objetivo es encontrar numeros primos(que se dividen sólo en 1 y ellos mismos) de varias formas. Algunos son importantes para probar hipótesis matemáticas, otros para probar software o criptografía.

De hecho, existen muchos proyectos en los que puedes ayudar a la ciencia con parte de la potencia de tu PC. Enumeremos algunos interesantes y diversos, literalmente en una línea:
sudoku@vtaiwan— descubrir el número mínimo de números iniciales necesarios para una solución única del rompecabezas;


Leiden Clásica— solución numérica de problemas de mecánica clásica;
Diecisiete o busto— probar una de las hipótesis de las matemáticas;
Granja de renderizado- creación de una granja de renderizado para todos: cualquiera puede desarrollar sus modelos 3D y convertirlos en una imagen o un vídeo de alta definición;
Enigma— Un intento de descifrar algunos mensajes alemanes interceptados y aún sin descifrar de la Segunda Guerra Mundial;
LHC@casa- un proyecto que permite simular el comportamiento de haces de partículas en el Gran Colisionador de Hadrones; estos datos se utilizan posteriormente para calibrar la instalación;
Magnetismo@casa- un proyecto para calcular las configuraciones magnéticas de nanoelementos cilíndricos, creado por Konstantin Metlov del Instituto de Física y Tecnología de Donetsk. El proyecto resuelve problemas de estática, dinámica y termodinámica para nanoelementos magnéticos de diversas formas.

Muy a menudo, personas con las mismas aficiones forman grupos. Lo mismo ocurre con la informática distribuida voluntaria. Hay muchos grupos de personas que se conectan a través de diferentes signos— una universidad, un país, simplemente me gustó el grupo. En Ucrania hay un equipo nacional, cuyo sitio web es distribuido.org.ua. El sitio tiene un foro donde se llevan a cabo discusiones sobre diferentes temas y donde puedo conseguir mas información detallada sobre cada proyecto. Hay equipos nacionales similares en Rusia, Polonia, Alemania y en muchos países.

Para hacerlo más interesante, la gente organiza concursos: miden cuántos trabajo útil hecho y cuántos puntos (créditos o adoquines) obtuvieron. La cantidad de puntos depende del rendimiento de la computadora, la cantidad de máquinas involucradas (se pueden usar varias computadoras bajo un mismo nombre) y el tiempo durante el cual la computadora puede realizar cálculos. Algunos proyectos organizan las llamadas carreras o desafíos varias veces al año, en las que los equipos compiten para ver qué equipo obtendrá la mayor cantidad de créditos durante un período de tiempo determinado.

La “desventaja” de esa ayuda de la ciencia puede ser el aumento de la factura de electricidad. Este es el pequeño pago gracias al cual tú, junto con otros voluntarios, podrás vencer enfermedades, resolver problemas complejos y formar un mapa de nuestra Galaxia. Quizás te preguntes, ¿es posible ganar dinero con esto? No, no puedes. Sí, definitivamente no. Esta es ayuda voluntaria. Gratis.

En este vídeo te contaré cómo conectarte al proyecto voluntario de computación distribuida.

Si tienes alguna pregunta, hazla en los comentarios. Gracias por compartir el artículo sobre redes sociales. ¡Todo lo mejor para ti!

15 de enero de 2013 a las 10:55

¡Ah, vamos! Computación distribuida ayer y hoy

  • Blog de Intel,
  • Rendimiento alto

El principio de cálculo paralelo es uno de esos que están literalmente “en el aire”. Y esto es natural, porque es más conveniente realizar cualquier trabajo juntos. Computación paralela apareció mucho antes de la primera computadora, pero la idea floreció precisamente en la era de las computadoras, porque fue entonces cuando aparecieron las tareas que requerían una gran potencia informática y los dispositivos que estaban listos "para todo el mundo" para proporcionar esta potencia. Hoy se cumplen exactamente 15 años desde que conocí por primera vez los proyectos de computación distribuida: una buena razón para escribir sobre su historia y su actualidad.

Breve introducción teórica
Una pequeña teoría para aquellos que antes no estaban interesados ​​en la computación distribuida. Proyecto este tipo supone que la carga informática se distribuye entre las computadoras cliente, cuantas más, mejor. También se requiere de un centro de control; sus funciones son las siguientes:
  • Distribuir piezas "en bruto" a los clientes y recibir de ellos los resultados del procesamiento;
  • Control de fragmentos perdidos y contados incorrectamente;
  • Interpretar las piezas resultantes a la luz del objetivo general;
  • Cálculo y visualización de estadísticas.
Entonces, el programa instalado en el cliente recibe una parte de la tarea, la ejecuta y envía el resultado al centro. En los primeros proyectos, los bloques se enviaban manualmente, por correo electrónico, luego la función de transporte se automatizaba completamente, si había una conexión a Internet (lo que a finales de los 90, sin embargo, no sonaba tan banal como ahora). En general, de todos los componentes de la computadora, el programa utiliza solo el procesador, por así decirlo, "limpiando" su recurso no utilizado. La aplicación cliente funciona con baja prioridad, sin interferir con otras, sin embargo, por supuesto, hay un cien por ciento de utilización y aspectos negativos: En primer lugar, mayor consumo de energía y disipación de calor de la PC.
A pesar de su aparente simplicidad, la creación de un sistema informático distribuido antes de la llegada de soluciones estándar no era una tarea trivial; después de todo, era necesario al menos escribir clientes para varios sistemas operativos y un servidor de gestión, para que todo funcione en conjunto. Algunos proyectos nunca lograron superar las “enfermedades infantiles” y no lograron sus objetivos. Sin embargo, también los hubo bastante exitosos: uno de ellos me mantuvo atrapado durante casi 5 años.
Era de Distributed.net
Entonces, principios de 1998. Uno de mis compañeros de entonces, un hombre apasionado y apasionado, nos habla de un milagro sin precedentes: un proyecto que une ordenadores de todo el mundo en un solo red informática. De alguna manera, a todos inmediatamente les gustó la idea, incluido manual técnico– y comenzó el proceso. En ese momento teníamos alrededor de cien estaciones de trabajo y una docena de servidores a nuestra disposición, y casi todos estaban en uso.
El proyecto en el que participamos se llamó Bovine RC5. Como sugiere el nombre, su idea es atacar con " fuerza bruta» ( búsqueda sencilla opciones) al algoritmo de cifrado RC5. La primera clave era de 40 bits y se "seleccionó" en poco más de tres horas. Los 48 bits duraron 13 días, los 56 bits duraron 265 días. En el momento de nuestra conexión, el proyecto se encontraba en la fase de 64 bits, que duró casi 5 años.
Bovine RC5 rápidamente ganó popularidad. Los organizadores del proyecto, la comunidad Distributed.net, pudieron identificar correctamente la principal fuerza impulsora del proceso: la pasión de los participantes. El movimiento adquirió una escala global: equipo competía con equipo, país con país. “Ponerse al día y superar” se ha convertido prácticamente en el sentido de la vida de cientos de miles de personas y, para los rusos, como de costumbre, también en algo así como una idea nacional. Cada mañana comenzaba para nosotros con la visualización del equipo y las estadísticas globales; el cliente RC5 se instalaba en cualquier ordenador que caía en nuestras manos. Llegamos al punto en que lanzamos "vacas" en servidores de otras personas, a los que se podía acceder de forma remota, antes del primer conflicto.


La interfaz del cliente de Distributed.net se ha mantenido casi sin cambios durante la vida del proyecto.

Después de completar la fase de 64 bits, el interés en el proyecto comenzó a desvanecerse, principalmente porque la siguiente, la de 72 bits, prometía ser muy larga. Nuestras premoniciones no nos engañaron: esto lleva así más de 10 años, tiempo durante el cual sólo se ha verificado poco más del 2,5% del espacio clave. Lo más probable es que ya no se alcance una clave de 80 bits, aunque la potencia informática de las computadoras se ha multiplicado a lo largo del proyecto. Digas lo que digas, la duración estimada de la etapa de 400 años definitivamente da miedo.

Contando gobernantes y buscando extraterrestres.
Bovine RC5 se puede atribuir más a competiciones deportivas que a una forma de resolver algunos problemas reales. tareas informáticas, especialmente desde que RSA, que lo inició, luego lo repudió. Sin embargo, Distributed.net también tiene un proyecto más valioso para la ciencia: calcular las reglas Golomb óptimas, pero con cada nueva unidad de longitud de la regla también cruje cada vez más.

Naturalmente, los organizadores de proyectos voluntarios de informática distribuida no se limitan a la comunidad de Distribution.net. Por el contrario, en la actualidad hay al menos un centenar de proyectos activos en el mundo, algunos de los cuales también tienen una rica historia: por ejemplo, desde 1996 la búsqueda está en marcha Números primos de Mersenne, y en 1999 comenzó el proyecto SETI@home, donde, a partir de la decodificación de datos de los radiotelescopios SETI, se estudia la cuestión de si hay vida en Marte en el Universo. En total, como ya se mencionó, las opciones son literalmente "innumerables": aquí está la búsqueda de curas para las enfermedades más terribles, la mejora del Gran Colisionador de Hadrones, el estudio de la estructura tridimensional de las proteínas y la solución de numerosos problemas matemáticos e hipótesis... se te da gran selección, en qué proyecto participar, y podemos decir al 100%: seguramente encontrará una carga para el procesador de su PC, para gran placer de ambos. Solo recuerda controlar la temperatura.


El cliente BOINC se compara favorablemente con todos los demás por tener un diseño

Un acontecimiento importante en la vida de la comunidad "distribuida" fue la aparición en 2005 de la plataforma BOINC (Berkeley Open Infrastructure for Network Computing), producida por la Universidad de California en Berkeley, de bandera roja, como suelen hacer, con abierto código fuente. BOINC es un framework listo para usar (componentes de servidor estándar + cliente) para proyectos de computación en red, lo que facilita enormemente su lanzamiento, aunque no elimina por completo el trabajo mental, ya que varios módulos de servidor debe cocinarse bajo tarea especifica. Pero se podría decir que el cliente está casi completamente listo, estilizado y hermoso. Además, te permite participar en varios proyectos compatibles con BOINC a la vez. Resulta ser una especie de conjunto de tareas heterogéneas, pero tecnológicamente unidas, lo que beneficia tanto a las tareas mismas como a la ideología en su conjunto.

Me gustaría terminar de nuevo con una nota lírica. Es posible que la informática distribuida no sea la mejor manera de gastar la potencia de procesamiento disponible. Pero, si lo piensas bien, ¿otros métodos son aún menos óptimos? Pero sentirse miembro del equipo es más manera fácil, probablemente no. Mi “carrera” en este campo terminó en 2004, hace casi 9 años. Y aquí hay una sorpresa: justo ahora, mientras escribía esta publicación, entré en las estadísticas de mi equipo; imagínense, todavía está vivo y todavía ocupa el primer lugar en nuestra región. ¡Todavía hay mucha gente apasionada en Rusia!
Invito a todos los que alguna vez han participado en proyectos de computación distribuida a responder y complementar mi historia. ¿Quizás me perdí algo?

Etiquetas:

  • computación distribuida
  • distribuido.net
Agregar etiquetas Ahora que casi todas las personas tienen una computadora personal en casa, y algunas tienen varias, es posible realizar una computación distribuida eficiente.

Sobre el procesador y los recursos.

Pensemos en lo que hace nuestra computadora cuando la usamos. El corazón de la computadora es UPC . Es él quien realiza todas las operaciones matemáticas y lógicas.
Después de todo, cada juego de computadora, cada película es una secuencia de operaciones de desplazamientos, sumas y transferencias de bits individuales (esta es la información más pequeña en una computadora). Cómo más operaciones por segundo puede producir el procesador, más rápido es. Casi todo juegos de computadora utilizar el 100% de los recursos del procesador, es decir El procesador da máxima velocidad al juego. Pero las cosas son diferentes al ver películas, editar documentos, etc. Por ejemplo, una película no necesita utilizar todo el recurso del procesador, solo necesita una parte de este "recurso" para que cuando la vea el usuario no vea "saltos" ni estiramientos. En computadoras modernas Ver una película utiliza sólo entre el 10 y el 15 por ciento del procesador. Y la edición de documentos es aún menor: entre el 1 y el 4 por ciento. Resulta. que la mayor parte del tiempo el procesador está inactivo. Y es precisamente esta parte no utilizada de su tiempo y recursos la que puede utilizarse para la informática distribuida.

¿Qué es la computación distribuida?

En términos generales, este es el proceso de descomponer un gran cálculo que requiere la computadora más poderosa, en muchos fragmentos pequeños y proporcionando estos fragmentos para que sean procesados ​​por muchas computadoras comunes. El programa ayuda a implementar esto. BOINC (Infraestructura abierta de Berkeley para informática en red) - sistema abierto para Computación Distribuida en la Universidad de Berkeley ( gracias a ellos por FreeBSD =)))
Cuando ejecuta BOINC en su computadora, sucede lo siguiente:

1. Su computadora solicita una lista de instrucciones del servidor. Además, las instrucciones dependen de las capacidades de su computadora. Por ejemplo, el servidor no emitirá instrucciones que requieran demasiada RAM de su computadora.
2. Su computadora descarga el programa y los datos para los cálculos.
3. Su computadora comienza a realizar cálculos.
4. Su computadora genera archivos de cálculo de salida.
5. Su computadora transmite los resultados al servidor principal y solicita datos para un nuevo cálculo. El ciclo se repite nuevamente.

Además, BOINC trabaja con una prioridad mínima. Esto significa que recibe los recursos del procesador en último lugar, es decir. si ningún programa los necesita. Por tanto, gracias a ello, el rendimiento del sistema no se deteriora (ni mejora =)).
Para presentarles el sistema BOINC sólo queda una cosa por decir:
Varios científicos (inventar nuevos medicamentos para las personas, estudiar enfermedades, explorar el espacio en busca de inteligencia extraterrestre, estudiar ondas gravitacionales de púlsares distantes y otros investigadores) requieren datos inimaginablemente (en la escala de todo un instituto) costosos para los cálculos y el procesamiento de datos. centros de computación. El programa BOINC te brinda la oportunidad de ayudar a los investigadores a resolver sus problemas.
Descarga BOINC y conoce información sobre proyectos y logros en boinc.berkeley.edu

¿En qué proyectos puedo participar?

  • Climateprediction.net: - estudio del cambio climático.
  • http://einstein.phys.uwm.edu/: búsqueda de pulsos gravitacionales emitidos por púlsares.
  • http://lhcathome.cern.ch/ : mejora del acelerador de partículas LHC del CERN

En el que una parte más pequeña de la aplicación (cliente) puede ejecutarse en múltiples varios sistemas, A mayoría(servidor): se ejecuta en el servidor. La parte del servidor tiene una funcionalidad significativamente más amplia y se ejecuta en más poderosa plataforma, en comparación con lado del cliente. Los clientes envían solicitudes al lado del servidor y el servidor las devuelve. resultados listos. Parece bastante simple. Pero, ¿cómo se organiza la interacción entre las partes cliente y servidor?

Las tres opciones principales para la arquitectura de interacción entre cliente y partes del servidor son: CORBA, EJB y MicrosoftCOM. Estos se discutirán más adelante en esta sección.

El modelo de computación distribuida requiere el registro del cliente y componentes del servidor que necesitan encontrarse en la red por nombres o identificadores, averiguar qué funcionalidad realizan varios componentes. La primera tarea del lado del cliente suele ser encontrar componentes requeridos y definir sus funciones. Esto es necesario para organizar la interacción gestionada y controlada entre componentes, asegurando la capacidad de transmitir solicitudes y resultados. los componentes correctos.

La vida sería mucho más sencilla si tuviéramos una sola arquitectura de intercomunicador que utilizaran todos los desarrolladores. Pero en realidad hay muchos varias arquitecturas, diseñado para funcionar en varios entornos de programación. Sin embargo, todos cumplen de una forma u otra. función principal– proporcionar la capacidad para que los componentes del lado del cliente y del servidor interactúen entre sí.

Para que los componentes se comuniquen, se deben utilizar interfaces y mecanismos de comunicación estandarizados. Ésta es la única manera de garantizar la interoperabilidad.

Red neuronal artificial (ANN - red neuronal artificial) es una matemática o modelo computacional, basado en la estructura neuronal del cerebro. Las computadoras realizan actividades como calcular grandes números, almacenamiento de documentos voluminosos, realizar complejos funciones matemáticas, pero no pueden reconocer patrones ni aprender de propia experiencia cómo el cerebro puede hacer esto. Una ANN consta de muchos módulos que simulan neuronas, cada uno de los cuales tiene una pequeña cantidad de memoria. Estos módulos procesan datos que se ingresan a través de sus numerosas conexiones. Al utilizar reglas de aprendizaje, estos sistemas pueden aprender de ejemplos y generalizar.

El cerebro almacena información en forma de imágenes. Las personas pueden reconocer los rostros de otras personas mirándolos desde diferentes ángulos. Cada rasgo facial humano se compone de conjunto complejo imágenes Incluso si sólo la mitad de la cara es visible o la cara está en la sombra y mal iluminada, cerebro humano puede complementar los fragmentos faltantes, permitiendo a una persona reconocer a su amigo y conocido. Una computadora funcionando normalmente software, aplicando la lógica estándar, es necesario tener una muestra de cada fragmento y de la cara completa, rotada en un cierto ángulo; entonces podrá compararla con las muestras y reconocerla.

Para recordar, pensar, utilizar experiencias previas, utilizar la lógica y reconocer patrones, el cerebro utiliza neuronas. Se proporcionan habilidades cerebrales. un gran número neuronas y numerosas conexiones entre ellas. El poder cerebral es el resultado de la programación y el aprendizaje genéticos.

Las redes neuronales artificiales intentan replicar las funciones y patrones básicos de las neuronas para resolver problemas de nuevas formas. Consisten en muchos módulos neuronales computacionales simples conectados entre sí. Los datos entrantes se proporcionan a uno, varios o todos los módulos, que a su vez ejecutan ciertas funciones sobre estos datos.

El cerebro utiliza grupos de neuronas que procesan información de forma interactiva y de manera dinámica. Las neuronas no tienen restricciones biológicas en las conexiones entre ellas, por lo que una neurona puede tener miles de conexiones. Además, las neuronas del cerebro operan en un mundo tridimensional, mientras que componentes electronicos en ANN tienen limitaciones fisicas en cantidad posible conexiones y por lo tanto operan en un mundo bidimensional.

Al igual que el cerebro, el verdadero poder de una RNA proviene de su capacidad de aprender. En el cerebro, se fortalecen las conexiones con las neuronas que almacenan información de uso frecuente, lo que permite una mayor acceso rápido le. Por eso a veces sabes algo, pero no recuerdas de dónde vino. Esto significa que el cerebro no tiene rutas claras hacia la información almacenada. Si te piden tu número de teléfono, puedes darlo inmediatamente sin gastar energía. Pero si te preguntan cómo se llamaba tu profesor de tercer grado, recordarlo puede llevar mucho más tiempo y energía. Aunque ambas informaciones se almacenan en el cerebro, el camino hasta el número de teléfono es más claro y reforzado, por lo que se puede recordar de forma rápida y sencilla. En ANN también se pueden fortalecer las conexiones entre dos módulos que se utilizan con frecuencia, lo cual es una forma de aprendizaje.

Se sabe que los acontecimientos que le sucedieron a una persona que se encuentra en un estado muy emocional los recordará mucho mejor, lo más probable es que recuerde todo hasta el más mínimo detalle; Por ejemplo, Anna recuerda perfectamente los acontecimientos de su cumpleaños a los 30 años, por lo que recibió numerosos regalos y los pasó en compañía de amigos. Pero apenas recuerda lo que pasó el día de su cumpleaños a los 31 años, cuando su marido simplemente le regaló una tarjeta. Pero recuerda muy bien los acontecimientos de su cumpleaños a los 32 años, cuando su marido se olvidó por completo de felicitarla, lo que casi la lleva al divorcio. La razón por la que algunos recuerdos son más vívidos que otros es porque esos recuerdos tienen mucha más emoción asociada o son más significativos. En las redes neuronales artificiales, algunas entradas también tienen más peso en comparación con otras, lo que realza el significado o la importancia de la información recibida a través de ellas, de forma similar a lo que les hacen las emociones a las personas.

La intuición es una cualidad muy difícil de replicar en diagramas electricos Y elementos lógicos. La lógica difusa y otras disciplinas matemáticas se utilizan para implementar la intuición, la previsión y las conjeturas. Estos enfoques trabajan con probabilidades utilizando matemáticas y analizando la pertenencia a diferentes conjuntos. Un ejemplo sencillo usando lógica difusa, es una lavadora que tiene cierta inteligencia. Una vez que has cargado la ropa sucia y el tanque se ha llenado de agua, la máquina utiliza lógica difusa para enviar rayos de luz de una parte del tanque a la otra. Dependiendo de la cantidad de luz que realmente se recibió en otra parte del tanque, se pudo determinar qué tan sucia estaba la ropa cargada en él, dada la densidad de la suciedad en el agua. Para determinar el tipo de suelo (graso o seco) y comprobar otros aspectos, controles adicionales. Lavadora toma toda esta información, la analiza y, en base a los resultados obtenidos, selecciona la temperatura de lavado y la cantidad de polvo requerida. Esto proporciona un lavado más eficiente porque... Se ahorra agua y polvo, el lavado se realiza a la temperatura más correcta, dentro de cantidad requerida tiempo. La lavadora no puede conocer todos los hechos, no puede estar segura de la exactitud de toda la información recopilada, pero puede hacer conjeturas basadas en esta información que se aproximarán bastante a la realidad.

Las RNA están diseñadas de tal manera que pueden tomar decisiones y aprender a mejorar su funcionalidad tomando muchas decisiones mediante prueba y error.

Un sistema informático típico tiene lógica binaria– blanco o negro, no puede ver los tonos de gris intermedios. Esto requiere lógica difusa. No puede distinguir el bien del mal, no distingue entre los conceptos de poco y mucho. lógica difusa es un método que permite a una computadora utilizar tales conceptos vagos, significa para las personas, pero no significa nada para las computadoras.

La previsión del mercado de valores y la evaluación de riesgos financieros y de seguros son ejemplos de áreas donde se requiere la lógica difusa y donde puede resultar más útil. Estas áreas requieren uso gran número variables y tomar decisiones basadas en la información recibida de expertos en estos campos. El sistema, utilizando los principios de la lógica difusa, puede indicar qué seguro o riesgos financieros son aceptables y cuáles no, sin obligar al usuario a ingresar un gran conjunto de condiciones, dependencias si-entonces y valores de variables.

Tradicional sistemas informáticos ver el mundo en blanco y negro y trabajar en el mundo valores exactos. La lógica difusa permite que la computadora incorpore imprecisión al lenguaje de programación, lo que abre completamente Nuevo Mundo para cálculos y resolución de problemas complejos. Investigadores redes neuronales están tratando de aprender más sobre cómo funciona el cerebro y la naturaleza de sus capacidades para mejorar las RNA, permitiéndoles resolver problemas cada vez más complejos en comparación con las herramientas informáticas tradicionales.

Muchos aquí han oído hablar del programa de computación distribuida BOINC, y quizás muchos incluso participen en él. Este artículo está dirigido principalmente a aquellos que no han oído hablar de este proyecto, pero pueden estar interesados ​​en él. aquí te daré breves descripciones Los proyectos más populares.

BOIN- paquete de software para una organización rápida de la informática distribuida. Consta de una sala de servidores y partes del cliente. Desarrollado originalmente para proyecto más grande informática voluntaria: SETI@home, pero posteriormente desarrolladores de la Universidad de California en Berkeley pusieron la plataforma a disposición de proyectos de terceros. Hoy BOINC es plataforma universal para proyectos en matemáticas, biología molecular, medicina, astrofísica y climatología. BOINC ofrece a los investigadores la oportunidad de aprovechar enormes poder de computación computadoras personales de todo el mundo.

Este proceso se puede describir brevemente de la siguiente manera:

EN en este momento hay alrededor de 300 mil en la red BOINC participantes activos, lo que suma más de 9 millones de computadoras y un rendimiento de más de 8 petaflops (en el momento de escribir este artículo).

Cosmología@Home


El proyecto tiene como objetivo encontrar un modelo. de la mejor manera posible describir nuestro Universo y encontrar qué grupo de modelos confirma los datos actuales obtenidos mediante estudios cosmológicos teóricos y observaciones físicas prácticas.




Arriba