La IA del software está aprendiendo a hacer IA: los científicos informan del éxito del autoaprendizaje de la inteligencia artificial. Google ha creado una inteligencia artificial que puede aprender por sí sola a completar juegos de ordenador.

METRO Muchas preguntas que las mentes más brillantes de la civilización humana han reflexionado se vuelven triviales y obvias con el paso del tiempo. Forman parte del plan de estudios escolar y no entenderlos se convierte en un signo de retraso mental. Este es un proceso normal de la evolución del conocimiento. Pero aún quedan problemas de la categoría de “eternos” que no han sido resueltos y se desconoce si tienen alguna solución. Estos incluyen comprender qué es la inteligencia, la definición de inteligencia artificial y todas las cuestiones prácticas relacionadas. La base científica para los avances modernos en esta área fue el trabajo de Norbert Wiener, en el que demostró que la base de los procesos de información que ocurren en un organismo vivo son retroalimentaciones negativas y positivas complejas, que pueden modelarse en un dispositivo automático artificial.

La importancia práctica del tema se hizo evidente no hace mucho, si aplicamos la escala temporal de la historia del desarrollo del pensamiento humano. Sin embargo, hoy en día ya están instalados en casi todos los ordenadores “agentes inteligentes” como Copernic o sistemas de reconocimiento de imágenes. La razón por la cual esta cuestión aún no ha encontrado una solución inequívoca es que para comprenderla es necesario aplicar otros principios de pensamiento que difieren de aquellos que son básicos para la mayoría de los portadores de inteligencia no sólo "artificial" sino también "natural". . No se puede entender algo desde dentro. Se necesita una perspectiva exterior. Sólo este enfoque puede explicar el fenómeno en su interacción con el medio ambiente. En otras palabras, para entender cómo pensamos, necesitamos pensar diferente o no pensar en absoluto... Y es necesario entender esto, puesto que nuestras creaciones “de hierro” ya se han acercado al nivel en el que son tratadas simplemente como Los dispositivos técnicos pueden resultar inaceptables y conducir a errores estratégicos.

La forma más cómoda de empezar a analizar los sistemas de inteligencia artificial existentes y hacer suposiciones sobre su desarrollo futuro es con programas de reconocimiento de voz e imágenes gráficas. Esta tarea, considerada de forma aislada, aún no responde a la pregunta de qué es la inteligencia artificial o la capacidad de pensar en general, pero nos permite acercarnos a ella. No es casualidad que los clásicos del marxismo-leninismo en sus obras filosóficas vincularan la cuestión del surgimiento del "homo sapiens" con el desarrollo del habla.

Si hablamos específicamente del procesamiento de voz, entonces el software de Dragon Systems prácticamente ya ha resuelto este problema. La quinta versión de Speech SDK de Microsoft, al ser, como todos los productos de esta empresa, mucho más voluminosa (¡más de 500 MB en el disco del sistema!) y exigente en cuanto a los recursos utilizados, también permite ofrecer una calidad aceptable para el dictado. El reconocimiento estable de palabras e incluso frases completas se logra después de varias horas de entrenamiento y adaptación del sistema a las peculiaridades de la pronunciación y la creación de un modelo estadístico del habla del usuario. Además, puede alcanzar el 95-98%. Si comparamos, entonces, probablemente, una persona no podrá comprender el habla con mayor precisión.

El principio de funcionamiento de los productos de software mencionados se basa en un modelo matemático para convertir señales acústicas en secuencias numéricas, cada una de las cuales corresponde a una palabra de un diccionario precargado. El usuario puede complementar los diccionarios y la probabilidad de elegir palabras con parámetros numéricos similares de una lista varía según la frecuencia de su uso por parte de un usuario en particular. El reconocimiento de imágenes gráficas, desde fuentes estándar hasta texto escrito a mano legible, conocido por la mayoría de los lectores gracias al software de ABBYY (Fine Reader), se basa en el mismo principio.

Sin embargo, las similitudes entre los sistemas artificiales y naturales o biológicos son puramente superficiales. Es necesario introducir inmediatamente certeza en la terminología. En el caso de los productos de software enumerados, estamos tratando con el reconocimiento o reconocimiento de patrones, pero cuando hablamos de sistemas biológicos en general y de humanos en particular, es más correcto hablar de su comprensión. ¿Cuál es la diferencia?

Al dictarle a su mal rusificado "Dragón" (Dragon Systems), puede encontrar fácilmente la frase impresa que dice "El sol era azul brillante en el cielo". Y "Dragón" puede estar orgulloso de haber identificado exactamente esta secuencia simbólica con una probabilidad del 90%, ya que las palabras "brillaba" y "azul", desde su punto de vista, son casi iguales. Si el programa tiene en cuenta estadísticas más completas no solo de palabras, sino también de frases (las últimas versiones de la serie Natural Speaking ya lo hacen), el proceso de aprendizaje no llevará días, sino meses, lo que según los estándares humanos es bastante rápido, entonces, por supuesto, la próxima vez escribirá esta frase correctamente. Pero el principio de “reconocimiento” seguirá siendo precisamente reconocimiento y no comprensión.

Desde el punto de vista de la “comprensión”, en primer lugar, es necesario excluir la posibilidad de que la narración provenga de la perspectiva de un perro que, de todo el espectro de colores, distingue sólo tonos de azul y, por lo tanto, para él el sol realmente puede “volverse azul”, ya que no hay nada más para que no se quede. Pero hablando en serio, para comprender correctamente dicha frase es necesario tener una idea de las imágenes de la realidad que se describen. Debes tener experiencia y recordar las sensaciones de calor, verano, orilla del mar u otra situación en la que se pueda producir esta descripción. Además, las palabras (no importa en qué idioma, ya que la elección del idioma no es fundamental para la comprensión) son sólo un reflejo de esta realidad. Desde el punto de vista de nuestro "Dragón" (u otro sistema de reconocimiento de patrones), esto sería posible si lo equipáramos con sensores espectrales de temperatura y luz y lo enviáramos de vacaciones, digamos, a Antalya. En otras palabras, proporcionarle un conjunto completo de sentidos similares a los humanos y permitirle pasar por el proceso de aprendizaje para acumular una base de datos de la experiencia de vida de al menos un niño de cinco años. La conclusión es simple: la comprensión humana adecuada del habla u otra información de entrada sólo es posible si la experiencia de la vida y los dispositivos de entrada son idénticos. Después de todo, un programa de reconocimiento puede ser bastante perfecto y adecuado, pero sólo para sí mismo. Todos sus "órganos de los sentidos" consisten en un micrófono y un teclado, y su experiencia de vida son esas horas de entrenamiento y memorización de patrones de habla durante el dictado, que ella, de hecho, "vivió" como un "ser" virtual único en interacción con ella. mundo circundante, voz limitada del "maestro".

Pero esto no es suficiente para “comprender”. Una de las características más importantes de los sistemas de inteligencia artificial y “natural” es la capacidad de autoaprendizaje. En los sistemas de reconocimiento de patrones, además del entrenamiento inicial de los diccionarios y tablas de símbolos instalados inicialmente, también existe un proceso para corregir errores de reconocimiento, que también se recuerda y se convierte en parte de su “experiencia de vida”. Es muy parecido al entrenamiento. Es cierto que las posibilidades de incentivos aquí son muy limitadas. Una palabra (o símbolo) correctamente definida pasa "por defecto", pero un error requiere la entrada manual del valor requerido y, posiblemente, capacitación adicional. En este caso, al sistema, en general, no le importa si una secuencia determinada se determinó correctamente o no. Las emociones negativas recaen sobre el usuario-entrenador. Con el perro de Pavlov la situación es más grave: por la secuencia correcta de acciones obtienes azúcar, pero por un error puedes recibir una descarga eléctrica (o simplemente un golpe). Sería más justo si la corrección manual de errores de reconocimiento (o, más generalmente, la corrección de una reacción incorrecta a un comando o señal desde el punto de vista del "propietario") provocara "emociones negativas" en el sistema. Imagínese: hace una corrección en el texto dictado y su "Dragón" chirría lastimosamente por el resentimiento y se preocupa por su incompetencia (¿o tal vez así es?)

En la naturaleza, existen dos mecanismos para mejorar las reacciones de comportamiento (en nuestro ejemplo, esta es la salida en forma de texto de material dictado y reconocido). Para los organismos más simples, este es principalmente el principio de la selección natural, cuando los individuos que responden más adecuadamente al medio ambiente resultan ser los más fértiles y las reacciones mismas están fijadas en el código genético. Para los representantes más desarrollados y, en consecuencia, para reacciones conductuales más complejas, el principal mecanismo de motivación es a través de las emociones. Ya no se trata sólo de dolor físico, sensación de hambre o deseo de reproducirse, sino que todo el mundo de sufrimiento y alegría -a menudo por razones completamente incomprensibles a primera vista- se convierte en la fuerza que mueve a una persona (o no sólo a un persona?) en el camino del autoaprendizaje y el desarrollo.

Recordemos el Libro de Job (capítulo 5): “Pero el hombre nace en el sufrimiento, como chispas que se precipitan hacia arriba”. La única pregunta es si en cada vida concreta prevalece la motivación positiva o negativa (el palo o la zanahoria). Normalmente tienes que lidiar con ambas opciones, pero en general, dependiendo de tu suerte...

De esto se deduce que, además de la insuficiencia de la visión del mundo, la segunda diferencia entre los sistemas modernos de inteligencia artificial es la falta de incentivos o motivación para el desarrollo, tanto a nivel individual como de especie. Pero esta diferencia es bastante superable.

Si hablamos de desarrollo a nivel de especie, entonces ya se conocen virus "mutantes" que, aunque no son inteligentes en el sentido pleno, son bastante capaces, mediante el proceso de selección natural en un entorno artificial, de transmitirse a sus "descendientes". “Los rasgos más dañinos que impiden su captura”.

La cuestión de la motivación o la creación de incentivos para el desarrollo a nivel emocional también tiene bastante solución. Para ello, basta con comprender que una emoción, positiva o negativa, es simplemente, respectivamente, retroalimentación positiva o negativa inherente a cualquier dispositivo automático. Me explico: una emoción negativa, o retroalimentación negativa, es un proceso en el que existe el deseo de detenerla. En consecuencia, una emoción positiva, o retroalimentación positiva, es un proceso que tiende a continuar o repetirse muchas veces. Las opciones para su implementación técnica son numerosas y casi cualquier dispositivo, desde un tanque de descarga clásico con flotador y válvula hasta un hervidor eléctrico moderno, contiene varios ejemplos de conexiones de retroalimentación. Los sistemas naturales y naturales están literalmente saturados de todo tipo de opciones. Es importante señalar que, a diferencia de la retroalimentación negativa, la retroalimentación positiva siempre tiende a la saturación, es decir, al cese de su "positividad" con el tiempo o después de repetir varios ciclos. Esta es una característica fundamental. Una conclusión puramente cotidiana: el sufrimiento es infinito y el placer siempre es limitado ("la eternidad" es inalcanzable). Entonces, en la cita anterior del Libro de Job, desafortunadamente, hay más verdad de la que nos gustaría. ¿Y quién ha oído hablar alguna vez de un sujeto satisfecho y contento que haya creado algo digno de atención, excepto en el campo de la cocina?

Las contradicciones internas, los conflictos y la insatisfacción siempre han sido la norma en un entorno creativo. Se puede intentar derivar un patrón general sobre la transformación de la cantidad de insatisfacción y sufrimiento en un impulso para el desarrollo, pero las categorías son demasiado generales y vagas. Una cosa está clara: el Señor Dios, mediante la aplicación de la teoría de la evolución y la teoría de juegos, nos ha equipado completamente con un complejo de deseos mutuamente excluyentes y experiencias asociadas para nuestro propio desarrollo en beneficio del progreso común. Además, la medida del sufrimiento personal de cada uno de los participantes en el proceso no importa ni es un mérito, y sólo Dios sabe cuál es el objetivo final de este mismo progreso. Todavía no me queda claro cómo se puede combinar esta posición obvia con la imagen del Dios cristiano, que es amoroso y perdonador. Quizás alguien del foro te lo explique. Irina Bogushevskaya tiene una canción maravillosa sobre este tema con la letra: “Al cielo no le importa lo que nos pase”... La percepción poética y científica del mundo a menudo lleva a las mismas conclusiones.

Pero volvamos a nuestros Carneros y “Dragones”, que tienen algunos signos de inteligencia. ¿Qué pasaría si, para estimular el aprendizaje, siguiendo el ejemplo del Señor Dios, que nos hizo esto, les damos la oportunidad de un sufrimiento ilimitado y una alegría a corto plazo?

Resulta que ese trabajo ya está en marcha. El estímulo elegido fue una sensación elemental de hambre, o -permítanme explicarlo para quienes no saben qué es- una sensación fisiológica de un posible cese de la existencia en ausencia de ciertos componentes externos. Se trata de una serie única de “Gastrorobots” que extraen electricidad del procesamiento de proteínas y carbohidratos en un biorreactor especial. La primera máquina de la línea de creaciones humanas eternamente hambrientas es la Chew Chew, diseñada por Stuart Wilkinson en la Universidad de Tampa (sur de Florida). El propio inventor considera la carne un alimento ideal para su creación, pero por ahora “Chew-Chew” come trozos de azúcar, ya que al mismo tiempo, para deleite de los técnicos de laboratorio, deja un mínimo de “heces”. La principal estrategia del robot es estudiar su entorno, muy real, para detectar y consumir alimentos. La adecuación de la percepción del mundo circundante es bastante condicional y se logra con la ayuda de sonares ultrasónicos. "Chew-Chew" aún no podrá pasar desapercibido, ya que consta de tres vagones con ruedas, cada uno de aproximadamente un metro de largo, y parece un tren para niños. Una sensación constante de hambre es su estado normal, ya que las baterías requieren una recarga continua. Una continuación del proyecto debería ser un vehículo submarino que se alimenta de peces y está diseñado para patrullar la costa y proteger a los nadadores de los tiburones. Es como si los programadores no se hubieran equivocado aquí y hubieran creado "mandíbulas" de acero reales, porque un nadador es una presa más fácil que un tiburón y un "Chew-Chew" autónomo puede volver a entrenarse en "Cuscous". ¿Y qué pensamientos habrá en sus cerebros electrónicos eternamente hambrientos cuando observe al indefenso “Creador” flotando arriba, en la superficie?

No hay duda de que el desarrollo de la ciencia y la tecnología en el campo de la inteligencia artificial crea todo un grupo de problemas que requieren solución. Entre ellos hay problemas morales y éticos. Además, una persona hambrienta y sedienta de carne, "masticar", quizás no sea la más importante de ellas. Consideraremos algunos de ellos en artículos posteriores de la serie.

Ahora me gustaría formular una conclusión que puede ayudarle a mirar de otra manera los objetos, animales y personas que le rodean.

Consiste en lo siguiente: casi todo lo que está a tu lado está dotado, en un grado u otro, de la capacidad de reflejar el mundo, de sufrir o de alegría, y demuestra algunos signos de inteligencia, no siempre artificiales, pero más a menudo de origen completamente natural. El hecho de que no los notes no significa que no estén ahí. Simplemente no son compatibles con tu percepción única del mundo.

¿Quizás los monjes hindúes y los seguidores de algunas enseñanzas antiguas no estén tan equivocados cuando animan todos los objetos circundantes y les otorgan la capacidad de "pensar", sufrir y regocijarse?

GAM - memoria asociativa general (GAM) es un sistema que combina las funciones de otro tipo de memoria asociativa (AM). GAM es una red que consta de tres capas: capa de entrada, capa de memoria y capa de asociación. La capa de entrada acepta vectores de entrada. La capa de memoria almacena datos de entrada en clases similares. La capa de asociación construye vínculos asociativos entre clases. Los GAM pueden almacenar y recuperar información binaria o no binaria, crear asociaciones de muchos a muchos y almacenar y recuperar datos estáticos e información de secuencia de tiempo. Puede recuperar información incluso si tiene datos de entrada incompletos o datos ruidosos. Los experimentos que utilizan datos binarios en tiempo real con datos estáticos y de secuencia temporal muestran que GAM es un sistema eficaz. Demuestra en experimentos con robots humanoides que GAM puede resolver problemas del mundo real y construir conexiones entre estructuras de datos de diferentes dimensiones (enlace al original).

Nuevo STAR-SOINN (Reconocimiento estadístico: redes neuronales incrementales y autoorganizadas): para construir un robot inteligente, debemos desarrollar el sistema mental de un robot autónomo que aprenda de manera constante y rápida de una persona, su entorno e Internet. Por lo tanto, ofrecemos la red STAR-SOINN: es una red multimodal ultrarrápida que aprende en tiempo real y tiene la capacidad de aprender adicionalmente a través de Internet. Realizamos experimentos para evaluar este método de enseñanza y comparamos los resultados con otros métodos de enseñanza. El resultado muestra que la precisión del reconocimiento es mayor que la de un sistema que simplemente agrega condiciones. Además, el método propuesto puede funcionar muy rápidamente (aproximadamente 1 segundo para estudiar un objeto, 25 milisegundos para reconocer un objeto). El algoritmo pudo identificar atributos de objetos "desconocidos" buscando información de atributos de objetos conocidos. Finalmente, decidimos que este sistema tiene potencial para convertirse en una tecnología central para futuros robots.

SOIAM es una modificación de SOINN para memoria asociativa.

SOINN-PBR – Modificación de SOINN para crear reglas usando condiciones si->entonces

AMD (Desarrollo Mental Autónomo) es un robot que utiliza este algoritmo para aprender a resolver diversos problemas.

Se puede ver el diagrama de bloques del algoritmo SOINN.

Enlace a la revista en formato pdf, donde se describen varios tipos de redes SOINN en inglés y donde tomé notas en ruso (empaqué la revista en un archivo rar, el tamaño original de la revista es de 20 MB (leído en línea), el El tamaño del archivo es de 13 MB (archivo de descarga).

Un enlace a otra revista en formato pdf, que describe varios tipos de redes SOINN en inglés y donde tomé notas en ruso (empaqué la revista en un archivo rar, el tamaño original de la revista es 4 MB (leer en línea), el El tamaño del archivo es de 2,5 MB (archivo de descarga).

En Internet en ruso sobre la red SOINN solo hay un par de artículos sobre cómo el robot, trabajando según este algoritmo, encuentra por sí mismo soluciones a los problemas planteados y, si no se le explica cómo resolver el problema, luego se conecta a Internet y busca allí una solución. Pero no encontré ningún ejemplo del algoritmo o códigos. Solo hubo un artículo sobre robocraft que dio un pequeño ejemplo de cómo funciona el algoritmo básico de la red SOINN junto con OpenCV. Si alguien ha experimentado con la red SOINN, sería interesante mirar el código si es posible.

En 2006, se propuso un método de aprendizaje incremental llamado red neuronal incremental autoorganizada (SOINN) para intentar el aprendizaje no supervisado. SOINN es bueno para procesar datos no estacionarios en línea, informar la cantidad de grupos identificados y representar la estructura topológica de los datos de entrada en función de la función de densidad de probabilidad de la distribución. Hasagawa, quien propuso una variante de la red SOINN, comparó los resultados de su red con la red GNG (gas neuronal en expansión) y el resultado de la red SOINN fue mejor que el de la GNG.

Hubo los siguientes problemas con la red SOINN:
1. Debido a que constaba de dos capas de procesamiento, el usuario debía participar en el funcionamiento de la red. El usuario tenía que decidir cuándo dejar de aprender la primera capa y cuándo empezar a adquirir conocimientos en la segunda capa.
2. Si los grupos tenían una alta densidad, entonces la red hizo un buen trabajo al reconocerlos, pero si los grupos de la red se superponían parcialmente, entonces la red pensó que eran un grupo y los unió.

Para resolver estos problemas y simplificar la arquitectura de la red, se propuso una red basada en SOINN con mayor autoorganización y se denominó ESOINN.

Breve descripción de SOINN.
Soinn consta de una red con dos capas. La primera capa estudia la densidad de distribución de los datos de entrada y utiliza nodos y conexiones entre ellos para representar el resultado de la distribución de datos. La segunda capa busca en la primera capa datos con la densidad de distribución más baja, definiendo grupos para ellos y utiliza menos nodos que la primera capa para proporcionar la estructura topológica de los datos que se están estudiando. Cuando se entrena la segunda capa, SOINN informa la cantidad de grupos encontrados y asigna los datos de entrada al grupo más adecuado para ello. La primera y segunda capa funcionan según el mismo algoritmo.

Cuando a la red se le da un vector de entrada, encuentra el nodo más cercano (ganador) y el segundo nodo más cercano (segundo ganador) al vector de entrada. Utilizando criterios de similitud de umbral, la red determina si el vector de entrada pertenece al mismo grupo que el ganador y el segundo ganador. La primera capa SOINN actualiza de forma adaptativa el umbral de similitud nodo por nodo porque el criterio de distribución de entrada no se conoce de antemano.

Si algún nodo i tiene nodos vecinos, entonces el umbral de similitud Ti se calcula utilizando la distancia máxima entre este nodo i y sus nodos vecinos.

Si la distancia entre ξ y a1 o a2 es mayor que el umbral de similitud o entonces la señal de entrada es un nodo nuevo, agréguelo al conjunto de nodos A y continúe con el paso 2 para obtener la siguiente señal de entrada. El umbral T se calcula utilizando la fórmula 1A o 1B
4. Aumentar la antigüedad de todos los enlaces conectados a a1 en 1.
5. Usamos el algoritmo 2 para determinar si es necesario crear conexiones entre los nodos a1 y a2.
A) Si es necesario crear una conexión: si existe una conexión entre los nodos a1 y a2, establezca la antigüedad de esta conexión en 0; si no hay conexión entre los nodos a1 y a2, cree una conexión entre los nodos a1 y a2 y establezca la antigüedad de esta conexión en 0.
B) Si no es necesario crear un enlace: si existe un enlace entre los nodos a1 y a2, elimine el enlace entre los nodos a1 y a2.
6. Actualice la densidad del ganador usando la fórmula 4.
7. Sume 1 al número local acumulado de señales,
8. Ajustemos el peso del vector ganador y sus vecinos topológicos por fracciones y de la distancia total de la señal de entrada.

para todos los vecinos directos i del nodo a1
El ajuste se produce según el mismo esquema que en SOINN para ajustar la velocidad del tiempo de aprendizaje y
9. Buscamos conexiones cuya antigüedad sea mayor a la predefinida en la variable y eliminamos dichas conexiones.
10. Si el número de señales de entrada durante el funcionamiento es múltiplo del parámetro λ:
A) Actualice la etiqueta de subclase para cada nodo usando el Algoritmo 1
B) Eliminar los nodos resultantes del ruido de la siguiente manera:
1. Para todos los nodos del conjunto A, si el nodo a tiene dos vecinos y , luego elimine el nodo a. es el número de nodos en el conjunto de nodos A.
2. Para todos los nodos en el conjunto A, si el nodo a tiene un vecino y , luego elimine el nodo a.
3. Para todos los nodos del conjunto A, si el nodo a no tiene vecinos, elimine el nodo a.
11. Si se completa el proceso de aprendizaje, clasificamos los nodos en diferentes clases usando el Algoritmo 3; luego informaremos el número de clases, los prototipos de salida de los vectores de cada clase y detendremos el proceso de entrenamiento.
12. Pasemos al paso 2 para continuar con el proceso de aprendizaje no supervisado si el aprendizaje aún no se ha completado.

Usando el algoritmo que se muestra arriba, primero encontramos al ganador y al segundo ganador a partir del vector de entrada. Luego determinamos si es necesario crear una conexión entre el ganador y el segundo ganador y, dependiendo de la decisión tomada, conectamos o eliminamos la conexión entre estos nodos. Después de actualizar la densidad y el peso del ganador, actualizamos las etiquetas de las subclases después de cada λ período de tiempo de entrenamiento. Luego eliminamos los nodos causados ​​por el ruido. Aquí el ruido no depende de λ sino que depende únicamente de los datos de entrada. Una vez completado el entrenamiento, clasificamos todos los nodos en diferentes clases. Durante el proceso de entrenamiento, no necesitamos almacenar los vectores de entrada entrenados; Vemos que este algoritmo es capaz de implementar el aprendizaje en línea. Después del proceso de entrenamiento, los datos de entrada se envían a la red y, si la red conoce datos similares, a los nuevos datos se les asignará una clase de datos similares. La red aprenderá nueva información si la distancia entre los nuevos datos y el ganador o el segundo ganador es mayor que el umbral de similitud. Si la distancia entre los nuevos datos y el ganador o el segundo ganador es menor que el umbral de similitud, esto significa que los datos de entrada se aprendieron bien antes y en este caso no se producen cambios en la red. Este proceso hace que el algoritmo sea adecuado para el aprendizaje incremental; la red aprende nueva información sin eliminar el conocimiento aprendido previamente. Por lo tanto, no necesitamos volver a capacitar la red si planeamos aprender el conocimiento aprendido en el futuro.

Experimentos de los creadores de la red ESOINN

Conjunto de datos experimentales.

Primero utilizamos el mismo conjunto de datos experimental n.° 1 que Hasegawa para nuestra red SOINN. El conjunto contiene dos distribuciones gaussianas superpuestas, dos anillos concéntricos y una curva sinusoidal. Se agregó un 10% de ruido a este conjunto de datos. Con un conjunto de datos de este tipo, tanto en un entorno estacionario como en un entorno no estacionario, SOINN de dos capas informa que hay cinco clases. Da la estructura topológica de cada clase. El entorno estacionario requiere que los patrones se seleccionen aleatoriamente de todo el conjunto de datos para el entrenamiento de la red en línea. El entorno no estacionario requiere que los patrones se seleccionen secuencialmente, no aleatoriamente, de cinco áreas del conjunto de datos original No. 1 para el entrenamiento en línea de la red (Figura 1). Se utiliza un entorno no estacionario para simular el proceso de aprendizaje incremental en línea.


Figura 1. Conjunto de datos n.º 1


Figura 2. Entorno estacionario de ESOINN del conjunto de datos n.° 1


Figura 3. ESOINN no es un entorno estacionario para el conjunto de datos n.° 1

Probamos ESOINN de una sola capa con el mismo conjunto de datos. Establecemos el parámetro λ=100, =100, c1=0.001 y c2=1. La Figura 2 muestra el resultado en un entorno estacionario; La Figura 3 muestra el resultado para un entorno no estacionario. En ambos entornos, ESOINN informó que había cinco clases y proporcionó la estructura topológica de cada clase. ESOINN puede implementar la misma funcionalidad que SOINN para los mismos conjuntos de datos experimentales.
Luego utilizamos el Conjunto de datos experimental 2 (Figura 4), que incluye tres distribuciones gaussianas superpuestas, para probar tanto SOINN como ESOINN. Agregamos un 10% de ruido a este conjunto de datos. En el conjunto de datos, la densidad de superposición de áreas es alta, pero utilizando una imagen de este conjunto de datos, aún se puede dividir visualmente en tres clases. En un entorno estacionario, seleccionamos aleatoriamente muestras del conjunto de datos para entrenar la red. En un entorno no estacionario, las muestras se seleccionan de forma secuencial, no aleatoria, de tres clases. En la primera etapa, para entrenar la red, seleccionamos muestras de la clase 1 en tiempo real. Después de 10.000 ciclos de entrenamiento, seleccionamos muestras solo de la clase 2. Y después de otras 10.000 iteraciones de entrenamiento, seleccionamos muestras de la clase 3 y realizamos capacitación en línea. . Una vez completado el proceso de formación, clasificamos los nodos en diferentes clases e informamos el resultado.


Figura 4. Conjunto de datos n.º 2


Figura 5. Entorno estacionario SOINN para el conjunto de datos n.° 2


Figura 6. SOINN no es un entorno estacionario para el conjunto de datos n.° 2

Las Figuras 5 y 6 muestran el resultado de SOINN (la red tenía los siguientes parámetros: parámetro λ=200, =50 yc =1 y otros parámetros que son idénticos a los que describimos en la revista Shen, F., & Hasegawa, O. (2006a). Una red incremental para clasificación no supervisada en línea y aprendizaje de topología, Neural Networks, 19, 90-106.) Para ambos entornos, SOINN no pudo separar tres clases con alta densidad de superposición.


Figura 7. Entorno estacionario de ESOINN para el conjunto de datos n.° 2


Figura 8. ESOINN no es un entorno estacionario para el conjunto de datos n.° 2

Las Figuras 7 y 8 muestran los resultados de ESOINN (los parámetros de la red fueron: parámetro λ=200, =50, c1=0.001 y c2=1). Utilizando nuestras mejoras propuestas a la red SOINN, ESOINN pudo separar tres clases con superposición de alta densidad. El sistema informó que había tres clases en el conjunto de datos de entrada y proporcionó una estructura topológica para cada clase. El experimento en el conjunto de datos experimental n.° 2 muestra que ESOINN puede separar clases con alta densidad de superposición mejor que SOINN.

Datos reales

Para utilizar datos reales, tomamos 10 clases del conjunto de datos de AT&T_FACE; cada clase incluye 10 ejemplos (Figura 9). Cada imagen tiene un tamaño de 92x112 píxeles, con 256 niveles de gris por píxel. Las características de los vectores de tales imágenes son las siguientes. La primera imagen original de 92x112 se vuelve a probar en una imagen de 23x28 utilizando la interpolación del vecino más cercano. Luego se utilizó el método gaussiano para suavizar la imagen de 23x28 con ancho = 4, q = 2 para obtener vectores de características de 23x28 (Figura 10).


Figura 9. Imágenes originales de rostros.


Figura 10. Vector de características de imágenes de rostros originales

En un entorno estacionario, se seleccionaron muestras aleatoriamente del conjunto de datos. Para un entorno no estacionario, en el primer paso, los ejemplos de la clase 1 se introdujeron en la red, después de 1000 iteraciones de entrenamiento, los ejemplos de la clase 2 se introdujeron en la entrada de la red, y así sucesivamente. Se establecieron los parámetros de la red: parámetro λ=25, =25, c1=0.0 y c2=1.0. Para ambos entornos, ESOINN informó que había 10 clases en el conjunto de datos original y proporcionó vectores prototipo (nodos de red) para cada clase. Usamos estos vectores prototipo para clasificar los datos de entrenamiento originales en diferentes clases e informar el reconocimiento de los datos. En comparación con SOINN, obtenemos casi el mismo índice de reconocimiento de datos correcto (90% para el entorno estacionario y 86% para el entorno no estacionario).


Figura 11. Distribución del número de clases

Para comparar la estabilidad de SOINN y ESOINN, realizamos 1000 iteraciones de entrenamiento para ambas redes y registramos la frecuencia del número de clases. El panel superior de la Figura 11 muestra el resultado de SOINN, el panel inferior de la Figura 11 muestra el resultado de ESOINN. La distribución del número de clases para SOINN (2-16) es mucho más amplia que para ESOINN (6-14); Además, la frecuencia cercana al número 10 para SOINN es mucho menor que para ESOINN, lo que refleja el hecho de que ESOINN es más estable que SOINN.
Para el segundo grupo de datos reales, utilizamos la base de datos de reconocimiento óptico de dígitos escritos a mano (optdigits) (www.ics.uci.edu ˜mlearn/MLRepository.html) para probar SOINN y ESOINN. Este conjunto de datos contiene 10 clases (dígitos escritos a mano) escritas por 43 personas, escritas por 30 personas que se utilizarán como conjunto de entrenamiento y escritas por las 13 personas restantes como conjunto de prueba. El conjunto de entrenamiento contiene 3823 ejemplos y el conjunto de prueba contiene 1797 ejemplos. El tamaño de la muestra es 64.


Figura 12. Resultados de dígitos escritos a mano. SOINN superior, ESOINN inferior

Primero, utilizamos el conjunto de entrenamiento para entrenar SOINN (parámetros establecidos en λ=200, =50 yc =1.0; otros parámetros se describen en nuestra otra revista). En ambos ambientes, SOINN informó que existen 10 clases. Arriba, la Figura 12 muestra un prototipo típico de resultados de vectores SOINN. Luego utilizamos los vectores de resultados SOINN para clasificar los datos de prueba. La exactitud del nivel de reconocimiento para el entorno estacionario fue del 92,2%; el nivel de reconocimiento correcto para un entorno no estacionario fue del 90,4%. Realizamos 100 ciclos de prueba para SOINN. El número de clases osciló entre 6 y 13 para ambos entornos (estacionario y no estacionario).
Usamos el conjunto de entrenamiento para entrenar a ESOINN. Para ambos entornos (λ=200, =50, c1=0.001 y c2=1), ESOINN informó que existen 12 clases. A continuación, en la Figura 12, se muestran prototipos típicos de los resultados de los vectores ESOINN. ESOINN dividió el número 1 en dos clases y dividió el número 9 en dos clases porque en las imágenes originales de los números hay una diferencia en la ortografía del número 1 y 1’ y en la escritura del número 9 y 9’. SOINN eliminó los nodos que fueron creados por las muestras 1' y 9'. ESOINN pudo separar estas clases de dígitos superpuestos 1 y 1' (9 y 9'), la información del conjunto de datos original está bien conservada.
Luego utilizamos los resultados de los prototipos vectoriales de ESOINN para clasificar el conjunto de datos de prueba en clases. El nivel de reconocimiento correcto para un entorno estacionario fue del 94,3 % y el nivel de reconocimiento correcto para un entorno no estacionario fue del 95,8 %. Realizamos 100 rondas de pruebas para ESOINN. El número de clases oscila entre 10 y 13 para ambos entornos.
A partir de experimentos con datos de dígitos escritos a mano reales, aprendimos que ESOINN puede separar clases superpuestas mejor que SOINN. ESOINN proporciona un mayor nivel de reconocimiento y es más estable que SOINN.

Conclusión

En este artículo, se propuso una red neuronal autoorganizada en crecimiento mejorada, ESOINN, que se basa en el marco SOINN. A diferencia del SOINN de dos capas, el ESOINN tiene una sola capa. ESOINN hace un buen trabajo al aprender información de forma gradual (cada vez más). Se agregó una condición al algoritmo ESOINN que determina la necesidad de crear una conexión entre nodos, lo que ayudó a la red a encontrar clases que se superponen entre sí. ESOINN solo acepta la inserción de nodos entre clases para implementar aprendizaje adicional. Por esta razón, ESOINN encuentra soluciones más fácilmente y tiene menos parámetros que SOINN. Utilizando algunas técnicas de suavizado, ESOINN también es más estable que SOINN.

También existen otros métodos para separar clases superpuestas, como la cuantificación de vectores de aprendizaje (LVQ). Dichos métodos pertenecen a métodos de aprendizaje supervisado y deben etiquetar todos los ejemplos de capacitación. Sin embargo, adquirir datos etiquetados durante el entrenamiento requiere muchos recursos, mientras que las muestras de datos no etiquetados son fáciles y rápidas de obtener. Aunque algunos métodos de aprendizaje supervisado pueden eliminar la necesidad de supervisión para encontrar clases superpuestas, sigue siendo importante encontrar métodos de aprendizaje no supervisados ​​que no requieran el uso de datos etiquetados. ESOINN y SOINN pertenecen a métodos de aprendizaje no supervisados, que por sí mismos pueden estimar el área de superposición de clases donde ESOINN se desempeña bien en la tarea. Además, encuentra fácilmente áreas superpuestas. Esta característica hace que ESOINN sea extremadamente útil para algunas aplicaciones del mundo real.

  • SOINN
  • Agregar etiquetas

    La división DeepMind de Google lanzó el algoritmo de inteligencia artificial AlphaGo Zero, que aprendió de forma independiente las reglas del juego Go. Sólo le llevó tres días hacerlo, según un artículo publicado en la revista Nature.

    DeepMind ha conseguido crear un programa de autoaprendizaje llamado AlphaGo Zero para jugar a Go, que podría tener otras aplicaciones. Los expertos involucrados en inteligencia artificial nos dijeron lo que esto significa para la ciencia y para los investigadores.

    La filial de Google, DeepMind, que desarrolla inteligencia artificial, ha presentado una nueva versión del programa Go AlphaGo Zero. El nuevo programa juega significativamente mejor que el antiguo, que derrotó al campeón mundial de Go a principios de este año, pero lo más importante es que es completamente autoaprendizaje.

    DeepMind dice que la compañía está ahora un paso más cerca de crear algoritmos de propósito general que puedan resolver problemas científicos complejos, desde la creación de nuevos medicamentos hasta la simulación de los efectos del cambio climático.

    Los expertos de la división DeepMind señalan que la inteligencia artificial es capaz de aprender muchas ciencias y convertirse en especialista en varios campos.

    Por primera vez, AlphaGo Zero pudo aprender a jugar por sí solo, sin intervención humana. Venció a la versión 2015 de la inteligencia artificial que venció al campeón surcoreano de Go, Lee Se-dol, el año pasado.

    Los desarrolladores señalan que la mayoría de los algoritmos de inteligencia artificial tienen un uso limitado, ya que solo pueden resolver un problema. Sin embargo, su desarrollo es capaz de superar al humano en la realización de varias tareas a la vez.

    El AlphaGo original demostró una habilidad de Go sobrehumana, pero requirió la experiencia de jugadores humanos para hacerlo. Para el entrenamiento se utilizó una base de datos de más de 100.000 juegos de Go "humanos".

    AlphaGo Zero, en comparación, contenía sólo las reglas básicas de Go. Todo lo demás se aprendió desde cero. Como se indica en el artículo de Nature, Zero desarrolló sus habilidades jugando contra sí misma.

    Todo empezó con movimientos aleatorios, pero con cada victoria, Zero actualizaba su sistema y jugaba contra sí mismo una y otra vez, millones de veces.

    Después de tres días de jugar contra ella misma, Zero se volvió lo suficientemente fuerte como para derrotar a su versión anterior, que derrotó al 18 veces campeón mundial Lee Se-dol. Zero ganó los cien juegos.

    Después de 40 días, Zero obtuvo una tasa de victorias del 90 % frente a la versión más difícil del programa AlphaGo. DeepMind dice que esto convierte a Zero en el jugador de Go más poderoso de la historia.

    "Sin el uso de datos humanos y experiencia humana - de cualquier tipo - hemos superado los límites de la comprensión humana del juego", dijo el programador principal de AlphaGo Zero, David Silver, en una conferencia de prensa. "Por lo tanto, el algoritmo es capaz de crear conocimiento sobre". propio, simplemente basado en principios fundamentales. Esto permite ser más fuerte que las versiones anteriores."

    Silver explicó que debido a que Zero jugó contra sí mismo, redescubrió las estrategias de Go que la gente había estado desarrollando durante milenios.

    “Empezó muy ingenua, como una principiante, pero con el tiempo jugó de tal manera que era difícil distinguirla de los profesionales”.

    El programa encontró algunas estrategias y variaciones conocidas durante el juego antes de crear estrategias aún desconocidas.

    "Descubrió los movimientos humanos, los probó, pero luego encontró algo más", dijo Silver.

    DeepMind espera que, al igual que las versiones anteriores de AlphaGo, Zero sirva de inspiración para los jugadores profesionales, brindándoles nuevos movimientos y estrategias para jugar.

    Zero tiene otras ventajas importantes sobre versiones anteriores. En primer lugar, el sistema requiere menos potencia de procesamiento y se ejecuta en solo cuatro TPU (estos son procesadores de IA dedicados creados por Google), mientras que las versiones anteriores usaban 48.

    En segundo lugar, dado que Zero es autoaprendizaje, demuestra que podemos crear algoritmos de vanguardia sin depender de grandes cantidades de datos.

    Los escépticos, como Geoffrey Hinton, sugieren que el aprendizaje automático sólo puede hacer una cosa. La recopilación de datos y la computación están ayudando a adaptar el aprendizaje automático a nuevas funciones, pero el ritmo actual de desarrollo es insostenible.

    Investigaciones recientes de DeepMind demuestran que se pueden realizar mejoras significativas simplemente centrándose en los algoritmos.

    "Este trabajo muestra que una combinación de técnicas existentes puede llegar más lejos de lo que muchos expertos podrían haber pensado, aunque las técnicas no son nuevas", dijo Ilya Sutskever, director de investigación de OpenAI. "Pero al final del día, lo que importa es que los investigadores continúen haciendo mejoras en el campo, y si ese objetivo se logra desarrollando nuevos métodos o aplicando métodos existentes de maneras inusuales es menos importante".

    En el caso de AlphaGo Zero, el rechazo de la experiencia humana fue una medida particularmente inteligente. Satinder Singh, profesor de informática que escribió un artículo adjunto al estudio DeepMind en Nature, describe el trabajo como “elegante” y destaca algunos aspectos del mismo.

    Singh dijo que esta es una victoria importante para el campo del aprendizaje por refuerzo, un área de la IA en la que los programas aprenden recibiendo recompensas por lograr ciertos objetivos, pero no reciben ninguna instrucción para hacerlo.

    Esta es un área de trabajo más nueva que el aprendizaje supervisado (donde los programas reciben datos etiquetados y aprenden de ellos), pero tiene más potencial. Singh dice que cuanto más pueda aprender una máquina sin guía humana, mejor.

    "Durante los últimos cinco o seis años, el aprendizaje por refuerzo ha evolucionado desde un método académico hasta un impacto más amplio en el mundo, y DeepMind ha contribuido a ello", afirma Singh. “El hecho de que hayan podido crear un mejor reproductor Go con significativamente menos datos y potencia de procesamiento y mucho más rápido es un gran logro. Dado que el aprendizaje por refuerzo es una parte importante de la IA, esto significa que, en general, se trata de un gran paso adelante”.

    ¿Dónde se pueden aplicar tales algoritmos? Según el cofundador de DeepMind, Demis Hassabis, podrían proporcionar a la sociedad algo así como un motor de pensamiento para la investigación científica.

    "La mayor parte del equipo de AlphaGo ahora está avanzando hacia otros proyectos para intentar aplicar esta tecnología en otras áreas", dijo Hassabis en una conferencia de prensa.

    Explica que AlphaGo es una muy buena máquina para buscar datos complejos.

    En el caso de Zero, estos datos se comparan con posibles movimientos en el juego de Go. Pero como Zero no está programado para comprender Go exclusivamente, puede reprogramarse para descubrir información en otras áreas: descubrimiento de fármacos, síntesis de proteínas, química cuántica, física de partículas y creación de materiales.

    Hassabis sugiere que un descendiente de AlphaGo Zero podría usarse para buscar un superconductor a temperatura ambiente, una sustancia hipotética que conduce corriente eléctrica sin perder energía, permitiendo sistemas energéticos inusualmente eficientes (los superconductores existen, pero actualmente operan a temperaturas extremadamente bajas). .

    Al igual que con Go, el algoritmo comenzará a crear combinaciones de diferentes datos, es decir, la composición atómica de varios materiales y sus propiedades, hasta que descubra algo que la gente pasó por alto.

    “Tal vez en algún lugar haya un superconductor a temperatura ambiente. Soñaba con esto cuando era niño, cuando leía libros de física”, dice Hassabis. "Pero hay tantas combinaciones de materiales que es difícil decir [si tal cosa existe]".

    "Estamos intentando crear algoritmos de propósito general, y esto es sólo otro paso adelante, pero es un paso emocionante", dice Hassabis.

    Hasta el momento no se han realizado pruebas que revelen la multitarea del dispositivo. Sin embargo, los creadores de la inteligencia artificial de autoaprendizaje confían en que dentro de diez años su creación desempeñará el papel de expertos científicos y trabajará codo con codo con las personas.

    Está previsto que el programa se utilice en el campo científico como miembro de pleno derecho de un equipo o como enciclopedia interactiva.

    Todos los usuarios se han encontrado con inteligencia artificial creada mediante programas de computadora en juegos de computadora. Por ejemplo, cuando se juega al ajedrez, una computadora analiza las combinaciones del jugador y utiliza su propio algoritmo para realizar su siguiente movimiento. En los juegos, todos los oponentes del usuario están dotados de inteligencia artificial. Hoy en día, la tecnología informática permite comunicarse con programas que utilizan inteligencia artificial. Y la propia inteligencia del software es capaz de desarrollar y mejorar sus funciones en la práctica. En una palabra, hoy los programas son capaces de evolucionar.

    Un programa sencillo con inteligencia artificial.

    Comencemos con el ejemplo más simple. ChatMaster es un programa de inteligencia artificial que puede hablar con una persona mediante el chat. La característica principal de un programa aparentemente sencillo es el autoaprendizaje. Cuanto más te comunicas con el programa, más crece su vocabulario y su capacidad para adaptarse a tu interlocutor durante el diálogo. El autor del programa afirma que logró crear un modelo de software del pensamiento humano.

    Cuando empiece a trabajar, el programa puede parecer "débil". Pero la razón es que después del primer lanzamiento no se debe probar inmediatamente su nivel de inteligencia e inteligencia. En un principio, hay que tratar al programa como a un niño de 12 años, que en unas horas se comunicará al nivel de su interlocutor. Para ello, el vocabulario del programa debe crecer de 3.000 a 10.000 palabras. Después de lo cual la impresión de trabajar con el programa supera todas las expectativas.

    A simple vista se nota que el programa recuerda no sólo las palabras sino también la reacción lingüística del interlocutor ante las frases planteadas. Si lo desea, puede ajustar las respuestas del programa a sus opciones mediante el aprendizaje forzado. En el mismo modo, puede prohibir recordar frases individuales ingresadas con errores tipográficos. Si lo desea, puede exportar bases de datos e intercambiarlas con amigos para un aprendizaje más rápido (al importar/exportar activamente, no olvide hacer copias de seguridad). En general, la lógica del programa, aunque única, también está muy desarrollada.

    Solución de software de inteligencia artificial mejorada.

    Los desarrolladores de A.L.I.C.E. propusieron una solución de software muy interesante en el campo de la inteligencia artificial. Conocen bien la inteligencia artificial y están desarrollando activamente programas en esta área. Para conocer sus desarrollos, se creó una aplicación en línea para comunicarse con el Capitán Kirk en tiempo real. El principio de funcionamiento de la aplicación es similar al del programa anterior, pero hay una característica interesante. El programa responde en voz alta a todas las preguntas escritas. Una desventaja importante del programa es la capacidad de comunicarse exclusivamente en inglés. No fue posible encontrar una aplicación similar para comunicarse en ruso y es una pena que los programadores no utilizaran dicha función. Después de todo, existen muchos programas de síntesis de voz que convierten texto en audio utilizando la tecnología SAPI5. Es una pena que los programadores no desearan crear un programa alternativo compatible con el idioma ruso. Después de todo, de hecho, este sigue siendo un nicho gratuito.

    La comunicación con un programa a través de un micrófono se clasifica como inteligencia artificial.

    El programa para comunicarse con una computadora en ruso se llama Grisha the Parrot. Lo más probable es que este programa implemente un prototipo de inteligencia artificial. Pero la idea es muy original. El hecho es que la principal característica distintiva de Grisha Parrot es la capacidad de comunicarse a través de un micrófono y parlantes (sin usar un teclado).

    El programa tiene un módulo de reconocimiento de voz independiente del hablante. Es el análisis del canal de audio entrante lo que clasifica a este programa como inteligencia artificial. Pero, lamentablemente, sólo es capaz de reconocer unas pocas preguntas (sólo 46 frases dadas en la ayuda). Cuando comienza el programa, el loro duerme. Tan pronto como hablas por el micrófono, este se activa para comenzar el diálogo. El sistema de software de reconocimiento de voz no utiliza funciones informativas, sino comunicativas:

    • apelativo;
    • emotivo;
    • método de prevalencia.

    El diccionario de diálogo categórico se basa en primitivas semánticas. El método de reconocimiento de voz no se realiza a partir del contenido lingüístico, sino determinando la función del enunciado. Así, durante el reconocimiento de voz del habla del usuario, se determinan el acto de habla, el escenario de comunicación y el diálogo en sí. Por tanto, a la hora de comunicarse con un programa, lo importante no es el uso de palabras, sino el acto comunicativo. Durante el reconocimiento, se seleccionan escenas aleatorias. Si no hay señal de entrada durante un tiempo, el propio loro provoca el diálogo con el usuario. El escenario de comportamiento del loro se puede controlar mediante frases e incluso se puede cambiar su carácter a: triste, susceptible, alegre.

    En el caso de las tecnologías móviles, se están desarrollando e implementando más activamente programas con inteligencia artificial. Puedes comprobarlo con una breve reseña en vídeo del programa:

    Google está creando una inteligencia artificial capaz de aprender a completar juegos de ordenador, desarrollando sus propias estrategias para cada uno de ellos en función de los resultados de una serie de pruebas. Así lo informó The Guardian.

    La inteligencia artificial, o "agente", como la llama Google, dominó de forma independiente 49 juegos retro, ofreciendo una estrategia ganadora única para cada uno de ellos. En el futuro, estos avances podrían aplicarse en el campo de los vehículos autónomos, los asistentes digitales y la investigación científica en el campo del clima y la cosmología.

    Este es el primer paso importante para demostrar que estos sistemas de autoaprendizaje pueden funcionar. Que pueden resolver problemas complejos que incluso a los humanos les resultan difíciles. Este es un pequeño paso hacia el logro de este enorme objetivo, pero es un paso muy importante.

    Demis Hassabis, fundador de DeepMind

    Como señala The Guardian, la inteligencia artificial desarrollada por DeepMind debe distinguirse del programa Deep Blue, que derrotó a Garry Kasparov en ajedrez en 1997, o de la computadora IBM Watson, que aprendió a participar en igualdad de condiciones con las personas en el espectáculo intelectual ". ¡Peligro!" (Equivalente ruso: "Juego propio"). En estos casos, las reglas de los juegos se establecieron inicialmente en los programas, mientras que la creación de DeepMind puede aprenderlas de forma independiente.

    Cuando inicias el juego por primera vez, el agente de DeepMind recibe solo información sobre la ubicación de los objetos en la pantalla y la puntuación, y luego comienza a presionar botones al azar, tratando de determinar qué acciones conducen a una mejora en los resultados y cuáles conducen a una pérdida.

    Se necesitan unos 600 intentos de inteligencia artificial y dos semanas de tiempo de computadora para dominar un juego retro. En muchos casos, al agente se le ocurrieron estrategias transversales que los investigadores ni siquiera podían imaginar.

    Según los resultados del experimento, la inteligencia artificial dominó un conjunto de 49 juegos, incluidos disparos, carreras y juegos de desplazamiento lateral, al 75% del nivel de un usuario experimentado. En algunas tareas el agente superó al humano, pero en otras no.

    Como señalan los creadores de la inteligencia artificial, al igual que los humanos, aprende mediante prueba y error, pero es inferior al cerebro humano en juegos en los que es necesaria una planificación a largo plazo debido a la falta de memoria completa. La creación de este tipo de reserva será el próximo objetivo de la empresa.

    Los especialistas de DeepMind no comparten la opinión del director ejecutivo de Tesla Motors, Elon Musk, uno de sus inversores, de que la inteligencia artificial puede ser peligrosa. En su opinión, la tecnología sólo podrá representar una amenaza real para la humanidad después de décadas.



    
    Arriba