Un nuevo mundo te está esperando.

Hogar

Ministerio de Educación de la Federación de Rusia

Universidad Estatal Forestal de los Urales

Departamento de Filosofía

Resumen sobre el tema:

Conciencia e inteligencia artificial

Completado por: Borisov A.V., DS-36

Comprobado por: Yakovleva E.A.

Ekaterimburgo – 2004

Introducción 3

Opiniones sobre el término “conocimiento” 5

Conciencia y Mente 8

Inteligencia artificial y problemas teóricos de la psicología 11.

Conclusión 13

Referencias 14

INTRODUCCIÓN El uso cada vez mayor de las computadoras electrónicas y el papel cada vez mayor de su papel en la vida de la sociedad ha hecho problema real

la relación entre las capacidades del pensamiento humano y la llamada inteligencia artificial o de máquina.

En la actualidad, es casi imposible indicar una sola esfera de la actividad humana en la que no se utilicen o no se puedan utilizar ordenadores. Al mismo tiempo surgen preguntas: "¿Qué tipo de trabajo pueden realizar fundamentalmente los ordenadores modernos y por qué?", ​​"¿Qué áreas y niveles de la actividad humana no están sujetos a la automatización?", "¿Cuáles son las perspectivas de desarrollo y uso de computadoras?” Las respuestas a estas preguntas dependen en gran medida de la solución del problema de la relación y conexión entre el hombre y las máquinas cibernéticas. Tiene no sólo teoría, sino también aspecto práctico

En la literatura dedicada a los problemas filosóficos de la cibernética, la consideración del problema de la relación entre el pensamiento humano y las capacidades de las computadoras a menudo fue reemplazada por la pregunta: ¿Piensan las máquinas? Al mismo tiempo, el concepto de “máquina” se interpretó de manera demasiado abstracta y el pensamiento se definió en términos de lógica formal y operaciones de la máquina. Se suponía que el desarrollo del "pensamiento automático" encontraría sólo dificultades puramente técnicas que se superarían, del mismo modo que la aviación, mejorando gradualmente, superó la "barrera del sonido".

El motivo de las apresuradas conclusiones optimistas fueron los primeros éxitos en la solución de problemas bastante tareas simples, permitiendo su completa algoritmización, programación y posterior procesamiento autónomo de la información en un ordenador. Al mismo tiempo, parecía que era posible resolver problemas más complejos aumentando la velocidad de procesamiento de la información, la cantidad de "memoria", reconociendo automáticamente el texto ingresado en una computadora mediante dispositivos de lectura automática y, lo más importante, mejorando la información. programas lógicos, en particular métodos de programación heurística.

Sin embargo, cuando se pasó a resolver problemas complejos, resultó imposible crear soluciones y programas de máquina completamente formalizados. La razón de esto es que el proceso de resolverlos en todas las etapas principales incluye elementos informales, en particular creativos, que son prerrogativa exclusiva de los humanos.

La conciencia de esta circunstancia sirvió de impulso para cambiar la estrategia de uso de las computadoras en todas las esferas de la actividad humana; de una estrategia que implicaba una sustitución gradual, fundamentalmente ilimitada, de las funciones de la inteligencia humana por funciones artificiales, a una estrategia de cooperación entre las capacidades humanas y informáticas. Si antes la cibernética buscaba fundamentar y demostrar la utilidad de las analogías de gran alcance entre el pensamiento humano y los dispositivos cibernéticos, ahora esto ya impide una evaluación científica sobria de las capacidades de las computadoras.

Por lo tanto, la tarea urgente de la cibernética se ha convertido en el estudio de las diferencias, capacidades y conexiones fundamentales entre los humanos y los dispositivos cibernéticos.

Un análisis metodológico de los problemas de la "inteligencia artificial" y la interacción interactiva entre una persona y una computadora es importante no sólo para fundamentar la estrategia general para resolver estos problemas, sino también para desarrollar cuestiones de distribución de funciones entre una persona y una computadora en el proceso de la solución en sí.

OPINIONES SOBRE EL TÉRMINO “CONOCIMIENTO”

En los últimos años, el término “conocimiento” se ha utilizado cada vez más en informática. Se encuentra en frases como “base de conocimientos”, “banco de conocimientos”, lenguaje de representación del conocimiento”, “sistemas de representación del conocimiento” y otras. Los expertos destacan que mejorar los llamados sistemas inteligentes (sistemas de recuperación de información alto nivel, sistemas de diálogo basados ​​en lenguajes naturales, sistemas interactivos hombre-máquina utilizados en gestión, diseño, investigación científica) están determinados en gran medida por el éxito con que se resuelvan los problemas de representación del conocimiento.

No es sorprendente que quienes se ocupan del problema de la representación del conocimiento se enfrenten a la pregunta de qué es el conocimiento, cuál es su naturaleza y sus principales características. En este sentido, por ejemplo, se intenta dar una definición de conocimiento a partir de la cual se pueda partir para resolver problemas de representación del conocimiento en sistemas informáticos. Se enfatiza que para desarrollar medios y métodos para presentar el conocimiento, es necesario utilizar los resultados de la psicología cognitiva, una ciencia que revela las estructuras en las que una persona almacena información sobre el mundo que la rodea. Se sugiere que el lenguaje y la representación del conocimiento en sistemas inteligencia artificial debe considerarse en el marco de una dirección científica especial: la cogitología. El tema de la cogitología debe ser el conocimiento como aspecto independiente de la realidad.

La presentación de datos tiene un aspecto pasivo: un libro, una tabla, un recuerdo lleno de información. La teoría de la inteligencia artificial enfatiza especialmente el aspecto activo de la representación: “saber” debe convertirse en una operación activa que permita no sólo recordar, sino también recuperar el conocimiento percibido (adquirido, aprendido) para razonar basándose en él. En consecuencia, los orígenes de la representación del conocimiento se encuentran en la ciencia del conocimiento (epistemología o epistemología), y su objetivo final es el software informático.

Al mismo tiempo, la cuestión de qué es el conocimiento, cuáles son sus propiedades básicas y sus métodos de obtención, es una cuestión filosófica primordial. Por tanto, es natural esforzarse por proporcionar una comprensión filosófica de las cuestiones de la representación informática del conocimiento, identificando en primer lugar sus aspectos epistemológicos y filosófico-lógicos.

La posición ideológica fundamental es considerar la computadora como un objeto intermediario en la actividad cognitiva humana. Un sistema informático, como otros objetos intermediarios (herramientas de trabajo y artículos para el hogar, herramientas, instrumentos, sistemas simbólicos de signos, textos científicos, etc.), que desempeñan un papel instrumental en la cognición, es un medio para objetivar el conocimiento acumulado, la encarnación de un cierta experiencia sociohistórica de actividades prácticas y cognitivas. Su papel teórico-cognitivo más importante se debe al hecho de que la identificación por parte de una persona de características en objetos recién conocidos que resultan significativas desde el punto de vista de la práctica social se hace posible precisamente con la ayuda de objetos intermediarios. “Computadora”, enfatiza el académico. G.S. Pospelov, es una herramienta para la actividad intelectual de las personas, y la dirección científica "inteligencia artificial" le da a esta herramienta nuevas cualidades y proporciona un estilo nuevo y más prometedor de su uso. En este sentido, la disputa entre partidarios y opositores de la inteligencia artificial resulta completamente inútil.

Para el análisis filosófico de las cuestiones que nos ocupan, la cuestión importante es si el término "conocimiento" en la expresión "representación del conocimiento" se considera un fenómeno de la jerga profesional o si la transición de la presentación de datos a la presentación del conocimiento es realmente ¿Tienen características epistemológicas significativas y cuáles exactamente? Las características de una computadora como objeto intermediario en la cognición están determinadas en gran medida por el hecho de que la computadora pertenece a un tipo de objeto intermediario como el modelo. El término “modelo” se utiliza en el lenguaje cotidiano y en el lenguaje científico con diversos significados. Dejemos que un modelo se entienda como un determinado sistema (material o conceptual), de una forma u otra, que refleja ciertas propiedades y relaciones de otro sistema, llamado original, reemplazándolo en un sentido precisamente especificado y proporcionando nueva información sobre el original. Al analizar los aspectos epistemológicos del modelado por computadora, las computadoras fueron consideradas en la literatura filosófica y metodológica principalmente como modelos de materiales, creado sobre la base de la acción de ciertas leyes físicas y funcionando debido a la ocurrencia de procesos físicos bien definidos en ellas. El modelado por computadora se entendió como la implementación técnica de una determinada forma de modelado simbólico. Sin embargo, al considerar una computadora en términos epistemológicos como un objeto que media el conocimiento, tiene sentido no centrar la atención principalmente en el “hardware” de la computadora, sino considerar todo el sistema informático como un sistema complejo de elementos interconectados y, hasta cierto punto, , modelos independientes, tanto materiales como icónicos, es decir, ideales. Este enfoque no sólo corresponde a la consideración de los sistemas informáticos en informática moderna, pero también está epistemológicamente justificado. Muchos aspectos filosóficos importantes de los problemas que surgen en relación con la informatización de diversas esferas de la actividad humana requieren, para su investigación, atención principalmente a los componentes simbólicos de los sistemas informáticos. Esto también es cierto con respecto a los aspectos filosóficos de los problemas de representación del conocimiento.

En los últimos años, el término "modelado por computadora" se ha utilizado cada vez más. construcción de cualquiera de los componentes sistema informático- ya sea modelo icónico o materiales.

¿Qué cambia en el modelado por computadora a medida que pasamos de la representación de datos a la representación del conocimiento? ¿Cuál es el significado epistemológico de estos cambios? A. Newell, señalando que el problema de representar el conocimiento tiene interesantes puntos de contacto con la filosofía, porque la naturaleza de la mente y la naturaleza del conocimiento siempre han sido una de las cuestiones filosóficas centrales, escribe: “Sin embargo, el interés de la filosofía en el conocimiento siempre se ha concentrado en el problema de la confiabilidad... Esto se ha encontrado reflejado en la distinción entre conocimiento y fe que se hace en la filosofía. La inteligencia artificial, considerando que todo conocimiento contiene errores, todavía llama a sus sistemas sistemas de conocimiento. Filosóficamente hablando, la inteligencia artificial se ocupa únicamente de los sistemas de creencias. ... Por lo tanto, la doctrina del conocimiento, si comparte con la inteligencia artificial la indiferencia ante el problema de la certeza absoluta, resultará ignorar cuestiones filosóficas centrales.” Las diferencias en los enfoques del conocimiento que existen en la filosofía y en la inteligencia artificial no dan fundamento para la oposición absoluta de estos enfoques y para eliminar de los problemas de representar el conocimiento a aquella filosofía que no quiere “dejar desatendidas las cuestiones filosóficas centrales”.

CONCIENCIA Y MENTE

La conciencia surge en los animales como uno de los medios que mejoran su adaptación al medio. La adaptación rápida (en comparación con la vida útil del animal) requiere la capacidad de prever, y el motivo de la adaptación son las necesidades biológicas vitales del organismo. Un sistema artificial con tales propiedades también adquiere conciencia.

¿Cómo funciona la conciencia? ¿Qué procesos, mecanismos y objetos que interactúan se requieren para que surja la conciencia y la autoconciencia? ¿Qué se necesita para hacer no un modelo de conciencia, sino simplemente conciencia?

Habitualmente la palabra conciencia se utiliza como característica de un ser individual. Puede "perder el conocimiento". Y la palabra mente significa la capacidad fundamental de ser consciente. Por ejemplo, "un hombre razonable". Sin embargo, hay otras interpretaciones.

No se sabe cómo demostrar lo que piensa una persona. La confianza en lo que la gente piensa se basa en la experiencia y la confianza en la propia mente, y no en mediciones y conclusiones lógicas de ellas. Por eso es difícil para la ciencia abordar un estudio profundo de la conciencia. Podemos estudiar el cerebro, las neuronas, los lenguajes, el comportamiento, pero no la conciencia misma. No estamos observando inteligencia, sino comportamiento inteligente.

El juicio sobre la presencia de inteligencia es subjetivo, hasta el punto de que algunas personas consideran inconsciente el comportamiento de algunos de sus compañeros de tribu.

Puede introducir una escala subjetiva de razonabilidad. Por ejemplo, el caracol, el gato y el hombre se enumeran aquí en orden de inteligencia creciente. Es posible que la mente no parta del nivel más simple de organización del sistema nervioso, sino que “emerge” con su suficiente desarrollo. Sin embargo, aunque no está claro qué es la mente y el mecanismo de tal aparición no está claro, es conveniente suponer que todos los seres con sistema nervioso razonable. En particular, las criaturas más simples pueden tener inteligencia “cero” o “infinitesimal”. Pero con este enfoque, es posible comparar el comportamiento de muchos animales para encontrar qué es exactamente lo que parece razonable en el comportamiento de un animal determinado. Estos deberían ser signos que se detecten en todos los animales sin excepción.

Definiciones tan buenas de la conciencia como la capacidad de lograr un objetivo, de encontrar una solución o de tomar una decisión no son adecuadas, ya que no son constructivas y, en particular, no están claramente relacionadas con el comportamiento observado. La “meta” y la “solución” se determinan a través de la conciencia. La capacidad de comunicarse con otras personas como uno mismo y las formas de dicha comunicación son “más observables”, pero a menudo son difíciles de distinguir de la interacción física. Ejemplo: transferencia de polen.

Un buen criterio observable de inteligencia es la capacidad de adaptarse activamente a las condiciones ambientales cambiantes, es decir, la capacidad de autoaprender basándose en la propia experiencia. ¿Cuál es la diferencia entre conciencia y autoaprendizaje?

La conciencia es una propiedad interna, un motor creativo de un organismo que aprende a sí mismo. La conciencia inicial surge cuando el sistema nervioso está organizado de tal manera que proporciona la capacidad de aprender. Esta no es todavía la autoconciencia que te obliga a ceder tu asiento a la anciana. El carácter constructivo de esta definición es que no limita los medios para producir un “motor creativo”. Vale la pena inventar y crear un dispositivo capaz de autoaprendizaje (es decir, "autoaprendizaje", sin choques ni influencias externas, y no de forma pasiva, sino activa, acompañada de actividad), y ganará conciencia. Encuentre la capacidad de autoaprendizaje en un robot y esto demostrará que tiene conciencia.

En lugar de la palabra "autoaprendizaje", a veces se utiliza el concepto más amplio de "adaptación". Si una criatura encuentra de forma independiente un nuevo comportamiento en nuevas condiciones y nadie le enseñó este comportamiento, entonces esta criatura es capaz de adaptarse (autoaprendizaje). La invención de un nuevo comportamiento es un signo de creatividad (aunque esta opinión es muy, muy controvertida y se requiere una investigación filosófica seria en el campo del concepto de "creatividad" para demostrar su veracidad y falacia), y la creatividad es uno de los atributos. de la conciencia.

El gran potencial de adaptación se ve claramente en este experimento mental. Imaginemos una criatura con la adaptación más desarrollada. Que esta criatura se vea obligada a adaptarse a la cultura humana. Y aprendió a jugar al ajedrez, diseñar cohetes espaciales y escribir poesía exquisita. ¿Quién le negará ahora la razonabilidad? Por tanto, cualquier capacidad de adaptación de un ser vivo debe considerarse manifestación de su conciencia. Y todo el mundo tiene derecho a valorar subjetivamente el grado de desarrollo de esta conciencia.

La conciencia "inicial" no garantiza la conciencia. La conciencia es un nivel de desarrollo de la conciencia en el que el sujeto se distingue de otros objetos, es decir, se distingue como un sistema que funciona de forma independiente.

La autoconciencia es el principal signo de conciencia generalmente aceptado. Sin embargo, esto es sólo caso especial Conciencia del mundo “exterior”. Percibimos el mundo exterior en forma de diversas cualidades que reflejan los parámetros físicos de los fenómenos naturales registrados por nuestros sentidos. No somos conscientes de nuestra conciencia, sino de nuestras sensaciones del mundo de los objetos y de nuestros pensamientos, presentados en forma de imágenes del mundo de los objetos, es decir, en forma de imágenes de sensaciones. El juicio sobre la propia conciencia se deriva de la observación de la propia conducta. Por tanto, el problema de la autoconciencia se reduce al problema de la conciencia de los propios sentimientos.

La conciencia de las sensaciones proporciona el mismo mecanismo interno de conciencia: el motor del autoaprendizaje y la creatividad. La conciencia en sí no es el cerebro ni el comportamiento, sino más bien un mecanismo, es decir, un proceso especial de procesamiento de información.

Para la conciencia, es importante que el mecanismo creativo de la conciencia desarrolle el comportamiento óptimo de los órganos en determinadas circunstancias. El comportamiento del cerebro es su interacción con otros órganos. El comportamiento de la mano es su interacción con mundo fisico y con el cerebro. Si se encuentra una conducta suficientemente perfecta y “no mejorable”, entonces la conciencia también desaparece, siendo reemplazada. control automático. Por lo tanto, una conducta cuidadosamente practicada, como tocar un instrumento musical, se vuelve automática y no distrae la conciencia de la creatividad musical. Aunque no lo adjuntamos de gran importancia, pero cabe señalar que las sensaciones que acompañan al comportamiento automático también pueden volverse automáticas, es decir, inconscientes. Por ejemplo, persona sana No presta atención al hecho de que al caminar, una fuerza de decenas de kilogramos actúa sobre las plantas de los pies. Y en otra situación, sentimos y reaccionamos conscientemente ante un ligero toque.

INTELIGENCIA ARTIFICIAL Y PROBLEMAS TEÓRICOS DE PSICOLOGÍA

Hay dos líneas principales de trabajo en inteligencia artificial (IA). El primero está asociado a la mejora de las propias máquinas, al aumento de la “inteligencia” sistemas artificiales. El segundo está relacionado con la tarea de optimizar el trabajo conjunto de la “inteligencia artificial” y las capacidades intelectuales reales de los humanos.

Pasando a los problemas psicológicos de la inteligencia artificial, podemos señalar tres posiciones sobre la cuestión de la interacción entre la psicología y la inteligencia artificial.

1. “Sabemos poco sobre la mente humana, queremos recrearla, lo hacemos a pesar de la falta de conocimiento”: esta posición es típica de muchos especialistas extranjeros en IA.

2. La segunda posición se reduce a señalar las limitaciones de los resultados de las investigaciones sobre la actividad intelectual realizadas por psicólogos, sociólogos y fisiólogos. La razón dada es la falta de métodos adecuados. La solución pasa por recrear determinadas funciones inteligentes en el funcionamiento de las máquinas. En otras palabras, si una máquina resuelve un problema previamente resuelto por una persona, entonces el conocimiento que se puede obtener analizando este trabajo es el material principal para construir teorías psicológicas.

3. La tercera posición se caracteriza por una valoración de la investigación en el campo de la inteligencia artificial y la psicología como completamente independiente. En este caso, se permite la posibilidad de consumir y utilizar únicamente conocimientos psicológicos en términos de apoyo psicológico para el trabajo en IA.

Las ideas populares sobre el análisis de sistemas permitieron hacer de la comparación de los principios de funcionamiento de los sistemas artificiales y la actividad humana en sí una técnica heurística importante para resaltar un análisis psicológico específico de la actividad humana.

En 1963, hablando en una reunión sobre cuestiones filosóficas de fisiología y psicología del VND, A.N. Leontyev formuló la siguiente posición: una máquina reproduce las operaciones del pensamiento humano y, por lo tanto, la relación entre "máquina" y "no máquina" es una correlación entre operativo y no operativo en la actividad humana. Sin embargo, más tarde, al comparar las operaciones que componen el trabajo de una máquina y las operaciones como unidades de actividad humana, surgieron diferencias significativas: en el sentido psicológico, la "operación" refleja el método para lograr resultados, una característica procedimental, mientras que en En relación con el trabajo de la máquina, este término se utiliza en sentido lógico-matemático (caracterizado por el resultado).

El término "objetivo" se utiliza constantemente en los trabajos sobre inteligencia artificial. En la teoría psicológica de la actividad, la “meta” es una característica constitutiva de la acción, a diferencia de las operaciones (y de la actividad en general). Mientras que en los sistemas artificiales, una “meta” se denomina una situación final hacia la cual se esfuerza el sistema. Las características de esta situación deben identificarse claramente y describirse en un lenguaje formal. Los objetivos de la actividad humana son de diferente naturaleza. La situación final puede ser reflejada por el sujeto de diferentes formas: tanto a nivel conceptual como en forma de ideas. Esta reflexión puede caracterizarse por diversos grados de claridad y distinción. Además, es típico que una persona no solo alcance objetivos ya establecidos, sino también que se forme otros nuevos.

Además, el trabajo de los sistemas de inteligencia artificial se caracteriza no sólo por la presencia de operaciones, programas, "objetivos", sino también por funciones de evaluación. Y los sistemas artificiales tienen una especie de “orientación de valores”. La especificidad de la regulación motivacional y emocional de la actividad humana es el uso no solo de evaluaciones constantes, sino también que surgen situacionalmente y que cambian dinámicamente, la diferencia entre evaluaciones verbales-lógicas y emocionales también es significativa; En la existencia de necesidades y motivos, la diferencia entre hombre y máquina se ve en el nivel de actividad. Esta tesis implicó una serie de estudios dedicados al análisis de las particularidades de la actividad humana. Posteriormente se demostró la dependencia de la estructura de la actividad mental en la resolución de problemas creativos de los cambios en la motivación.

Como lo ha demostrado la historia, la psicología y la inteligencia artificial como dirección científica pueden cooperar bastante estrechamente, basándose mutuamente en los logros de cada uno.


CONCLUSIÓN

La naturaleza del pensamiento, el misterio de la conciencia, el misterio de la mente, todo esto es, por supuesto, uno de los problemas más preocupantes para los humanos. La popularidad de la cibernética y el constante interés por ella en los círculos más amplios se explica en gran medida por su estrecha relación con este problema "eterno". Desde el momento en que una persona comenzó a pensar en el problema del pensamiento, hubo dos direcciones principales diametralmente opuestas en su enfoque: el materialismo y el idealismo. El idealismo surge del reconocimiento del pensamiento como una cierta esencia especial, fundamentalmente diferente de la materia, de todo lo que nos ocupa en el mundo exterior. El materialismo, por el contrario, afirma que "... ese mundo material, percibido sensualmente por nosotros, al que nosotros mismos pertenecemos, es el único mundo real, y nuestra conciencia y pensamiento son el producto de un órgano corporal material".

Hasta ahora, la comprensión dialéctico-materialista del pensamiento se ha basado principalmente en datos generalizados de la psicología, la fisiología y la lingüística. Los datos de la cibernética nos permiten plantear la cuestión de una comprensión más específica del pensamiento.

El instrumento de la filosofía es el conocimiento. Es una herramienta, no un resultado. El conocimiento no es un objeto finito que puedes poner en un cofre y decir: "¡Sí, ahora tengo conocimiento!". El conocimiento es una cadena. El conocimiento en el campo de la inteligencia artificial también es una cadena e interminable.

La herramienta de la cibernética es el modelado. Desde el punto de vista de la teoría del modelado, no tiene ningún sentido hablar de la identidad completa del modelo y el original. Por tanto, es imposible modelar completamente un comportamiento inteligente, un objeto capaz de pensar, y colocarlo todo en el mismo cofre. Todo esto es bastante consistente con el concepto de conocimiento.

LISTA DE REFERENCIAS UTILIZADAS

1. Alekseeva I.Yu. Inteligencia artificial y reflexión sobre el conocimiento. // “Filosofía de la Ciencia y la Tecnología”: revista 1991 No. 9, p. 44-53.

2. Alekseeva I.Yu. El conocimiento como objeto. modelado por computadora. // “Cuestiones de Filosofía”: revista 1987 No. 3, p. 42-49.

3. Anísov A.M. Computadoras y comprensión de demostraciones matemáticas. // “Cuestiones de Filosofía”: revista 1987 No. 3, p. 29-40.

4. El futuro de la inteligencia artificial: M., Nauka 1991, editado por Karl, Levitin, Pospelov, Khoroshevsky.

5. Vendrov A.M. Tecnologías CASE. Métodos modernos y herramientas de diseño sistemas de información.: M., Finanzas y Estadística 1998.

6. Wiener N. Cibernética o control y comunicación en animales y máquinas. Segunda edición: M., Nauka 1983.

7. Lefevre V.A. De la psicofísica al modelado del alma. // “Cuestiones de Filosofía”: revista 1990 No. 7, p. 25-31.

8. Lefevre V.A. La “incomprensible” eficacia de las matemáticas en el estudio de la reflexión humana. // “Cuestiones de Filosofía”: revista 1990 No. 7, p. 51-58.

9. Pospelov D.A. Filosofía o ciencia. En camino hacia la inteligencia artificial: M., Nauka 1982.

10. Pospelov D.A. Inteligencia artificial: una nueva etapa de desarrollo. // “Boletín de la Academia de Ciencias de la URSS”: revista 1987 No. 4.

11. Petrunin Yu.Yu. La inteligencia artificial como fenómeno de la cultura moderna. // “Boletín de la Universidad de Moscú”: revista 1994 No. 8, p. 28-34.

12. Turing A. ¿Puede pensar una máquina?: M., Nauka 1960.

13. Shrader Yu.A. Inteligencia artificial, estructuras reflexivas y el principio antrópico. // “Cuestiones de Filosofía”: revista 1995 No. 7, p. 163-167.

14. Shrader Yu.A. Reflexión humana y dos sistemas de conciencia ética. // “Cuestiones de Filosofía”: revista 1990 No. 7, p. 32-41.

15. Kornienko E. Mecanismos de conciencia: www.glasnet.ru 2004 (publicación electrónica)


Matemáticamente, hay problemas que la inteligencia humana puede resolver y que son fundamentalmente inaccesibles a las computadoras. Estas opiniones son expresadas tanto por cibernéticos como por filósofos. El problema de la inteligencia artificial Un análisis epistemológico del problema de la inteligencia artificial revela el papel de herramientas cognitivas como las categorías, un sistema semiótico específico, estructuras lógicas, previamente acumuladas...

Conceptos de pensamiento, prueba práctica de que el pensamiento es función de un sistema material altamente organizado. Pero la cibernética va más allá y plantea la cuestión de la posibilidad de la “inteligencia artificial”, el “pensamiento automático”, etc. Aquí encontramos una amplia gama de opiniones sobre la posibilidad del surgimiento de máquinas pensantes: que van desde “extremadamente optimistas” hasta “extremadamente...

Y los fundamentos morales de la identidad humana son importantes para el desarrollo existencial del hombre. Al mismo tiempo, la creatividad es una continuación de la naturaleza; no debe contradecirla. "Y aquí", dijo Arkady Viktorovich, "no estamos alcanzando la inteligencia artificial, sino la inteligencia cósmica". Cabe señalar que Marat Samirkhanovich habló con toda razón sobre un solo proceso, y si no sobre un solo proceso, entonces no solo sobre...

Su investigación está modelando comportamiento social, comunicación, emociones humanas, creatividad. 3.2 Resultados y problemas Problemas de la IA relacionados con los recursos Los informes sobre los logros únicos de los especialistas en el campo de la inteligencia artificial (IA), que prometían oportunidades sin precedentes, desaparecieron de las páginas de las publicaciones de divulgación científica hace muchos años. Euforia asociada a los primeros éxitos prácticos en...

La filosofía de la inteligencia artificial (IA) cubre una amplia gama de problemas fundamentales asociados con la creación de inteligencia artificial. ¿Cuál es la esencia de la razón? ¿Cuáles son los principios de su funcionamiento? Y por último, ¿es posible crear inteligencia artificial? A pesar de los enormes éxitos en la creación de programas y algoritmos capaces de resolver muchos problemas intelectuales, mucho más eficiente que un humano, no podemos encontrar una respuesta clara e inequívoca a estas preguntas.

La respuesta a la pregunta sobre la posibilidad de la existencia de la inteligencia artificial estuvo determinada por la orientación de la cosmovisión del pensador: la tradición dualista, que se remonta a R. Descartes, postuló la inexpresabilidad del pensamiento a través del cuerpo, mientras que la tradición materialista consideraba el pensamiento. derivar del cuerpo. Descartes, basándose en su sistema dualista, consideraba que el pensamiento era un atributo sólo de los humanos (describía incluso a los animales como "autómatas"), mientras que la tradición materialista teóricamente dejaba la posibilidad de la existencia del pensamiento no sólo entre las personas.

¿Qué puede considerarse un criterio para la presencia de inteligencia? La conciencia ordinaria, por regla general, percibe la conducta como un criterio de racionalidad. Juzgamos que algo es razonable o irrazonable evaluando su comportamiento. Pero, ¿cuál es la conexión entre la esencia de la mente humana y su manifestación externa: el comportamiento racional? ¿Qué comportamiento sería razonable? ¿Cómo puedes saber por el comportamiento de alguien si ese ser es inteligente?

Allá por el siglo XVIII. D. Diderot en sus “Reflexiones filosóficas” afirmó que si encuentra un loro que pueda responder a cualquier pregunta, entonces este loro, sin duda, deberá ser considerado una criatura inteligente.

En 1936, el filósofo A. Ayer planteó la cuestión relativa a otras mentes: ¿cómo sabemos que otras personas tienen las mismas experiencias conscientes que nosotros? "La única base sobre la cual puedo decir que un objeto que parece ser inteligente no es realmente un ser inteligente, sino simplemente una máquina, es que no pasa una de las pruebas empíricas mediante las cuales se determina la presencia o ausencia de conciencia".

"¿Pueden pensar las máquinas?" - Esta pregunta fue planteada en 1950 por el matemático y lógico británico A. Turing. Destaca que el enfoque tradicional de esta cuestión es definir primero los conceptos de “máquina” e “inteligencia”. Turing, sin embargo, eligió un camino diferente; en cambio, reemplazó la pregunta original por otra "que está estrechamente relacionada con la original y está formulada en términos relativamente inequívocos". Básicamente, propone reemplazar la pregunta "¿Piensan las máquinas?" pregunta "¿Pueden las máquinas hacer lo que nosotros (como criaturas pensantes) podemos hacer?" “Un ordenador puede considerarse inteligente si puede hacernos creer que no estamos ante una máquina, sino ante una persona”. La ventaja de la nueva pregunta, sostiene Turing, es que traza “una línea clara entre las capacidades físicas e intelectuales humanas”, para lo cual Turing propone una prueba empírica.

La esencia de la prueba de Turing es la siguiente. Hay un juez, un hombre y una máquina en diferentes salas. El juez mantiene correspondencia con una persona y una máquina, sin saber de antemano cuál de los interlocutores es una persona y cuál es una máquina. El tiempo para responder una pregunta es fijo, por lo que el juez no puede determinar la máquina según este criterio (en la época de Turing, las máquinas trabajaban más lentamente que los humanos, pero ahora reaccionan más rápido). Si el juez no puede determinar cuál de sus interlocutores es una máquina, entonces la máquina ha pasado el test de Turing y puede considerarse pensante. Además, la máquina no será sólo una apariencia de la mente humana: será precisamente la mente, porque no tendremos forma de distinguir su comportamiento del comportamiento humano. Esta interpretación de la inteligencia artificial como un equivalente completo de la inteligencia natural se denomina “IA fuerte”.

Prestemos atención al hecho de que la prueba de Turing no implica en absoluto que la máquina deba “comprender” la esencia de las palabras y expresiones con las que opera. La máquina sólo necesita simular adecuadamente respuestas significativas.

En 1980, J. Searle propone un experimento mental que critica el test de Turing y la idea de que la inteligencia puede existir sin comprensión. La esencia del experimento es la siguiente. Searle intenta fingir que sabe chino, pero no lo entiende.

“... supongamos que me colocaran en una habitación en la que se colocaran cestas llenas de caracteres chinos. Supongamos también que me dan un libro de texto en inglés, que da las reglas para combinar caracteres en el idioma chino, y estas reglas se pueden aplicar conociendo sólo la forma de los caracteres, no es en absoluto necesario comprender el significado de los caracteres; . Por ejemplo, las reglas podrían decir: “Toma tal o cual personaje de la canasta número uno y colócalo al lado de tal o cual personaje de la canasta número dos”. Imaginemos que detrás de la puerta de la habitación hay personas que entienden chino y transmiten conjuntos de símbolos a la habitación, y que en respuesta yo manipulo los símbolos según las reglas y transmito otros conjuntos de símbolos”.

Así, Searle pasa una especie de prueba de Turing sobre el conocimiento del idioma chino, que en realidad desconoce. Es obvio que en en este caso Searle realiza un trabajo puramente mecánico y puede ser reemplazado fácilmente por una máquina. Searle muestra que la prueba de Turing no es en absoluto un criterio para la presencia de conciencia, sino sólo un criterio para la capacidad de manipular símbolos.

La esencia de la posición de Searle sobre la cuestión de la inteligencia artificial se reduce a lo siguiente: la mente opera con contenido semántico (semántica), mientras que un programa de computadora está completamente determinado por su estructura sintáctica. Por tanto, los programas no son la esencia de la mente y su presencia no es suficiente para la presencia de la mente. La inteligencia no puede reducirse a la simple ejecución de un programa informático. Lo que produce la mente debe tener al menos propiedades causales equivalentes a las del cerebro. Aquellos. Searle rechaza el camino directo de Turing hacia la inteligencia artificial.

Sin embargo, se han planteado muchas objeciones contra el experimento mental de Searle. Aquí están los principales:

· para tener la garantía de aprobar el examen, el libro debe contener respuestas adecuadas a TODAS las preguntas existentes. Aquellos. el libro debe tener omnisciencia; de lo contrario, la probabilidad de que una pregunta inusual lleve al sistema al estupor será distinta de cero.

· de hecho, la prueba de conocimiento del idioma chino se realiza mediante un sistema formado por J. Searle, un libro de reglas y las personas que compilaron este libro de reglas. Pero las personas que compilaron el libro sin duda conocen el idioma chino. Aunque otras partes del sistema no entienden el idioma.

Además, un argumento en contra de la prueba de Turing como prueba de inteligencia es que es en realidad una prueba de semejanza humana y no de inteligencia en general. Al pasar la prueba, la máquina debe comportarse como una persona, pero no todo el comportamiento humano es racional y una máquina puede resolver muchas tareas intelectuales de manera mucho más eficiente que una persona (por ejemplo, cálculos matemáticos). El deseo de pasar la prueba de Turing hace que las máquinas “no sean demasiado inteligentes”. Se puede hacer la siguiente comparación: si los ingenieros de principios del siglo XX, al crear un avión, intentaran hacerlo una copia exacta pájaros, serían como científicos modernos que intentan crear una máquina que piense exactamente de la misma manera que piensa una persona. Esto es completamente impráctico. Los aviones no vuelan como los pájaros, pero vuelan mucho más rápido, más lejos y más alto que los pájaros. Aquellos. La prueba de Turing no revela la esencia de la mente, solo indica la imitación exitosa de su manifestación externa, y no de la manifestación más significativa. “La capacidad de chatear aún no es un signo de inteligencia”, resumen esta posición los guionistas de la película “Star Wars”.

Estos argumentos teóricos se ven confirmados por la práctica de crear programas inteligentes. Por ejemplo, es típica la historia de la traducción automática, cuyas capacidades durante varias décadas se consideraron significativamente superiores a las de un traductor humano. Pero en la práctica, a pesar de las increíbles cantidades de información que una máquina es capaz de almacenar, la traducción es, en el mejor de los casos, tan estilísticamente “torpe” y fea que la “traducción automática” se ha convertido en una especie de tema en el arte de la comedia en Internet. Cualquier buen traductor sabe que una traducción real (incluso técnica) sólo requiere diccionario y gramática. Aquí también se necesitan conocimientos en el área a la que pertenece el texto: el traductor debe comprender de qué habla el texto. Aquellos. la sintaxis sin semántica no permite resolver la mayoría de los problemas intelectuales accesibles a la mente humana.

Por lo tanto, para los desarrolladores de programas intelectuales modernos, la prueba de Turing no se ha convertido en un criterio universal para su éxito. Pero la "prueba de Turing inversa", un molesto CAPTCHA, se ha vuelto muy popular.

Como vemos, la búsqueda de la posibilidad de crear inteligencia artificial se reduce en cualquier caso a la pregunta: ¿qué es la inteligencia?

En 1963, A. Newell y G. Simon, basándose en el análisis del lenguaje, sugirieron que la esencia de la mente radica en la capacidad de operar con símbolos. Este enfoque hizo posible crear un programa capaz de resolver cualquier problema intelectual si la tarea pudiera formalizarse (por ejemplo, demostrar teoremas, jugar al ajedrez, etc.). La capacidad de realizar cálculos simbólicos es suficiente para resolver problemas intelectuales, y sin tales cálculos el comportamiento inteligente es imposible. Por tanto, la mente puede considerarse como un dispositivo que opera información de acuerdo con reglas formales. Dentro de este enfoque, la inteligencia artificial se crea por analogía con el cerebro y el sistema nervioso humanos, es decir. Basado en el principio de una red neuronal. Las redes neuronales no se programan en el sentido habitual de la palabra, sino que se entrenan. La capacidad de aprender es una de las principales ventajas de las redes neuronales frente a los algoritmos tradicionales. Técnicamente, el aprendizaje consiste en encontrar los coeficientes de conexiones entre neuronas. Durante el proceso de aprendizaje, la red neuronal puede identificar dependencias complejas entre los datos de entrada y los datos de salida, así como realizar generalizaciones.

Este enfoque fue criticado por el filósofo H. Dreyfus. La esencia de sus objeciones es la siguiente:

· el conocimiento humano sobre el mundo consiste no sólo y no tanto en conocimiento objetivo sobre el mundo, sino en nuestra actitud subjetiva hacia él y la tendencia a percibir e interpretar los acontecimientos de una forma u otra. Incluso si utilizamos un sistema simbólico para expresar nuestros pensamientos, los pensamientos todavía están moldeados en gran medida por factores inconscientes. En consecuencia, considerar la mente como un dispositivo que opera información de acuerdo con reglas formales no es suficiente para comprender la esencia de la mente y crear inteligencia artificial.

· no todos los conocimientos ni todas las tareas pueden formalizarse. Una parte importante de la percepción humana no puede expresarse adecuadamente mediante símbolos. En consecuencia, la IA, construida como un sistema simbólico, sólo podrá resolver una pequeña gama de problemas formalizados, sin ser inteligente.

La práctica de crear IA confirmó la exactitud del escepticismo de Dreyfus. Las neurocomputadoras modernas son capaces de resolver eficazmente muchos problemas, pero están infinitamente lejos de las capacidades de la mente humana. Por tanto, reducir la mente a símbolos operativos según reglas formales no condujo a una comprensión de su esencia.

Aunque no hubo un avance cualitativo en la creación de una IA potente, las capacidades de computación cuantitativa de las computadoras aumentaron exponencialmente y en en este momento complejidad computadoras modernas acercándose inexorablemente a la complejidad del cerebro humano. ¿Es posible que el aumento cuantitativo de la complejidad de los sistemas informáticos conduzca a su salto cualitativo?

En 1993, el matemático y escritor W. Vinge propuso un concepto que describe las consecuencias del surgimiento de una IA que supera a la mente humana en capacidades informáticas. A partir del momento en que la IA descubra nuevos conocimientos más rápido que los humanos, podrá crear máquinas informáticas cada vez más avanzadas que acelerarán el crecimiento del conocimiento en un grado aún mayor, es decir, el proceso crecerá como una bola de nieve, volviéndose inaccesible al entendimiento humano. Después de esto, el desarrollo de la IA será tan rápido que incluso las predicciones más aproximadas sobre lo que sucederá a continuación perderán sentido. V. Vinge llamó a este momento la “singularidad tecnológica”.

La singularidad tecnológica se caracteriza por el surgimiento de un nuevo tipo de conocimiento: el llamado. conocimiento de la máquina, es decir conocimiento accesible sólo a una máquina. ¿Cómo podría verse esto? Por ejemplo, como un teorema matemático demostrado por una máquina. El primer teorema matemático importante probado utilizando una computadora es el llamado. "El teorema de los cuatro colores". Su formulación es elemental: para colorear un mapa geográfico de modo que no haya dos regiones limítrofes del mismo color, bastan cuatro colores diferentes. Dos regiones se consideran limítrofes si tienen una frontera extendida, es decir, formada por más de un punto. Prueba del teorema de los cuatro colores: un precedente del uso de una computadora para resolver problemas clásicos problemas matemáticos. Al mismo tiempo, destaca por su extensión y complejidad. Incluso después del uso de un ordenador, que ha permitido reducir significativamente los cálculos, el texto de la prueba de una afirmación elemental tiene una longitud astronómica. No es difícil imaginar el surgimiento de tal teorema, cuya demostración sería demasiado larga para que una vida humana fuera suficiente para verificarlo. Y entonces el desarrollo del conocimiento y la obtención de sus frutos serán prerrogativa de la inteligencia artificial.

Y, sin embargo, incluso en el camino del razonamiento teórico sobre el tema de la creación de una IA potente, queda un “pero” de peso. El desarrollo del conocimiento "máquina" presupone la posibilidad no sólo de resolver problemas ya planteados y formalizados por la inteligencia artificial, sino también de plantear y comprender otros fundamentalmente nuevos. Aquellos. la mente debe ser capaz de creatividad. Pero la idea misma de creatividad contradice el enfoque algorítmico, porque la creatividad es una actividad fuera de las reglas y algoritmos formales, que plantea y resuelve problemas fundamentalmente nuevos. Es probable que, en principio, la mente no pueda reducirse a un conjunto específico de operaciones y algoritmos, lo que significa que el desarrollo independiente de una IA construida algorítmicamente será inaccesible.

La posibilidad de crear una máquina análoga a la mente humana no parece actualmente justificada ni teórica ni empíricamente. Por el contrario, hemos revisado una serie de argumentos convincentes que apuntan a diferencias fundamentales entre la inteligencia humana y cualquier sistema algorítmico "inteligente", por complejo que sea. Por el momento, la filosofía de la inteligencia artificial no ha podido responder a la pregunta "¿qué es la inteligencia?" utilizando métodos de modelado, pero podemos concluir con seguridad qué no es la inteligencia. La teoría y la práctica de la creación de IA nos permiten rechazar con confianza la idea de un "hombre-máquina" y la reducibilidad de las actividades de la mente a la realización de una serie de cálculos formales.

El significado más importante de los problemas filosóficos de la IA no parece ser la creación de algoritmos de resolución, aunque sean muy avanzados. problemas prácticos, pero esos nuevos horizontes en la comprensión de la naturaleza y esencia de la conciencia que se abren en el proceso de resolver los problemas de la creación de IA. Así, la filosofía de la inteligencia artificial sigue plenamente la máxima socrática “conócete a ti mismo”.

Literatura:

1. Searle J. La mente del cerebro: ¿un programa de computadora? // En el mundo de la ciencia. (Scientific American. Edición en ruso) No. 3, 1990. - M., “Mir”, 1990.

2. Searle J. Racionalidad en acción / Trans. del ingles A. Kolodia, E. Rumyantseva. - M.: Progreso-Tradición, 2004. - 336 p.

3. Vasiliev V.V. El difícil problema de la conciencia. - M., Progreso-Tradición, 2009. – 272 p.


A.Iyer. Lenguaje, Verdad y Lógica - p.140.

Cita Según “En el mundo de la ciencia”, 1990, núm. 3, p. 7-11)

do completamente A automatizado PAG público t durante la prueba para decir do computadoras y h humanos A parte - una prueba, según los desarrolladores, que permite al programa determinar quién es el usuario del sistema: una persona o un programa. Sin embargo, el autor de estas líneas no conoce ni un solo “captcha” que una persona con alta probabilidad de identificar, y ningún programa podría hacerlo.

Bykovsky I.A. Aspectos filosóficos de los problemas de la creación de inteligencia artificial: resumen de la disertación. para competencia académica Arte. Doctor en Filosofía. – Sarátov, 2003.

Introducción _____________________________________________________ página 3

El misterio del cerebro humano y la inteligencia artificial__________ p.3

El problema de definir la inteligencia artificial ________________ página 5

Robótica ______________________________________________ página 7

Problema de seguridad ________________________________________________ página 9

Inteligencia artificial, pros y contras _________________ página 11

El problema de crear inteligencia artificial ______________ página 15

Conclusión__________________________________________ página 18

Referencias _________________________________ página 19

Introducción

Multiplicar mentalmente dos números de varios dígitos o recordar varios números de teléfono es difícil para una persona. Por otro lado, comprender el significado de una oración, a pesar de errores gramaticales, capta donde termina en significado pieza especifica información o conocer a una persona que no conoces desde hace 20 años no es difícil para nosotros. En la mayoría de los casos, una computadora no puede realizar tales tareas. Cuando hablamos de reconocimiento de patrones ópticos o acústicos, la capacidad autoestudio, recuerdos por asociación, ni siquiera las computadoras más modernas pueden competir con el cerebro humano.

El misterio del cerebro humano y la inteligencia artificial

El procesamiento de información y conocimiento en el cerebro parece ser un proceso paralelo. El cerebro nos aparece como una enorme red de células interconectadas: las neuronas. Aún desconocemos el lugar donde se concentra la información y los conocimientos memorizados, así como el lugar y el método de procesamiento. Sólo sabemos que los elementos del cerebro funcionan un millón de veces más lento que los chips microelectrónicos. Las redes neuronales funcionan sin procesadores, programas, unidades de control ni pulsos de reloj. Y funcionan muy bien. Por ello, los expertos en la materia tecnología informática interesado en el cerebro.

El cerebro es un sistema multiprocesador altamente paralelo que consta de aproximadamente 14 mil millones de neuronas conectadas en una enorme y compleja estructura tridimensional en la que cada neurona tiene hasta 30.000 conexiones con otras neuronas. Si sólo se realiza una operación de cambio por segundo en cada conexión, entonces, en teoría, todo el cerebro puede realizar 10 mil millones de operaciones al mismo tiempo. El tiempo de conmutación de una neurona se determina en milisegundos. Por el contrario, el cerebro resuelve complejos problemas lingüísticos y de reconocimiento en un segundo, es decir, en varios pasos computacionales. La computadora toma millones de pasos para resolver tales problemas.

Otra limitación del cerebro es que una neurona sólo puede enviar unos pocos bits de información a otra neurona. La cantidad de información es limitada; las neuronas no tienen la capacidad de intercambiar símbolos complejos.

Resulta que nuestro conocimiento depende de muchas conexiones entre neuronas. Gracias a ellos comprendemos nuestra lengua materna, planificamos correctamente nuestro comportamiento, resumimos hechos y reconocemos imágenes. Las supercomputadoras actuales funcionan al nivel de desarrollo de un niño de cinco años. El cerebro y la computadora funcionan de diferentes maneras. La paradoja es que para simular el cerebro en tiempo real se necesitan miles de potentes superordenadores, pero por otro lado se necesitarían miles de millones de personas para simular cálculos aritméticos y superordenadores.

El ciclo de tiempo de una operación básica realizada por una neurona es de 1 a 2 ms; el ciclo de reloj de las computadoras actuales se determina en nanosegundos, es decir, la computadora funciona seis órdenes de magnitud más rápido. Por el contrario, una persona resuelve muchos problemas de reconocimiento, como el análisis de escenas o inferencias lógicas, en segundos, mientras que un ordenador de alto rendimiento dedica varios minutos a esto.

Cuando el cerebro razona conscientemente, paso a paso, este tipo de pensamiento puede formalizarse mediante lógica matemática y luego simularse en una computadora. Pero el pensamiento subconsciente, que se utiliza principalmente en la actividad creativa, es un medio muy paralelo y matemáticamente no formalizado.

El problema de definir la inteligencia artificial

Algunos expertos consideran la capacidad de elección racional y motivada, en condiciones de falta de información, como inteligencia; capacidad para resolver problemas basados ​​en información simbólica; capacidad de aprender y autoaprender.

suficientemente espacioso y definiciones interesantes La inteligencia se proporciona en el Diccionario de inglés Webster y en la Gran Enciclopedia soviética. Según el Diccionario Webster: “La inteligencia es: a) la capacidad de responder con éxito a cualquier situación, especialmente nueva, realizando los ajustes apropiados en el comportamiento; b) la capacidad de comprender las conexiones entre los hechos de la realidad para desarrollar acciones que conduzcan al logro del objetivo”. En la Gran Enciclopedia Soviética: “inteligencia... en un sentido amplio - toda la actividad cognitiva humana, en en el sentido estricto- procesos de pensamiento que están indisolublemente ligados al lenguaje como medio de comunicación, intercambio de pensamientos y comprensión mutua de las personas”. Aquí la inteligencia está directamente relacionada con la actividad y el lenguaje de comunicación.

En general, no hay grandes desacuerdos sobre esta cuestión. Hay algo más interesante: los criterios mediante los cuales podemos determinar sin ambigüedades si el sujeto que tenemos delante es razonable, pensante o no.

Se sabe que en un momento A. Turing propuso el "juego de la imitación" como criterio para determinar si una máquina puede pensar. Según este criterio, se puede reconocer que una máquina piensa si una persona, dialogando con ella lo suficiente a un amplio círculo preguntas, no podrá distinguir sus respuestas de las respuestas de la persona.

No existe una respuesta única a la pregunta de qué es la inteligencia artificial. Casi todos los autores escribiendo un libro En cuanto a la inteligencia artificial, se parte de cualquier definición, considerando los logros de esta ciencia a su luz. Estas definiciones se pueden resumir de la siguiente manera:

La inteligencia artificial es una personalidad en un medio inorgánico (Chekina M.D.).

La inteligencia artificial es el campo que estudia el comportamiento inteligente (en humanos, animales y máquinas) y trata de encontrar formas de simular dicho comportamiento en cualquier tipo de mecanismo creado artificialmente (Bligh Whitby).

La inteligencia artificial es una filosofía experimental (V. Sergeev).

El mismo término "inteligencia artificial" - IA - inteligencia artificial fue propuesto en 1956 en un seminario del mismo nombre en Dartmouth College (EE. UU.). El seminario se dedicó al desarrollo de métodos para resolver problemas lógicos en lugar de computacionales.

También existen términos de inteligencia artificial “fuerte” y “débil”.

El término “inteligencia artificial fuerte” fue acuñado por John Searle; tal programa no sería simplemente un modelo de la mente; ella esta en literalmente Las palabras mismas serán razón, en el mismo sentido en que la razón humana es razón.

La “inteligencia artificial débil” se considera sólo como una herramienta que permite resolver ciertos problemas que no requieren toda la gama de capacidades cognitivas humanas.

Robótica

Los problemas de la inteligencia artificial están estrechamente relacionados con el desarrollo de mecanismos y máquinas especiales que simulan actividades mentales y complejas. acciones fisicas humanos - robots inteligentes. Un robot inteligente es un sistema controlado por computadora capaz de interactuar de manera independiente y decidida con el medio ambiente. En el caso más general, dicho sistema es capaz de:

a) percibir y reconocer objetos ambientales;

b) formar una comprensión interna del medio ambiente y los procesos que ocurren en él;

c) tomar decisiones y formular planes para sus propias acciones de acuerdo con objetivos determinados basándose en el conocimiento y la experiencia acumulados;

d) cambiar el entorno manipulando sus objetos;

e) comunicarse con una persona en lenguas.

Un robot inteligente es un elemento invariable de un sistema de producción flexible. Se puede reprogramar para resolver diversos problemas de producción. Al mismo tiempo, no es necesario reorganizar los centros de producción ni los talleres industriales.

Un robot inteligente recibe información visual, auditiva o táctil del mundo exterior a través de un sistema sensorial especial a través del cual se conecta con el entorno. El principal instrumento de influencia de un robot en el medio ambiente es su manipulador. Los grados de libertad necesarios durante su funcionamiento los proporciona el sistema de movimiento del robot y su manipulador. Otros subsistemas importantes del robot son el sistema de comunicación humano y el sistema cognitivo. El sistema cognitivo procesa toda la información recibida necesaria para controlar el propio comportamiento del robot en un entorno de producción real. Es en este sistema donde se realizan funciones que en conjunto recuerdan a la psique humana, como la percepción, la memoria, la resolución de problemas y el aprendizaje.

Los robots inteligentes que se están desarrollando actualmente no están lo suficientemente avanzados. En la mayoría de los casos, constan de un manipulador, sensores de información visuales y táctiles y un sistema de reconocimiento. imágenes visuales, mecanismos para determinar distancias desarrollados software procesar información sobre el entorno y planificar las acciones del robot y sistema de control. robots inteligentes Las generaciones futuras también contendrán medios para reconocer y comprender el habla humana continua, un subsistema de aprendizaje, un perfecto solucionador automático de problemas (capaz de reformular problemas cuando surgen situaciones imprevistas), mecanismos perfectos de búsqueda y procesamiento. varios tipos información y medios de inferencia desarrollados (incluso en presencia de información incompleta, poco clara e incierta).

El desarrollo de sistemas robóticos inteligentes con tales capacidades requerirá resolver muchos problemas científicos y técnicos complejos, para los cuales actualmente se pueden vislumbrar soluciones prometedoras. Muchas tareas robóticas plantean grandes dificultades a la hora de organizar los cálculos, asociadas, en particular, a la necesidad de procesar en tiempo real grandes volúmenes de datos que cambian con frecuencia. Estas tareas incluyen principalmente: percepción y análisis de escenas con objetos en movimiento, razonamiento lógico, inferencia y planificación de actividades, reconocimiento y comprensión del habla continua. Tareas similares Solo se puede resolver eficazmente en computadoras paralelas con muy alta velocidad. Además de la tarea urgente de crear arquitecturas prometedoras para este tipo de computadoras utilizando los últimos tipos de tecnologías de fabricación de chips, una tarea importante es el desarrollo de algoritmos y programas paralelos para tareas robóticas.

Confianza en una solución exitosa en el futuro de este tarea importante basado en la existencia de recursos naturales. sistema inteligente, cómo es el cerebro humano, que afronta con éxito la mayoría de las tareas intelectuales que actualmente todavía no son "demasiado difíciles" para las computadoras modernas.

Problema de seguridad

Los problemas filosóficos de la creación de inteligencia artificial se pueden dividir en dos grupos, relativamente hablando, "antes y después del desarrollo de la inteligencia artificial". El primer grupo responde a la pregunta: "¿Qué es la inteligencia artificial? ¿Es posible crearla?" Y el segundo grupo (ética de la inteligencia artificial) plantea la pregunta: “¿Cuáles son las consecuencias de la creación de inteligencia artificial para la humanidad?”, lo que nos lleva al problema de la seguridad.

este problema ha estado excitando las mentes de la humanidad desde la época de Karel Capek, quien fue el primero en utilizar el término "robot". Otros escritores de ciencia ficción también han contribuido de manera importante a la discusión de este problema. Como las más famosas, podemos mencionar una serie de historias del escritor y científico de ciencia ficción Isaac Asimov, así como una obra bastante famosa: "Terminator". Por cierto, es de Isaac Asimov de quien podemos encontrar la solución mejor desarrollada al problema de seguridad aceptado por la mayoría de la gente. se trata de sobre las llamadas tres leyes de la robótica.

1. Un robot no puede causar daño a una persona o, por inacción, permitir que una persona sufra daño.

2. Un robot debe obedecer las órdenes que le dé una persona, excepto en los casos en que estas órdenes contradigan la primera ley.

3. Un robot debe cuidar su seguridad, siempre que esto no contradiga la primera y la segunda ley.

A primera vista, esas leyes, si se respetan plenamente, deberían garantizar la seguridad de la humanidad. Sin embargo, tras un examen más detenido, surgen algunas preguntas.

Me pregunto qué significará un sistema de inteligencia artificial con el término "daño" después de mucho pensamiento lógico. ¿Decidirá que toda existencia humana es un completo daño? Después de todo, fuma, bebe, envejece con los años y pierde la salud, sufre. ¿No sería un mal menor poner fin rápidamente a esta cadena de sufrimiento? Por supuesto, se pueden introducir algunos añadidos relacionados con el valor de la vida y el libre albedrío. Pero éstas ya no serán esas tres simples leyes.

La siguiente pregunta será esta. ¿Qué decidirá un sistema de inteligencia artificial en una situación en la que salvar una vida sólo es posible a expensas de otra? Particularmente interesantes son aquellos casos en los que el sistema no dispone de información completa sobre quién es quién...

Por eso podemos decir con confianza que los temores de muchas personas, incluidos los científicos, no son infundados. Y definitivamente deberíamos empezar a pensar en estas cuestiones ahora mismo, antes de que podamos crear una "inteligencia artificial" completa para proteger a la humanidad de posible daño o incluso el exterminio, como especie competidora, en el mejor de los casos, o simplemente como especie biológica innecesaria.

Inteligencia artificial. PROS Y CONTRAS

Quienes se oponen a la idea de la posibilidad de crear inteligencia artificial a menudo reducen sus argumentos al hecho de que el funcionamiento de una computadora está controlado por las leyes de la electrodinámica y, por lo tanto, hay una reducción de lo superior (pensamiento) al inferior (procesos físicos en la computadora). Sin embargo, la premisa inicial es incorrecta.

El funcionamiento de una computadora no se rige en modo alguno por las leyes de la electrodinámica. Estas leyes gobiernan el funcionamiento de los elementos individuales de la máquina. Según las leyes físicas, una computadora funciona sólo en el sentido de que, por ejemplo, convierte la energía eléctrica en calor. Al fin y al cabo, la esencia de la obra no radica en esta transformación, sino en el hecho de que realiza determinadas operaciones aritméticas y lógicas. La máquina procesa información y funciona de acuerdo con las leyes de transformación de la información, es decir. según las leyes de la cibernética. Por lo tanto, si consideramos estos procesos desde este punto de vista, inevitablemente nos encontraremos en la posición del mecanismo. Esto es lo mismo que reducir el trabajo del cerebro a procesos bioquímicos y biofísicos.

Desde el punto de vista de la cibernética, el trabajo de una computadora debe considerarse como el trabajo de un sistema de procesamiento de información. A la tesis de la inteligencia artificial se le atribuye el mérito de negar la naturaleza ideal de la conciencia.

Sin tocar la cuestión de la estructura de la información, que es una medida del orden de un proceso y constituye su estado interno, caracterizaremos la información externa o relativa, siempre asociada a la relación de dos procesos. Esta información no reside en los procesos en sí, sino que existe precisamente en la relación de estos procesos entre sí. Tomada por sí sola, esta información es tan objetiva y material como cualquier otra propiedad y relación de objetos o procesos.

Habiendo examinado los muchos estados de nuestro cerebro en el proceso de funcionamiento, podemos entender que el cerebro refleja el mundo externo, lo que significa que existe una correspondencia entre los muchos estados de los elementos del cerebro y los muchos estados de los procesos externos, es decir. el cerebro tiene información sobre procesos externos. Esta información está y no está contenida en el cerebro, porque... Por mucho que examinemos el cerebro, no encontraremos allí nada más que las características eléctricas, químicas y de otro tipo de las neuronas. Es necesario considerar la conexión

cerebro con el mundo exterior. Aquí es donde reside la información que transportan las neuronas.

La información con la que trabaja el cerebro es el lado ideal de su trabajo y, por tanto, el ideal no existe en forma de un objeto o sustancia especial. Existe como un lado de la actividad cerebral, que consiste en establecer conexiones entre muchos estados del mundo exterior y el cerebro.

Si reconocemos en los sistemas cibernéticos la posibilidad de alcanzar una complejidad comparable a la complejidad del cerebro, entonces es necesario reconocer en tales sistemas la existencia de características que llamamos ideales.

Varios autores declaran que la tesis de la inteligencia artificial es contraria a la tesis sobre la naturaleza social de la conciencia y el pensamiento. Pero aquí reside un error: la falta de distinción entre el origen histórico natural del pensamiento y su reproducción consciente por parte del hombre en una computadora central. En el segundo caso, la máquina no se convierte en un ser social, sino que la persona, habiendo comprendido la esencia del pensamiento, la recrea en la máquina. Si la naturaleza social del pensamiento es natural y cognoscible, entonces, en principio, puede reproducirse artificialmente. Para ello, un sistema cibernético que tenga suficiente potencia para uso completo de sus capacidades debe ubicarse en un entorno rico en información, formando una especie de simbiosis con sus creadores.

El principio de imposibilidad de la inteligencia cibernética vincula estrictamente un determinado tipo de funcionamiento a un sustrato estrictamente definido (el cerebro). Esto plantea el problema filosófico de la relación entre función y sustrato.

Es por esto que el “pesimista extremo” niega la posibilidad de que un dispositivo cibernético tenga inteligencia. Conecta incondicionalmente el pensamiento con el cerebro humano y no acepta intentos de definir el pensamiento sin conexión con la estructura del sistema de pensamiento. En su opinión, se trata de una reducción del pensamiento sólo al lado de la información, mientras que el pensamiento es una capacidad que ha surgido en los seres biológicos. Por lo tanto, se puede llamar pensamiento a algo que es realizado únicamente por el cerebro humano, pero esta no es una solución aceptable al problema.

Por supuesto, el pensamiento es función de una materia altamente organizada y está determinado por la estructura del sistema. Pero desde un punto de vista epistemológico, el conocimiento de la función se deriva del conocimiento de la estructura, y el conocimiento de la estructura es una conclusión de un estudio cada vez más completo de los modos de funcionamiento.

Por supuesto, puede resultar que esta estructura esté rígidamente conectada a un sustrato estrictamente definido, pero esta tesis debe ser el resultado investigación científica, y no la premisa original.

Si bien la ciencia se ocupaba de objetos directamente perceptibles, podía proceder desde el punto de vista del sustrato, cuya esencia es que un objeto tiene un conjunto de características (primarias), que expresan su naturaleza, sabiendo que es posible estudiar su comportamiento (secundarias). ) del objeto.

Pero ya en el siglo XIX, las limitaciones de este concepto fueron reveladas por el materialismo dialéctico, que demostró que “sólo en el movimiento un cuerpo revela que existe. El conocimiento de las diversas formas de movimiento es el conocimiento de los cuerpos”. (K. Marx y F. Engels)

De aquí, por supuesto, no se sigue que sólo exista movimiento y que no haya sustrato alguno. Sólo se sigue que es ilegal utilizar la relación primacía-secundaria para caracterizar la conexión entre el movimiento (comportamiento) y el sustrato en términos de su existencia real.

De lo anterior se puede observar que la mayoría de los argumentos en contra de la posibilidad de la inteligencia artificial se basan en teorías científicas y datos empíricos existentes, generalmente consisten en señalar algunas acciones mentales específicas que ningún dispositivo cibernético es capaz de realizar. Sin embargo, muchos de estos argumentos ya han sido refutados durante el desarrollo de la cibernética. Además, existe el teorema de McCulloch-Peets, que reduce la cuestión del desempeño de cualquier función cerebral a la cuestión de la cognición de esta función.

Una posición más optimista parece más razonable, porque Por el momento, no existen barreras fundamentales e insuperables para la creación de dispositivos artificiales con inteligencia. Pero en este camino existen enormes dificultades, que en modo alguno disminuyen con el rápido desarrollo de la cibernética. El desarrollo de nuevas teorías conceptuales y filosóficas es aquí especialmente importante, porque Acelerar los medios técnicos de procesamiento de información o crear redes neuronales que copien el estado bioquímico del cerebro aún no conduce al surgimiento de la inteligencia artificial, sino que es solo un medio para implementar una idea.

El problema de crear inteligencia artificial

prueba de turing

Desde 1991 se han celebrado torneos para programas que intentan superar la prueba de Turing. Hasta ahora, muy pocos de estos programas (bots) son inteligentes. Lo único que hacen es aplicar las reglas sugeridas de antemano por una persona. Los robots ni siquiera intentan comprender la conversación; en su mayoría intentan "engañar" a la persona. Los creadores incluyen respuestas a las preguntas más frecuentes y tratan de evitar errores comunes. Por ejemplo, ¿vigilan atentamente si el juez hará la misma pregunta dos veces? Una persona en esta situación diría algo como: "¡Oye, ya preguntaste!". Esto significa que el desarrollador agregará una regla al bot para hacer lo mismo. En esta dirección, parece muy poco probable que aparezca la primera inteligencia artificial.

Jugadores de ajedrez por computadora

Mucha gente ha oído hablar de estos programas. Por primera vez el Campeonato Mundial de Ajedrez entre programas de computadora tuvo lugar en 1974. El ganador fue el soviético. programa de ajedrez"Kaissa." No hace mucho, la computadora venció a Garry Kasparov. ¿Qué es esto: un éxito indudable?

Simplemente pasan por muchas opciones. Si muevo este peón aquí, y el oponente mueve su alfil aquí, y yo enroco, y él mueve este peón... No, esa posición no es rentable. No enrocaré, pero veré qué pasa si muevo este peón aquí, y la computadora mueve el alfil aquí, y en lugar de enrocar, muevo el peón otra vez, y él...

La computadora no inventa nada por sí sola. Todo opciones posibles sugerido por verdaderos propietarios de inteligencia: programadores talentosos y consultores de ajedrez... Esto no está menos lejos de crear inteligencia electrónica en toda regla.

fútbol robot

Está muy de moda. Muchos laboratorios y departamentos enteros de universidades de todo el mundo se dedican a esto. Hay decenas de campeonatos en diferentes variedades de este juego. Como dicen los organizadores del torneo RoboCup: "La comunidad internacional de especialistas en inteligencia artificial ha reconocido la tarea de controlar jugadores de fútbol robóticos como una de las más importantes".

Es muy posible que, como sueñan los organizadores de la RoboCup, en 2050 un equipo de robots derrote a un equipo de personas en el fútbol. Sólo su inteligencia probablemente no tenga nada que ver con esto.

Torneos de programación

Recientemente, Microsoft celebró un torneo llamado “Terrarium”. A los programadores se les pidió que crearan vida artificial, nada más y nada menos. Este es probablemente el más famoso de estos concursos y, en general, hay muchos: organizadores entusiastas con una regularidad envidiable ofrecen crear programas que juegan a la guerra de robots o a la colonización de Júpiter. Incluso hay competiciones de supervivencia entre virus informáticos.

¿Qué impide que al menos estos proyectos sirvan para crear una verdadera inteligencia artificial, que en el futuro podrá luchar y colonizar Júpiter? Una palabra simple: irreflexión. Ni siquiera las mentes poderosas de Microsoft pudieron idear reglas en las que un comportamiento complejo fuera beneficioso. ¿Qué podemos decir del resto? No importa el torneo, todos ganan con las mismas tácticas: “¡cuanto más simple, mejor”! ¿Quién ganó en "Terrario"? Nuestros compatriotas. ¿Qué hicieron? Aquí lista completa las reglas por las que vivía el herbívoro virtual más viable del torneo;

1. Si ves un depredador, huye de él. Si ves un animal de tu propia especie corriendo rápidamente en alguna dirección, corre hacia allí.

2. Si solo hay extraños alrededor, cómete rápidamente toda la hierba para que los demás obtengan menos.

3. Si no ves extraños, cómelo exactamente tanto como necesites. Finalmente, si no ves hierba ni depredadores, ve hacia donde miren tus ojos.

¿Intelectualmente? No, pero es efectivo.

Aplicaciones comerciales

en comercial áreas significativas No se necesitan torneos, ni jueces, ni reglas de selección. Ni en el reconocimiento de texto, ni en la creación juegos de computadora La alta ciencia simplemente no era necesaria.

Lo que se necesita es un equipo bien organizado de personas con la cabeza clara y buena educación y aplicación adecuada gran número algoritmos que son bastante simples por naturaleza.

No será posible obtener ningún conocimiento sagrado en estas áreas, no se harán grandes descubrimientos y nadie se esforzará por lograrlo en absoluto. Las personas simplemente ganan dinero para sí mismas y al mismo tiempo mejoran sus vidas.

Conclusión

El surgimiento de máquinas superiores a nosotros en inteligencia es un resultado natural del desarrollo de nuestra civilización tecnocrática. Se desconoce adónde nos habría llevado la evolución si la gente hubiera seguido el camino biológico, es decir, hubiera comenzado a mejorar la estructura del hombre, sus cualidades y propiedades. Si todo el dinero gastado en el desarrollo de armas se hubiera destinado a la medicina, hace mucho que habríamos vencido todas las enfermedades, retrasado la vejez y tal vez alcanzado la inmortalidad...

No se puede prohibir la ciencia. Si la humanidad se destruye a sí misma, significa que la evolución ha tomado un camino sin salida para esta humanidad y no tiene derecho a existir. Quizás nuestro caso sea un callejón sin salida. Pero no somos los primeros ni los últimos aquí. Se desconoce cuántas civilizaciones hubo antes que nosotros y hacia dónde fueron.

Leonid Bernstein

Referencias:

1. Gran Enciclopedia Soviética

4. Chekina M.D. "Problemas filosóficos de la inteligencia artificial"

5. Bligh Whitby “Inteligencia artificial: ¿Es real Matrix”?

6. El futuro de la inteligencia artificial. M.: Nauka, 1991, 302 p.




Arriba