Способы интеграции нечетких и нейронных систем. Некоторые сведения о нечетких нейронных системах управления Сравнение нейронных сетей и нечеткой логики

Нечёткая логика и нейронные сети

Введение

Нечёткая логика (англ. fuzzy logic) - раздел математики, являющийся обобщением классической логики и теории множеств, базирующийся на понятии нечёткого множества, впервые введённого Лотфи Заде в 1965 году как объекта с функцией принадлежности элемента к множеству, принимающей любые значения в интервале , а не только 0 или 1. На основе этого понятия вводятся различные логические операции над нечёткими множествами и формулируется понятие лингвистической переменной, в качестве значений которой выступают нечёткие множества.

Предметом нечёткой логики считается исследование рассуждений в условиях нечёткости, размытости, сходных с рассуждениями в обычном смысле, и их применение в вычислительных системах.

Направления исследований нечёткой логики

В настоящее время существует, по крайней мере, два основных направления научных исследований в области нечёткой логики:

Нечёткая логика в широком смысле (теория приближенных вычислений);

Нечёткая логика в узком смысле (символическая нечёткая логика).

Символическая нечёткая логика

Символическая нечёткая логика основывается на понятии t-нормы . После выбора некоторой t-нормы (а её можно ввести несколькими разными способами) появляется возможность определить основные операции над пропозициональными переменными: конъюнкцию, дизъюнкцию, импликацию, отрицание и другие.

Нетрудно доказать теорему о том, что дистрибутивность, присутствующая в классической логике, выполняется только в случае, когда в качестве t-нормы выбирается t-норма Гёделя.

Кроме того, в силу определенных причин, в качестве импликации чаще всего выбирают операцию, называемую residium (она, вообще говоря, также зависит от выбора t-нормы).

Определение основных операций, перечисленных выше, приводит к формальному определению базисной нечёткой логики, которая имеет много общего с классической булевозначной логикой (точнее, с исчислением высказываний).

Существуют три основных базисных нечётких логики: логика Лукасевича, логика Гёделя и вероятностная логика (англ. product logic). Интересно, что объединение любых двух из трёх перечисленных выше логик приводит к классической булевозначной логике.

Характеристическая функция

Для пространства рассуждения и данной функции принадлежности нечёткое множество определяется как

Функция принадлежности количественно градуирует приналежность элементов фундаментальногомножества пространства рассуждения нечёткому множеству . Значение означает, что элемент не включен в нечёткое множество, описывает полностью включенный элемент. Значения между и характеризуют нечётко включенные элементы.

Нечёткое множество и классическое, четкое (crisp ) множество

Примеры нечетких множеств

1. Пусть Е = {0, 1, 2, . . ., 10}, М = . Нечеткое множество «Несколько» можно определить следующим образом:

«Несколько» = 0,5/3 + 0,8/4 + 1/5 + 1/6 + 0,8/7 + 0,5/8; его характеристики: высота = 1, носитель = {3, 4, 5, 6, 7, 8}, точки перехода - {3, 8}.

2. Пусть Е = {0, 1, 2, 3,…, n ,}. Нечеткое множество «Малый» можно определить:

3. Пусть Е = {1, 2, 3, . . ., 100} и соответствует понятию «Возраст», тогда нечеткое множество «Молодой» может быть определено с помощью

Нечеткое множество «Молодой» на универсальном множестве Е" = {ИВАНОВ, ПЕТРОВ, СИДОРОВ,...} задается с помощью функции при­надлежности μ Молодой (x ) на Е = {1, 2, 3, . . ., 100} (возраст), называемой по отношению к Е" функцией совместимости, при этом:

где х - возраст СИДОРОВА.

4. Пусть Е = {ЗАПОРОЖЕЦ, ЖИГУЛИ, МЕРСЕДЕС,… } – множе­ство марок автомобилей, а Е" = - универсальное множество «Сто­имость», тогда на Е" мы можем определить нечеткие множества типа:

Рис. 1.1. Примеры функций принадлежности

«Для бедных», «Для среднего класса», «Престижные», с функциями при­надлежности вида рис. 1.1.

Имея эти функции и зная стоимости автомобилей из Е в данный момент времени, мы тем самым определим на Е" нечеткие множества с этими же названиями.

Так, например, нечеткое множество «Для бедных», заданное на уни­версальном множестве Е = { ЗАПОРОЖЕЦ, ЖИГУЛИ, МЕРСЕДЕС,...}, выглядит так, как показано на рис. 1.2.

Рис. 1.2. Пример задания нечеткого множества

Аналогично можно определить нечеткое множество «Скоростные», «Средние», «Тихоходные» и т. д.

5. Пусть Е - множество целых чисел:

Е = {-8, -5, -3, 0, 1, 2, 4, 6, 9}.

Тогда нечеткое подмножество чисел, по абсолютной величине близких к нулю, можно определить, например, так:

А = {0/-8 + 0,5/-5 + 0,6/-3 +1/0 + 0,9/1 + 0,8/2 + 0,6/4 + 0,3/6 + 0/9}.

Логические операции

Включение. Пусть А и В - нечеткие множества на универсальном множестве Е. Говорят, что А содержится в В, если

Обозначение: А В.

Иногда используют термин доминирование, т.е. в случае, ко­гда А В, говорят, что В доминирует А.

Равенство. А и В равны, если

Обозначение: А = В.

Дополнение. Пусть М = , А и В – нечеткие множества, заданные на Е. А и В дополняют друг друга, если

Обозначение:

Очевидно, что (дополнение определено для М = , но очевидно, что его можно определить для любого упорядоченногоМ).

Пересечение. А В - наибольшее нечеткое подмножество, содержащееся одновременно в А и В:

Объединение. A В - наименьшее нечеткое подмножество, включающее как А, так и В, с функцией принадлежности:

Разность. с функцией принадлежности:

Дизъюнктивная сумма

А В = (A - B ) ∪ (B - A ) = (A ̅ B ) ∪ (̅A ⋂ B)

с функцией принадлежности:

Примеры. Пусть

Здесь:

1) А ⊂ В, т. е. А содержится в B или B доминирует А С несравнимо ни с A , ни с В, т.е. пары {А, С } и {А, С } - пары недоминируемых нечетких множеств.

2) A B C

3) ̅A = 0,6/x 1 + 0,8/x 2 + 1/x 3 + 0/x 4 ; ̅B = 0,3/x 1 + 0,1/x 2 + 0,9/x 3 +0/x 4 .

4) А В = 0,4/x 1 + 0,2/x 2 + 0/x 3 + 1 /х 4 .

5) A В = 0,7/x 1 + 0,9/x 2 + 0,1/x 3 + 1/x 4 .

6) А - В = А ̅В = 0,3/x 1 + 0,l/x 2 + 0/x 3 + 0/x 4 ;

В - А= ̅А В = 0,6/x 1 + 0,8/x 2 + 0,l/x 3 + 0/x 4 .

7) А В = 0,6/x 1 + 0,8/x 2 + 0,1/x 3 + 0/x 4 .

Наглядное представление логических операций над нечеткими множествами. Для нечетких множеств можно строить визуальное представление. Рассмотрим прямоуголь­ную систему координат, на оси ординат которой откладываются значения μ А (х), на оси абсцисс в произвольном порядке распо­ложены элементы Е (мы уже использовали такое представление в примерах нечетких множеств). Если Е по своей природе упо­рядочено, то этот порядок желательно сохранить в расположении элементов на оси абсцисс. Такое представление делает нагляд­ными простые логические операции над нечеткими множествами (см. рис. 1.3).

Рис. 1.3. Графическая интерпретация логических операций:
α - нечеткое множество А; б - нечеткое множество̅А, в - А ̅А; г -A ̅А

На рис. 1.3α заштрихованная часть соответствует нечеткому множеству А и, если говорить точно, изображает область значений А и всех нечетких множеств, содержащихся в А. На рис. 1.3б , в, г даны ̅А, А ̅A, A U ̅А.

Свойства операций и

Пусть А, В, С - нечеткие множества, тогда выполняются сле­дующие свойства:

В отличие от четких множеств, для нечетких множеств в общем

A ̅A ≠ ∅, A ∪ ̅A ≠ E

(что, в частности, проиллюстрировано выше в примере наглядного представления нечетких множеств).

Замечание . Введенные выше операции над нечеткими мно­жествами основаны на использовании операций maxи min. В те­ории нечетких множеств разрабатываются вопросы построения обобщенных, параметризованных операторов пересечения, объеди­нения и дополнения, позволяющих учесть разнообразные смысло­вые оттенки соответствующих им связок «и», «или», «не».


Треугольные нормы и конормы

Один из подходов к операторам пересечения и объединения за­ключается в их определении в классе треугольных норм и конорм.

Треугольной нормой(t-нормой) называется бинарная операция (двуместная действительная функция)

1. Ограниченность: .

2. Монотонность: .

3. Коммутативность: .

4. Ассоциативность: .

Примеры треугольных норм

min(μ A , μ B )

произведение μ A · μ B

max(0, μ A + μ B - 1 ).

Треугольной конормой (сокращенно -конормой) называется двухместная действительная функция

удовлетворяющая следующим условиям:

1. Ограниченность: .

2. Монотонность: .

3. Коммутативность: .

4. Ассоциативность: .

Треугольная конорма является архимедовой , если она непрерывна
и для любого нечеткого множества выполнено неравенство .

Она называется строгой, если функция строго убывает по обоим аргументам.


Примеры t-конорм

max(μ A , μ B )

μ A + μ B - μ A · μ B

min(1, μ A + μ B ).

Примерами треугольных конорм являются следующие операторы :

Треугольная норма T и треугольная конорма S называются дополнительными бинарными операциями, если

T(a ,b ) + S (1 − a ,1 − b ) = 1

Наибольшей популярностью в теории Заде пользуются три пары дополнительных треугольных норм и конорм.

1) Пересечение и объединение по Заде:

T Z (a ,b ) = min{a ,b }, S Z (a ,b ) = max{a ,b }.

2) Пересечение и объединение по Лукасевичу:

3) Вероятностное пересечение и объединение:

Операторы дополнения

В теории нечетких множеств оператор дополнения не является единственным.

Помимо общеизвестного

существует целый набор операторов дополнения нечеткого множества .

Пусть задано некоторое отображение

.

Это отображение будет называться оператором отрицания в теории нечетких множеств , если выполняются следующие условия:

Если кроме этого выполняются условия:

(3) - строго убывающая функция

(4) - непрерывная функция

то она называется строгим отрицанием .

Функция называется сильным отрицанием или инволюцией , если наряду с условиями (1) и (2) для нее справедливо:

(5) .

Приведем примеры функции отрицания:

Классическое отрицание: .

Квадратичное отрицание: .

Отрицание Сугено: .

Дополнение порогового типа: .

Будем называть любое значение , для которого , равновесной точкой . Для любого непрерывного отрицания существует единственная равновесная точка.

Нечеткие числа

Нечеткие числа - нечеткие переменные, определенные на числовой оси, т.е. нечеткое число определяется как нечеткое множество А на множестве действительных чисел ℝ с функцией принадлежности μ А (х ) ϵ , где х - действительное число, т.е. х ϵ ℝ.

Нечеткое число А нормально, если тах μ А (x ) = 1; выпуклое, если для любых х у z выполняется

μ А (х) μ А (у ) ˄ μ A (z ).

Множество α -уровня нечеткого числа А определяется как

Аα = {x /μ α (x ) ≥ α }.

Подмножество S A ⊂ ℝ называется носителем нечеткого числа А, если

S A = { x/μ A (x) > 0 }.

Нечеткое число А унимодально, если условие μ А (х ) = 1 спра­ведливо только для одной точки действительной оси.

Выпуклое нечеткое число А называется нечетким нулем, если

μ А (0) = sup (μ A (x )).

Нечеткое число А положительно, если ∀x ϵ S A , х > 0 и отрицательно, если ∀х ϵ S A , х < 0.

Нечеткие числа (L-R)-Tипа

Нечеткие числа (L-R)-типа - это разновидность нечетких чисел специального вида, т.е. задаваемых по определенным правилам с целью снижения объема вычислений при операциях над ними.

Функции принадлежности нечетких чисел (L-R)-типa задаются с помощью невозрастающих на множестве неотрицательных дей­ствительных чисел функций действительного переменного L(x ) и R(x ), удовлетворяющих свойствам:

а) L(-x ) = L(x ), R(-x ) = R(x );

б) L(0) = R(0).

Очевидно, что к классу (L-R)-функций относятся функции, графики которых имеют вид, приведенный на рис. 1.7.

Рис. 1.7. Возможный вид (L-R)-функций

Примерами аналитического задания (L-R)-функций могут быть

Пусть L(у )и R(у )- функции (L-R)-типа (конкретные). Уни­модальное нечеткое число А с модой а (т. е. μ А (а ) = 1) с помощью L(у )и R(у ) задается следующим образом:

где а - мода; α > 0, β > 0 - левый и правый коэффициенты нечеткости.

Таким образом, при заданных L(у )и R(у ) нечеткое число (уни­модальное) задается тройкой А = (а , α, β ).

Толерантное нечеткое число задается, соответственно, четвер­кой параметров А = (a 1 , а 2 , α, β ), где а 1 иа 2 - границы толе­рантности, т.е. в промежутке [a 1 , а 2 ] значение функции принад­лежности равно 1.

Примеры графиков функций принадлежности нечетких чисел (L-R)-типа приведены на рис. 1.8.

Рис. 1.8. Примеры графиков функций принадлежности нечетких чисел (L-R)-типа

Отметим, что в конкретных ситуациях функции L(у), R(у), а также параметры а, β нечетких чисел , α, β ) и (a 1 , а 2 , α, β ) должны подбираться таким образом, чтобы результат операции (сложения, вычитания, деления и т.д.) был точно или приблизи­тельно равен нечеткому числу с теми же L(у) и R(у), а параметры α" и β" результата не выходили за рамки ограничений на эти па­раметры для исходных нечетких чисел, особенно если результат в дальнейшем будет участвовать в операциях.

Замечание . Решение задач математического моделирова­ния сложных систем с применением аппарата нечетких множеств требует выполнения большого объема операций над разного рода лингвистическими и другими нечеткими переменными. Для удоб­ства исполнения операций, а также для ввода-вывода и хранения данных, желательно работать с функциями принадлежности стан­дартного вида.

Нечеткие множества, которыми приходится оперировать в боль­шинстве задач, являются, как правило, унимодальными и нор­мальными. Одним из возможных методов аппроксимации унимо­дальных нечетких множеств является аппроксимация с помощью функций (L-R)-типа.

Примеры (L-R)-представлений некоторых лингвистических пе­ременных приведены в табл. 1.2.

Таблица 1.2. Возможное (L-R)-представление некоторых лингвистических переменных

Нечеткие отношения

Нечеткие отношения играют фундаментальную роль в теории нечетких систем. Аппарат теории нечетких отношений используется при построении теории нечетких автоматов, при моделировании структуры сложных систем, при анализе процессов принятия решений.

Основные определения

Теория нечетких отношений находит также приложение в задачах, в которых традиционно применяется теория обычных (четких) отношений. Как правило, аппарат теории четких отношений используется при качественном анализе взаимосвязей между объектами исследуемой системы, когда связи носят дихотомический характер и могут быть проинтерпретированы в терминах "связь присутствует", "связь отсутствует", либо когда методы количественного анализа взаимосвязей по каким-либо причинам неприменимы и взаимосвязи искусственно приводятся к дихотомическому виду. Например, когда величина связи между объектами принимает значения из ранговой шкалы, выбор порога на силу связи позволяет преобразовать связь к требуемому виду. Однако, подобный подход, позволяя проводить качественный анализ систем, приводит к потере информации о силе связей между объектами либо требует проведения вычислений при разных порогах на силу связей. Этого недостатка лишены методы анализа данных, основанные на теории нечетких отношений , которые позволяют проводить качественный анализ систем с учетом различия в силе связей между объектами системы.

Обычное неразмытое -арное отношение определяется как подмножество декартова произведения множеств

Подобно нечеткому множеству, нечеткое отношение можно задать с помощью его функции принадлежности

где в общем случае будем считать, что - это полная дистрибутивная решетка. Таким образом, - это частично упорядоченное множество, в котором любое непустое подмножество имеет наибольшую нижнюю и наименьшую верхнюю грани иоперации пересечения и объединения в удовлетворяют законам дистрибутивности. Все операции над нечеткими отношениями определяются с помощью этих операций из . Например, если в качестве взять ограниченное множество вещественных чисел, то операциями пересечения и объединения в будут, соответственно, операции и , и этиоперации будут определять и операции над нечеткими отношениями .

Если множества и конечны, нечеткое отношение между и можно представить с помощью его матрицы отношения , первой строке и первому столбцу которой ставятся в соответствие элементы множеств и , а на пересечении строки и столбца помещается элемент (см. табл.2.1).

Таблица 2.1.
0,5 0,8
0,7 0,6 0,3
0,7 0,4

В случае, когда множества и совпадают, нечеткое отношение называют нечетким отношением на множестве X.

В случае конечных или счетных универсальных множеств очевидна интерпретация нечеткого отношения в виде взвешенного графа , в котором каждая пара вершин из соединяется ребром с весом .

Пример . Пусть и , тогда нечеткий граф , изображенный на рис рис. 2.1, задает некотороенечеткое отношение .

Рис. 2.1.

Свойства нечетких отношений

Различные типы нечетких отношений определяются с помощью свойств, аналогичных свойствам обычных отношений, причем для нечетких отношений можно указать различные способы обобщения этих свойств.

1. Рефлексивность :

2. Слабая рефлексивность :

3. Сильная рефлексивность :

4. Антирефлексивность :

5. Слабая антирефлексивность :

6. Сильная антирефлексивность :

7. Симметричность :

8. Антисимметричность :

9. Асимметричность :

10. Сильная линейность :

11. Слабая линейность :

12. Транзитивность :

Проекции нечетких отношений

Важную роль в теории нечетких множеств играет понятие проекции нечеткого отношения . Дадим определение проекции бинарного нечеткого отношения .

Пусть - функция принадлежности нечеткого отношения в . Проекции и отношения на и - есть множества в и с функцией принадлежности вида

Условной проекцией нечеткого отношения на , при произвольном фиксированном , называется множество с функцией принадлежности вида .

Аналогично определяется условная проекция на при заданном :

Из данного определения видно, что проекции и не влияют на условные проекции и , соответственно. Дадим далее определение , которое учитывает их взаимосвязь.


Размещено на http :// www . сайт . ru /

МИНОБРНАУКИ РОССИИ

ФЕДЕРАЛЬНОЕ ГОСУДАРСТВЕННОЕ БЮДЖЕТНОЕ ОБРАЗОВАТЕЛЬНОЕ УЧРЕЖДЕНИЕ ВЫСШЕГО ОБРАЗОВАНИЯ

«ВОРОНЕЖСКИЙ ГОСУДАРСТВЕННЫЙ УНИВЕРСИТЕТ»

Факультет Прикладной математики, информатики и механики

Курсовая работа

38.03.05 Бизнес-информатика

по курсу «Нечеткая логика и нейронные сети»

Воронеж 2016

Глава 1. Решение задач прогнозирования цен на акции «Мазут»

Глава 2. Построение системы «Набор программистов» нечёткого логического вывода

Первая часть курсовой работы заключается в построении прогноза цен на акции «Мазут» на 5 дней вперед.

На рисунке 1 представлены данные, которые необходимо использовать для прогноза: LOW и CLOSE.

Дальше нужно запустить модуль «Neural networks. Во вкладке «Quick» выбираем тип задачи: «Time Series» После этого выбираем входные и выходные данные во вкладке «Variables». В курсовой работе будем строить прогноз для одной переменной «LOW», она будет и входной, и выходной переменной.(Рисунок 2).

Затем выбираем модуль «Intelligent Problem Solver», нажимаем «Ok» и в открывшемся окне задаем необходимые для прогнозирования параметры.

Во вкладке «Quick» задаем количество обучаемых сетей («Network tested»), в данном примере обучаться будут 500 сетей. В параметре «Network retained» ставим 10 сетей. Здесь программа выберет 10 наилучших сетей. (рисунок 3).

прогнозирование цена нечеткий логика

Выбираем следующую вкладку «Time series» (рисунок 4). Здесь задаем количество входов для прогнозирования.

Во вкладке «Feedback» выбираем следующее: «Improved networks (real time)» и ставим галочки в двух последних параметрах. Это указано на рисунке 5.

Во вкладке «Types» выбираем тип необходимой нам сети. Мы строим сети, используя многослойные персептроны (рисунок 6). Нужные нам параметры: «Three layer perceptron» и «Four layer perceptron»

После выбора всех параметров, нажимаем кнопку «OK». После идентификации процесса построения сетей появляется окно, во вкладке «Quick» нажимаем кнопку «Descriptive statistic» (рисунок 7).

В открывшемся окне отображаются количественных характеристики выбранных сетей. Необходимо проанализировать полученные результаты.

Нам важно значение ошибки «S.D. Ratio»

Она наиболее пригодна для целей сравнения, так как представляет собой число между 1 и 0 и не зависит от знака.

Проанализировав данные результаты, выбираем сети под номерами:1,2,3,4,5. (Рисунок 8)

На вкладке «Plots» («Графики») строим графики выбранных 5 моделей. Отбираем наиболее удачные графики. Критерием выбора является симметричность. Из выбранных 5 сетей удовлетворяют условию графики 2 сети (рисунок 9) и 3 сети (рисунок 10).

Затем снова выбираем 2 модели и в открывшемся окне в параметре «Length of projection» ставим 5, а в параметре «Case» (здесь выбирается день, с какого начнется прогноз 310) Это означает, что прогноз будет сделан на 5 дней вперед. Нажимаем кнопку «Time series spreadsheet».(рисунок 11)

Открывается окно, где показаны цены на акции с 310 по 314 день, смоделированные нашими сетями. Добавляем новый столбец NewVar, куда копируем цены из нашей исходной таблицы (рисунок 12).

Затем строим графики, чтобы посмотреть на прогноз, смоделированный нейронными сетями (рисунок 14). Видим, что график, построенный одной из нейронных сетей расположен довольно близко к исходному и приблизительно повторяет его изменения.

Система «Набор программистов»

1.Входные данные

· Знания английского языка

· Владение компьютером

Множество определения -

Множество термов - {низкое, среднее, высокое}

· Стаж работы

Множество определения -

Множество термов - {мало, достаточно, много}

Множество определения -

Множество термов - {низкий, средний, высокий, очень высокий}


Подобные документы

    Понятие и свойства лингвистической переменной, ее разновидности. Основы теории приближенных рассуждений. Нечеткие системы логического вывода с одной и несколькими входными переменными. Принципы нечеткого моделирования, вычисление уровней истинности.

    презентация , добавлен 29.10.2013

    Рождение искусственного интеллекта. История развития нейронных сетей, эволюционного программирования, нечеткой логики. Генетические алгоритмы, их применение. Искусственный интеллект, нейронные сети, эволюционное программирование и нечеткая логика сейчас.

    реферат , добавлен 22.01.2015

    Модели оценки кредитоспособности физических лиц в российских банках. Нейронные сети как метод решения задачи классификации. Описание возможностей программы STATISTICA 8 Neural Networks. Общая характеристика основных этапов нейросетевого моделирования.

    дипломная работа , добавлен 21.10.2013

    Технологии решения задач с использованием нейронных сетей в пакетах расширения Neural Networks Toolbox и Simulink. Создание этого вида сети, анализ сценария формирования и степени достоверности результатов вычислений на тестовом массиве входных векторов.

    лабораторная работа , добавлен 20.05.2013

    Основные этапы систем нечеткого вывода. Правила нечетких продукций, используемые в них. Нечеткие лингвистические высказывания. Определение алгоритмов Цукамото, Ларсена, Сугено. Реализации нечеткого вывода Мамдани на примере работы уличного светофора.

    курсовая работа , добавлен 14.07.2012

    Методы, системы, типы и способы проводимых измерений в автоматизированных системах медицинского обеспечения безопасности на транспорте. Проектирования нечеткого алгоритма предрейсовых медицинских осмотров на основе адаптивной сети нейро-нечеткого вывода.

    дипломная работа , добавлен 06.05.2011

    Понятие о нейронных сетях и параллели из биологии. Базовая искусственная модель, свойства и применение сетей. Классификация, структура и принципы работы, сбор данных для сети. Использование пакета ST Neural Networks для распознавания значимых переменных.

    реферат , добавлен 16.02.2015

    Решение задачи аппроксимации поверхности при помощи системы нечёткого вывода. Определение входных и выходных переменных, их термы; алгоритм Сугено. Подбор функций принадлежности, построение базы правил, необходимых для связи входных и выходных переменных.

    курсовая работа , добавлен 31.05.2014

    Характеристика моделей обучения. Общие сведения о нейроне. Искусственные нейронные сети, персептрон. Проблема XOR и пути ее решения. Нейронные сети обратного распространения. Подготовка входных и выходных данных. Нейронные сети Хопфилда и Хэмминга.

    контрольная работа , добавлен 28.01.2011

    Интеллектуальная система как техническая или программная система, решающая задачи, которые считаются творческими и принадлежат конкретной предметной области. Анализ системы нечеткого логического вывода. Знакомство со средой программирования FuzzyTECH.

1

Мищенко В.А. 1 Коробкин А.А. 2

1 Воронежский государственный педагогический университет, Воронеж

2 Воронежский государственный университет, Воронеж

В данной статье рассмотрены принципы построения систем, основанных на нечеткой логике, кроме того, определен принцип построения логического вывода. Также рассматривается структура организации нечетких нейронных сетей на примере сети Ванга – Менделя. Описывается схема организации такой сети, ее структура, в частности, определены слои нейронной сети и описаны принципы функционирования каждого слоя. Кроме того, рассмотрен процесс обучения нечеткой нейронной сети Ванга – Менделя, включающий в себя подстройку весовых коэффициентов сети и настройку параметров функции Гауса. А также рассмотрен процесс обучения сети в случае, когда нахождения решения процесса обучения невозможно, а поиск параметров осуществляется таким образом, что все условия выполняются в некоторой степени. Также в статье проведен сравнительный анализ различных типов архитектур интеллектуальных систем.

нечеткая логика

нечеткие нейронные сети

1. Аксенов С.В., Новосельцев В.Б. Организация и использование нейронных сетей (методы и технологии) / Под общ. ред. В.Б. Новосельцева. – Томск: Изд-во НТЛ, 2006. – 128 с.

2. Батыршин И.З. Нечеткие гибридные системы. Теория и практика / Под ред. Н.Г. Ярушкиной. – М.ФИЗМАТЛИТ, 2007. – 208 с.

3. Осовский С. Нейронные сети для обработки информации / Пер. с польского И.Д. Рудинского. – М.: Финансы и статистика, 2002. – 344 с.

5. Яхъева Г.Э. Нечеткие множества и нейронные сети: Учебное пособие / Г.Э. Яхъева. – М.: Интернет-Университет Информационных технологий; БИНОМ. Лаборатория знаний, 2006. – 316 с.

Используемая в различных видах систем модель на основе нечеткой логики представляет собой базу знаний, построенную специалистами предметной области как множество нечетких правил вида:

Если x есть A 1 , то y есть B 1 ,

Если x есть A 2 , то y есть B 2 ,

Если x есть A n , то y есть B n ,

где х и y - входная и выходная переменная соответственно, а А и В - функции принадлежности .

Нечеткий логический вывод формируется в несколько шагов:

  • введение нечеткости: на этом этапе функции принадлежности применяются к фактическим значениям входных переменных;
  • логический вывод: вычисляется значение истинности для предпосылок каждого правила и применяется к заключениям каждого правила. Это приводит к одному нечеткому подмножеству, которое будет назначено каждой переменной вывода для каждого правила;
  • композиция: нечеткие подмножества, назначенные каждой переменной вывода, объединяют в одно множество для всех переменных вывода;
  • приведение к четкости: используется в случаях, когда необходимо преобразовать нечеткий набор выводов в четкое число.

На этих принципах построено большое количество сетей, рассмотрим подробнее одну из них - сеть Ванга - Менделя. Структура такой сети представляет собой четырехслойную нейронную сеть, в которой первый слой выполняет фазификацию входных переменных, второй - агрегирование значений активации условия, третий - агрегирование М правил вывода (первый нейрон) и генерацию нормализующего сигнала (второй нейрон), тогда как состоящий из одного нейрона выходной слой осуществляет нормализацию, формируя выходной сигнал .

В этой сети первый и третий слой являются параметрическими: первый слой содержит M* N*2 параметров функции Гаусса, а третий - М параметров w i.

Выходной сигнал сети Ванга - Менделя рассчитывается по формуле:

, (1)

где w i - весовой коэффициент, μ ij () - функция Гаусса с параметрами математического ожидания, которое определяет центр c ij и параметрами разброса, которые определяются средним квадратическим отклонением d ij ,

- функция Гаусса.

Рис. 1. Структура сети Ванга - Менделя

Задача сети состоит в построении такого отображения пар данных (x, d ), чтобы ожидаемое значение, соответствующее входному вектору x , формировалось выходной функцией y(x) .

Обучение нечетких сетей, также как и классических сетей, может проводиться по алгоритму с учителем, основанному на минимизации целевой функции, задаваемой с использованием евклидовой нормы как

, где p - количество обучающих пар (x, d ).

Для обучения нечеткой нейронной сети применяют алгоритм, включающий последовательное чередование следующих шагов:

  • для фиксированных значений параметров c ij и d i j первого слоя вычисляются значения параметров w i третьего слоя сети;
  • при зафиксированных значениях параметров w i третьего слоя уточняются параметры c ij и d ij первого слоя сети.

Таким образом, на первом этапе для K обучающих выборок , k=1, 2, ... K , получаем систему K линейных уравнений , где W - вектор, составленный из линейных коэффициентов w i , D - вектор эталонных ответов сети, . Количество строк K матрицы PV значительно больше количества ее столбцов. Решение этой системы линейных алгебраических уравнений может быть получено за один шаг следующим образом: , где - псевдообратная матрица для матрицы PV .

На втором этапе фиксируются значения коэффициентов полиномов третьего слоя и осуществляется уточнение (обычно многократное) коэффициентов функции Гаусса для первого слоя сети стандартным методом градиента: , , где k - номер очередного цикла обучения, v c - скорость обучения для коэффициентов c ij , v d - скорость обучения для коэффициентов d ij , - ошибка сети, где L - общее число обучающих выборок, y l - выход сети Ванга-Менделя для данной выборки, - эталонное значение выхода сети Ванга - Менделя .

Производные и вычисляются по формулам:

, .

Производные и можно найти по формулам:

, ,

где - функция Гаусса

Поскольку в череде этапов этап уточнения параметров функции Гаусса имеет много меньшую скорость сходимости, то в ходе обучения реализацию этапа 1, как правило, сопровождает реализация нескольких этапов 2.

Часто требуется найти «решение» системы, которая решений (в обычном смысле) не имеет. Выходом из ситуации является нахождение таких значений неизвестных параметров, что все условия системы выполняются «в некоторой степени».

Матрица A + называется псевдообратной матрицей для матрицы A , если . Отсюда сразу вытекает, что если матрица A имеет размер m x n , то псевдообратная матрица A + имеет размер n x m .

Опишем и другой, часто встречающийся в литературе подход к определению этого понятия. Сначала введём понятие псевдорешения системы уравнений. Пусть нам дана система уравнений

где A - матрица размера m x n , b - вектор из m элементов.

Любое решение этой системы является также и решением системы

Псевдорешением системы (2) называется решение системы (3) с минимальной нормой среди всех столбцов, имеющих минимальную невязку (норма вектора равна квадратному корню из суммы квадратов компонент вектора, а невязкой решения системы (2) называется норма вектора Ax-b ).

Псевдообратной матрицей для матрицы A размера m x n называется матрица A + , столбцы которой - псевдорешения систем вида Ax=e i ,

где e i - i -ый столбец единичной матрицы порядка m .

К универсальным способам нахождения псевдообратной матрицы относятся рекуррентные алгоритмы Гревиля и Фадеева. В данной работе приведем алгоритм Гревиля для псевдообращения матриц.

Пусть дана матрица A R min и a k - ее k -й столбец, k = 1, . . ., n .

Пусть A k - матрица, составленная из k первых столбцов матрицы A :

При k = 1: A 1 = a 1 , а при k = 2, . . . , n : ; A n =A.

Матрица A + R min может быть вычислена с помощью рекуррентного алгоритма:

1. Инициализация.

2. Цикл по k =2, ..., n.

, где I - единичная матрица порядка m ,

Полученная на последнем шаге матрица A + n и есть псевдообратная матрица, которая является искомым решением.

Принцип нечеткой логики достаточно давно используется для решения задач, в которых исходные данные являются слабо формализованными или же ненадежными. Основными преимуществами сетей с такой структурой являются:

  • удобство представления информации: описание постановки задачи и условий производится на языке близком к естественному;
  • универсальность: согласно теореме нечеткой аппроксимации, любая математическая модель может быть аппроксимирована системой, построенной на нечеткой логике;
  • эффективность: ряд теорем, подобных теоремам о полноте для искусственных нейронных сетей, показывают высокую эффективность работы таких сетей.

Однако, такой организации нейронных сетей присущ и ряд недостатков:

  • исходный набор нечетких правил формируется человеком, что не всегда является объективным, а иногда неполным или даже противоречивым;
  • вид и параметры данных, связывающих вход и выход, также определяются субъективно и не всегда отражают действительность.

Каждый тип архитектуры интеллектуальных систем обладает своими особенностями в части обучения сети, обработки данных и вычисления конечного результата, что позволяет использовать одни типы архитектур для решения задач, к которым не применимы другие. Так, например, использование искусственных нейронных сетей в задачах по распознаванию образов имеет широкое применение, однако, объяснить принцип работы сетей достаточно сложно. Сети могут самостоятельно получать данные и обрабатывать их, однако, процесс обучения сетей достаточно долог, кроме того, анализ полученной в конечном итоге сети достаточно сложен. При этом, ввод в нейронную сеть какой-либо заранее достоверной информации не возможен .

Рассматривая системы, построенные на нечеткой логике, можно утверждать обратное - данные, получаемые на выходе таких систем, легки в понимании, однако, такие системы не могут самостоятельно получать информацию, которую можно использовать в дальнейшем при формировании выходных данных.

Как мы видим, искусственные нейронные сети и системы с нечеткой логикой схожи между собой, однако, каждая из них имеет свои достоинства и недостатки. Данный вывод был взят за основу при создании нечетких нейронных сетей. Такие сети строят решение на основе аппарата нечеткой логики, однако функции принадлежности настраиваются с помощью алгоритмов обучения искусственных нейронных сетей . Кроме того, такие сети не только могут обучаться, но и способны учитывать априорную информацию. По своей структуре нечеткие нейронные сети схожи с многослойными сетями, например, с сетью, обучающейся по алгоритму обратного распространения, но скрытые слои в нечетких сетях соответствуют этапам работы нечеткой системы: первый слой производит введение нечеткости, исходя из заданных признаков входов; второй слой определяет множество нечетких правил; третий слой выполняет функцию приведения к четкости. В каждом из указанных слоев имеется набор параметров, настройка которых производится так же, как и настройка обычной нейронной сети.

Рецензенты:

  • Шашкин А.И., д.ф.-м.н., зав. кафедрой математического и прикладного анализа ФГБОУ ВПО «Воронежский государственный университет», г. Воронеж.
  • Кургалин С.Д., д.ф.-м.н., зав. кафедрой цифровых технологий ФГБОУ ВПО «Воронежский государственный университет», г. Воронеж.

Библиографическая ссылка

Мищенко В.А., Коробкин А.А. ПРИНЦИПЫ НЕЧЕТКОЙ ЛОГИКИ НА ПРИМЕРЕ НЕЧЕТКИХ НЕЙРОННЫХ СЕТЕЙ // Современные проблемы науки и образования. – 2012. – № 1.;
URL: http://science-education.ru/ru/article/view?id=5321 (дата обращения: 01.02.2020). Предлагаем вашему вниманию журналы, издающиеся в издательстве «Академия Естествознания»

Нейронечеткие или гибридные системы, включающие в себя нечеткую логику, нейронные сети, генетические алгоритмы и экспертные системы, являются эффективным средством при решении большого круга задач реального, мира.

Каждый интеллектуальный метод обладает своими индивидуальными особенностями (например, возможностью к обучению, способностью объяснения решений), которые делают его пригодным только для решения конкретных специфических задач.

Например, нейронные сети успешно применяются в распознавании моделей, они неэффективны в объяснении способов достижения своих решений.

Системы нечеткой логики, которые связаны с неточной информацией, ус­тно применяются при объяснении своих решений, но не могут автоматически пополнять систему правил, которые необходимы для принятия этих решений.

Эти ограничения послужили толчком для создания интеллектуальных гибридных систем, где два или более методов объединяются для того, чтобы преодолеть ограничения каждого метода в отдельности.

Гибридные системы играют важную роль при решении задач в различных приикладных областях. Во многих сложных областях существуют проблемы, связанные с отдельными компонентами, каждый из которых может требовать своих методов обработки.

Пусть в сложной прикладной области имеется две отдельные подзадачи, например задача обработки сигнала и задача вывода решения, тогда нейронная сеть и экспертная система будут использованы соответственно для ре этих отдельных задач.

Интеллектуальные гибридные системы успешно применяются во многих областях, таких как управление, техническое проектирование, торговля, о кредита, медицинская диагностика и когнитивное моделирование. Кроме того, диапазон приложения данных систем непрерывно растет.

В то время, как нечеткая логика обеспечивает механизм логического вывода из когнитивной неопределенности, вычислительные нейронные сети обладают такими заметными преимуществами, как обучение, адаптация, отказоустойчивость, параллелизм и обобщение.

Для того чтобы система могла обрабатывать когнитивные неопределенности так, как это делают люди, нужно применить концепцию нечеткой логики в нейронных сетях. Такие гибридные системы называются нечеткими нейронными или нечетко-нейронными сетями.

Нейронные сети используются для настройки функций принадлежи нечетких системах, которые применяются в качестве систем принятия решений.

Нечеткая логика может описывать научные знания напрямую, используя правила лингвистических меток, однако много времени обычно занимает процесс проектирования и настройки функций принадлежности, которые определяют эти метки.

Обучающие методы нейронных сетей автоматизируют этот процесс, существенно сокращая время разработки и затраты на получение данных функций.

Теоретически нейронные сети и системы нечеткой логики равноценны, поскольку они взаимно трансформируемы, тем не менее на практике каждая из них имеет свои преимущества и недостатки.

В нейронных сетях знания автоматически приобретаются за счет применения алгоритма вывода с обратным ходом, но процесс обучения выполняется относительно медленно, а анализ обученной сети сложен ("черный ящик").

Невозможно извлечь структурированные знания (правила) из обученной нейронной сети, а также собрать особую информацию о проблеме для того, чтобы упростить процедуру обучения.

Нечеткие системы находят большое применение, поскольку их поведение может быть описано с помощью правил нечеткой логики, таким образом, можно управлять, регулируя эти правила. Следует отметить, что приобретение знаний - процесс достаточно сложный, при этом область измене каждого входного параметра необходимо разбивать на несколько интервалов; применение систем нечеткой логики ограничено областями, в которых допустимы знания эксперта и набор входных параметров достаточно мал.

Для решения проблемы приобретения знаний нейронные сети дополняются свойством автоматического получения правил нечеткой логики из числовых данных.

Вычислительный процесс представляет собой использование следующих нечетких нейронных сетей. Процесс начинается с разработки "нечеткого нейро­на", который основан на распознавании биологических нейронных морфоло­гии согласно механизму обучения. При этом можно выделить следующие три этапа вычислительного процесса нечеткой нейронной сети:

    разработка нечетких нейронных моделей на основе биологических ней­ронов;

    модели синоптических соединений, которые вносят неопределенность в нейронные сети;

    разработка алгоритмов обучения (метод регулирования синоптических весовых коэффициентов).

На рис. П1.1 и П1.2 представлены две возможные модели нечетких нейрон­ных систем.

Полученное лингвистическое утверждение интерфейсный блок нечеткой ло­гики преобразует во входной вектор многоуровневой нейронной сети. Ней­ронная сеть может быть обучена вырабатывать необходимые выходные команды или решения

Многоуровневая нейронная сеть запускает интерфейсный механизм нечеткой логики.

Основные обрабатываемые элементы нейронной сети называют искусственными нейронами, или просто нейронами. Сигнал с нейронных входов xj считается однонаправленным, направление обозначено стрелкой, то же касается нейронного выходного сигнала

Рис. П1.2. Вторая модель нечеткой нейронной системы

Простая нейронная сеть представлена на рис. П1.3. Все сигналы и веса задаются вещественными числами.

Рис. П1.3. Простая нейронная сеть

Входные нейроны не изменяют входной сигнал, поэтому выходные и входные параметры совпадают.

При взаимодействии с весовым коэффициентом w t для сигнала х, получаем результат p = wi xi, i = 1, …, n. Элементы входной информации pi складываются и в результате дают входное значение для нейрона:

Нейрон применяет свою передаточную функцию, которая может быть сигмоидальной функцией вида:

Для вычисления выходного значения:

Эту простую нейронную сеть, которая производит умножение, сложение и вычисляет сигмоидальную функцию, назовем стандартной нейронной сетью.

Гибридная нейронная сеть - это нейронная сеть с нечеткими сигналами и весами, и нечеткими передаточными функциями. Однако: (1) можно объединить Xj и w h используя другие непрерывные операции; (2) сложить компонен­ты р1 с помощью других непрерывных функций; (3) передаточная функция может иметь вид любой другой непрерывной функции.

Обрабатывающий элемент гибридной нейронной сети называется нечетким нейроном.

Следует отметить на то, что все входные, выходные параметры и веса гиб­ридной нейронной сети представляют собой вещественные числа из интерва­ла .

Рис. П.4. Передаточная функция гибридной нейронной сети

П1.2. Нечеткие нейроны

Определение 1 - нечеткий нейрон И. Сигналы х, и w, объединяются опе­ратором максимума и дают:

Элементы входной информации р, объединяются с помощью оператора ми­нимума и в результате дают выходную информацию нейрона:

Определение 2 - нечеткий нейрон ИЛИ . Сигнал х, и вес w , объединяются оператором минимума:

Элементы входной информации р, объединяются с помощью оператора максимума и в результате дают выходную информацию нейрона:

Определение 3 - нечеткий нейрон ИЛИ (максимум Произведения)

Сигнал х, и вес w, объединяются оператором умножения:

Элементы входной информации р, объединяются с помощью оператора максимума и в результате дают выходную информацию нейрона:

Рис. П1.5. Передаточная функция нечеткого нейрона ИЛИ

Нечеткие нейроны И и ИЛИ осуществляют стандартные логические операции над значениями множества. Роль соединений заключается в том, чтобы различить конкретные уровни воздействия, которое может быть оказано отдельными входными параметрами на результат их объединения.

Известно, что стандартные сети являются универсальными аппроксиматорами, т. е. они могут аппроксимировать любую непрерывную функцию на компактном множестве с любой точностью. Задача с таким результатом является; неконструктивной и не дает информации о том, как построить данную сеть.

Гибридные нейронные сети применяются для реализации правил нечеткой логики IF-THEN конструктивным путем.

Хотя гибридные нейронные сети не способны использовать напрямую стан­дартный алгоритм вывода с обратным ходом, они могут быть обучены мето­дами наискорейшего спуска распознавать параметры функций принадлежно­сти, представляющих собой лингвистические термины в правилах

Рассмотрим некоторые методы "мягких" вычислений, не получившие пока широкого распространения в бизнесе. Алгоритмы и параметры этих методов значительно меньше детерминированы по сравнению с традиционными. Появление концепций "мягких" вычислений было вызвано попытками упрощенного моделирования интеллектуальных и природных процессов, которые во многом носят случайный характер.

Нейронные сети используют современное представление о строении и функционировании мозга. Считается, что мозг состоит из простых элементов - нейронов, соединенных между собой синапсами, через которые они обмениваются сигналами.

Основное преимущество нейронных сетей заключается в способности обучаться на примерах. В большинстве случаев обучение представляет собой процесс изменения весовых коэффициентов синапсов по определенному алгоритму. При этом, как правило, требуется много примеров и много циклов обучения. Здесь можно провести аналогию с рефлексами собаки Павлова, у которой слюноотделение по звонку тоже начало появляться не сразу. Отметим лишь, что самые сложные модели нейронных сетей на много порядков проще мозга собаки; и циклов обучения нужно значительно больше.

Применение нейронных сетей оправдано тогда, когда невозможно построить точную математическую модель исследуемого объекта или явления. Например, продажи в декабре, как правило, больше, чем в ноябре, но нет формулы, по которой можно посчитать, насколько они будут больше в этом году; для прогнозирования объема продаж можно обучить нейронную сеть на примерах предыдущих лет.

Среди недостатков нейронных сетей можно назвать: длительное время обучения, склонность к подстройке под обучающие данные и снижение обобщающих способностей с ростом времени обучения. Кроме того, невозможно объяснить, каким образом сеть приходит к тому или иному решению задачи, то есть нейронные сети являются системами категории "черный ящик", потому что функции нейронов и веса синапсов не имеют реальной интерпретации. Тем не менее, существует масса нейросетевых алгоритмов, в которых эти и другие недостатки так или иначе нивелированы.

В прогнозировании нейронные сети используются чаще всего по простейшей схеме: в качестве входных данных в сеть подается предварительно обработанная информация о значениях прогнозируемого параметра за несколько предыдущих периодов, на выходе сеть выдает прогноз на следующие периоды - как в вышеупомянутом примере с продажами. Существуют и менее тривиальные способы получения прогноза; нейронные сети - очень гибкий инструмент, поэтому существует множество конечных моделей самих сетей и вариантов их применения.

Еще один метод - генетические алгоритмы. В их основе лежит направленный случайный поиск, то есть попытка моделирования эволюционных процессов в природе. В базовом варианте генетические алгоритмы работают так:

1. Решение задачи представляется в виде хромосомы.

2. Создается случайный набор хромосом - это изначальное поколение решений.

3. Они обрабатываются специальными операторами репродукции и мутации.

4. Производится оценка решений и их селекция на основе функции пригодности.

5. Выводится новое поколение решений, и цикл повторяется.

В результате с каждой эпохой эволюции находятся более совершенные решения.

При использовании генетических алгоритмов аналитик не нуждается в априорной информации о природе исходных данных, об их структуре и т. д. Аналогия здесь прозрачна - цвет глаз, форма носа и густота волосяного покрова на ногах закодированы в наших генах одними и теми же нуклеотидами.

В прогнозировании генетические алгоритмы редко используются напрямую, так как сложно придумать критерий оценки прогноза, то есть критерий отбора решений, - при рождении невозможно определить, кем станет человек - космонавтом или алконавтом. Поэтому обычно генетические алгоритмы служат вспомогательным методом - например, при обучении нейронной сети с нестандартными активационными функциями, при которых невозможно применение градиентных алгоритмов. Здесь в качестве примера можно назвать MIP-сети, успешно прогнозирующие, казалось бы, случайные явления - число пятен на солнце и интенсивность лазера.

Еще один метод - нечеткая логика, моделирующая процессы мышления. В отличие от бинарной логики, требующей точных и однозначных формулировок, нечеткая предлагает иной уровень мышления. Например, формализация утверждения "продажи в прошлом месяце были низкими" в рамках традиционной двоичной или "булевой" логики требует однозначного разграничения понятий "низкие" (0) и "высокие" (1) продажи. Например, продажи равные или большие 1 миллиона шекелей - высокие, меньше - низкие.

Возникает вопрос: почему продажи на уровне 999 999 шекелей уже считаются низкими? Очевидно, что это не совсем корректное утверждение. Нечеткая логика оперирует более мягкими понятиями. Например, продажи на уровне 900 тыс. шекелей будут считаться высокими с рангом 0,9 и низкими с рангом 0,1.

В нечеткой логике задачи формулируются в терминах правил, состоящих из совокупностей условий и результатов. Примеры простейших правил: "Если клиентам дали скромный срок кредита, то продажи будут так себе", "Если клиентам предложили приличную скидку, то продажи будут неплохими".

После постановки задачи в терминах правил четкие значения условий (срок кредита в днях и размер скидки в процентах) преобразуются в нечеткую форму (большой, маленький и т. д.). Затем производится их обработка с помощью логических операций и обратное преобразование к числовым переменным (прогнозируемый уровень продаж в единицах продукции).

По сравнению с вероятностными методами нечеткие позволяют резко сократить объем производимых вычислений, но обычно не повышают их точность. Среди недостатков таких систем можно отметить отсутствие стандартной методики конструирования, невозможность математического анализа традиционными методами. Кроме того, в классических нечетких системах рост числа входных величин приводит к экспоненциальному росту числа правил. Для преодоления этих и других недостатков, так же как и в случае нейронных сетей, существует множество модификаций нечетко-логических систем.

В рамках методов "мягких" вычислений можно выделить так называемые гибридные алгоритмы, включающие в себя несколько разных составляющих. Например, нечетко-логические сети, или уже упоминавшиеся нейронные сети с генетическим обучением.

В гибридных алгоритмах, как правило, имеет место синергетический эффект, при котором недостатки одного метода компенсируются достоинствами других, и итоговая система показывает результат, недоступный ни одному из компонентов по отдельности.




Top