СТАТЬИ
И ПУБЛИКАЦИИ
Вход или Регистрация |
ПОМОЩЬ В ПАТЕНТОВАНИИ | НАУЧНО-ТЕХНИЧЕСКИЙ ФОРУМ | Научно-техническая
библиотека![]() |
ОПЫТ ОБОБЩЕНИЯ МЕТОДОВ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА
© Клименко А.О.
Контакт с автором: sasja2@mail.ru
Сопоставление алгоритмов нечеткой логики, генетического, продукционного вывода, вывода на нейронных сетях позволяет выделить в них сходство и предложить нижеследующую конструкцию в качестве универсальной основы для единого подхода к различным моделям искусственного интеллекта.
Метод искусственного интеллекта является движением в одном направлении по иерархии метамоделей. Каждая метaмодель следующего уровня образуется в соответствии с формальным правилом 1 из модели нижнего уровня, метамодель i-го уровня является нечеткой переменной, определенной на универсальном множестве i-i-го уровня, с функцией принадлежности, которая определяется для всех уровней выше первого в соответствии с формальным правилом 2, и связана со свойством R, состоящим в том, что данная модель является наилучшим отображением на i-й уровень модели i-1-i-го уровня в том смысле, что она содержит в себе решение или путь к решению и одновременно содержит минимальное количество лишних данных.
На основе этого определения алгоритмы искусственного интеллекта можно рассматривать как частные случаи общей концепции. Например.
1. Продукционная модель. Моделью является факт, сначала исходный, затем из рабочего пространства, применяя к факту множество правил вывода, получаем метамодель, функции принадлежностей все равны 0.5.
2.Нечеткая модель. Модельi-го уровня элементыi-го универсального множества. Метамодель и модель совпадают, формальное правило 1 нечеткое отношение совпадает с формальным правилом 2.
3. Нейросетевая модель. Модель вариант возбуждения нейроновi-го слоя, метамодель множество таких вариантов, формальное правило 1 математическая модель нейронной сети. Формальное правило 2 состоит в том, что функция принадлежностей равна 1 или 0, функция равна 1 для той моделиi-го уровня, которая получена путем применения правила 1 к моделиi-го уровня, имеющей функцию принадлежностей 1. Для остальных моделей функция принадлежностей 0.
Опыт обобщения имеет практическую цель, он предложен в качестве концепции построения вычислительных процедур в некоторых задачах.
1.Настройка параметров одной модели искусственного интеллекта с помощью другой. Продемонстрируем подход на примере моделей нечеткой логики и нейросетевой.
Рассмотрим 2 случая.
1.Имеется нечеткая модель, требуется преобразовать ее в нейросетевую. Нечеткая модель(в простом случае, который здесь рассматривается) включает набор нечетких переменных и матрицы нечетких отношений между ними. Будем трактовать значение нечеткой переменой как один из вариантов возбуждения нейронов одного слоя, такой вариант назовем конфигурацией слоя. Конфигурация является, таким образом, элементом нового универсального множества, а мы допускаем, что каждый элемент элемент исходного универсального множества может быть единственным образом выражен вектором из нулей и единиц. Функция принадлежности характеризует уверенность в том, что при данном изображении на этом слое сложится именно такая конфигурация. В хорошо настроенной нейронной сети должна быть корреляция между функцией принадлежности нечеткой модели и величиной Т
,
(1)
где SI- суммарое воздействие на i-й нейрон, θi-пороговое значение, δ-константа, П- произведение и оно осуществляется по всем нейронам слоя, для которых Si > θi . Каждая конфигурация, таким образом, обладает для каждого изображения своей функцией принадлежности, нечеткая переменнная имеет физический смысл проекции изображения на слой в виде нескольких вариантов, снабженных оценками их достоверности.
Чтобы построить нейросеть, необходимо для каждого нейрона построить линейное неравенство, являющеееся условием его возбуждения. Приравняем правую часть всех неравенств константе и зададимся порогом точности γ .
Для l-i-го нейрона слоя p по всем k- м нечетким переменным слоя p+1 нечеткой модели выбираем все пары i-й конфигурации, для которой μki> γ с конфигурациями слоя p(обозначим это множество ((i,(j)))), обеспечивающими по нечеткой модели формирование данной функции принадлежности i-й конфигурации слоя. Далее для каждого l-i-го нейрона строятся ограничения. Если его значение в i- й конфигурации равно единице, то получаем систему линейных неравенств вида
,
где n-индекс нейрона j-й конфигурации.
Если значение нейрона равно нулю, то получаем систему
Допустимый план, удовлетворяющий всем ограничениям можно считать решением задачи настройки нейросети.
Числовой пример.
Нечеткая модель позволяет сделать вывод о том, что дорогая машина хорошо ездит. Под измерителем хорошей езды будем понимать максимальную скорость, при которой возможно хорошее управление.
Имеем два универсальных множества Е
Е1 =(A1= мерседес, A2=жигули, A3= запорожец)
E2=( 120 км/час, 80 км /час, 30 км/час)
Имеем нечеткие нечеткие переменные
хорошо ездит =(A1/0.9, A2/0.7, A3/0.1)
средне ездит=(A1/0.1, A2/0.5, A3/0.9)
плохо ездит=(A1/0.9, A2/0.5, A3/0.1)
Нечеткое отношение:
|
0.9 |
0 |
0 |
R= |
0 |
0.9 |
0 |
|
0 |
0 |
0.9 |
Пусть γ=0.7,θ=1.
Минимально возможное количество нейронов слоя определяется мощностью универсального множества, в данном случае на обоих слоях сети должно быть по меньшей мере два нейрона, обозначим их для 1-i-го слоя x1 и x2 , для 2-i-го слоя y1 и y2.
Введем следующее соответствие
Таблица 1.
Конфигурация |
Элемент Е1 |
Конфигурация |
Элемент Е2 |
11 |
мерседес |
11 |
120 |
01 |
жигули |
01 |
80 |
10 |
запорожец |
10 |
30 |
Следуя вышеописанной процедуре получаем:
y1=1, если a11+a12>1 и a11>1,
y1=0, если a12 <1,
Отсюда получаем допустимый план (1.5;0.5)
Аналогично получаем для y2 (0.5;1.5)
Итак нейронная сеть:
y1=1, если 1.5 x1+0.5 x2>1 , иначе y1=0.
y2=1, если 0.5 x1+1.5 x2>1 , иначе y2=0.
Случай 2. Имеется нейросетевая модель, требуется построить нечеткую модель.Нечеткие переменные - это результаты вычислений по тем изображениям на сетчатке, для которых набор функций принадлежности по формуле для Т удовлетворяет некоторому порогу четкости, например, максимальная функция принадлежности больше определенной константы. Имея набор нечетких переменнных, можно перейти к построению нечеткого отношения.
Для каждой конфигурации исходного слоя отбираются те конфигурации предыдущего слоя, которые приводят к ней по нейросетевой модели, так как это происходит для ряда изображений, а каждое изображение характеризуется своим набором μ, то получаем для
μi ±δ набор μj ,jЄJ . Предлагаем принять Rij= среднее (μj ), если jЄJ и Rij не определено, в противном случае Rij не определено. Если по окончании процудуры Rij не определено, то Rij =0.
В самом деле, если при одной конфигурации одного слоя другая кoнфигурация следующего слоя невозможна, то в нечеткой модели это обеспечивается равенством нулю соостветствующего коэффициента матрицы нечеткого отношения. Теперь поясним выбор в пользу среднего значения. Модель, построенная по одним данным, должна правильно работать с другими. При переходе к другим нечетким переменным получаем разброс значений , однако средняя должна сохранять присущую средней величине относительную стабильность, теперь для всех μj < среднее (μj ), из пары (μj , ,Rij ) будет выбираться μj , а для всех остальных -I Rij , в этом наборе по минимаксному правилу вигрывает Rij , и оно определяет μi, что и правильно.
Числовой пример.
Пусть нейронная сеть производит распознавание двух букв П и Т, сетчатка выглядит следующим образом
Таблица 2
В модели 3 ассоциативных элемента A1, A2, A3.
A1=1, если S1+S2+S3>1, иначе A1=0.
A2=1, если S4+S5+S6>1, иначе A2=0.
A3=1, если S7+S8+S9>1, иначе A3=0.
Рассмотрим четыре возможных конфигурации элемента будущего универсального множества (1,0,0),(0,0,1),(0,1,0),(1,0,1).
Так как осуществление конфигурации на нижнем уровне не имеет неопределенности, то можно рассматривать четыре нечеткие переменные этого уровня:
((1,0,0)/1, (0,0,1)/0, (0,1,0)/0, (1,0,1)/0).
((1,0,0)/0,(0,0,1)/1,(0,1,0)/0,(1,0,1)/0).
((1,0,0)/0,(0,0,1)/0,(0,1,0)/1,(1,0,1)/0).
((1,0,0)/0,(0,0,1)/0,(0,1,0)/0,(1,0,1)/1).
Для вычисления Т примем θ=1, δ=0.7.
Тогда получаем для ”П” (j=1):
Т для (1,0,0) =1/1.7=0.6
Т для (0,0,1,) =0.6
Т для (0,1,0) =0
Т для (1,0,1) =2/1.7=1.1
Rij (j=1,i=1,3,4)=(0.6+0.6+1.1)/3=0.7
Аналогично для ”Т” рассчитываем:
R22=0.8 , R12=0, R32=0, R42=0.
Итак
|
0.7 |
0 |
R= |
0 |
0.9 |
|
0.7 |
0 |
|
0.7 |
0 |
Модель построена.
2.Создание новых методов искусственного интеллекта. Можно легко генерировать новый метод, который будет методом искусственного интеллекта и будет новым в том смысле, что он будет укладываться и укладываться по своему в вышепредложенную общую концепцию. Например, рассмотрим две задачи. Задача А. Определение минимума монотонной функции делением пополам. Задача В. Выделение из множества целых чисел такого подмножества, что сумма его элементов равна S. Применим такую процедуру. На каждом шаге будем для всех имеющихся множеств произвольно выбирать два элемента и складывать их. Если сумма равна S, решение полученo, если сумма больше S , то разбиваем множество на два, в каждом из которых все прочие элементы и по одному из пары, если сумма меньше S , то разбиваем множество на три: в одном все прочие элементы и первый из пары, в другом все прочие , кроме пары, и их сумма, в третьем все прочме и второй из пары. Нетрудно видеть, что с точки зрения предложенного универсального подхода два метода являются методами искусственного интеллекта и причем различными методами, т. к. формальные процедуры у них различны.
3.Разработка процедуры настройки параметров известного метода с позиции оптимизации формальных процедур 1 и 2. Возьмем нейросетевой метод. Бинарные значения функции принадлежностей для этого метода можно рассматривать как крайний случай, а настройку модели как приближающую к этому крайнему случаю оптимизацию формального правила 1. С этой точки зрения, необходимо ввести такую формулу для , которая отражает эффективность поправки к весам и выбирать поправку, которая при правильном решении сохраняет близость к полюсам функций принадлежности и увеличивает их разброс . При неправильном решении нужно выбрать поправку, которая минимизирует корреляцию или расстояние между старым и новым векторами функций принадлежности. В качестве такой формулы предлагаем формулу 1:
|
О проекте | Контакты | Архив старого сайта |
Copyright © SciTecLibrary © 2000-2017 |