Искусственный интеллект и экспертные системы

Автор работы: Пользователь скрыл имя, 11 Декабря 2012 в 13:13, курс лекций

Описание

Достаточно трудно дать точное определение, что такое интеллект человека, потому что интеллект - это сплав многих навыков в области обработки и представления информации. Интеллект ( intelligence ) происходит от латинского intellectus — что означает ум, рассудок, разум; мыслительные способности человека. С большой степенью достоверности интеллектом можно называть способность мозга решать (интеллектуальные) задачи путем приобретения, запоминания и целенаправленного преобразования знаний в процессе обучения на опыте и адаптации к разнообразным обстоятельствам.

Содержание

1.1. Основные понятия искусственного интеллекта
1.2. История развития искусственного интеллекта
1.3. Задачи искусственного интеллекта
1.4. Экспертные системы - направление исследований по искусственному интеллекту
1.5. Классификация и виды экспертных систем
1.6. Область применения экспертных систем
Структура и функционирование экспертных систем
2.1. Типовая структура экспертных систем
2.2. Интерфейс пользователя
2.3. Подсистема приобретения знаний
2.4. База знаний
2.5. База данных
2.6. Механизм логического вывода
2.7. Объяснение решений
2.8. Функционирование экспертных системах
Представление знаний
3.1. Основные понятия и состав знаний
3.2. Модели представления знаний
3.3. Представление нечетких знаний
Методы поиска решений
4.1. Поиск решений в одном пространстве
4.2. Поиск решений в иерархии пространств
4.3. Поиск решений в альтернативных пространствах
4.4. Поиск решений с использованием нескольких моделей
4.5. Выбор метода решения задач

Инструментальные средства разработки экспертных систем
5.1. Классификация инструментальных средств
5.2. Языки программирования
5.3. Языки инженерии знаний
5.4. Средства автоматизации разработки экспертных систем
5.5. Оболочки экспертных систем
Технология разработки экспертных систем
6.1. Стадии создания экспертных систем
6.2. Этапы разработки экспертных систем
6.3. Разработка прототипа экспертной системы

Работа состоит из  1 файл

Искусственный интеллект и экспертные системы.docx

— 150.06 Кб (Скачать документ)

    Однако, если посмотреть  на вероятность не как на  объективную частотность событий  при достаточно долгих независимых  испытаниях, а как на субъективную  оценку совместного наступления  событий, то ситуация значительно  упрощается. Например, врач может  не знать или не иметь возможности  определить, какая часть пациентов  имеющих симптом_Y страдают от заболевание_Z. Но на основании, например собственного опыта или литературных данных, врач в состоянии оценить какой части пациентов имеющих заболевание_Z встречается симптом_Y. Следовательно, можно вычислить P(симптом_Y | заболевание_Z) и применить инверсную формулу для условной вероятности.

    Ситуация значительно  усложняется, если речь пойдет  о множестве симптомов и множестве  заболеваний. Если необходимо  вычислить условную вероятность  для одного симптома из некоторого  множества симптомов, то потребуется  m .n + m + n вычислений, где m – количество  возможных диагнозов, а n –  число разнообразных симптомов.  Учитывая, что в медицинской диагностике  используются тысячи видов заболеваний  и огромное количество симптомов,  эта задача становится нетривиальной. 

    Ситуация еще  усложниться, если включить в  процесс постановки диагноза  сразу несколько симптомов. Правило  Байеса в обобщенной форме  выглядит следующим образом: 

 

 

     Данная формула  требует (m *n)k + m + nk вычислений оценок вероятностей, что даже при небольшом k является большим числом. Такое количество оценок требуется по той причине, что для вычисления P(s1.….sk) в общем случае сначала требуется вычислить P(s1|s2.….sk). P(s2|s3.….sk).….P(sk). Однако если предположить что симптомы независимы, то количество вычислений резко снижается и становиться таким же, как и в случае учета единственного симптома, так как в для независимых si и sj P(si . sj) = P(si) . P(sj). Даже, если в действительности установить независимость невозможно, можно предположить наличие так называемой условной независимости. Это предположение может основываться на каких-либо фоновых знаниях. Например, если в автомобиле нет бензина и не работает свет, то исходя из общих представлений о конструкции автомобиля можно предположить, что эти симптомы независимы. Но если автомобиль не заводится и не работает освещение, то такое предположение сделать уже нельзя. Соответственно, в системе, использующей вероятностные оценки достоверности, необходимо предусмотреть средства отслеживания зависимости между используемыми данными.

 

Нечеткие множества и  нечеткая логика.

 

    Эксперты при  формировании оценок тех или  иных признаков, симптомов или  ситуаций, как правило, используют  знания, основанные не на информации  о конкретных примерах объектов, данных, отношений, а оперируют  скорее понятиями классов объектов, отношений, гипотез и пр. Методы  решений задач, таким образом,  должны включать этап классификации  данных или знаний. То есть  конкретные экземпляры объектов, сигналов и т.п. рассматриваются  как представители более общих  классов, категорий. Но в реальных  ситуациях редко встречаются  объекты, которые точно соответствуют  той или иной категории или  классу. У конкретного экземпляра  часть признаков может присутствовать, а другая часть отсутствовать.  Таким образом, принадлежность  этого объекта к какому-либо  классу является размытой. Для  формирования суждений о подобных  категориях и принадлежащих к  ним объектов был предложен  формализм теории нечетких множеств. Эта теория легла в основу  нечеткой логики, позволяющей использовать  понятие неопределенности в логических  вычислениях. 

    Классическая  теория множеств базируется на  булевой, двухзначной логике. Принадлежность  объекта а к классу А может принимать значения ИСТИНА, если объект а входит в множество А, или ЛОЖЬ – в противоположном случае. После появления понятия «нечеткие множества», обычные множества стали также называть «жесткими». Именно присущая классической теории множеств «жесткость» при определении категорий, явилась источником проблем, при попытке применить ее для описания нечетко определенных категорий.

    Суть теории  нечетких множеств лучше всего  рассмотреть на примере. Возьмем  в качестве нечеткой категории  понятие «быстрый». Если применить  его к автомобилям, то тогда  возникает вопрос: какой автомобиль  можно считать быстрым. В классической  теории множество А «быстрых автомобилей» можно сформировать либо перечислением конкретных представителей данного класса, либо введя в рассмотрение характеристическую функцию f, такую, что для любого объекта X

        f(X) = ИСТИНА тогда и только тогда,  когда X принадлежит A.

    Например, эта  функция может отбирать только  те автомобили, которые могут  развивать скорость более 150 км  в час: 

 

 

     Эта функция,  используя предикат CAR(X) и функцию  MAX_SPEED(X) представляет множество: 

        { X принадлежит  CAR | MAX_SPEED(X) > 150 }.

    Эта формула  утверждает, что элементами нового  множества являются только те  элементы множества CAR, для которых  максимальная скорость превышает  150 км в час. 

    Представляя все  множество «быстрых» автомобилей,  интуитивно кажется, что границы этого множества должны быть размыты, а принадлежность элементов этому множеству может быть каким либо образом ранжирована (см. Рисунок 5. Нечеткое множество быстрых автомобилей.).

 

 

 

Рисунок 5. Нечеткое множество  быстрых автомобилей.

     Можно говорить, что каждый элемент (автомобиль) множества «быстрых» автомобилей  более или менее типичен для  данной категории. Следовательно,  с помощью некоторой функции  можно выразить степень принадлежность  элемента к множеству. Пусть  функция f (X) определена на интервале  [0, 1]. Тогда, если для объекта  X функция f(X) = 1, то этот объект  определенно является членом  множества, а если для него f(X) = 0, то он определенно не  является членом множества. Все  промежуточные значения f(X) выражают  степень принадлежности к множеству.  В примере с автомобилями требуется  функция, оперирующая со скоростью.  Ее можно определить таким образом, что fFAST(80) = 0 и fFAST(180) = 1, а все промежуточные значения представляются некоторой монотонной кривой, имеющей значения в интервале [0, 1] (см. Рисунок 6. Функция от скорости для понятия "быстрый".).

 

 

 

Рисунок 6. Функция от скорости для понятия "быстрый".

     Для определения  множества FAST_CAR «быстрых» автомобилей,  на основании приведенной выше  функции можно ввести новую  характеристическую функцию, определенную  на множестве всех автомобилей: 

        fFAST_CAR(X) = fFAST(MAX_SPEED(X)).

    Членами этого множества, таким образом, становятся пары (объект, степень), например:

        FAST_CAR = {(Porshe 944, 0,9), (BMW 316, 0,6), (Chevy NIVA, 0,1)}.

    Для вычисления значений сложных выражений принадлежности элементов к множеству в классической теории множеств используется булева логика. Для нечетких множеств, принадлежность к которым выражается функцией, принимающей значения от 0 до 1, была создана нечеткая логика. Аппарат этой логики включает операции отрицания, конъюнкции, дизъюнкции и пр., учитывающие концепцию неопределенности.

    Аналоги операций  конъюнкции и дизъюнкции в  нечеткой логике не связаны  с теорией вероятности и имеют  следующие определения: 

        f(F ^G)(X) = min(fF(X), fG(X)),

        f(F ^G)(X) = max(fF(X), fG(X)).

    Например, фраза «Porshe 944 является быстрым и представительским автомобилем» может быть представлена с помощью предикатов FAST_CAR(Porshe-944) и PRETENTIOUS_CAR(Porshe-944). Значение FAST_CAR(Porshe-944) = 0,9, а значение PRETENTIOUS_CAR(Porshe-944) пусть будет равно 0,7. Соответственно, можно вычислить значение конъюнкции этих предикатов:

        FAST_CAR(Porshe-944) ^PRETENTIOUS_CAR(Porshe-944)= =min(0,9, 0,7)=0,7.

    Кроме «быстрых» автомобилей существуют также «медленные» и «средние». Выражение FAST_CAR(Porshe-944) = 0,9 означает, что можно только с 90% уверенностью отнести этот автомобиль к категории «быстрый», так как существуют еще, например, и более быстрые автомобили, принимающие участия в соревнованиях Формулы 1. Поэтому полученное значение 0,1 говорит о том, что Porshe-944 принадлежит также и категории «среднескоростных» автомобилей, которые в чем-то близки к «быстрым», а в чем-то к «медленным».

    Операторы нечеткой  логики обладают свойствами коммутативности,  ассоциативности и взаимной дистрибутивности. Как к операторам в стандартной  логике, к ним применим принцип  композитивности, то есть значения составных выражений вычисляются только по значениям входящих в них подвыражений. В этом операторы нечеткой логики составляют полную противоположность законам теории вероятностей, согласно которым при вычислении вероятности конъюнкции и дизъюнкции величин нужно принимать во внимание условные вероятности.

    Одним из направлений  в нечеткой логике является  теория возможности, рассматривающая  точно поставленные вопросы на  нечетко сформулированных знаниях.  Примером такого вопроса является  утверждение «Вероятно, что X связан с Y». Существование объектов X и Y не вызывает сомнений, а вот наличие между ними связи ставится под вопрос.

    Основные идеи  теории возможности лучше всего  рассмотреть на примере. Предположим,  что в ящике находится 10 шаров,  но известно, что только несколько  из них являются красными. Какова  вероятность того, что из ящика  будет извлечен красный шар?  Непосредственно вычислить эту  вероятность невозможно, так как нам известно, только, что красных шаров несколько, а сколько именно не задано. Тем не менее, для каждого значения вероятности P(RED) того, что шар является красным можно определить некоторое значение в диапазоне [0, 1]. Для этого следует определить понятие «несколько», как нечеткое множество, например:

        fSEVERAL = {(2, 0.1), (3, 0.2), (4, 0.6), (5, 1.0), (6, 1.0), (7, 0.6), (8, 0.3) , (9, 0.1)}.

    Из этого определения  следует, что 3 из 10 с небольшой  вероятностью можно считать синонимом  «несколько», так как fSEVERAL(3) = 0.2. Числа 5, 6 полностью согласуются с термином «несколько», а числа 1 и 10 не рассматриваются вовсе, как соответствующие этому понятию. Нечеткое множество, определенное на множестве чисел получило название нечеткие числа. Аналогичным образом можно определить нечеткие множества для понятий «мало», «почти» и пр.

    Распределение  возможностей теперь можно вычислить  по формуле: 

 

 

     Подставляя  в данную формулу множество,  определенное выше получается  новое множество: 

        {(0.2,0.1), (0.3,0.2), (0.4,0.6), (0.5,1.0), (0.6,1.0), (0.7,0.6), (0.8,0.3) , (0.9,0.1)}.

    Таким образом,  возможность того, что P(RED) = 0.3 составляет 20%. Множество fP(RED) также называют нечеткой вероятностью.

    С помощью данного  механизма можно ввести в рассмотрение  любую функцию, поэтому удобно  использовать понятие нечеткого  правдоподобия. Например, некоторое  утверждение может быть оценено  как «очень правдоподобное» или  «частично правдоподобное». Эти  понятия представляются на множестве,  где областью определения и  областью значений функции являются  значения правдоподобия в нечеткой  логике fTRUE: [0, 1]>[0, 1]. Следовательно, можно рассматривать значения, меньшие единицы, как «достаточно правдоподобные». Например, для ситуации с быстрыми автомобилями можно определить

        TRUE(FAST_CAR(Porsche-944)) = 1.

    Таким образом,  можно с полной уверенностью  утверждать, что Porsche-944 является  быстрым автомобилем, несмотря  на то, что на рынке имеются  и более скоростные автомобили.

 

4. Методы поиска решений. 

 

     Методы решения  задач, основанные на сведении  их к поиску, зависят от особенностей  предметной области, в которой  решается задача, и от требований, предъявляемых пользователем к  решению. Особенности предметной  области: 

объем пространства, в котором  предстоит искать решение;

степень изменяемости области  во времени и пространстве (статические  и динамические области);

полнота модели, описывающей  область, если модель не полна, то для  описания области используют несколько  моделей, дополняющих друг друга;

определенность данных о  решаемой задаче, степень точности (ошибочности) и полноты (неполноты) данных.

     Требования  пользователя к результату задачи, решаемой с помощью поиска, можно  характеризовать 

количеством решений: одно решение, несколько решений, все решения;

свойствами результата: ограничения, которым должен удовлетворять полученный результат;

и (или) способом его получения.

     Существующие  методы решения задач, используемые  в экспертных системах, можно  классифицировать следующим образом: 

методы поиска в одном  пространстве - методы, предназначенные  для использования в следующих  условиях: области небольшой размерности, полнота модели, точные и полные данные;

Информация о работе Искусственный интеллект и экспертные системы