Исследование основных подходов к автоматическому отображению онтологий

Анализ существующих программных средств для автоматического отображения онтологий, их практического применения в зависимости от поставленной задачи и сложности входных онтологий. Отображение сложных онтологий с помощью алгоритма повышенной точности.

Рубрика Программирование, компьютеры и кибернетика
Вид дипломная работа
Язык русский
Дата добавления 14.06.2012
Размер файла 1,5 M

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

Гибридная мера, предложенная в [13], содержит оценку близости экземпляров, состоящую из трех частей - таксономической, реляционной и атрибутивной:

(4.12)

Таксономии двух онтологий связываются через «мосты» («якоря») - вершины, соответствующие эквивалентным понятиям, которые определяются с использованием синсетов (множеств синонимов) из MeSH (Medicine Subject headings) и WordNet. Параметры таксономической меры близости рассчитываются с учетом введенных мостов: ближайшим общим родителем (LCS) для сравниваемых понятий из разных онтологий O1 и O2 является ближайший общий родитель первого элемента сравниваемой пары и вершины-моста.

Для вычисления кросс-онтологической меры близости таксономии двух онтологий связываются через вводимую top-вершину обеих иерархий. Близость понятий в двух онтологиях вычисляется с учетом лексической близости терминов, соответствующих сравниваемым вершинам, семантической близости соседних (в заданном радиусе окрестности вершины в иерархии) вершин, а также близости различимых свойств понятий, соответствующих сравниваемым вершинам.

Мера близости между термами разных онтологий разбивается на элементарные критерии: лексическая близость, близость свойств, близость доменов и диапазонов отношений, близость родительских/дочерних понятий и т. д. Расчет близости между понятиями в разных онтологиях является итерационным процессом, поскольку многие из рассмотренных критериев близости двух понятий основываются на близости других сущностей. На первой итерации используются критерии близости, которые не основываются на других критериях, например лексическая близость.

Рассматриваются методы измерения близости между онтологиями на двух уровнях - вербальном и концептуальном.

На вербальном уровне происходит сравнение лексиконов двух онтологий, на концептуальном - сравнение таксономий понятий и других отношений двух онтологий.

Ранжирование ответов на запросы к Web-порталу сводится к сравнению пар баз знаний (онтологий) - каждого результата запроса (QKBi), который интерпретируется как база знаний, и портала (KB). Базы знаний результата и портала имеют один лексикон и одни понятия, поэтому сравниваются только отношения. Ранжирование производится по значению близости результата к порталу, причем понятие близости между двумя базами знаний сводится к близости отношений:

S(QKBi, KB) = , (4.13)

где PQ - множество отношений базы знаний результата запроса QKBi, P - множество отношений базы знаний портала, S(pj, pi) - близость двух n-арных отношений pj и pi .

Меры семантической близости используются в широком спектре задач. Эффективность применения той или иной меры зависит как от задачи, так и от пользователя. Этот вопрос не рассматривается в известной авторам данного обзора литературе и ожидает своего исследования.

Интерактивный интерфейс при задании запроса поможет пользователю определить свои предпочтения при выборе меры семантической близости.

4.3 Семантическое расстояние

Измерение семантических расстояний, или количественная оценка семантических связей в системе языка - это исследовательская задача, для решения которой существует необходимый и достаточный теоретический аппарат, однако ее практические решения далеки от совершенства.

Измерение семантических расстояний на уровне лексикона и речевых произведений возможно лишь в том случае, если выполняются следующие условия:

существует семантическое описание тех единиц, теснота связи между которыми подлежит измерению;

существует подробное описание разнообразных семантических отношений, связывающих языковые единицы и их комплексы;

используемый математический аппарат (теория множеств, топология, математическая статистика и пр.) адаптирован с учетом качественной природы измеряемых отношений.

В существующих исследованиях по измерению семантических расстояний задействованы два подхода: парадигматический и синтагматический.

1) Парадигматический подход предполагает измерение семантических расстояний в лексиконе. Исходный тезис таков: семантическую близость следует определять, опираясь на данные о значении, хранящиеся «внутри» языкового знака, а не за его пределами.

Определив лексикон языка как сложным образом упорядоченное множество классов слов, связанных парадигматическими отношениями (семантических полей или группировок иного толка, например, лексико-семантических групп, синонимических рядов), и описав значения единиц данных классов с помощью набора неких семантических признаков, можно применить к описанию языкового материала несложный математический аппарат. Класс лексических единиц при этом интерпретируется как n-мерное метрическое пространство, в котором каждое из значений лексем можно задать как точку или вектор. Для пары лексем расстояние определяется через число совпадающих или различающихся семантических признаков в их значениях. С данной целью могут быть использованы мера Хэмминга, мера Евклида, разнообразные коэффициенты ассоциации и пр. Каждому из семантических признаков, описывающих значения лексических единиц класса, может быть приписан вес, отражающий важность той или иной семы в иерархии. Не менее эффективно представление класса лексем в виде матрицы (в строках такой матрицы содержатся признаковые описания значений слов, в столбцах - возможные реализации семантических признаков), в виде таблицы расстояний или сети (в узлах сети располагаются лексемы, связывающие их дуги могут иметь метку типа семантического расстояния, т.е. содержать указание на какое-либо из парадигматических отношений: синонимия, антонимия, конверсия, гипонимия, меронимия и т.д., а также количественного значения семантического расстояния). При всем изяществе и простоте данного решения все же остается неясным:

какие меры лучше приспособлены для той или иной цели: мера, учитывающая расхождения между сравниваемыми объектами по всевозможным признакам (мера Хэмминга, мера Евклида и пр.) или мера, пренебрегающая периферийными признакам сравниваемых объектов и учитывающая расхождение по основному признаку, особенно если у него много значений (мера Чебышева); мера, учитывающая расхождения между сравниваемыми объектами по всевозможным признакам, но значение которой во многом определяется значением доминирующего признака (мера Евклида) или мера, значение которой в одинаковой степени определяется всеми признаками, рассматриваемыми как равноправные (мера Хэмминга) и пр.

по каким признакам необходимо сравнивать те языковые единицы, связи между которыми подлежат измерению: выделяя денотативные признаки означаемого для знака, можно определять близость слов на основе сравнения соответствующих им понятий; выделяя сигнификативные признаки означаемого для знака, можно определять близость слов на основе сравнения их внутриязыкового содержания;

как формировать признаковое пространство: какими должны быть признаки - бинарными, тернарными, n-арными, каким должно быть их количество, должно ли признаковое пространство быть структурировано по иерархическому принципу, как определять веса признаков, насколько точными должны быть измерения и пр.

2) Синтагматический подход предполагает измерение семантических расстояний в тексте и между текстами. Исходный тезис таков: обращение к корпусу позволяет использовать данные о значении слова, хранящиеся «вне» языкового знака, и определять содержательную близость лексических единиц, сопоставляя их синтагматические свойства. Данный подход вполне согласуется с теорией значения как употребления, с идеей неаддитивного сложения смыслов (речь идет о реализации в тексте отношения семантического согласования, т.е. о дублировании в контексте той семантической информации, которая содержится в слове). Синтагматический подход лежит в основе процедуры латентного семантического анализа (ЛСА). ЛСА - это статистический метод извлечения и анализа текстовой информации, не требующий предварительного создания лексикографических описаний, семантических сетей, обращения к базам знаний, концептуальным иерархиям и пр. В основе метода ЛСА лежит гипотеза о том, что между отдельными словами и обобщенным контекстом (предложениями, абзацами и целыми текстами), в которых они встречаются, существуют неявные (латентные) взаимосвязи, обуславливающие совокупность взаимных

ограничений. ЛСА активно используется для формирования групп близких по значению слов на основе статистического анализа их сочетаемости с элементами контекста, однако отношение содержательной соотнесенности понимается при этом очень широко, и сейчас еще рано говорить об ЛСА как о точном инструменте семантического исследования.

При парадигматическом подходе необходимо аргументированно задать метрическое пространство и сформировать множество признаков, на основе которых будут производиться семантические измерения, также необходимо выбрать оптимальную меру. При синтагматическом подходе необходимо обращаться к представительному корпусу текстов, снабженному в том числе

и семантической исследовательской информацией, и учитывать не только вероятность/частоту встречаемости сравниваемых единиц в том или ином контексте/конструкции, но и частоту самой конструкции.

Необходимо признать продуктивность совмещения парадигматического и синтагматического подходов и привлечь внимание исследователей к корпусам текстов как к богатейшему источнику информации для измерения семантических расстояний.

Исследования в области изучения семантического расстояния среди отечественных ученых и зарубежных значительно отличаются, их нельзя признать достаточными но по разным причинам. Отечественные работы об измерении семантических расстояний предоставляют методологическую базу для подобных исследований и обосновывают предлагаемые решения с точки зрения лингвистической теории. Зарубежные работы об измерении семантических расстояний сфокусированы на подготовке формального аппарата для осуществления исследований и обосновывают предлагаемые подходы с точки зрения практических решений и возможных областей применения полученных результатов.

4.4 Быстрый алгоритм отображения для простых онтологий

QOM - направлен на быстроту выполнения операции промежуточных методов, уменьшая эффективность и точность отображения. Данный алгоритм включает в себя 6 методов, выполняющихся последовательно, для отображения онтологии (Рис.4.2)

Рисунок 4.2 - Процесс отображения

1) Feature Engineering - функция трансляции онтологий, т.е. преобразование к одному форматы, обычно приводят к формату RDF(S), т.к. он считается стандартным при работе с онтологиями.

2) Selection of Next Search Steps. - выбор следующего шага поиска кандидатов. Выбор экспертом алгоритма поиска семантической близости и семантического расстояния между парами концептов, в зависимости от поставленной цели {(e, f)|e є O1, f є O2}.

3) Similarity Computation - вычисление подобия, определение сходств между сущностями, вычисляется на этапе сопоставления онтологий.

4) Similarity Aggregation - объединение сущностей в одну систему, подтверждение отображения связей. Среди пар совпавших сущностей выбирается та у которой мера схожести больше, порог был выбран равный 0,5.

5) Interpretation - сопоставление названий понятий, присвоение выбранному классу синтезированное имя от двух других.

6) Iteration - итерация, проходит в несколько этапов и останавливается, когда не может найти новых отображений.

Для сравнения двух сущностей из разных онтологий, рассматриваются их характеристики. Это используется, чтоб определить одинаковые они или нет. Изначально, предполагается, что сущности с одинаковыми характеристиками эквивалентно. Вес и характеристику сущностей определяет эксперт предметной области. Под характеристиками понимают:

- идентификаторы - уникальные значения сущностей онтологий URI или имена RDF;

- простейшие элементы RDF(S): такие как свойства или отношения подклассов;

- производные характеристики, которые продлевают или ограничивают простейшие элементы RDF(S), т.е. не общие, а более специфические подклассы.

(4.4)

- String Similarity - подобие строк - основывается на измерении расстояния Левенштейна, числовое значение находится на интервале [0,1]

(4.5)

- Dice Coefficient - вероятностный коэффициент - сравнивает два набора сущностей.

(4.6)

- SimSet - установление подобия - служит для определения, на сколько две сущности похожи между собой. Каждая сущность описывается, как вектор, представляющий сходство с другими сущностями. Чем меньше расстояние между векторами, тем больше они походи между собой. К векторам применяется многомерное шкалирование, значение вектора - мера схожести, полученная на предыдущем этапе. Результатом будет вычисление значения косинуса между векторами.

(4.7)

- Подобие множеств пар схожих концептов вычисляется по формуле:

(4.8)

где, Wk - вес для каждой меры сходства;

adj - функция преобразования исходных значений подобия в интервал [0,1]

Для оценки результатов работы алгоритма, были выбраны стандартные метрики:

- точность (р), вычисляется, как отношение количества правильных отображений к общему количеству отображений;

- память (r) (перезапись, recall), вычисляется, как отношение количества правильных отображений к существующему количеству отображений;

- f-мера - проверка точности и правильности работы алгоритма. Формула сочетает в себе два предыдущих значения.

(4.9)

где, в - фактор, который количественно определяет значение точности и памяти относительно друг друга, по умолчанию, данный фактор принят равным 1.

Результаты, полученные при тестировании алгоритма QOM. На вход подавались две онтологии описывающие предметную область: транспортные средства. На рисунке 4.3 желтым цветам выделены классы онтологий, зеленым - свойства классов, розовым - экземпляры, пунктирной линией связи отображения концептов.

4.5 Отображение сложных онтологий с помощью алгоритма повышенной точности

Алгоритм AUTOMS состоит из синтеза 5 методов, которые используются при отображении онтологий. При последовательном выполнении представленных методов алгоритм показал наибольшую точность выполнения. Методы интегрированы с AUTOMS выполняются в определенной последовательности: отображения проектируются по методу эксплуатации последующих методов, таким образом, строятся новые отображения. AUTOMS изначально базируется на методе лексического согласования, который первый применяется в последовательности методов.

Рисунок 4.3 - Отображение связей между концептами

Результат, который выводит программа, показан на рисунке 4.4.

Рисунок 4.4 - Результат работы алгоритма

Алгоритм использует лексическую информацию относительно имен, меток и комментариев к онтологическим концептам и свойствам, для того чтоб вычислить их сходства. Хотя имена считаются наиболее высшими, комментарии тоже рассмотрены. Алгоритм кластеризации делит данные на кластеры, а затем в пространстве кластеров ищет, куда отнести концепт (при мощи жадного алгоритма). Каждый кластер представляет собой модель, которая определенна в виде дерева Хаффмана. Оно постепенно строится, используя динамический алгоритм, который генерирует текущую строку и обновляет кластер. Алгоритм Хаффмана - адаптивный жадный алгоритм оптимального префиксного кодирования алфавита с минимальной избыточностью. В его основе лежит метод кодирования состоящий из двух основных этапов: построение оптимального кодового дерева и построение отображения код-символ на основе построенного дерева.

Чтобы решить будет ли строка добавлена в кластер, алгоритм использует оценочную функцию, меру компактности и однородности кластера. Оценочная функция - CCDiff - определяется, как разница длины выбранной строки, которая является членом кластера и длинной кластера, учитывая рассматриваемую строку (новую). Функция объединяет строки, имеющие тот же набор символов, что и строки в кластере (например: Pentium III и P III). OWL строка принадлежит к определенному кластеру, когда ее CCDiff имеет определенный порог, который меньше порога CCDiff всех существующих строк в кластере. Основываясь на экспериментах с использованием лексического метода, порог подобия ([0;1]) был установлен 0,986. Новый кластер создается, если не один из кандидатов (строк) не отнесен к существующим кластерам. Этот алгоритм можно использовать, даже при отсутствии начальных кластеров.

Наравне с вычислением лексического согласования пар, следует вычислять семантический морфизм (S - морфизм), который является технической основой структурного метода. Морфизм - отображения, сохраняющие групповую структуру. Бывает линейным и непрерывным. Непрерывное отображение или непрерывная функция - это такое отображение, у которого малые изменения аргумента приводят к малым изменениям значения отображения. Линейное отображение, линейный оператор - обобщение линейной числовой функции (точнее, функции y = kx) на случай общего множества аргументов и значений. Линейные операторы, в отличие от нелинейных, достаточно хорошо исследованы, что позволяет успешно применять результаты общей теории, как их свойства независимо от природы величин. Учитывая две онтологии, алгоритм вычисляет морфизм, каждой из онтологий и «скрытые, промежуточные» онтологии. Морфизм вычисляется с помощью метода LSI (скрытое семантическое индексирование) связывает концепты онтологий со значениями WordNet.

WordNet - это семантическая сеть для английского языка. Словарь состоит из 4 сетей для основных знаменательных частей речи: существительных, глаголов, прилагательных и наречий. Базовой словарной единицей в WordNet является не отдельное слово, а так называемый синонимический ряд («синсеты»), объединяющий слова со схожим значением и по сути своей являющимися узлами сети

Скрытое семантическое индексирование, точнее LSI - Latent Semantic Indexing - это особая методика, применяемая поисковыми системами для более точного распознавания нужных страниц для того или иного поискового запроса. Вся суть этого метода заключается в том, чтобы приблизить результаты машинного поиска к человеческому сознанию. Таким образом, с помощью скрытого семантического индексирования, результаты поиска получаются более осознанными, и в большей степени отвечают всем требованиям, вводимым в поисковом запросе. Этот метод проходит путем совмещения всех составляющих текста для того, чтобы, просканировав контент страницы, поисковая машина могла подобрать наиболее подходящие варианты, основываясь не только на наличии ключевых слов, но и на смысле текста.

Таким образом, если в обычной системе отбор происходит по наличию введенных в поисковый запрос слов, и результаты часто бывают далеки от того, что действительно хотел найти пользователь, то в системе, использующей метод скрытого семантического индексирования (LSI), поиск ведется по отбору смысловых частей, близких к введенным ключевым словам. Так машина выдает не просто страницы, где встречаются нужные слова, а где эти слова применяются с сохранением их смысла. Этот метод дает возможность увеличить точность и скорость поиска, позволяя найти необходимый вам сайт без лишних хлопот.

Также этот метод влияет и на качество контента, сопровождающего сайт. Теперь владельцы web-страниц заинтересованы в том, чтобы размещать у себя, как можно более полную и интересную информацию для посетителя. Скрытое семантическое индексирование - это будущее поисковой оптимизации, которое находит свое применение уже сегодня.

LSI - техника векторного пространства, изначально использовалась для информационного поиска и индексации (индексирования). Предполагается, что есть основные скрытые семантические пространства, которые вычисляются (или определяются) значением (или путем вычисления) статистического метода (алгоритма), использующего ассоциативную матрицу (mXn). Следует подчеркнуть, что LSI использует структурированную информацию онтологии и WordNet (это семантические ассоциации между метриками). Структурный подход не учитывает промежуточные онтологии, т.е. метод будет работать, только для тех онтологий, в которых сохранено отношение со значениями из WordNet. WordNet был использован, потому что это хорошо продуманный и широкодоступный лексический ресурс с большим количеством записей и семантических отношений.

Отображения вычисляется на основе лексического и семантического согласования методов, которые затем используются в качестве входных данных для простого структурного алгоритма согласования, в котором использованы близость сходств концепций и свойств. Здесь, концепции/свойства включают в себя только родственные объекты и категоризируемые категории. Согласования методов было реализовано для улучшения производительности лексического и семантического согласования методов за счет использования простых структурных особенностей. Рассмотрим согласования между двумя концептами C1 и C2 источник онтологии О1 и О2, соответственно эвристика: если хотя бы два соседа концептов C1 уже (лексически или семантически) отображается на двух соседних концептах c2, то отображения отношения онтологии аксиома включения и эквивалентности, то есть подкласс C1 был сопоставлен с подклассу С2, то C1 и C2 считают структурно согласованными. Следует заметить, что дальше в процессе выравнивания, AUTOMS использует расширенную структуру метода согласования, который работает итеративно используя отображения всех методов. Этот методов расширяет близости концепций, включая свойства объекта.

Четвертый метод последовательно использует экземпляры концептов (concept instances). В частности, для концептов, которые не были определены как похожие на любой другой концепт, AUTOMS сравнивает их экземпляры, если таковые имеются. Для тех пар концептов возможно отображение, где AUTOMS обнаруживает по крайней мере один согласованный экземпляр. Согласование концепции экземпляров в настоящее время основано на сходства их локальных имен, которыми является их Uniform Resource Identifier (URI).

Пятый метод использует информацию о свойствах. Для концептов, которые не были определены как похожие на любой другой концепт, AUTOMS сравнивает их свойства, если таковые имеются. Для тех, пар концептов, которые имеют по крайней мере два соответствующих свойства, AUTOMS определяет возможность отображения. Согласование свойств объектов на основе сходства их имен свойств, а также на сходство их область определения и область распространения. Последним шагом в процессе выравнивания является выполнение расширенной структуры (enhanced) итерационного метода согласования. Этот метод использует предлагаемые совпадающие пары от всех предыдущих методов для вычисления отображения на основе расширенной близости концептов (enhanced vicinity): расширение близости концепта включает в себя все концепты, родственные с ним. Этот метод работает итеративно 2 раза, обновляя перечень предложенных совпавших пар с парами обнаруженными в каждой итерации. Было отмечено, во время тестов конкретных экспериментов, где хотя и новые отображения обнаружены в каждой итерации, нет никаких изменений в множестве отображений после второго выполнения. Дальнейшие эксперименты и исследования необходимы для улучшения этого метода.

4.6 Апробация интегрированного подхода к отображению онтологий

Для тестирования выбранных алгоритмов, в рамках данной работы, были спроектированы две не сложные онтологии в предметной области: женская одежда (рис. 4.5 - 4.6). Суперкласс у обеих имеет имя - Thing, главный класс называется - женская одежда. В первой онтологии класс делится на верхнюю и нижнюю одежду, которая включает в себя кофты, брюки, юбки, куртки.

Рисунок 4.5 - Тестовая онтология №1

Во второй класс делится на подклассы: повседневная одежда, одежда для бизнеса, вечерняя и спортивная. Которая, в свою очередь, подразделяется по категориям названий одежды.

Рисунок 4.6 - Тестовая онтология №2

Предлагаемый интегрированный подход к проблеме отображения онтологий, который учитывает сложность предметной области и сравниваемых онтологий.

Для простых онтологий характеризуемых хорошо структурированной предметной областью, предлагается использовать алгоритм QOM, а для слабо структурированных и сложно формализованных - интегрированный алгоритм AUTOMS. Оба алгоритма построили онтологии, но с разной точностью. Полученные результаты позволяют сделать вывод о том, что для достижения большей точности отображения онтологий в слабо структурированных и сложно формализуемых предметных областях, целесообразно использовать подход на основе унифицированной модели, которая включает в себя декларативные описания основных понятий характеризующих определенную предметную область. Унифицированный «взгляд» разработчиков на решаемую проблему.

ВЫВОДЫ

В данной магистерской работе был проведен анализ предметной области, сравнительный анализ инструментов создания и редактирования, отображения и объединения онтологий, детальный анализ подходов к отображению онтологий, выявлены основные методы и алгоритмы построения отображений. Большинство из рассмотренных инструментальных средств разрабатываются университетскими исследовательскими группами, которые предоставляют открытый код, либо предлагают свободный доступ к функциям. Наиболее перспективные из них передаются коммерческим компаниям (например, OntoEdit Professional - лицензированный продукт).

В результате анализа основных подходов к проблеме отображения онтологий, получены данные, свидетельствующие о том, что на сегодняшний день не существует автоматических методов отображения онтологий. Во всех известных проектах, включающих задачу отображения онтологий, обязательно присутствует участие эксперта или группы экспертов, специалистов в исследуемой предметной области, которые координируют связи между концептами сравниваемых онтологий. Таким образом, все предлагаемые походы являются полуавтоматическими.

В рамках исследуемой работы предложен интегрированный подход к проблеме отображения онтологий, который учитывает сложность предметной области и сравниваемых онтологий. Для простых онтологий характеризуемых хорошо структурированной предметной областью, предлагается использовать алгоритм QOM, а для слабо структурированных и сложно формализованных - интегрированный алгоритм AUTOMS.

Рассмотрены основные методы в алгоритме AUTOMS, эффективность двух подходов, была показана на 2х тестовых онтологиях. Полученные результаты позволяют сделать вывод о том, что для достижения большей точности отображения онтологий в слабо структурированных и сложно формализуемых предметных областях, целесообразно использовать подход на основе унифицированной модели, которая включает в себя декларативные описания основных понятий характеризующих определенную предметную область. Унифицированный «взгляд» разработчиков на решаемую проблему («сверху», «снизу», «сбоку»).

Такая декларативная модель позволила бы разработчикам придерживаться единого взгляда на проблему и соответственно строить онтологии предметных областей максимально похожими друг на друга.

ПЕРЕЧЕНЬ ИСПОЛЬЗОВАННЫХ ИСТОЧНИКОВ

1. Doan, A.H., J. Madhavan, P. Domingos, A. Halevy: Learning to Map between Ontologies on the Semantic Web. WWW 2002

2. J. Euzenat, D. Loup, M. Touzani, P. Valtchev. Ontology Alignment with OLA. Proc. of the 3rd EON Workshop, 3rd Intl. Semantic Web Conference, Hiroshima, 2004

3. J. Euzenat, P. Shvaiko. Ontology Matching. Springer-Verlag, New York, 2007

4. S. M. Falconer, N. F. Noy, M.-A. Storey. Towards Understanding the Needs of Cognitive Support for Ontology Mapping. International Workshop on Ontology Matching, Athens, 2006

5. F. Giunchiglia, P. Shvaiko, and M. Yatskevich:. Semantic Schema Matching. In Proc. of CoopIS'05, volume 3760 of LNCS, pages 347-360, 2005

6. Guarino, N. and Welty, C. (2004), ``An overview of OntoClean'', in Staab, S. and Studer, R. (Eds), Handbook on Ontologies, Springer, Berlin, pp. 151-72

7. I. Horrocks, U. Sattler, S. Tobies. Practical reasoning for very expressive description logics. Logic Journal of IGPL, 8(3), 2000

8. L. Kalinichenko, M. Missikoff, F. Schiappelli, N. Skvortsov. Ontological Modeling. RCDL'2003. St.-Petersburg, 2003

9. J. Madhavan, P. A. Bernstein, E. Rahm. Generic Schema Matching with Cupid. In Proc. of the 27th Conference on Very Large Databases, 2001

10. N. Noy, M. Musen. The PROMPT Suite: Interactive Tools For Ontology Merging And Mapping. Stanford Medical Informatics, Stanford University, 2003

11. P. Shvaiko & J. Euzenat. Schema and ontology matching. Tutorial. ESWC'05, 2005

12. G. Stumme, A. Medche. FCA-Merge: Bottom-up merging of ontologies. IJCAI'01, Seattle, WA, 2000

13. J. Tang, J. Li, B. Liang, X. Huang, Y. Li, and K. Wang. Using Bayesian Decision for Ontology Mapping. Journal of Web Semantics, Vol(4) 4:243-262, 2006

14. S. Zghal, S. Ben Yahia, E Mephu Nguifo, Y. Slimani. SODA: an OWL-DL based ontology matching system In Proceedings of the first French Conference on Ontology (JFO 2007), Sousse, 2007

15. М. Р. Когаловский, Л. А. Калиниченко. Концептуальное моделирование в технологиях баз данных и онтологические модели. Симпозиум «Онтологическое моделирование», Звенигород, М: ИПИ РАН, 2008

16. Кудрявцев Д. В. Практические методы отображения и интеграции онтологий. Семинар Знания и онтологии *Elsewhere*, КИИ-2008, Дубна, 2008 104 Nikolay Skvortsov

17. Н. А. Скворцов. Использование системы интерактивного доказательства для отображения онтологий. RCDL'2006, Суздаль. - Ярославль: Ярославский государственный университет им. П. Г. Демидова, 2006. - С. 65-69.

18. Н. А. Скворцов. Вопросы согласования онтологических моделей и онтологических контекстов. Симпозиум «Онтологическое моделирование», М: ИПИ РАН, 2008

19. Н. А. Скворцов, С. А. Ступников. Использование онтологии верхнего уровня для отображения информационных моделей. RCDL'2008, Дубна: ОИЯИ, 2008 - С. 122-127

20. DOLCE: a Descriptive Ontology for Linguistic and Cognitive Engineering. http://www.loa-cnr.it/DOLCE.html

21. NeOn Glossary of Activities. Neon Project, 2007

Размещено на Allbest.ru


Подобные документы

  • Система классов и свойств языка RDFS. Реификация или материализация утверждений. Возможности RDF, RDF Schema в представлении онтологий. Способы представления RDF-описаний. Структура и базовые элементы OWL-онтологии. Языки запросов к RDF-хранилищам.

    презентация [312,1 K], добавлен 01.09.2013

  • Оценка качества поисковых систем. Индексирование по ключевым словам. Внутренние представления запросов и документов на информационно-поисковом языке. Способы улучшения поиска при помощи тезаурусов и онтологий. Ранжированный поиск (vector-space model).

    лекция [31,5 K], добавлен 19.10.2013

  • Проблема выбора товара в Интернете. Типы и свойства онтологий как части концепции Semantic Web. Разработка web-приложения для выбора музыкального инструмента: создание иерархии онтологий для предметной области "Гитара", формирование SPARQL-запроса.

    дипломная работа [2,2 M], добавлен 20.04.2012

  • Тезаурус для автоматического концептуального индексирования как особый вид тезауруса. Подходы к описанию отношений при разработке онтологий. Родовидовое отношение выше-ниже. Семантическое смещение. Формальная онтология. Сравнение поисковых механизмов.

    презентация [721,9 K], добавлен 19.10.2013

  • Формализации в онтологии областей знаний с помощью концептуальной схемы. Определение атрибутов класса и свойств экземпляров. Создание экземпляров класса и DL-Query запросов. Методика использования для разработки онтологии среды разработки Protege.

    курсовая работа [2,0 M], добавлен 18.06.2014

  • Разработка web-сервиса как услуги, предоставляемой пользователю. Продажа товара (автомобилей) в Интернете, проблема выбора. Онтологии как часть концепции Semantic Web. Применение онтологий, их основные типы и свойства. Особенности реализации онтологии.

    курсовая работа [57,4 K], добавлен 17.04.2012

  • Язык запросов SPARQL. Система классов и свойств языка RDFS. Интенсионал и экстенсионал. Парадокс Рассела. Списки, коллекции и контейнеры ресурсов, текстовые комментарии для создания удобных для чтения примечаний. Утверждение об авторстве утверждения.

    презентация [355,8 K], добавлен 19.10.2013

  • Построение баз знаний для семантической сети. Цели создания и язык представления онтологий. Структура исследований в области многоагентных интеллектуальных информационных систем, архитектура агента. Экономическое обоснование разработки базы знаний.

    дипломная работа [1,6 M], добавлен 29.09.2013

  • Построение онтологии предметной области для анализа глобальных процессов на основе информации, получаемой из новостных лент. Средства разработки онтологий, используемых для поиска событий, фактов, извлечённых из СМИ; моделирование экономических рисков.

    курсовая работа [3,4 M], добавлен 27.08.2017

  • Обзор существующих методов межпроцедурного анализа. Получение входных и выходных данных подпрограмм с помощью графа алгоритма. Описание входных и выходных данных подпрограммы в терминах фактических параметров. Определение параллелизма по графу алгоритма.

    учебное пособие [77,5 K], добавлен 28.06.2009

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.