Диплом, курсовая, контрольная работа
Помощь в написании студенческих работ

Классификация образов на основе решетки множества кортежей данных

ДиссертацияПомощь в написанииУзнать стоимостьмоей работы

Статистические методы классификации — одна из первых идей для решения задач классификации и распознавания образов. Подобные методы весьма эффективны при решении задач, где объекты классификации характеризуются ограниченной степенью изменчивости. В основе таких методов лежит анализ различных коэффициентов сходства и метрик, определяющих близость объектов в анализируемом ограниченном пространстве… Читать ещё >

Содержание

  • 1. АНАЛИЗ МЕТОДОВ КЛАССИФИКАЦИИ
    • 1. 1. Анализ методов распознавания образов
    • 1. 2. Методы дискретной классификации
    • 1. 3. Критерии оценки качества алгоритмов распознавания

Классификация образов на основе решетки множества кортежей данных (реферат, курсовая, диплом, контрольная)

Актуальность работы. Быстрое развитие вычислительной техники в последние десятилетия привело к ее широкому внедрению почти во все сферы жизнедеятельности человека. Вследствие этого значительно выросли объемы информационных ресурсов в различных отраслях науки и техники, причем все более остро встают проблемы быстрого поиска, анализа и обработки накопленных объемов информации как задач классификации и распознавания образов.

Статистические методы классификации — одна из первых идей для решения задач классификации и распознавания образов [1−15]. Подобные методы весьма эффективны при решении задач, где объекты классификации характеризуются ограниченной степенью изменчивости. В основе таких методов лежит анализ различных коэффициентов сходства и метрик, определяющих близость объектов в анализируемом ограниченном пространстве признаков. Выбор этих параметров зависит от самого пространства, в котором расположены объекты, и неявных характеристик отдельных групп данных. Большинство из таких методов уже хорошо изучены и с трудом поддаются дальнейшему совершенствованию. Различные статистические системы классификации зачастую включают в себя давно разработанные алгоритмы, которые были созданы в предыдущие десятилетия. Исходные данные во многих современных задачах не дают возможности оценить вероятностные характеристики с необходимым уровнем, который позволил бы статистическому алгоритму достаточно точно классифицировать объекты. Вследствие этого подобными методами сложно проводить быстрый и эффективный анализ, так как в реальных современных задачах анализа и обработки информации каждый объект анализа имеет, как правило, сложное описание и может быть представлен десятками, а иногда сотнями и тысячами различных данных. Возникает проблема поиска и разработки более эффективных инструментов анализа больших объемов накопленной информации.

Для увеличения скорости и повышения качества анализа и классификации информационных ресурсов в настоящее время применяют дискретные методы, основанные на использовании результатов и идей дискретного анализа. Аппарат и методы дискретной математики обладают рядом преимуществ и позволяют, например, получить результат при отсутствии сведений о функциях распределения и при наличии малых обучающих выборок. К дискретным методам классификации относятся, например, алгебраический подход, методы комбинаторного анализа структуры пространств описаний и др. Вопросы создания и разработки дискретных методов анализа информации нашли свое отражение в работах российских ученых, Ю. И. Журавлева, К. В. Рудакова, К. В. Воронцова, Е. В. Дюковой, Н. Г. Федотова, В. Б. Лебедева и других. Известны также работы зарубежных ученых по обучающимся алгоритмам распознавания Герберта Симона (Herbert Simon), Т. М. Митчелла (Т.М. Mitchell), Р. Куинлена (R. Quinlan).

В частности, в работах Ю. И. Журавлева рассматривается универсальная схема построения оптимальных алгоритмов распознавания, основанная на применении методов алгебры [16,17]. Данные методы получили дальнейшее развитие в работах К. В. Рудакова и К. В. Воронцова [18−21]. Однако эти методы не обеспечивают ни создания некоторой универсальной модели, ни формализации процесса выбора модели для решения конкретной задачи. Попытки расширить область применения приводят к необходимости использования значительного объема априорной информации, которую можно получить, имея лишь полную модель объекта. Применение методов, основанных на аппарате булевой алгебры, теории дизъюнктивных нормальных форм, теории покрытий булевых и целочисленных матриц Е. В. Дюковой [22−25] оказывается сложным в силу чисто вычислительных трудностей переборного характера на этапе поиска информативных фрагментов описаний объектов. Кроме того, на этапе обучения требуется дополнительная проверка качества полученных описаний с использованием простых эвристик. В работах В. Б. Лебедева и Н. Г. Федотова рассматривается подход, основанный на методах комбинаторно-упорядоченного моделирования (КУМ) структур данных, использующих методы теории упорядоченных множеств и теории решеток [2630]. Работы Герберта Симона, Т. М. Митчелла, Р. Куинлена [31−34] связаны с обучаемыми алгоритмами распознавания, в частности с алгоритмами исключения кандидата, добавления и усиления повторяющихся элементов, а также деревьев решений. Здесь даже один неверно классифицированный объект может сделать алгоритм расходящимся, а ветвление идет в основном по атрибутам с большим числом значений. Кроме того, некоторые наборы данных с идентичными значениями приводят к различным результатам.

Многие вопросы дискретных методов классификации остаются нерешенными. В частности, задача выделения отдельных описаний признаков из всего множества классифицируемых объектов. Имеющиеся методы не позволяют в полной мере учесть взаимосвязи отдельных описаний признаков конкретного объекта. Кроме того, становится весьма затруднительным их использование в задачах большой размерности, с большим числом разнородных признаков.

Предлагаемый в работе алгоритм дискретной классификации является модификацией алгоритма, использующего методы КУМ, и основан на построении и анализе решеток кортежей признаковых данных. Подобная модификация алгоритма позволяет более точно структурировать классифицируемую информацию еще на этапе обучения алгоритма классификации и тем самым сохранить взаимосвязи отдельных признаков. Классификация ведется по отдельным элементарным классификаторам, которые с высокой точностью классифицируют объект на всем исследуемом множестве признаков. Предлагаемая модификация позволяет также значительно увеличить производительность алгоритмов «классификации.

Результаты исследования позволили разработать алгоритм дискретной классификации на основе модификации методов КУМ и его программную реализацию. Рассмотрены вопросы выполнения параллельных вычислений для реализации разработанного алгоритма.

Необходимо отметить, что разработанный алгоритм может применяться для решения задач классификации и структурирования набора дискретных данных различного типа.

Объект исследования — методы и средства классификации данных в задаче распознавания образов.

Предмет исследования — методы и средства классификации данных на основе методов комбинаторно-упорядоченного моделирования, использующих представления в виде решеток кортежей данных.

Целью диссертационной работы является разработка и обоснование алгоритма дискретной классификации объектов распознавания на основе методов комбинаторно-упорядоченного моделирования путем построения и анализа решеток кортежей признаковых данных.

Для достижения поставленной цели решены следующие задачи:

— выполнено представление классифицируемой информации в виде решетки кортежей данных с использованием методов комбинаторно-упорядоченного моделирования;

— создан алгоритм дискретной классификации на основе методов комбинаторно-упорядоченного моделирования, использующий решетку кортежей данных и позволяющий более адекватно структурировать обучающую информацию с сохранением взаимосвязей признаков;

— разработаны программные средства дискретной классификации и визуализации результатов на основе выбранной модели решетки кортежей данныхпроведено сокращение времени поиска элементарных классификаторов при выполнении процедуры обучении разработанном алгоритмеэкспериментально исследована эффективность классификации образов с помощью разработанного алгоритмавыполнено повышение эффективности вычислений путем их распараллеливания в разработанном алгоритме дискретной классификации.

Методы исследования. При решении поставленных задач использовались методы теории классификации образов, дискретной математики, математический аппарат теории решеток, методы распределенных вычислений.

Научная новизна работы заключается в следующем:

1. Предложена математическая модель дискретной классификации образов на основе метода комбинаторно-упорядоченного моделирования, использующая решетки кортежей данных и позволяющая более адекватно структурировать обучающую информацию с сохранением взаимосвязей признаков, что повышает эффективность распознавания.

2. Разработан алгоритм дискретной классификации, основанный на построении и анализе решетки кортежей данных и позволяющий повысить эффективность классификации образов.

3. Предложен способ организации вычислений для выполнения операции комбинаторного попарного пересечения множества кортежей в разработанном алгоритме дискретной классификации, что позволяет сократить общее время поиска элементарных классификаторов при обучении.

4. Разработан и обоснован параллельный способ реализации алгоритма дискретной классификации на основе решетки кортежей данных, что позволяет повысить эффективность вычислений в алгоритме при сохранении точности классификации.

Практическая значимость работы состоит в создании новых, более эффективных алгоритмов дискретной классификации, позволяющих увеличить точность классификации и производительность вычислений. В работе получены следующие практические результаты:

1. Разработан алгоритм дискретной классификации с применением решетки множества кортежей данных, основанный на модификации алгоритма, использующего методы комбинаторно-упорядоченного моделирования.

2. Разработана и исследована программная реализация предложенного алгоритма дискретной классификации, основанная на методе комбинаторноупорядоченного моделирования с использованием кортежей одноэлементных множеств, которая позволяет автоматизировать процесс обучения (поиска элементарных классификаторов), а также автоматизировать процесс построения структуры обучающей информации в виде решетки.

Реализация и внедрение результатов. Основные результаты диссертационной работы использованы при выполнении проекта № 06−07−89 167 «Система интеллектуализации анализа и поиска биометрической информации в базе данных с помощью методов стохастической геометрии» по гранту Российского фонда фундаментальных исследований (РФФИ) в Пензенском государственном университете и внедрены в разработках ЗАО «Пензенская телефонная компания» (г. Пенза) (приложение В). В частности результаты использованы при разработке системы автоматизированного биллинга услуг связи, предназначенной для учета объема потребляемых абонентами услуг, расчета и списания денежных средств в соответствии с тарифами. Данное внедрение позволило повысить эффективность сбора и обработки информации о потребляемых абонентами услугах с целью определения более перспективных направлений развития предоставляемых услуг.

Достоверность результатов работы обоснована строгой аргументацией базовых положений, корректным использованием математического аппарата, проведением и сопоставительным анализом теоретических и экспериментальных исследований.

Апробация работы. Основные положения диссертационной работы докладывались и обсуждались на следующих конференциях:

— VII, VIII Международных научно-технических конференциях «Новые информационные технологии и системы» (г. Пенза, 2006, 2008 г. г.);

— VII, VIII, IX Международных научно-технических конференциях «Современные технологии документооборота в бизнесе, производстве и управлении» (г. Пенза, 2007;2009 г. г.);

— XI, XII, XIII Международных научно-методических конференциях «Университетское образование» (г. Пенза, 2007;2009 г.);

— IV, V Всероссийских научно-технических конференциях «Современные методы и средства обработки пространственно-временных сигналов» (г. Пенза, 2006, 2007 г.);

— I Международной научно-методической конференции молодых специалистов, аспирантов и студентов «Математическое и компьютерное моделирование естественнонаучных и социальных проблем» (г. Пенза, 2007 г.);

— VII Всероссийской научно-технической конференции «Проблемы информатики в образовании, управлении, экономике и технике» (г. Пенза, 2007 г.);

— Международной научно-практической конференции «Перспективы развития систем среднего и высшего профессионального образования в современном обществе» (г. Пенза, 2008 г.);

— XVIII, XIX, XX Всероссийских научно-технических конференциях профессорско-преподавательского состава и студентов (г. Пенза, 2007;2009 г. г.).

Публикации. По теме диссертации самостоятельно и в соавторстве опубликованы 18 печатных работ, в том числе статей 14 (одна работа опубликована в издании, рекомендованном ВАК).

Структура и объем работы. Диссертационная работа состоит из введения, четырех разделов, заключения, приложений и списка литературы из 134 наименований. Работа содержит 122 страницы основного текста, 29 рисунков и 11 таблиц.

ОСНОВНЫЕ РЕЗУЛЬТАТЫ РАБОТЫ.

В ходе теоретических и экспериментальных исследований, выполненных в диссертационной работе, получены следующие научные и практические результаты:

1. Разработана модель представления классифицируемой информации в виде решетки кортежей данных, которая позволяет повысить эффективность процедуры выделения минимальных элементарных классификаторов.

2. Разработан алгоритм, позволяющий применить методы комбинаторно-упорядоченного моделирования для дискретной классификации образов с использованием решетки кортежей одноэлементных множеств данных, что способствует более адекватному структурированию обучающей информации с сохранением взаимосвязей признаков.

3. Разработана программная реализация алгоритма дискретной классификации на основе выбранной модели решетки кортежей данных, обеспечивающая визуализацию результатов.

4. Разработана модификация алгоритма дискретной классификации на основе решетки кортежей одноэлементных множеств данных, которая позволяет сократить время поиска минимальных элементарных классификаторов по сравнению с базовым алгоритмом на 10−80% в зависимости от структуры обучающей и информации.

5. Проведены исследования разработанного алгоритма дискретной классификации, использующего методы комбинаторно-упорядоченного моделирования. Исследования показали, что разработанный алгоритм по сравнению с другими, известными алгоритмами, имеет лучшие значения вероятностей ошибок распознавания, обладает лучшей чувствительностью и специфичностью.

6. Разработан и обоснован способ параллельной обработки информации в модифицированном алгоритме дискретной классификации на основе методов комбинаторно-упорядоченного моделирования, который позволяет увеличить производительность выполнения процедуры поиска элементарных классификаторов более, чем в 1,7 раза в зависимости от числа вычислительных процессов.

Показать весь текст

Список литературы

  1. Ту Дж. Принципы распознавания образов Щж. Ту, Р. ГонсалесП Пер. с англ. И. Б. Гуревича, под ред. Ю. И. Журавлева. М.: Мир, 1978. — 411 с.
  2. У. Лекции по теории образов /У. ГренандерП Пер. с англ. И. Б. Гуревича, под ред. И. Ю. Журавлева. М.: Мир, 1979−1983. Т. 1−3.
  3. А.Г. Об одном подходе к задаче классификации / А.Г. Бухо-вецП Институт социологии РАН. URL: http://www.isras.ru/files/File/4M/18/Buhovec.pdf (дата обращения: 29.07.09).
  4. Д.А. Искусственный интеллект /Д.А. Поспелов// Модели и методы: Справочник. — М.: Радио и связь, 1990. — Т.2. — 304 с.
  5. К.В. Классификация, кластеризация, регрессия, многомерное шкалирование /К.В. Воронцов// Лекции по метрическим алгоритмам: электронный ресурс ВЦ РАН. 2006. URL: http://www.ccas.ru/voron/download/MetricAlgs.pdf (дата обращения: 30.07.09).
  6. Е. Алгоритмы кластеризации /Е. ГиршовИ Библиотека попечительского совета мех.-мат. факультета МГУ. 2006. URL: http://lib.mexrnat.ru/books/13 811 (дата обращения: 30.07.09).
  7. Методы кластерного анализа. Итеративные методы // Интернет-университет информационных технологий. URL: http://www.intait.ra/department/database/datamining/14/date (датаобращения: 30.07.09).
  8. Anil К. Jain. Statistical pattern Recognition: A Review / Anil K. Jain, Duin Robert P. W., Mao Jianchang II IEEE Transactions on pattern analysis and machine intelligence. 2000. — No.l. — Vol. 22.
  9. Fraley Chris. Model-Based Clustering, Discriminant Analysis, and Density Estimation /Fraley Chris., E. Raftery Adrian// Journal of the American Statistical Association. 2002.-No. 458.-Vol. 97.-P. 611−631(21).
  10. B.H., Соловьев В. И. Введение в многомерный статистический анализ /В.Н. Калинина, В.И. Соловьев// Учеб. пособие для вузов. — М.: ГОУВПО ГУУ, 2003 г. С. 6−16.
  11. Daniel Fasulo. An Analysis of resent Work on Clustering Algoritms /Daniel Fasulo// Technical report. Department of Computer Science & Engineering university of Washington. 1999. — P. 2 -13.
  12. Ю. И. Об алгебраическом подходе к решению задач распознавания или классификации НО. И. Журавлев// Проблемы кибернетики. — М.: Наука, 1978. Т. 33. — С. 5−68.
  13. Ю. И. Об алгебраических методах в задачах распознавания и классификации /Ю. И. Журавлев/7 Распознавание, классификация, прогноз. Математические методы и их применение. М.: Наука, 1988.- Т. 1.— С. 9−16.
  14. К.В. Оптимизационные методы линейной и монотонной коррекции в алгебраическом подходе к проблеме распознавания /К.В. Воронцов// ЖВМ и МФ. 2000. — Т. 40, № 1. — С. 166−176.
  15. К.В. Алгебраический подход к проблеме синтеза обучаемых алгоритмов выделения трендов /К.В. Рудаков, Ю.В. ЧеховичИ Доклады РАН. 2003. — Т. 388, № 1. — С. 33−36.
  16. К.В. Критерии полноты моделей алгоритмов и семейств решающих правил для задач классификации с теоретико-множественными ограничениями /К.В. Рудаков, Ю.В. ЧеховичИ Доклады РАН. — 2004. — Т. 394, № 4.
  17. К.В. О некоторых универсальных ограничениях для алгоритмов классификации /КВ. Воронцов// ЖВМ и МФ. м 1986. — Т. 26, № 11.— С. 1719−1730.
  18. Е.В. Дискретные (логические) процедуры распознавания: принципы конструирования, сложность реализации и основные модели. /Е.В. Дюкова/У Учеб. пособие. М.: Прометей, 2003. — 29 с.
  19. Е.В. Поиск информативных фрагментов описаний объектов в дискретных процедурах распознавания /Е.В. Дюкова, Н.В. Песков/7 ЖВМ и МФ. 2002. — Т. 42, № 5. — С. 741−753.
  20. Е.В. Построение распознающих процедур на базе элементарных классификаторов /Е.В. Дюкова, Н.В. Песков// Математические вопросы кибернетики: под ред. О. Б. Лупанов. — М.: Физматлит, 2005. — Т. 14.
  21. Е.В. О процедурах классификации, основанных на построении покрытий классов /Е.В. Дюкова, А. С. ИнякинИ ЖВМ и МФ. — 2003. — Т.43. № 12. — С. 1884 — 1895.
  22. В.Б. Структурный анализ систем управления /В.Б. Лебедев/7 Учеб. пособие. Пенза: ПГУ, 2000. — 100 с.
  23. В.Б. Технология ассоциации данных методом комбинаторно-упорядоченного моделирования IB.Б. Лебедев/7 Новые информационные технологии и системы: труды VI Междунар. науч.-техн. конф. —4.1. Пенза: ПГУ, 2004.-С. 249−253.
  24. В.Б. Поиск ассоциаций данных методом комбинаторно-упорядоченного моделирования /В.Б. Лебедев, М.О. Богданов// Вычислительные системы и технологии обработки информации: межвуз. сб. науч. трудов Вып. З (29) — Пенза: ПГУ, 2005. — С. 115 — 120.
  25. Н.Г. Теория признаков распознавания образов на основе стохастической геометрии и функционального анализа. — М.: ФИЗМАЛИТ, 2009.-304 с.
  26. Mitchell Т.М. Generalization as search /Т.М. Mitchell!7 Artificial Intelligence. 1982. — No. 18(2). — P. 203−226.
  27. Induction of decision trees /J.R. QuinlanH Machine Learning. 1986. -No. 1(1).-P. 81−106.
  28. Quinlan J.R. C4.5: Programs for machine learning /J.R. QuinlanH San Francisco: Morgan Kaufmann. 1993. — V. 302.
  29. Quinlan J.R. Bagging. Boosting and CN4.5 /J.R. QuinlanH In Proceedings of the 13th National Conference on Artificial Intelligence (AAAI96). Menlo Park: AAAI Press, 1996. -P.725−730.
  30. K.B. Лекции по статистическим (байесовским) алгоритмам классификации /КВ. Воронцов// ВЦ РАН, Москва. URL: http://www.ccas.ru/voron/download/Bayes.pdf (дата обращения: 29.07.09).
  31. Д. С. Рандомизированный алгоритм стохастической аппроксимации в задаче распознавания отдельных слов речи /Д.С. Шалымов// С.-Петербург Гос. Университет. URL: http://www.math.spbu.ru/user/gran/sb2/shalymov.pdf (дата обращения: 29.07.09).
  32. Е.В. Методы стохастической аппроксимации в задачах кластерного анализа /Е.В. Бауман, А.А. ДорофеюкП Математические методы распознавания образов (ММРО-11): Сборник докладов 11-й Всероссийской конференции. -М.: «Регион-Холдинг», 2003. С.16−18.
  33. Дюк В. Data Mining состояние проблемы, новые решения /В. Дюк //С.-Петербург. инстит. информат. и автоматиз. РАН. URL: http://freelance4.narod.ru/DM.htm (дата обращения: 29.07.09).
  34. М.Н. Алгоритм обучения распознаванию образов «Кора» /М.Н. Вайнцвайг// Алгоритмы обучения распознаванию образов. — М.: Сов. радио, 1973. С. 8−12.
  35. Системы распознавания образов (идентификации). Геометрический и структурный подходы // Интернет-Университет Информационных Технологий. URL: http://www.intuit.rU/department/expert/artintell/3/2.html (дата обращения: 29.07.09).
  36. Richard W. Hamming. Error-detecting and error-correcting codes /Richard W. Hamming// Bell System Technical Journal. 1950. No. — 29(2). — P. 147 160.
  37. H. Алгоритмы кластеризации на службе Data Mining /Н. ПаклинИ Лаборатория BaseGroup «Технологии анализа данных». URL: http://www.basegroup.ru/library/analysis/clusterization/datamining/ (дата обращения: 29.07.09).
  38. Обобщенные методы кластерного анализа. // SPC-consulting. StatSoft Russia. URL: http://www.spc-consulting.ru/DMS/introcl.htm (дата обращения: 29.07.09).
  39. Современное состояние в области практических методов распознавания, классификации и анализа данных. // Data Mining. URL: http://azfor.ucoz.ru/publ/3-l-0−4 (дата обращения: 09.08.09).
  40. Коллективы решающих правил. // CODENET. Все для программиста. URL: http://www.codenet.ru/progr/alg/ai/htm/gl39.php (дата обращения: 30.07.09).
  41. В.А. Нелинейные непараметрические коллективы решающих правил /В.А. Лапко, Р. В. Бадмаев, А.Н. Капустин// Вестник КрасГУ. «Физико-математические науки». — 2006. — № 4. — С. 102−108.
  42. Методы классификации и прогнозирования. Метод опорных векторов. // Интернет-Университет Информационных Технологий. — http://www.intuit.rU/department/database/datamining/l0/dataminingl0.html (дата обращения: 29.07.09).
  43. П.В. Интеллектуальные информационные системы в экономике /П.В. Романов// Учеб. пособие: под ред. д.э.н. проф. Н. П. Тихомирова. М.: «Экзамен». — 2003. — 496 с.
  44. М. Модифицированный древовидный алгоритм Байеса для решения задач классификации /М. Гончаров// Spellabs it.company. 2007. URL: http://www.spellabs.ru/download/AugmentedNaiveBayes.pdf (дата обращения: 29.07.09).
  45. КВ. Лекции по методу опорных векторов /К.В. Ворон-цов//ВЦ РАН, Москва. URL: http://www.ccas.ru/voron/download/SVM.pdf (дата обращения: 29.07.09).
  46. Dan Roth. The SNoW Learning Architecture /Dan Roth// Department of computer science and the Beckman institute. University of Illinois. URL: http://12r.cs.uiuc.edu/~danr/snow.html (дата обращения: 04.08.09).
  47. Sparse Network of Winnows method (SNoW). // Graphics and Media Lab Library. URL: http://library.graphicon.ru/pubbin/viewprop.pl?propid=223 (дата обращения: 04.08.09).
  48. Вежневец A. Boosting — усиление простых классификаторов /А. Вежневец, В. Вежневец// Компьютерная графика и мультимедиа: сетевой журн. URL: http://cgm.computergraphics.ru/content/view/112 (дата обращения: 30.07.09).
  49. Халафян A.A. Statistica 6. Статистический анализ данных: учебник для вузов, 3-е изд. М.: БИНОМ. — 2007. — 315 с.
  50. STATISTICA для Windows. Техническое описание. // StatSoft Russia. URL: http://www.statsoft.ru/home/Products/Statistica/details/default.htm (дата обращения: 30.07.09).
  51. STATGRAPHICS Centurion XV. // StatPoint Technologies, Inc.: сайт. URL: http://www.statgraphics.com (дата обращения: 30.07.09).
  52. Учись работать с SPSS // learnSPSS.ru: сайт. URL: http://www.learnspss.ru (дата обращения: 30.07.09).
  53. A.JI. Методы распознавания HA.JI. Горельник, В.А. СкрипкинИ Учеб. пособие для вузов. М.: Высшая школа, 1977. — 222 с.
  54. Simon H.A. Why should machines learn /Н.А. Simon// In Michalski et al. С A: Tioga Press, 1983. — Chapter 2. — P.
  55. Люгер Джордж Ф. Искусственный интеллект: стратегии и методы решения сложных проблем, 4-е издание /Джордж Ф. ЛюгерИ Пер. с англ. — М.: «Вильяме», 2003. 864 с.
  56. Ю. И. Распознавание образов и распознавание изображений НО. И. Журавлев, И.Б. ГуревичИ Распознавание, классификация, прогноз. Математические методы и их применение. — М.: Наука, 1989. — Т. 2. — С. 5— 73.
  57. Ю. И. Об алгебраической коррекции процедур обработки (преобразования) информации /Ю. И. Журавлев, К.В. Рудаков// Проблемы прикладной математики и информатики. 1987. — С. 187−198.
  58. К.В. О симметрических и функциональных ограничениях для алгоритмов классификации /К.В. Рудаков// Доклад АН СССР. — 1987.— Т. 297, № 1.-С. 4346.
  59. К.В. Симметрические и функциональные ограничения в проблеме коррекции эвристических алгоритмов классификации /К.В. Рудаков И Кибернетика. 1987. — № 4. — С. 73−77.
  60. К.В. Универсальные и локальные ограничения в проблеме коррекции эвристических алгоритмов /КВ. Рудаков// Кибернетика. 1987. — № 2.-С. 30−35.
  61. К.В. Алгоритм синтеза корректных процедур распознавания для задач с непересекающимися классами /К.В. Рудаков, С.В. Трофимов/7 ЖВМ и МФ. 1988. — Т. 28, № 9. — С. 1431−1434.
  62. К.В. О применении универсальных ограничений при исследовании алгоритмов классификации /КВ. Рудаков/7 Кибернетика. -1988.-№ 1.-С. 1−5.
  63. К.В. О методах оптимизации и монотонной коррекции в алгебраическом подходе к проблеме распознавания /КВ. Рудаков, К. В. Воронцов И Доклады РАН. 1999. — Т. 367, № з. с. 314−317.
  64. Е.В. Дискретный анализ признаковых описаний в задачах распознавания большой размерности /Е.В. Дюкова, Ю.И. Журавлев/7 ЖВМ и МФ 2000. — Т.40. — № 8. — С. 1264 — 1278.
  65. Е.В. Дискретный анализ данных в задачах кластеризации /Е.В. Дюкова, А.С. ИнякинН Интеллектуализация обработки информации: тез. докладов междунар. науч. конф. — Симферополь: Крымский, науч. центр НАН Украины, 2006. С. 73−75.
  66. А.С. Алгоритмы поиска неприводимых покрытий булевых матриц /А.С. ИнякинН Сообщ. по прикладной мат. — М.: Вычислительный Центр им. А. А. Дородницына РАН, 2004. С. 3−22.
  67. Djukova E.V. Selection of typical objects in classes for recognition problems /Е. V. Djukova, N. V. PeskovH Pattern Recognition and Image Analysis. — 2002. No 3. — Vol. 12. — P. 243−249.
  68. E. В. Дискретные (логические) процедуры распознавания: принципы конструирования, сложность реализации и основные модели /Е.В. Дюкова/7 Приложение к учеб. пособию. М.: Прометей, 2003. — 16 с.
  69. Djukova E.V. Discrete recognition procedures: The complexity of realization /Е. V. Djukova!7 Pattern Recognition and Image Analysis. — 2003. — No. 1. — Vol. 13.-P. 8−10.
  70. Djukova E.V. Increasing the efficiency of combinatorial logical data analysis in recognition and classification problems IE.V. Djukova, A.S. Inyakin, N. V. PeskovH Pattern Recognition and Image Analysis. 2005. — No. 4. -Vol. 16.-P. 707−711.
  71. Е.В. О построении тупиковых покрытий булевых и целочисленных матриц /Е.В. Дюкова, А.С. ИнякинН Математические методы распознавания образов (ММРО-13): сбор, докладов 13-й Всероссийской конф. — М.: «МАКС Пресс», 2007. С.252−254.
  72. Е.В. О некоторых подходах к вычислению информативных характеристик обучающей выборки /Е.В. Дюкова, Н.В. Песков// Математические методы распознавания образов (ММРО-9): сбор, докладов 9-й Всероссийской конф. -М.: AJIEB-B, 1999. С. 181−183.
  73. В. Оценка качества работы классификаторов /В. Вежне-вец// Компьютерная графика и мультимедиа: сетевой журн. 2007. URL: http://www.cgm.computergraphics.rU/content/view/l 06 (дата обращения: 30.07.09).
  74. H. Логистическая регрессия и ROC-анализ математический аппарат /Н. Паклин// Лаборатория BaseGroup «Технологии анализа данных». URL: http://www.basegroup.ru/library/analysis/regression/logistic (дата обращения: 30.07.09).
  75. М. Комбинаторная теория. /М. АйгнерИ Пер. с англ. — М.: Мир, 1982.-558 с.
  76. В.А. Фундаментальные основы дискретной математики /В.А. Горбатое// Информационная математика. М.: Изд-во Наука. Физмат-лит, 2000. — 544с.
  77. Н. Конкретная теория групп /Н. Вавилов// С.-Петербургский гос. университет. Мат.-мех. факультет. URL: http://www.math.spbu.ru/user/valgebra/grou-book.pdf (дата обращения: 26.03.06).
  78. В.Е. Метод дискретной классификации /В.Б. Лебедев, В.Е. Минаев/'/ Новые информационные технологии и системы: труды VIII Междунар. науч.-техн. конф. 4.2. Пенза, ПТУ, 2008. — С. 113 — 118.
  79. В.Е. Построение изоморфных решеток в задаче дискретной классификации /В.Б. Лебедев, В.Е. Минаев// Университетское образование: сборник статей XII Междунар. науч.-метод. конф. Пенза: ПДЗ, 2008. — С. 247 — 249.
  80. В.Е. Классификация объектов распознавания методом комбинаторно-упорядоченного моделирования /В.Б. Лебедев, В.Е. Минаев// Ин-фокоммуникационные технологии, 2008. Т.6. — Специальный выпуск «Технологии безопасности и охраны». — С. 30 — 34.
  81. Т. Ассоциативные запоминающие устройства. — М.:Мир, 1982.-384 с.
  82. Т. Ассоциативная память. — М.:Мир, 1980. — 240 с.
  83. В.Е. О реализации алгоритма дискретной классификации /В.Е. Минаев! I Новые информационные технологии и системы: Труды VIII Междунар. науч.-техн. конф. 4.2. Пенза, ПТУ, 2008. — С. 118 — 122.
  84. В.Е. О способах распараллеливания алгоритма построения решетки с помощью оператора замыкания /В.Б. Лебедев, В. Е. Минаев! I Университетское образование: сб. ст. XI Междунар. науч.-метод. конф. — Пенза: ПДЗ, 2007.-С. 54−57.
  85. Flynn М. Very high-speed computing system /М. FlynnH Proc. IEEE. -1966.-No. 54.-P. 1901−1909.
  86. Flynn M. Some Computer Organisations and Their Effectiveness /М. FlynnH IEEE Trans. Computers. 1972. — No. 9. — Vol. 21. — P.948−960.
  87. B.B. Модели распределенных вычислений. -M.:ФИЗМАТЛИТ, 2004. 320с.
  88. А.С. Введения в параллельные вычисления /А.С. Антонов// Методическое пособие. М.: МГУ, 2002. — 69 с.
  89. Ed. R. Buyya. High performance cluster computing. V. 1. Architectures and systems. V. 2. Programming and applications. — New Jersey: Prentice Hall PTR, 1999.
  90. C.A. Прикладная статистика: Классификация и снижение размерности: справочное издание /С.А. Айвазян, В. М. Бухштабер, И.С. Ето-ковН Под ред. С. А. Айвазяна. М.: Финансы и статистика, 1989. — С. 608.
  91. ЧакчирС.Я. Свой или «чужой»? 1С. Я. Чакчир, А. А. БорейшоП Системы безопасности: журнал. 2006. — № 3. — С. 118−119.
  92. В.Е. Об эффективности классификации методом комбинаторно-упорядоченного моделирования /В.Б. Лебедев, В.Е. Минаев// Университетское образование: сборник статей XIII Междунар. методич. конф. — Пенза: ПДЗ, 2009. С. 404 — 406.
  93. Г. Б. Обработка экспериментальных данных на ЭВМ. Обработка одномерных данных /Г.Б. Ходасевич// Учеб. пособие. — URL: http://dvo.sut.ru/libr/opds/il30hodopartl/index.htm (дата обращения: 4.08.09).
  94. UCI Machine Learning Repository. // University of California. Irvin. URL: http://archive.ics.uci.edu/ml/about.html (дата обращения: 30.07.09).
  95. Mushroom Data Set. // UCI Machine Learning Repository. University of California. Irvin. URL: http://archive.ics.uci.edu/ml/datasets/Mushroom (дата обращения: 30.07.09).
  96. В.Е. Исследование метода дискретной классификации в задаче распознавания образов на основе решетки множества кортежей /В.Б.
  97. , В.Е. МинаевП Проблемы информатики в образовании, управлении, экономике и технике: сборник статей VII Всероссийск. науч.-техн. конф. — Пенза: ПДЗ, 2007. С. 18 — 21.
  98. В.Е. Исследование метода дискретной классификации на основе изоморфных решеток /В.Е. Минаев// Университетское образование: сборник статей XII Междунар. науч.-метод. конф. — Пенза: ПДЗ, 2008. С. 250−252.
  99. Weka 3: Data Mining Software in Java. // WEKA. The University of Waikato. URL: http://www.cs.waikato.ac.nz/ml/weka/ (дата обращения: 30.07.09).
  100. Aha D. «Instance-based learning algorithms» ID. Aha, D. Kibler // Machine Learning. 1991.-Vol.6.-P. 37−66.
  101. George H. Estimating Continuous Distributions in Bayesian Classifiers /Н. George, P. LangleyH Proceedings of the Eleventh Conference on Uncertainty in Artificial Intelligence. San Mateo: Morgan Kaufmann. — 1995. P. 338−345.
  102. Freund Y. The alternating decision tree learning algorithm /Y. Freund, L. Mason// Proceeding of the Sixteenth International Conference on Machine Learning. 1999. Bled, Slovenia. — P. 124−133.
  103. Lievens S. A Probabilistic Framework for the Design of Instance-Based Supervised Ranking Algorithms in an Ordinal Setting IS. Lievens// Annals of Operations Research. -2008. V. 163. — P. 115−142.• 137 •
  104. И. Деревья решений — CART математический аппарат. Часть 2. /И. Андреев// Лаборатория BaseGroup «Технологии анализа данных». URL: http://www.basegroup.ru/library/analysis/tree/mathcartpart2/ (дата обращения: 30.07.09).
  105. Метод k-средних // Глоссарий: лаборатория BaseGroup «Технологии анализа данных». URL: http://www.basegroup.ru/glos-sary/definitions/kmeans/ (дата обращения: 30.07.09).
  106. Расстояние Евклида. Глоссарий: лаборатория BaseGroup «Технологии анализа данных». URL: http://www.basegroup.ru /glossary/definitions/euclid/ (дата обращения: 30.07.09).
  107. Расстояние Хемминга. Глоссарий: лаборатория BaseGroup «Технологии анализа данных». URL: http://www.basegroup.ru/glossary/definitions/hammingdistance/ (дата обращения: 30.07.09).
  108. Кирьянов Д.В. Mathcad 14. С.-Петербург: BHV, 2007. — 704 с.
  109. Среднее значение // Электронный статистический словарь: StatSoft Russia. URL: http://www.statsoft.ru/home/textbook/glossary/glosss.html. (дата обращения: 30.07.09).
  110. Стандартная ошибка среднего // Электронный статистический словарь: StatSoft Russia. URL: http://www.statsoft.ru/home /textbook/glossary/glosss.html (дата обращения: 30.07.09).
  111. Медиана // Электронный статистический словарь: StatSoft Russia. URL: http://www.statsoft.ru/home/textbook/glossary/glossm.html (дата обращения: 30.07.09).
  112. Стандартное отклонение // Электронный статистический словарь: StatSoft Russia. URL: http://www.statsoft.ru/home/textbook/glossary/glosss.html (дата обращения: 30.07.09).
  113. Корреляция // Электронный статистический словарь: StatSoft Russia. URL: http://www.statsoft.ru/home/textbook/glossary/glossk.html (дата обращения: 09.08.09).
Заполнить форму текущей работой