Диплом, курсовая, контрольная работа
Помощь в написании студенческих работ

Моделирование и сравнительный анализ процессов распознавания и классификации многомерных объектов пересекающихся классов на основе представлений теории нечетких множеств и нейросетевых технологий

ДиссертацияПомощь в написанииУзнать стоимостьмоей работы

В настоящее время значительные усилия исследователей в области искусственного интеллекта направлены на разработку методов решения задач классификации и распознавания объектов по плохо обусловленной исходной информации. Подобные задачи возникают при обработке зашумленных сигналов с датчиков технологических процессов, результатов социологических опросов, прогнозировании в геологии, диагностике… Читать ещё >

Содержание

  • ВВЕДЕНИЕ.,
  • 1. МОДЕЛИРОВАНИЕ ПРОЦЕССОВ КЛАССИФИКАЦИИ НА ОСНОВЕ НЕЙРОСЕТЕЙ С ПАРАДИГМОЙ ОБРАТНОГО РАСПРОСТРАНЕНИЯ ОШИБКИ
    • 1. 1. Обзор состояния современных исследований
      • 1. 1. 1. Классификация базовых нейроархитектур
      • 1. 1. 2. Многослойные персептроны с обратным распространением ошибки
        • 1. 1. 2. 1. Алгоритмы с обратным распространением ошибки
        • 1. 1. 2. 2. Модернизированные алгоритмы с обратным распространением ошибки
        • 1. 1. 2. 2. 1. Адаптивный алгоритм
        • 1. 1. 2. 2. 2. Множественный адаптивный алгоритм
        • 1. 1. 2. 2. 3. Алгоритм сопряженных градиентов
      • 1. 1. 3. Нейросети на основе радиальных базисных функций
        • 1. 1. 3. 1. Структура нейросети
        • 1. 1. 3. 2. Алгоритм обучения
      • 1. 1. 4. Полиномиальные нейросети
        • 1. 1. 4. 1. Структура нейросети
        • 1. 1. 4. 2. Алгоритм обучения
        • 1. 1. 4. 3. Критерий ошибки
    • 1. 2. Описание использованных моделей
      • 1. 2. 1. Специфика задач классификации
      • 1. 2. 2. Архитектура нейросетевых классификаторов
      • 1. 2. 3. Полигоны объектов исследования
    • 1. 3. Моделирование процессов классификации на основе нейросетей с парадигмой обратного распространения ошибки
      • 1. 3. 1. Влияние структуры нейросети
      • 1. 3. 2. Нейросети с парадигмой обратного распространения ошибки
      • 1. 3. 3. Нейросети с использованием адаптивного алгоритма
      • 1. 3. 4. Нейросети с использованием множественного адаптивного алгоритма
      • 1. 3. 5. Нейросети с использованием алгоритма сопряженных градиентов
      • 1. 3. 6. Влияние начального значения параметра Т] на результаты тестирования различных нейросетей
    • 1. 4. Выводы по главе 1
  • МОДЕЛИРОВАНИЕ ПРОЦЕССОВ РАСПОЗНАВАНИЯ И КЛАССИФИКАЦИИ МНОГОМЕРНЫХ ОБЪЕКТОВ ПЕРЕСЕКАЮЩИХСЯ КЛАССОВ НА ОСНОВЕ ПРЕДСТАВЛЕНИЙ ТЕОРИИ НЕЧЕТКИХ МНОЖЕСТВ
    • 2. 1. Общие положения теории нечетких множеств
    • 2. 2. Разработка системы распознавания и классификации многомерных объектов пересекающихся классов на основе представлений теории нечетких множеств
    • 2. 3. Полученные результаты и их обсуждение
    • 2. 4. Выводы по главе 2
  • МОДЕЛИРОВАНИЕ ПРОЦЕССОВ КЛАССИФИКАЦИИ НА
  • ОСНОВЕ СПЕЦИАЛИЗИРОВАННЫХ НЕЙРОСЕТЕЙ
    • 3. 1. Моделирование процессов классификации с помощью нейросетей, работающих на основе радиальных базисных функций
      • 3. 1. 1. Общие замечания
        • 3. 1. 2. 0. птимальная дисперсия базисных функций
      • 3. 1. 3. Оптимальное число базисных функций
      • 3. 1. 4. Определение центров базисных функций
    • 3. 2. Моделирование процессов классификации с помощью нейросетей работающих на основе метода группового учета данных
      • 3. 2. 1. Общие замечания
      • 3. 2. 2. Оценки ошибки функционирования полиномиальной нейросети
      • 3. 2. 3. Оценка дисперсии ошибки а2р
      • 3. 2. 4. Влияния сложности полиномиальной нейросети С
      • 3. 2. 5. Влияние числа слоев полиномиальной нейросети L
      • 3. 2. 6. Влияние ширины слоя полиномиальной нейросети W
    • 3. 3. Сравнительный анализ процессов нейросетевой классификации
      • 3. 3. 1. Анализ уровня ошибки результатов функционирования различных нейросетей
      • 3. 3. 2. Анализ ресурсов времени, необходимого для обучения и тестирования
      • 3. 3. 3. Анализ ресурсов памяти, необходимой для обучения и тестирования
      • 3. 3. 4. Заключительные замечания
    • 3. 4. Моделирование процессов классификации оценки профессиональной пригодности
      • 3. 4. 1. Построение нейросетевого классификатора оценки профессиональной пригодности
        • 3. 4. 1. 1. Исходные положения
        • 3. 4. 1. 2. Описание модели классификатора
      • 3. 4. 2. Моделирование процессов классификации оценки профессиональной пригодности
    • 3. 5. Выводы по главе 3
  • 4. МОДЕЛИРОВАНИЕ ПРОЦЕССОВ РАСПОЗНАВАНИЯ И КЛАССИФИКАЦИИ МНОГОМЕРНЫХ ОБЪЕКТОВ ПЕРЕСЕКАЮЩИХСЯ КЛАССОВ НА ОСНОВЕ ГИБРИДНЫХ НЕЙРОСЕТЕЙ
    • 4. 1. Разработка системы распознавания и классификации многомерных объектов пересекающихся классов на основе гибридных нейросетей
    • 4. 2. Полученные результаты и их обсуждение
    • 4. 3. Выводы по главе 4
  • ВЫВОДЫ

Моделирование и сравнительный анализ процессов распознавания и классификации многомерных объектов пересекающихся классов на основе представлений теории нечетких множеств и нейросетевых технологий (реферат, курсовая, диплом, контрольная)

В настоящее время значительные усилия исследователей в области искусственного интеллекта направлены на разработку методов решения задач классификации и распознавания объектов по плохо обусловленной исходной информации. Подобные задачи возникают при обработке зашумленных сигналов с датчиков технологических процессов, результатов социологических опросов, прогнозировании в геологии, диагностике в биологии и медицине.

Затрудняющим условием распознавания объектов зачастую является пересечение классов объектов по всем количественным и качественным признакам, вследствие чего неприменимы вероятностно-статистические методы анализа информации.

Как правило, решение отмеченного класса задач осуществляется на основе создаваемых экспертных систем, база знаний которых с неизбежностью включает интегрированный опыт экспертов, который, в свою очередь может содержать скрытые противоречия и не учитывать все пересечения ветвей решений и комбинации значений признаков и * атрибутов, что, в конечном счете, может существенно снижать ценность получаемых результатов.

Таким образом, разработка новых подходов, методов и моделирование на их основе процессов классификации, распознавания и диагностики объектов по совокупности их количественных и качественных признаков в разнотипном признаковом пространстве в условиях пересечения и многозначности классов объектов, когда, в силу изначальной неопределенности оказывается невозможным применять методы статистического анализа, основанные на аксиоматической теории вероятностей, несомненно, является актуальной и важной задачей.

Целями диссертационной работы являлись:

— проведение сравнительного анализа известных существующих подходов для распознавания и классификации пересекающихся классов объектов, основанных на представлениях теории нечетких множеств и нейросетевых технологий;

— разработка и построение гибридной системы для моделирования процессов распознавания и классификации пересекающихся классов объектов, включающей основные преимущества рассмотренных подходов.

Научная новизна работы состоит в следующем: разработан новый подход к решению задач распознавания и классификации пересекающихся классов объектов, на основе гибридной модели, базирующейся на представлениях теории нечетких множеств и нейросетевой технологииразработаны алгоритмы для моделирования процессов распознавания и классификации объектов по совокупности разнотипных признаков, в условиях пересекающихся классов объектов.

Теоретическая и практическая ценность работы состоят в том, что в работе разработан метод анализа нечеткой информации, который может быть применим для решения широкого круга задач в различных прикладных областях. Например, многозначные числовые объекты могут отображать технологические параметры в сомнительных ситуациях, сбойную работу электронных схем. Многозначные номинальные объекты могут моделировать качественные оценки промышленной продукции, состояния элементов экономики, символьные последовательности, возникающие при формализации естественных и абстрактных текстов (кодов). Ранжирование нечетких объектов по совокупности разнотипных признаков дает возможность классифицировать, в соответствии с семантикой нечеткости, реальные процессы, то есть извлекать знания из нечетких фактов, которые, в свою очередь, могут быть использованы как элементы экспертных систем и обучающих программ.

Полученные в работе результаты: математические модели, методы, алгоритмы и программные коды используются при прогнозировании и оценке профессиональной пригодности в Калужской таможне и в информационном центре УВД Калужской области. Копии актов о внедрении прилагаются.

Внедрение результатов работы продолжается, они также могут быть использованы при разработке иных автоматизированных систем распознавания, классификации, предсказания и диагностики в условиях пересекающихся классов объектов для создания «интеллектуального советника» в неопределенных ситуациях.

Достоверность результатов работы обусловлена корректной постановкой задачи, применением математически обоснованных методов ее решения, сравнением результатов с экспериментальными данными.

На защиту выносятся следующие положения: подходы к вычислению функций принадлежности списковых объектов к нечетким множествам по числовому и номинальному признакам;

— алгоритмы предобработки многомерных функций принадлежности нечетких объектов и обучения двухслойной нейронной сети для распознавания и классификации пересекающихся классов объектовреализация разработанных гибридных моделей и алгоритмов, базирующихся на представлениях теории нечетких множеств и нейросетевых технологиях, в виде функций библиотек, являющихся ядром автоматизированных систем рассматриваемого класса задачрезультаты экспериментальных исследований эффективности использования разработанных алгоритмов при решении задач распознавания, классификации и диагностики профессиональной пригодности объектов в условиях пересечения и многозначности классов объектов.

Апробация результатов. Результаты диссертационной работы докладывались на следующих отечественных и зарубежных конференциях:

1. International Conference on Artificial Intelligence. Center for Engineering Research Technical Natal. Durban, South Africa, September 24−26, 1999.

2. International Conference on Computer Modeling, Simulation and Communication. Birla Institute of Technology. Jaipur, India, December 1−3, 1999.

3. 1-я Российская конференция молодых ученых по математическому моделированию. Москва, МГТУ им. Н. Э. Баумана, Калуга, 12−14 апреля, 2000.

4. 2-я Российская конференция молодых ученых по математическому моделированию. Москва, МГТУ им. Н. Э. Баумана, Калуга, 24−26 апреля, 2002.

ОСНОВНЫЕ РЕЗУЛЬТАТЫ И ВЫВОДЫ.

1. Разработаны алгоритмы для моделирования процессов классификации на основе парадигмы обратного распространения ошибки, с использованием методов однородной, множественной адаптации, метода сопряженных градиентов и на основе специализированных нейросетевых технологий, основанных на методе радиальных базисных функций и на методе группового учета данных.

2. Разработаны экспериментальные полигоны классов объектов различной степени сложности, для которых проведено моделирование процессов классификации на основе разработанных шести алгоритмов нейросетевых классификаторовустановлены оптимальные значения внутренних параметров нейросетей и характеристик их функционированияпроведен сравнительный анализ эффективности использования различных нейросетевых архитектур применительно к вопросам распознавания и классификации объектов различной степени сложности, разработаны рекомендации.

3. Для многомерных объектов пересекающихся классов множеств, введены понятия векторных функций принадлежности (ВФП) и предложен способ расчета интегральных опорных ВФП на базе обобщенных представлений теории нечетких множеств.

4. Предложен метод распознавания многомерных объектов в условиях пересекающихся классов на основе введенных понятий, обобщенных и модифицируемых операций теории нечетких множеств.

5. Разработаны программный комплекс для моделирования процессов распознавания и классификации многомерных объектов пересекающихся классов на базе предложенного метода и обобщенных представлений теории нечетких множеств.

6. Предложен гибридный метод распознавания и классификации многомерных объектов в условиях пересекающихся классов на основе обобщенных представлений и модифицируемых операций теории нечетких множеств и специализированных нейросетевых технологий.

7. Разработаны гибридные модели, основанные на представлениях теории нечетких множеств и нейросетевых технологиях, методы и алгоритмы их обучения, программное обеспечение для моделирования процессов распознавания и классификации многомерных объектов пересекающихся классов.

8. Проведены экспериментальные исследования, наглядно демонстрирующие эффективность применения предложенных и разработанных моделей, методов и алгоритмов на примере решения задачи психо-диагностики, разработаны рекомендации. Внедрение разработанной диагностической системы позволило полностью автоматизировать процесс диагностики и значительно снизить уровень ошибки.

Показать весь текст

Список литературы

  1. Ф. Нейрокомпьютерная техника. — М.: Мир, 1992. — 184 с.
  2. Ф.В. Введение в нейрокомпьютинг. М.: ИНФРА, 1995. -161 с.
  3. Arbib М. Ed. The handbook of brain theory and neural networks. N.Y.: MIT Press, 1995.- 238 p.
  4. А.А. Моделирование элементов мышления. M.: Наука, 1988.- 192 с.
  5. А.Н. Обучение нейронных сетей. М.: Параграф, 1990. — 264 с.
  6. А.Н., Россиев Д. А. Нейронные сети на персональном компьютере. Новосибирск: Изд. СО РАН, 1996. — 182 с.
  7. Ф.В. Нейросети на шине VME. Краткая история нейроинформатики. М.: TANA Ltd, 1998. — 147 с.
  8. Anderson J.A., Rosenfeld Е. Neurocomputing: Foundation of research. -N.Y.: MIT Press, 1988. 204 p.
  9. Anderson J.A., Pellionisz A., Rosenfeld E. Neurocomputing 2: Directions for Research. N.Y.: MIT Press, 1990. — 187 p.
  10. Haykin S. Neural networks. A comprehensive foundation. N.Y.: Macmillan College Publishing Company, 1994. — 691 p.
  11. Necht-Nielsen R. Neurocomputing. N.Y.: Addison-Wesley, 1990. -433 p.
  12. Graupe D. Principles of artificial neural networks. London.: WS, 1997. -238 p.
  13. Muller В., Reinhardt J. Neural networks: an introduction. Berlin: Springer-Verlag, 1990.-312 p.
  14. Beale R., Jackson T. Neural computing: an introduction. Bristol: JWA, 1994.-240 p.
  15. Krose В., Smagt P. van der. An introduction to neural networks. -Amsterdam: Univ. Press, 1996. 135 p.
  16. Murray A.F. Applications of neural nets. London: Kluwer Academic Publishers, 1995.-265 p.
  17. Pao Y.H. Adaptive pattern recognition and neutral networks. N.Y.: Addison-Wesley, 1989. — 189 p.
  18. Т. Ассоциативная память. М.: Мир, 1980.-287 с.
  19. А.А., Шумский С. А. Нейрокомпьютинг и его применения в экономике и бизнесе. М.: ИНФРА, 1998.-222 с.
  20. Beltratti A., Margarita S., Tema P. Neural networks for economic and financial modeling. Boston: ITCP, 1995. — 327 p.
  21. Bishop C.M. Neural networks and pattern recognition. Oxford: Oxford Press, 1995.-362 p.
  22. Maren A., Harston C., Pap R. Handbook of neural computing applications. -N.Y.: Academic Press, 1990. 372 p.
  23. Генетические алгоритмы, искусственные нейронные сети и проблемы виртуальной реальности./ Г. К. Вороновский, К. В. Махотило, С. Н. Петрашев и др. Харьков: ОСНОВА, 1997. — 112 с.
  24. Werbos P.J. Beyond regression: new tools for prediction analysis in behavioral sciences. Doctoral dissertation on Appl. Math. Cambridge: Harvard University, 1974. — 193 p.
  25. Parker D.B. Learning-logic // Technical Report TR-47. N.Y.: Center for Computational Res. In Economics and Management Sci, 1985. — 126 p.
  26. Parker D.B. A optimal algorithms for neural-like cells // Proc. of the Int. Conf. on Neural Networks for Computing. N.Y., 1986. — Vol. 151. — P. 327−332.
  27. Parker D.B. Optimal algorithms for adaptive networks: second order back propagation, second order direct propagation, and second order Hebbianlearning // Proc. of the Int. Conf. on Neural Networks. N.Y., 1987. -Vol. 2. — P. 593−600.
  28. Rumelhart D.E., McClelland J.L. Parallel distributed processing: explorations in the microstructure of cognition. Cambridge MA: MIT Press. — 1986. -Vol.l&2 — 765 p.
  29. Anderson J.A., Rosenfeld E. Neurocomputing: foundations of research. -Cambridge MA: MIT Press, 1988. 324 p.
  30. Sprecher D.A. On the structure of continuous functions of several variables //Trans. Am. Math. Soc. 1965. — Vol. 115.-P. 340−355.
  31. A.H. О представлении непрерывных функций многих переменных посредством суперпозиции непрерывных функций одной переменной // Докл. АН СССР. 1957. — Т. 114. — С. 953−956.
  32. Hecht-Nielsen R. Applications of counterpropagation networks // Neural Networks. 1988.-Vol. 1. — P. 131−139.
  33. Lippmann R.P. An introduction to computing with neural nets // IEEE ASSP Magazine. 1987. — Vol. 4., No 2. — P. 4−22.
  34. Chan L.W., Fallside F. An adaptive training algorithm for back propagation networks // Computer speech and language. 1987. — Vol. 1. — P. 205−218.
  35. Hanson S.J., Burr D.J. Minkowski back propagation: learning in connection models with non-Euclidean error signals // Neural information processing systems. 1988. — Vol. 1. — P. 348−357.
  36. Jacobs R.A. Increased rates of convergence through learning rate adaptation // Neural networks. 1988. — Vol. 1. — P.295−307.
  37. Lapedas A., Farber R. How neural nets work // Neural information processing systems. 1988. — Vol. 1. — P. 442−456.
  38. Leung H.C., Zue V.W. Some phonetic recognition experiments using artificial neural nets // Proceedings IEEE international conference on acoustics, speech and signal processing. Chicago, — 1988. — Vol. 1. — P. 251−263.
  39. Watrous R.L. Learning algorithms for connectionist networks: applied gradient methods of nonlinear optimization. Lewistown: University of Pennsylvania, 1986. — 67 p. (Technical Report MS-CIS-87−51, Line Lab 72.).
  40. Kesten H. Accelerated stochastic approximation // Annals of mathematical statistics. 1958. — Vol. 29. — P. 41−59.
  41. Saridis G.N. Learning applied to successive approximation algorithms // IEEE Transactions on systems science and cybernetics. 1970. — Vol. 6. -P. 97−103.
  42. Sutton R.S. Two problems with backpropagation and other steepest descent learning procedures for networks // Proceedings of the eighth annual conference of the cognitive science society. Pittsburg, 1986. — P.823−831.
  43. Luenberger D. Linear and nonlinear programming. N.Y.: Addison-Wesley Publishing Company, 1984.- 385 p.
  44. Numerical recipes in С/ W. Press, B. Flennery, S Teukolsky N.Y.: Cambridge University Press, 1988.- 193 p.
  45. Raymond L., Shastri W. Learning phonetic features using connectionist networks: An experiment in speech recognition // First International Conference on Neural Networks. N.Y., 1987. — P.368−381.
  46. Renals S., Rohwer R. Phoneme classification experiments using radial basis functions // Proceedings International Joint Conference on Neural Networks. Washington, 1989. — P.461 -467.
  47. Rohwer R., Forrest B. Training time-dependencies in neural networks // First International Conference on Neural Networks. N.Y., 1987. — P.693−701.
  48. Numerical Recipes. / W.H. Press, B.P.' Flannery, S.A. Teukolsky and others- N.Y.: Cambridge University Press, 1986. 673 p.
  49. Moody J. Fast learning in multi-resolution hierarchies. New Haven: Yale Computer Science Department, 1989. — 246 p. (Technical report YALEU/DCS/RR-681).
  50. Broomhead D.S., Lowe D. Radial basis functions, multi-variable functional interpolation and adaptive networks. Great Britain: Malvern, 1988. -176 p. (Technical report RSRE-4148. Royal Speech and Radar Establishment).
  51. Duda R.O., Hart P.E. Pattern classification and scene analysis. N.Y.: John Wiley and Sons, 1973. — 452 p.
  52. Barron A.R. Adaptive learning networks: Development and application in the United States of algorithms related to GMDH // Self-Organizing methods in modeling. N.Y.: Marcel Dekker Inc., 1984. — P.25−65.
  53. Barron A.R. Predicted squared error: A criterion for automatic model selection // Self-Organizing methods in modeling. N.Y.: Marcel Dekker Inc., 1984. — P.87−103.
  54. Barron A.R., Barron R.L. Statistical learning networks: A unifying view // Proceedings on the International Symposium on the Interface: Statistics and Computing Science. Virginia: Reston, 1988. — P. 119−133.
  55. А.Г. Групповые методы передачи данных альтернатива стохастической аппроксимации // Автоматизированный контроль -1968.-Vol. 1. — с. 43−55.
  56. А.Г. Самообучающиеся системы распознавания и автоматического регулирования. Киев: Техника, 1969. — 392 с.
  57. Ivakhnenko A.G. Polynomial theory of complex systems // IEEE Trans. Systems, 1971.-Vol. 12. P. 364−378.
  58. А.Г. Персептроны. Киев: Наукова Думка. — 1974. — 351 с.
  59. Farlow S. Self-organizing methods in modeling. -N.Y.: Marcel Dekker Inc., 1984.-435 p.
  60. Chomsky N., Halle M. The sound Pattern of English. N.Y.: Harper&Row, 1968.-426 p.
  61. O’Shaughnessy D. Speech communication, human and machine. -Massachusetts: Addison-Wesley, 1987. 376 p.
  62. Lippmann R.P. Neural nets for computing // Proceedings of International Conference on Acoustics, Speech and Signal Processing: IEEE. San-Diego, 1988,-Vol. l.-P. 1−6.
  63. Lippmann R.P. Review of neural networks for speech recognition //Neural Computation. Atlanta, 1989.-Vol. l.-P. 1−38.
  64. A physiologically motivated front-end for speech recognition./ T.K.P. Nguyen, R.P. Lippmann., B. Gold and others // Proceedings of International Joint Conference on Neural Networks: IEEE. St. Luis, 1990. — Vol. l.-P. 124−137.
  65. Peterson G.E., Barney H.L. Control methods used in study of vowels // Journal of the Acoustical Society of America. 1972. — Vol.24, No2. -P.175−184.
  66. Duda O.R., Hart P.E. Pattern classification and Scene analysis. N.Y.: John Wiley and Sons, 1973. — 342 p.
  67. Kohonen T. An introduction to neural computing // Neural Networks. N.Y., 1988.-Vol.1.-P. 3−16.
  68. Kohonen T. Self-organization and associative memory. Berlin: Springer-Verlag, 1984.-456 p.
  69. Т. Ассоциативная память. М.: Мир, 1980. — 238 с.
  70. Т. Ассоциативные запоминающие устройства. М.: Мир, 1982.-383 с.
  71. Kohonen Т., Barna G., Chrisley. Statistical pattern recognition with neural networks: Benchmarking studies // Annual International Conference on Neural Networks: IEEE. Denver, 1988. — P. 84−117.
  72. Omohundro S.M. Efficient algorithms with neural networks behavior // Complex Systems. 1987. — Vol. l.-P. 273−347.
  73. Stranfill C., Waltz D. Toward memory-based reasoning // Communications of the ACM. 1986. — Vol.29, No.12. — P. 1213−1228.
  74. Wolpert D. Alternative generalizes to neural nets // Neural Networks. 1988. -Vol.1.-P. 96−111.
  75. Huang W.M., Lippmann R.P. Neural net and traditional classifiers // Journal of American Institute of Physics. 1988. — Vol. 4. — P.387−396.
  76. Barron R.L., Gilstrap L.O., Shrier S. Polynomial and neural networks: Analogies and engineering applications // Neural Networks. 1987. — Vol. 2. -P.431−493.
  77. Barron R.L. Learning networks improve computer-aided predication and control // Computer Design. 1975. — Vol.8. — P.65−70.
  78. И.И., Логинов Б. М. Моделирование процессов классификации на основе нейросетей с парадигмой обратного распространения ошибки /Калужский филиал МГТУ им. Н. Э. Баумана. -Калуга, 2000.-38 с. Деп. в ВИНИТИ РАН от 20.12.00, № 3193-В00.
  79. И.И., Логинов Б. М. Математические модели, алгоритмы и методики моделирования процессов классификации /Калужский филиал
  80. МГТУ им. Н. Э. Баумана. Калуга, 2000. — 68с. — Деп. в ВИНИТИ РАН от 13.12.00, № 3130-В00.
  81. Zimmermann H.-Z. Fuzzy Set Theory and Its Applications. London: Kluwer Academic Publishers. — 1991.- 399 p.
  82. Helson H. Adaptation-level Theory.- N.Y.: McGraw-Hill. 1984. — 419 p.
  83. Zadeh L.A. Fuzzy Sets // Information and Control. -1976.- V.8.- P.-338−353.
  84. Bellman R., Geirtz M. On the analytic formalism of the theory of fuzzy sets // Information sciences. -1973.- V.5. P.149−156.
  85. Norwich A.M., Turksen I.N. Measurement an sealing of membership functions//Lasker. 1981. — V.7. — P. 2851−2858.
  86. Norwich A.M., Turksen I.N. A model for the measurement of membership and consequences of its empirical implementation // FSS. 1984. — V.12. -P. 1−25.
  87. HirotaK. Concepts of probabilistic Sets //FSS. 1981. — V.5. — P. 31- 46.
  88. Atanassov K.T., Stoeva S. Intuitonistic fuzzy sets. // In Albrycht and Wiesniewski. 1983. — P. 23−26.
  89. Hamacher H. Uber logische Aggregationen nicht-binar expliziter Entscheidungskriterien. Frankfurt/Main. 1988. — 563 s.
  90. Yager R.R. On a general class of fuzzy connectives // FSS. 1980. — V.4. -P. 235−242.
  91. Dubois D., Parade H. Fuzzy Sets and Systems: Theory and Application. -N.Y.: McGraw-Hill. 1980. — 352 p.
  92. Bonissone P.P., Decker K.S. Selecting uncertainly calculi and granularity: An experiment in trading-off precision and complexity. In Kanal and Lemmer. 1986. — P. 217−247.
  93. Dubois D., Parade H. A review of fuzzy set aggregation connectives. Information Sciences. 1985. — V.36. — P. 85−121.
  94. Alsina C. On a family of connectives for fuzzy sets. // FSS. 1985. — V.16. -P. 231−235.
  95. Mizumoto M. Pictorial representations of fuzzy connectives. Part I: Cases f T-norms, T-conorms and averaging operators. // FSS. 1989. — V. 31. -P. 217−242.
  96. Dubois D., Parade H. New results about properties and semantics of fuzzy set-theoretic operators. // Wang and Chang. 1989. — P.59−75.
  97. Dubois D., Parade H. A class of fuzzy measures based on triangular norms. // Inter. J. Gen. Syst. 1982. — V.8. — P. 43−61.
  98. Werners B. Aggregation models in mathematical programming // Mirta. -1988.-P. 295−319.
  99. Dubois D., Parade H. Criteria aggregation and ranking of alternatives in the framework of fuzzy set theory // In Zimmermann, Zadeh and Gaines. 1984. -P. 209−240.
  100. Silvert W. Symmetric summation: A class of operations on fuzzy sets // IEEE Trans. Syst., Man Cyb. 1979. — V.9. — P.657−659.
  101. Zimmermann H.-Z., Zysno P. Latent connectives in human decision making //FSS. 1980. -V.4.-P.37−51.
  102. И.И., Канарейкин Д. Е. Предобработка входных сигналов нейросей // Тезисы докладов 1-й Российской конференции молодых ученых по математическому моделированию. Москва: МГТУ, 2000. -с.229−231.
  103. Юб.Кручинин И. И., Твердохлеб Н. С., Логинов Б. М. Моделирование процессов классификации на базе нейросетевых архитектур функционирующих на основе радиальных базисных функций
  104. Калужский филиал МГТУ им. Н. Э. Баумана. Калуга, 2001. — 25 с. -Деп. в ВИНИТИ РАН от 16.01.01, № 118-В2001.
  105. Loginov В.М., Kruchinin 1.1., Lamakin A.Yu. Classification processes simulation based on the neural networks with different paradigms // Development and Practice of Artificial Intelligence Techniques. Durbun (South Africa), IAAMSAD, 2000. p. 185−193.
  106. И.И., Ломовцева О. Б., Логинов Б. М. Моделирование процессов классификации на основе полиномиальных нейросетей /Калужский филиал МГТУ им. Н. Э. Баумана. Калуга, 2001. — 42 с. -Деп. в ВИНИТИ РАН от 06.02.01, № 320-В2001.
Заполнить форму текущей работой