Диплом, курсовая, контрольная работа
Помощь в написании студенческих работ

Идентификация подвижных наземных объектов с борта беспилотного летательного аппарата

ДиссертацияПомощь в написанииУзнать стоимостьмоей работы

При создании бортовых систем видеослежения, использующихся на беспилотных летательных аппаратах (БЛА), возникает ряд задач, связанных с трудностями обнаружения, выделения и сопровождения объектов, находящихся в поле зрения датчика изображений. В качестве таких объектов могут выступать различные летательные аппараты, легковые и грузовые автомобили, различная военная техника, суда, люди и т. п. При… Читать ещё >

Содержание

  • 1. Проблемные вопросы теории и практики обработки изображений
    • 1. 1. Специфика предметной области
    • 1. 2. Анализ способов представления изображений и методы сопоставления изображений
    • 1. 3. Существующие методы обработки видеопотока, поступающего со стационарно расположенной камеры
    • 1. 4. Существующие методы обработки видеопотока, поступающего с камеры, расположенной на подвижном носителе
    • 1. 5. Постановка задачи диссертационного исследования

Идентификация подвижных наземных объектов с борта беспилотного летательного аппарата (реферат, курсовая, диплом, контрольная)

Актуальность работы.

В настоящее время всё более интенсивно применяются системы первичной обработки и детального анализа видеоинформации. Такие системы используют в различных областях человеческой деятельности. Наиболее широкое распространение они получили при решении следующих задач: навигация различных судов, космический мониторинг Земли, контроль производства, обеспечение безопасности различных объектов, мониторинг транспортных потоков, хранение и ретрансляция видеоматериалов, медицинские и военные приложения.

Со значительным ростом объёмов видеоинформации, фиксирующей реальные события, соответственно увеличиваются затрачиваемые ресурсы на её обработку. Помимо этого, не редко видеоматериалы содержат факты, для анализа которых требуется привлечение высокооплачиваемых специалистов, способных квалифицированно и качественно описать зафиксированный материал. В связи с этим появляется задача снизить материальные, а главное временные затраты на анализ видеоматериалов, полученных из различных источников.

За последние десять лет было разработано достаточно большое число методов и алгоритмов обработки видеоданных. Созданы и успешно функционируют различные системы анализа видеоматериалов: система «Hawk-Еуе» — программно-аппаратный комплекс, моделирующий траекторию спортивного снарядасистема «Стрелка» стационарный радарный комплекс контроля дорожного трафика и регистрации нарушенийкомпьютерная система видеоанализа (КСВА) «Бастион-Номер» -предназначена для считывания государственных регистрационных знаков номеров) движущихся транспортных средств и их автоматического поиска по базам данныхдетектор движения «IVA» (Intelligent Video Analysis) -система интеллектуального видеонаблюдения и анализа данныхсистема обработки видеоизображений «Охотник» — система автоматического обнаружения и сопровождения подвижных целей и многие другие.

Одним из целевых направлений создания систем сбора и обработки видеоинформации является разработка бортовых систем видеослежения, предназначенных для обработки данных, поступающих с подвижных объектов, таких как самолёты, вертолёты, корабли, автомобили или танки. При решении таких задач [1], видеопоток необходимо представить в виде пронумерованных кадров, разработать и реализовать такой алгоритм поиска интересующих нас событий, в результате выполнения которого они будут автоматически найдены и проанализированы. Стоит отметить, что такое представление видеоматериалов значительно усложняется в случае, если обработку данных нужно производить в реальном времени. В этой ситуации время, отведённое на поиск событий, ограничено и напрямую зависит от скорости и объёма поступающих данных. Это приводит к требованиям повышения производительности бортовых компьютеров и снижения вычислительной сложности алгоритма. Бортовые системы видеослежения должны функционировать в полуавтономном, автономном и автоматическом режимах, требуя от оператора минимум действий и предоставляя ему необходимую информацию в наиболее удобной форме.

При создании бортовых систем видеослежения, использующихся на беспилотных летательных аппаратах (БЛА), возникает ряд задач, связанных с трудностями обнаружения, выделения и сопровождения объектов, находящихся в поле зрения датчика изображений. В качестве таких объектов могут выступать различные летательные аппараты, легковые и грузовые автомобили, различная военная техника, суда, люди и т. п. При этом поле зрения видеодатчика подвижно, а априорная информация о характеристиках объектов обычно довольно скудна и, зачастую, включает в себя только приблизительные размеры объектов интереса и характер их перемещения.

Помимо этого видеодатчик, расположенный на борту БЛА, перемещается в пространстве вместе с ним, при этом его (видеодатчика) ориентацию в пространстве можно изменять при помощи устройства позиционирования. В процессе съёмки могут изменяться условия освещённости, высота или масштаб съёмки, скорость полёта самого БЛА. Зачастую видеодатчик испытывает воздействие вибраций различной природы. Формируемые им изображения подвергаются искажениям из-за влияния перечисленных факторов. Они затрудняют, а иногда делают совершенно невозможным решение многих задач: обнаружение подвижных объектов, разделение и параметризация сопровождаемых объектов, расположенных близко друг к другу, анализ траекторий сопровождаемых объектов. Искажения, вызванные вибрациями корпуса БЛА, и сложные условия работы оператора приводят к повышению числа ошибок обнаружения объектов интереса.

Природные явления, такие как дождь, снег, туман, ветер могут вносить заметный элемент зашумления и колебания в изначально неподвижную сцену, создавать сильные помехи, частично закрывая поля зрения камеры. Все это делает алгоритмы, отлично работающие в одних условиях, совершенно непригодными для других.

Существует ещё ряд причин, которые делают актуальным процесс автоматизации анализа видеопотока, получаемого с бортовой камеры БЛА: ограничения по дальности полёта БЛА каналом связи при дистанционной обработке данных оператором и существенная временная задержка в режиме постобработки данных.

Ещё одной важной особенностью задачи обработки информации, получаемой с датчиков, расположенных на борту БЛА, с целью идентификации объектов, находящихся на изображении, является отсутствие для исследуемых реальных ситуаций или объектов сколько-нибудь адекватных математических моделей, на базе которых можно было бы вести расчёты и получать количественные или качественные выводы.

Подводя итог вышесказанному, следует отметить, что, хотя и имеется большое количество разработанных алгоритмов анализа видеоданных, рассматриваемая область всё ещё является плохо исследованной. Таким образом, актуальность темы диссертации обусловлена недостаточной проработкой и большой практической значимостью вопросов анализа видеопотока, получаемого с бортовой видеокамерой БЛА.

Цель и задачи исследования

.

Целью диссертационного исследования является разработка системы отслеживания и идентификации подвижных наземных объектов в видеопотоке, получаемом с бортовой видеокамеры БЛА. Для достижения поставленной цели необходимо решить следующие задачи:

• провести анализ существующих алгоритмов обнаружения, сопровождения и идентификации подвижных объектов;

• формализовать условия работы разрабатываемой системы;

• разработать математическое обеспечение и проблемно-ориентированное программное обеспечение, позволяющее отслеживать и идентифицировать подвижные наземные объекты в видеопотоке, получаемом с бортовой видеокамеры БЛА;

• провести анализ совместной обработки данных, полученных в видимом и инфракрасном диапазонах.

При исследовании использовались методы математического моделирования, компьютерного зрения, математической статистики и теории вероятностей.

Научная новизна работы.

— Разработана методика определения вектора межкадрового сдвига, сопоставляемых изображений видеопотока.

— Разработан алгоритм автоматического выделения подвижных наземных объектов в видеопотоке на основе анализа маски движения.

— Разработан комплексный алгоритм, совместной обработки данных, полученных в видимом и инфракрасном диапазонах.

— Реализован модернизированный алгоритм идентификации подвижных наземных объектов.

— Получены результаты исследования, подтверждающие возможность реализации разработанного комплекса алгоритмов в реальном времени на бортовых вычислителях.

Практическая значимость полученных результатов.

Практическая значимость заключается в том, что подтверждена возможность реализации разработанных частных алгоритмов идентификации подвижных наземных объектов, по анализу видеопотока, получаемого с бортовой видеокамеры БЛА, входящих в комплексный алгоритм решения целевых задач БЛА, в реальном времени. Разработаны и сформулированы требования к характеристикам БЛА и целевой аппаратуры, устанавливаемой на нем.

Основные результаты, полученные в диссертации, состоят в следующем:

1. На основании анализа существующих теоретических и практических разработок в области обработки изображений были сформулированы цель диссертационного исследования и задачи, необходимые для ее достижения.

2. Обоснована возможность использования комплекса частных алгоритмов обработки изображений, без разработки обобщенной математической модели, для решения поставленных задач диссертационного исследования.

3. Разработан метод определения ПНО в видеопотоке, получаемом с бортовой видеокамеры БЛА, основанный на анализе точечных особенностей, получаемых модифицированным алгоритмом SIFT. Предложенный метод, также использует разработанную методику определения вектора межкадрового сдвига.

4. Модифицирован алгоритм идентификации ПНО, основанный на сопоставлении рассматриваемого изображения с эталонами. Предложены методы определения некоторых характеристик анализируемых изображений, позволяющих применять данный алгоритм в режиме реального времени. Этими характеристиками являются ориентация ПНО относительно изображения, диапазон масштабов, необходимых для сопоставления, и области поиска, соответствующие выставленным стробам.

5. Предложена функция, отражающая степень сходства сравниваемых дескрипторов S (d', d"), учитывающая в отдельности различия между соответствующими координатами дескрипторов. Экспериментально определены пороговые значения отклонения длины 8L и угла 5а векторов, составляющие 15% и 5% от средних значений длины и углов векторного поля соответствий, необходимые для определения результирующего значения вектора межкадрового сдвига.

6. Получена зависимость числа ошибок I и II рода от значения относительного порога изменения яркости, А на этапе формирования маски движения. Экспериментально установлено значение порога А=0,15, при котором выполняется установленное требование к отношению числа ошибок I и II рода. Полученная зависимость позволяет быстро подбирать пороговое значение, А в зависимости от предъявляемых условий функционирования системы.

7. Сформулированы требования к бортовому вычислителю и съемочной аппаратуре, необходимые для функционирования разработанной автоматической системы идентификации ПНО с борта БЛА.

8. Полученные результаты обработки реальных данных позволили определить значения вероятностей верного определения ПНО и появления ошибок I и II рода. В среднем, вероятность верного обнаружения ПНО при его попадании в кадр равна 0,9831, а вероятность появления ошибок I и II рода — 0,0152 и 0,0033 соответственно. Вероятность верной идентификации объекта, в случае его верного обнаружения, равна 0,9534. Также полученные результаты обработки реальных данных показали полностью корректную работу разработанного экспериментального ПО и подтвердили возможность функционирования разработанной автоматической системы идентификации ПНО в указанных условиях в режиме реального времени.

9. Разработан комплексный алгоритм обработки изображений видимого и ИК диапазонов, основанный на анализе точечных особенностей изображений. Применение разработанного комплексного алгоритма возможно при наличии соответствующей съемочной аппаратуры на борту БЛА, синхронизированной по времени.

Анализ обработки данных с использованием вышеуказанного комплексного алгоритма, подтвердил работоспособность разработанного алгоритма. В результате проведенных экспериментов были получены значения вероятностей верного определения ПНО — 0,9957, появления ошибки I рода — 0,0107 и появления ошибки II рода — 0,003. Данные результаты позволяют сделать вывод об улучшении качества определения ПНО при использовании комплексного алгоритма анализа. Недостатком разработанного ПО является превышение длительности обработки видеофрагментов их продолжительности. Это превышение, в среднем, составляет 5%.

Заключение

.

Показать весь текст

Список литературы

  1. Lutsiv V., Malyshev I., Potapov A. Hierarchical structural matching algorithms for registration of aerospace images // Proc. SPIE. 2003. V. 5238. P. 164−175.
  2. B.H. Васильев, И. П. Гуров, A.C. Потапов Математические методы и алгоритмическое обеспечение анализа и распознавания изображений в информационно-телекоммуникационных системах, СПбГУ ИТМО.
  3. Popescu A., Moellic Р.-А., Millet Ch. SemRetriev: an ontology driven image retrieval system. // Proc. 6th ACM Int. conf. on Image and Video Retrieval. 2007. P. 113−116.
  4. A.C. Распознавание образов и машинное восприятие: общий подход на основе принципа минимальной длины описания: С-Пб, Политехника. 2007. 548 с.
  5. Lutsiv V.R., Malyshev I.A., Pepelka V., Potapov A.S. Target independent algorithms for description and structural matching of aerospace photographs // Proc. SPIE. 2002. V. 4741. P. 351−362.
  6. Thomas P. and Vernon D. Image registration by differential evolution // Proc. Irish Machine Vision and Image Processing Conference. 1997. P. 221−225.
  7. A.C. Исследование представлений изображений на основе принципа репрезентационной длины описания // Изв. вузов. Приборостроение. 2008. Т. 51. № 7. С. 3−7.
  8. Lei B.J., Hendriks Е.А., Reinders M.J.T. On feature extraction from images // Technical Report, Deliverable 2.1.1.2.A+B, MCCWS project, Information and Communication Theory Group. TU Delft. 1999. 57 p.
  9. Yang C.H.T., Lai S.H., Chang L.W. Hybrid image matching combining Hausdorff distance with normalized gradient matching // Pattern Recognition. 2007. V. 40. № 4. P. 1173−1181.
  10. У. Цифровая обработка изображений: М. Мир. 1982. Кн. 2. 480 с.
  11. Goecke R., Asthana A., Pettersson N., Petersson L. Visual vehicle egomotion estimation using the Fourier-Mellin transform // IEEE Trans. Intelligent Vehicles Symposium. 2007. P. 450−455.
  12. Lowe D. Object recognition from local scale-invariant features // Proc. Int. Conf. on Computer Vision. 1999. P. 1150−1157.
  13. Petrou M., Kadyrov A. Affine invariant features from the trace transform // IEEE Trans, on Pattern Analysis and Machine Intelligence. 2004. V. 26. № 1. P. 30−44.
  14. Baumberg A. Reliable feature matching across widely separated views // Conf. on Computer Vision and Pattern Recognition. 2000. P. 774−781.
  15. Zavorin I., LeMoigne J. Use of multiresolution wavelet feature pyramids for automatic registration of multisensor imagery // IEEE Trans. Image Processing. 2005. V. 14. № 6. P. 770−782.
  16. Efrat A., Gotsman C. Subpixel image registration using circular fiducials // Int. J. Comp. Geom. and Appl. 1994. V. 4, No. 4. P. 403−422.
  17. Rao C., Guo Y., Sawhney H.S., Kumar R. A heterogeneous feature-based image alignment method // Int. Conf. on Pattern Recognition, ICVR06. 2006. P. 345−350.
  18. Lutsiv V., Malyshev I., Potapov A. Hierarchical structural matching algorithms for registration of aerospace images // Proc. SPIE. 2003. V. 5238. P. 164−175.
  19. Lutsiv V., Potapov A., Novikova T., Lapina N. Hierarchical 3D structural matching in the aerospace photographs and indoor scenes // Proc. SPIE. 2005. V. 5807. P. 455−466.
  20. Maisinger K., Hobson M.P., Lasenby A.N. Maximum-entropy image reconstruction using wavelets // Monthly Notices of the Royal Astronomical Society. 2004. V. 347. № 1. P. 339−354.
  21. Keysers D., Och F.J., Ney H. Maximum entropy and Gaussian models for image object recognition // Pattern Recognition, 24th DAGM Symposium, Zurich, Switzerland, LNCS 2449. 2002. P. 498−506.
  22. Solomonoff R.J. The discovery of algorithmic probability // J. of Computer and System Sciences. 1997. V. 55. № 1. P. 73−88.
  23. Liedtke C.-E., Buckner J., Grau O., Growe S., Tonjes R. AIDA: a system for the knowledge based interpretation of remote sensing data //3d Airborne Remote Sensing Conference and Exhibition. 1997. V. 2. P. 313−320.
  24. Р., Харт П. Распознавание образов и анализ сцен: М., Мир. 1976. 511 с.
  25. Iqbal Q. and Aggarwal J.K. Lower-level and high-level approaches to content-based image retrieval // Proc. IEEE South West Symposium on Image Analysis and Interpretation. 2000. P. 197−201.
  26. Kanatani K. and Ohta N. Automatic detection of circular objects by ellipse growing // Proc. SSII2002. 2002. P. 355−360.
  27. В., Конушин А. Сегментация движущихся объектов в видеопотоке. Компьютерная графика и мультимедиа. Выпуск № 2(3)/2004.
  28. Baker S. Design and Evaluation of Feature Detectors: PhD thesis. Columbia University. 1998. 167 p.
  29. Zhu S.C., Wu Y., Mumford D. Minimax entropy principle and its application to texture modeling //Neural Computation. 1997. № 9. P. 1627−1660.
  30. Kopparapu S.K., Desai U.B. Bayesian approach to image interpretation // The Springer International Series in Engineering and Computer Science. 2001. V. 616. 127 p.
  31. Tu Z.W. and Zhu S.C. Image Segmentation by data driven Markov chain Monte Carlo // IEEE Trans. PAMI. 2002. V. 24. No. 5. P. 657−673.
  32. Essannouni L., Ibn-Elhaj E., Aboutajdine D. Fast cross-spectral image registration using new robust correlation // J. of Real-Time Image Processing. 2006. V. 1. № 2. P. 123−129.
  33. B.H., Червоненкис А. Теория распознавания образов: М., Наука. 1974.415 с.
  34. Solomonoff RJ. A formal theory of inductive inference, pari and part 2 // Information and Control. 1964. V. 7. P. 1−22, 224−254.
  35. Wang F., Vemuri B. Non-rigid multi-modal image registration using cross-cumulative residual entropy // Int. J. Computer Vision. 2007. V. 74. № 2. P. 201−215.
  36. Mumford D. and Gidas B. Stochastic models for generic images // Quaterly of Applied Mathematics. 2001. Vol. 59. P. 85−111.
  37. Ma B. Parametric and nonparametric approaches for multisensor data fusion: PhD thesis, University of Michigan. 2001. 196 p.
  38. Lowe, D.G.2004. Distinctive Image Features from Scale-Invariant Keypoints. January 5,2004.
  39. Chanda В., Kundu M.K., Padmaja Y.V. A multi-scale morphologic edge detector//Pattern Recognition. 1998. V. 31. No. 10. P. 1469−1478.
  40. Mumford D., Shah J. Optimal approximation by piecewise smooth functions // Comm. Pure and Appl. Math. 1989. V. 42. P. 577−685.
  41. Lindeberg Т., Li M.-X. Segmentation and classification of edges using minimum description length approximation and complementary junction cues // Computer Vision and Image Understanding. 1997. V. 67. № 1. P. 88−98.
  42. Rissanen J J. Modeling by the shortest data description // Automatica-J.IFAC. 1978. V. 14. P. 465−471.
  43. Cappellini V., Fini S., Harrigan E., Mecocci A. Circular shape detection in remote sensing multispectral images. In: Visual Form Analysis and Recognition, Arcelli C., Cordelia L.P., Sanniti di Baja G., eds. New York, Plenum Press. 1992. P. 119−126.
  44. McLaughlin R.A. Randomized Hough transform: improved ellipse detection with comparison // Pattern Recognition Letters. 1998. V. 19. P. 299−305.
  45. Ю. И, Об алгебраическом подходе к решению задач распознавания или классификации, Проблемы кибернетики, Вып. 33. М.: Наука, 1978. С. 5−68.
  46. Л., Гоулд Б. Теория и применение цифровой обработки сигнала. Пер. с анг. М.: Мир, 1978. 379с.
  47. С.В. Метод и вычислительное устройство автоматического обнаружения топологических аномалий на земной поверхности по космическим видеоизображениям: Дис.. канд. техн. наук. Москва. 2001.- 115 с.
  48. Я. Теория измерений для инженеров. Пер. с польск. М.: Мир, 1989.-388C.
  49. Mansouri A.-R. and Konrad J. Motion segmentation with level sets // Proc. IEEE Int. Conf. Image Processing. 1999. V. II. P. 126−130.
  50. Maybank S.J., Sturm P.F. Minimum description length and the inference of scene structure from images // IEE Colloquium on Applied Statistical Pattern Recognition. 1999. P. 9−16.
  51. Galland F., Bertaux N., Refregier Ph. Multi-component image segmentation in homogeneous regions based on description length minimization: Application to speckle, Poisson and Bernoulli noise // Pattern Recognition. 2005. V. 38. Iss. 11. P. 1926−1936.
  52. Gao Q., Li M., Vitanyi P.M.B. Applying MDL to learning best model granularity //Artificial Intelligence. 2000. V. 121. P. 1−29.
  53. Ward A., Hamarneh Gh. Statistical shape modeling using MDL incorporating shape, appearance, and expert knowledge // Lecture Notes in Computer Science, Medical Image Computing and Computer-Assisted Intervention (MICCAI). 2007. P. 278−285.
  54. Davies R.H., Twining C.J., Cootes T.F., Waterton J.C., Taylor C.J. A minimum description length approach to statistical shape modeling // IEEE Trans. Medical Imaging. 2002. V. 21. № 5. P. 525−537.
  55. Yvan G. et al. Self-consistency and MDL: a paradigm for evaluating point-correspondence algorithms, and its application to detecting changes in surface elevation // Int. J. of Computer Vision. 2003. V. 51. № 1. p. 63−83.
  56. Parida L., Geiger D., and Hummel R. Junctions: detection, classification, and reconstruction // IEEE Trans. Pattern Analysis and Machine Intelligence. 1998. V. 20. No. 7. P. 687−698.
  57. А., Дейвис JI.C. Сегментация и модели изображения // ТИИЭР. 1979. Т. 67. № 5. С. 71−81.
  58. Shen, L., Bai, L.: A review on Gabor wavelets for face recognition // Pattern Analysis and Applications. 2006. V. 9. P. 273−292.
  59. Moravec H.P. Visual mapping by a robot rover // Proc. 6th Int. Joint Conf. on Artificial Intelligence. 1979. P. 598−600.
  60. Jerebko A., Barabanov N., Luciv V., Allinson N. Neural net based image matching // Proc. SPIE. 2000. V. 3962. P. 128−137.
  61. Д.А. Информационные процессы в компьютерных сетях. -М.: Кудиц-Образ, 1999. 256с.
  62. А.Ф., Новосёлов О. Н., Плющев А. В. Отбраковка аномальных результатов измерений. М.: Энергоатомиздат, 1985. 244с.
  63. П., Вудс Р. Цифровая обработка изображений. / М.: Техносфера, 2005
  64. Kreutz М., Volpel В., and JanBen Н. Scale-invariant image recognition based on higher-order autocorrelation features // Pattern Recognition. 1996. V.29. No.l.P. 19−26.
  65. Gander W., Golub G.H., and Strebel R. Fitting of circles and ellipses least squares solution // BIT. 1994. V. 34. P. 556−577.
  66. Fitzgibbon A., Pilu M., Fisher К Direct least-square fitting of Ellipses // IEEE Trans. PAMI. 1999. V. 21. No. 5. P. 476−480.
  67. Linying S., Sharp В., Chibelushi C. Knowledge-based image understanding: a rule-based production system for X-ray segmentation // Int. Conf. on Enterprise Information Systems (ICEIS). 2002. P. 530−533.
  68. Lanterman A. Minimum Description Length understanding of infrared scenes // Proc. SPIE. 1998. V. 3371. P. 375−386.
  69. Li M., Vitanyi P.M.B. Inductive reasoning and Kolmogorov complexity // Proc. 4th IEEE Structure in Complexity Theory Conf. 1989. P. 165−185.
  70. Vovk V., Gammerman A. Complexity approximation principle // The Computer Journal. 1999. V. 42. № 4. P. 318−322.
  71. Luo Q., KJioshgoftaar T.M. Unsupervised multiscale color image segmentation based on MDL principle // IEEE Trans, on Image Processing. 2006. V. 15. № 9. P. 2755−2761.
  72. Lee T.C.M. A minimum description length based image segmentation procedure, and its comparison with a cross-validation based segmentation procedure //J. American Statistical Association. 2000. V. 95. P. 259−270.
  73. Cazorla M.A. et al. Bayesian models for finding and grouping junctions // Energy Minimization Methods in Computer Vision and Pattern Recognition. 1999. P. 70−82.
  74. Li M., Gao Q. and Vitanyi P.M.B. Recognizing on-line handwritten characters using MDL // Proc. IEEE Information Theory Workshop. 1993. P. 24−25.
  75. Maybank S.J. and Sturm P.F. MDL, collineations and the fundamental matrix // Proc. 10th British Machine Vision Conference. 1999. P. 53−62.
  76. И.В., Тетерин B.B. Математическая модель для экспресс-оценки степени сходства изображений // Оптический журнал. 2001. № 11. С. 3337.
  77. Т. Иерархические методы в структурном распознавании образов // ТИИЭР. 1979. Т. 67. № 5. С. 39−49.
  78. Feldman J. Perceptual grouping by selection of a logically minimal model // Int. J. Computer Vision. 2003. V. 55. № 1.P. 5−25.
  79. A.C. Теоретико-информационный подход к введению обратных связей в многоуровневых системах компьютерного зрения // Оптический журнал. Т. 74. № 10.2007. С. 59−65.
  80. А.С., Малышев И. А., Луцив В. Р. Совмещение аэрокосмических изображений с субпиксельной точностью методом локальной корреляции // Оптический журнал. 2004. Т. 71. № 5. С. 31−36.
  81. Pilu М., Fisher R.B. Part segmentation from 2D edge images by the MDL criterion // Image and Vision Computing. 1997. V. 15. № 8. P. 563−573.
  82. Zhu S.C., Wu Y.N., Mumford D.B. Filters, random fields, and maximum entropy (FRAME): towards a unified theory for texture modeling // Int’l J. Computer Vision. 1998. V. 27. No. 2. P. 1−20.
  83. Casasent D. and Psaltis D. Deformation-invariant, space-variant optical pattern recognition // Progress in Optics. 1978. V. 16. P. 291−365.
  84. Lagunovsky D. and Ablameyko S. Straight-line-primitive extraction in grey-scale object recognition // Pattern Recog. Letters. 1999. V. 20. P. 1005−1014.
  85. , D.G. 2001. Local feature view clustering for 3D object recognition. IEEE Conference on Computer Vision and Pattern Recognition, Kauai, Hawaii, pp. 682−688.
  86. Lillholm M., Nielsen M., Griffin L.D. Feature-Base Image Analysis // Int. J. Computer Vision. 2003. V. 52. No. 2/3. P. 73−95.
  87. Pinz A., Prantl M., Ganster H. A robust affine matching algorithm using an exponentially decreasing distance function // J. of Universal Computer Science. 1995. V. 1. No. 8. P. 614−631.
  88. Zhao W., Chellappa R., Phillips P.J., Rosenfeld A. Face recognition: a literature survey //ACM Computing Surveys. 2003. V. 35. P. 399−458.
  89. Olson C.F., Huttenlocher D. Automated target recognition by matching oriented edge pixels // IEEE Trans, on Image processing. 1997. V. 6. No 1. P. 103−113.
  90. Marr D. and Hildreth E. Theory of edge detection // Proc. R. Soc. Lond. B207. 1980. P. 187−217.
  91. Helmer, S.&Lowe, D.G.Object Class Recognition with Many Local Features.
  92. Gordon, I.&Lowe, D.G.Scene Modelling, Recognition and Tracking with Invariant image Features.
  93. , K. & Schmid, C. 2001. Indexing based on scale invariant interest points. International Conference on Computer Vision, Vancouver, Canada (July 2001), pp. 525−531.
  94. , K. & Schmid, C. 2002. An Affine Invariant Interest Point Detector. ECCV.
  95. Konishi S., Yuille A.L., Coughlan J.M., Zhu S.Ch. Statistical edge detection: learning and evaluating edge cues // IEEE Trans. Pattern Analysis and Machine Intelligence. 2003. V. 25. № 1. P. 57−74.
  96. A.H. Комбинаторные основания теории информации и исчисления вероятностей // УМН. 1983. Т. 38. Вып. 4. С. 27−36.
  97. Li М., Vitanyi Р.М.В. Philosophical issues in Kolmogorov complexity (invited lecture) // Proc. on Automata, Languages and Programming (ICALP •92). 1992. V. 623. P. 1−15.
  98. И.Э., Прэтт У. К. Количественный расчет детекторов контуров, основанных на подчеркивании перепадов яркости с последующим пороговым ограничением // ТИИЭР. 1979. Т. 67. № 5. С. 59−70.
  99. Park R.-H., Yoon K.S., Choi W.Y. Eight-point discrete Hartley transform as an edge operator and its interpretation in the frequency domain // Pattern Recognition Letters. 1998. V. 19. P. 569−574.
  100. Smith S.M. and Brady J.M. SUSAN a new approach to low level image processing // Int. Journal of Computer Vision. 1997. V. 23. No. 1. P. 45−78.
  101. Thevenaz P. et al. A pyramid approach to subpixel registration based on intensity // IEEE Trans. Image Processing. 1998. V. 7. No. 1. P. 27−41.
  102. Noronha S., Nevatia R. Detection and modeling of buildings from multiple aerial images // IEEE Trans. PAMI. 2001. V. 23. No. 5. P. 501−518.
  103. Growe S. Knowledge based interpretation of multisensor and multitemporal remote sensing images // IAPRS. 1999. V. 32. Part 7−4-3 W6. P. 130−138.
  104. Olson C.F. Improving the generalized Hough transform through imperfect grouping // Image and Vision Computing. 1998. V. 16. P. 627−634.
Заполнить форму текущей работой