Исследовательский потенациал молодых ученых: взгляд в будущее - 2021
198 УДК 51-7 В. И. Рудаков vladimirrudd@gmail.com Научный руководитель – доктор физ.-мат. наук, доцент И. Н. Балаба Тульский государственный педагогический университет им. Л. Н. Толстого ПРИМЕНЕНИЕ НЕЙРОСЕТЕВЫХ ТЕХНОЛОГИЙ ДЛЯ ДЕТЕКТИРОВАНИЯ И РАСПОЗНАВАНИЯ АВТОМОБИЛЬНЫХ НОМЕРОВ Аннотация. Рассматривается применение и методология разработки системы детектирования и распознавания автомобильных номеров с помощью нейросетевых технологий. Ключевые слова: распознавание образов, нейросетевые методы. Системы распознавания автомобильных номеров давно становятся важной частью реализации систем видеонаблюдения за безопасностью общества. Цель системы – распознавание уникального идентификационного номера, который присваивается каждому автомобилю административными органами. Техниче- ски идентификация автомобиля здесь является применением техники обра- ботки изображений. Автоматическое распознавание изображений имеет широкий спектр приме- нений, таких как преследование, мониторинг общественного порядка, проверка статуса автомобиля, автоматический сбор платы за проезд и контроль величины транспортного потока. Практическая реализация системы слежения за транспортом с использова- нием камер видеонаблюдения является очень требовательным процессом, так как система должна обрабатывать видеопоток в среде, где погодные условия мо- гут влиять на читаемость номерного знака наряду с фактическими дорожными условиями и вариабельностью угла установки камеры. Все эти проблемы при- вносят сложности в распознавание символов на номерных знаках. Как правило, система распознавания автомобильных номеров состоит из че- тырех этапов: захват изображения, обработка изображения, сегментация симво- лов и распознавание символов. В предыдущей работе использовались методы корреляции изображений и сегментации символов. В [1–3] был внедрен метод на нечеткой основе с использованием нейронных сетей. Работа, представленная в [2], представляет собой интеллектуальный ги-
Made with FlippingBook
RkJQdWJsaXNoZXIy ODQ5NTQ=