Исследование процессов обучения некоторых классов распознающих систем врамках теоретико-автоматной модели тема автореферата и диссертации по математике, 01.01.09 ВАК РФ

Новиков, Константин Юрьевич АВТОР
кандидата физико-математических наук УЧЕНАЯ СТЕПЕНЬ
Екатеринбург МЕСТО ЗАЩИТЫ
1995 ГОД ЗАЩИТЫ
   
01.01.09 КОД ВАК РФ
Автореферат по математике на тему «Исследование процессов обучения некоторых классов распознающих систем врамках теоретико-автоматной модели»
 
Автореферат диссертации на тему "Исследование процессов обучения некоторых классов распознающих систем врамках теоретико-автоматной модели"

Р Г Б ОД

На правах рукописи

Новиков Константин Юрьевич

ИССЛЕДОВАНИЕ ПРОЦЕССОВ ОБУЧЕНИЯ НЕКОТОРЫХ КЛАССОВ РАСПОЗНАЮЩИХ СИСТЕМ В РАМКАХ ТЕОРЕТИКО-АВТОМАТНОЙ МОДЕЛИ

Специальность 01.01.09 - Математическая кибернетика

АВТОРЕФЕРАТ

диссертации на соискание ученой степени кандидата физико-математических наук

Екатеринбург 1995

Работа выполнена на кафедре вкономического моделирования и информатики Уральского государственного университета»

Научный руководитель - доктор физико-математических

наук, профессор В.Д-Мазуров

Официальные оппоненты - доктор физико-математических

наук, профессор Э.Г.Альбрехт

кандидат технических наук Д.Н.Гайнанов

Ведущая организация - Уральский государственный

технический универститет

Защита состоится года в ^чалов

на заседании диссертационного совета К 002.07.01 по защите диссертаг ций на соискание ученой степени кандидата наук в Институте математики и механики УрО РАН (620066, г.Екатеринбург, ул.С.Ковапевской, 16).

С диссертацией можно ознакомиться в библиотеке Института математики и механики УрО РАН.

Автореферат разослав "¿У/У/У&/ЭЛ-

Ученый секретарь диссертационного совета

I С.Н.С. // В.Д.Скарин

ОБШАЯ ХАРАКТЕРИСТИКА РАБОТЫ

Актуалшостъ теми. Современные требования к автоматизированным системам принятия решений, предполагающие качественное расширение класса задач, которые эти системы должны решать,.приводят к необходимости более широкого и общего подхода к моделированию процессов принятия решений.

В настоящее время ведется активная работа по развитию моделей и распространению их сферы действия на исходно противоречивые (с точки зрения а тих моделей) и неформализуемые задачи. Значительные результаты в в том направлении достигнуты И.И.Ереминым1 и В.Д.Мазуровым2.

В проблеме расширения моделей принятия решений, в частности моделей алгоритмов распознавания, с особой остротой встают вопросы относительно выбора того или иного продолжения модели. Поиск ответов на данные вопросы предполагает проведение общих исследований строения в целом совокупностей конкретных распознающих алгоритмов. Такие исследования стали возможны, благодаря введенному Ю.И.Журавлевым3 абстрактному понятию алгоритма распознавания.

В настоящей работе рассматривается частный случай таких алгоритмов распознавания в применении к задаче обучения частично вероятностных автоматов. В основе обучения лежит управляемый поиск, что позволяет провести аналогию с работой Т.Митчелла4. В диссертации исследуется влияние структурных свойств распознающих алгоритмов на эффективность обучения, а также на восприимчивость к целенаправленному обучению среды.

Цел» работы состоит в изучении строения некоторых классов алгоритмов распознавания и определении вффективности обучения, обеспечиваемого ими в рамках теоретико-автоматной модели.

Методы, исследования. В основе работы лежит теоретико-множественное представление основных объектов теории распознавания. Модель процесса обучения включает теоретико-автоматные конструкции. В доказательствах отдельных теорем использовались понятия и результаты теории графов, общей алгебры.

Научная новизна. Все результаты, полученные в диссертационной работе, являются новыми.

1 Еремин И.И. О задачах выпуклого программирования с противоречивыми ограничениями //Кибернетика, 1971, К' 4. - С. 124-129.

аМазуров Вл.Л. Метод комитетов в задачах оптимизации и классификации. - М.: Наука, 1990.

3Журавлев Ю.И. Об алгебраическом подходе к решению задач распознавания и классификации. - Проблемы кибернетики. Вып. 33. - М.: Наука, 1978, с.5-68.

*T.M.Mitehell Generalization as Search. - Artificial Intellegence, 1982, Vol. 18, 203-226.

Теоретическая и практическая ценности.*. Результаты работы могут быть использованы при проектировании моделей алгоритмов распознавания, обучающихся систем, а также систем искусственного интеллекта.

Апробация работ». Результаты, составляющие содержание диссертации, докладывались на 2-й Всероссийской с участием стран СНГ конференции: "Распознавание образов и анализ изображений: новые информационные технологии" (август, 1995), а также на научных семинарах отдела математического программирования Института математики и механики УрО РАН, кафедры экономического моделирования и информатики Уральского государственного университета, кафедры вычислительной техники Уральского государственного технического университета.

Публикации. Практически полное содержание диссертации представлено в работах, список которых приводится в конце автореферата.

Структура и обшем работы. Диссертация состоит из шести глав (включая введение), разбитых на 17 разделов и списка литературы. Объем диссертации составляет 84 страницы печатного текста. Библиография состоит из 51 наименования.

СОДЕРЖАНИЕ РАБОТЫ

В первой главе - введении - дается обзор литературы по теме диссертации, приводятся мнения ведущих специалистов по поводу общих проблем и тенденций развития теории распознавания, обосновывается актуальность темы диссертации, излагается содержание работы.

Вторая глава посвящена анализу строения и структурных свойств некоторых классов алгоритмов распознавания.

В первом разделе а той главы приводятся определения задач и алгоритмов распознавания, а также доказываются некоторые свойства, следующие из этих определений.

Пусть множество объектов распознавания X и множество символов классов Y конечны.

Определение 1. Произвольную фиксированную пару < Хо, /д >, где Хо € X, /о : Хо V, назовем задачей распознавания и обозначим

Множество всех задач распознавания над множеством событий X и множеством действий ¥ обозначим 2)(Х, V) = Э.

Определение 2.Множество 2)' = {Б =< Хо,/о >€ 2) : Хо = X} назовем множеством вырожденных задач распознавания или множеством решений.

Над множеством задач распознавания вводятся отношения вложенности и непротиворечивости, выражающие естественную структуру втого множества.

Пусть А =< >, А =< Х2,/2 >.

Определение 3. Задача А вложена в задачу А (А С А), если :

Х2 С Хг; Л\х2 = Л-Определение 4.Задача А не противоречит задаче А (А || £>2), если : ЗА € 2) : А £ А, А С А-

На языке введенных отношений обобщенное определение алгоритмов распознавания выглядит следующим образом.

Определение 5. Отображение Я : 2) —» 2)' такое, что :

УЯ € £>: || £>.

назовем алгоритмом распознавания, а задачу Я(Б) - решением задачи А

Множество всех алгоритмов распознавания над множеством задач 2) обозначим 9*(2)) = 9* .

Во втором разделе первой главы исследуются общие свойства ал-горимов распознавания, характеризующие действие этих алгоритмов на совокупностях задач распознавания.

Формулируется свойство согласованности по вложению, которое предполагает сохранение подтверждающихсл со временем гипотез.

Определение 6. Алгоритм распознавания Я € обладает свойством согласованности по вложению, если:

УА, А € 2): ( А с а, Д(А) II А => Л(А) = Л(А)).

Множество всех алгоритмов распознавания, обладающих этим свойством, обозначим 9^с.

Рассматривается свойство согласованности по непротиворечивости, имеющее на первый взгляд более общую формулировку.

Определение 7. Алгоритм распознавания Я 6 91 обладает свойством согласованности по непротивречивости, если:

УА, А е 2): ( Д(А) || А, Я(А) IIА => Д(А) = Д(А) )•

Множество всех алгоритмов распознавания, обладающих этим свойством, обозначим

Доказывается следующая теорема.

Теорема 1. Свойства согласованности по вложению и по непротиворечивости эквивалентны.

Вводится усиление свойства согласованности по непротиворечивости.

Определение 8.Алгоритм распознавания R £ 01 обладает свойством согласованности по замкнутой цепочке непротиворечивости, если:

V*€ N, VD1,...,Dke/D:

( ВД) || D3, R(D2) || D3, ..., ОД-,) || Dk, R(Dk) || Di R(Dl) = R{D1) = ---=R{Dk) ).

Множество всех алгоритмов распознавания, обладающих втим свойством, обозначим 1Кц...ц.

Приводится пример, доказывающий, что: £Иц...ц С £Иц. Пример соответствует случаю, когда: |Х| = 3, |Y| = 2. При втом непосредственно выписаны решения для всех 19 невырожденных задач распознавания.

Рассматривается свойство оптимизируемости, предполагающее наличие произвольного критерия, с точки зрения которого решение ка ждой задачи, определяемое алгоритмом, является оптимальным на всем'множестве решений, не противоречащих условию задачи.

Определение 9. Алгоритм R G обладает свойством оптимизируемости, если существует весовая функция ( : Э R. такая, что:

VDltD2 е &: ( А Ф D3 С(А) Ф СШ ), и для которой справедливо следующее соотношение:

VD G 2) : R(D) = argmin{ C(-D') = Ü € & II D } . (1)

Множество всех алгоритмов распознавания, обладающих втим свойством, обозначим íHopt-

Доказывается критерий оптимизируемости.

Теорема 2,Свойство оптимизируемости эквивалентно свойству согласованности по замкнутой цепочке непротиворечивости.

Таким образом, результаты, полученные во второй главе, показывают следующую картину строения совокупностей алгоритмов распознавания:

= 9%..ц с =

Глава 3 содержит описание теоретико-автоматной модели процесса обучения и определения четырех типов обучающих операторов.

Модель состоит из двух частично вероятностных автоматов: внешней среды. С и обучающегося субгекта 2$, между которыми в каждый момент дискретного времени происходит обмен информацией. Обучающийся субъект получает от среды текущую ситуацию а:< € и в зависимости от нее предпринимает одно из действий у( € Среда

оценивает это действие и сообщает свою оценку щ € {0,1} обучающемуся субъекту. Целесообразное поведение определяется совершением в канадой ситуации только действий с максимальной оценкой. Среда <£ представима в виде четверки элементов:

<£=<Х(£,Уд5,»7,Х>,

где функция оценки поведения г] является отображением:

7 : Х<£ X У<д —► {0,1},

а генератор ситуаций Х<£ - в общем случае случайной величиной: х<£ €

Х€.

Действие у € У<в в ситуации х £ Х<£ называется правильным, если г](х,у) = 1и неправильным в противном случае.

Пусть множества Х<£ и У13 конечны. Введем в рассмотрение дополнительное (нулевое) действие в , не принадлежащее У53 .

Определение 10. Отображение:

С : Х4 -»У® и {«},

назовем состоянием субккта 05 . Множество всевозможных состояний обозначим С .

Состояние субъекта 95, сопоставляющее каждой ситуации нулевое действие в, назовем нулевым состоянием и обозначим С'.

Определение 11 .Отображение:

&3 : Х<£ х У® х {0,1} х С С, назовем оператором смены состояний (или оператором обучения).

Рисунок 1:

Определение 12. Случайную величину £ назовем генератором действий.

Предполагается, что генератор действий имеет равномерное распределение на множестве У ¡д.

В дальнейшем будем рассматривать только субъекты 23 следующего видал

© =< Х(Б,¥«8,5<8,£д5,Со >.

поведение которых в среде (£ определяется с помощью блок-схемы, представленной на рисунке 1.

Целью обучения' является достижение обучающимся субгектом одного из состояний, обеспечивающих выработку только правильных дей-

ствий в порождаемых средой ситуациях.

Определение 13.Среду, функция оценки т) в которой обладает следующим свойством:

У1бХе:3!»6 У® :7(х,у) = 1,

назовем средой с однозначно-определенной •цел»».

Среды с однозначно-определенной целью, очевидно, характеризуются наличием единственного целевого состояния Сор| такого, что:

УхеХе:ф,С°*(х)) = 1.

и достижение которого является необходимым условием полного обучения.

Эффективность обучения характеризуется количеством неправильных действий, предпринимаемых субгектом 0$ до полного обучения.

Далее в главе 3 рассматриваются четыре типа обучающих операторов.

Определение 14. Оператором простого случайного поиска назовем оператор смены состояний такой, что :

С« если 1)(хиу<) = 1, Сх(х() ф в

^ ) лв-»(»1,У1,С<) если 1](х(,у() = 1, Сг(х{) - в

С( если т](хи у,) = 0, С{(х{) = в '

Зу-^О1'»с*) если У«) = 0, ) ф в

где

УС € С, € ХЙ, у' <Е У® : С) = С" :

® 4 ' [ у если х = х УС € С, х' е Х,£ : з^е(х\ С) = С':

Ух е Х€ : С(.) = I С<>> еСЛи

* 4 ' ^ 0 если х = х

Определение 15. Оператор назовем оператором случайного поиска со случайным обобщением, если:

_ / [^»(^»У«.»?^«.^)»^)] >есЛ1Х ЧО®«.!/«) = 1, с<(®<) = в

I 3^(х,,уиг](хиу{),С^ , иначе

где операция случайного обобщения определяется следующим образом:

УС € С<в : 5((С) = С: V. 6 Хв : б"(*) = { | Ц , ■

(т.е. все нулевые значения состояния С заменяются некоторыми значениями случайной величины (.)

Определение 16. Введем некоторую линейную упорядоченность на множестве и определим отображение а : Удз —» Y^8 так, чтобы :

V» = 1, \У<а | - 1 : сг(у,) = у1+1; ^у^,) = Уи Тогда оператор такой, что :

^(хиУиФиУ&Сг) =

_ ( зе-,у(хи <г(у<), С«) , есди т)(хг, у,) = О \ зе.+у(хи уи С<) , если 1}(х„ у,) = 1

назовем оператором перебора.

Зададим взаимно-однозначное соответствие между множеством состояний С и множеством задач распознавания Э(Х,£, ). Пусть

тогда Со построим следующим образом:

® 4 ' \ в ,иначе

Обратно, пусть Се С, тогда Бс =< -Хс>/о > определим так:

Хв = {х€Хе : С(х)фв}-, ЧхеХи : Д,(*) = ОД.

Определение 17. Пусть Л € Оператор 5гц назовем оператором случайного поиска с детерминированным обобщением (распознаванием), если :

{Я [<?»(*<,У«>«?(*<»У«).С«)] , если г/(г,,у() = 1, С(&) = е ^ 3%ь(.хиуиТ1(хиу,),С^ , иначе

В главе 4 проводится анализ эффективности обучения, осуществляемого. некоторыми классами обучающих операторов, при произвольных стратегиях порождения ситуаций.

Математическое ожидание количества неправильных действий, которое предпринимается субъектом 53 до полного обучения, осуществляемого из нулевого состояния с помощью оператора усредняемое относительно случайной величины ( и функций оценок т), обладающих свойством:

V* € ХФ : 3!у € У® : ч(х, у) = 1, (3)

при произвольной фиксированной детерминированной стратегии порождения ситуаций х обозначим Соотношение (3) означает, что усреднение проводится по всем разбиениям объектов распознавания на непересекающиеся классы.

Теорема 3.Независимо от выбора стратегии порождения ситуаций х, обеспечивающей достижение полного обучения суб(екта 93 с помощью операторов случайного поиска случайного поиска со случайным обобщением ЗчЦ, перебора имеет место следующее:

К^СЛх) = |Хй|-(|У<8| - 1) ;

Далее исследуется эффективность обучения, обеспечиваемая обучающими операторами с тождественным распознаванием.

Определение 18. Алгоритм распознавания назовем тождественным, если для каждой задачи он определяет решение, сопоставляющее веем событиям, не принадлежащим обучающей выборке, одно и то же фиксированное действие, зависящая только от этого события.

Множество тождественных алгоритмов распознавания обозначим £И(=).

Теорема 4. Пусть алгоритм распознавания Д(=) 6 ¡¡Н(=) является тождественным. Тогда для любой стратегии порождения ситуаций х> обеспечивающей полное обучение субгекта 95;

Более того, показывается, что тождественные алгоритмы распознавания являются наихудшими среди всех алгоримов распознавания в следующем смысле:

V*. Щщ € <Я(=), УД € :

Центральное место в главе 4 занимает анализ эффективности обучения при использовании операторов случайного поиска с оптимизирующим распознаванием. В результате втого анализа была получена следующая теорема.

Теорема б .Рассмотрим процесс обучения, проводимый с помощью оператора случайного поиска со случайным обобщением при произвольной стратегии порождения ситуаций х• Рассмотрим некоторый момент t втого процесса, когда должна быть предпринята очередная операция случайного обобщения зПусть в предшествующий период втого процесса обучения к состояниям С\,.. .,С, уже применялась операция случайного обобщения, в результате чего были получены состояния С[,...,С'Ч соответственно.

Зафиксируем произвольным образом весовую функцию ( такую, что оптимизирущий алгоритм распознавания Н^ на состояниях С].,..., С, действует точно так же как ранее операция случайного обобщения:8

У» = М:Л<((7,) = С/.

Тогда каждой ситуации х, которой операция случайного обобщения в момент времени 1 должна соспоставить некоторое конкретное действие вместо символа в, операция детерминированного распознавания с алгоритмом Н^ сопоставит правильное действие с не меньшей вероятностью, чем ото сделала бы операция 3(.

Следствие из втой теоремы можно выразить следующим соотношением:

х),

где величина X) С) в отличие от ранее рассмотренных усред-

няется еще и по всевозможным весовым функциям ( оптимизирующих алгоритмов распознавания.

В главе 5 проводится анализ свойств алгоритмов распознавания, связанных с обучающим воздействием среды.

Воздействие среды на процесс обучения было ограничено возможностями:

'Возможность выбора такой весовой функции следует из леммы о противоречивости, доказанной в описываемой работе.

• выбора определенной стратегии порождения последовательности ситуаций;

• введения косвенной (вспомогательной) системы оценивания действий.

В первом разделе главы 5 рассматривается задача обучения с дифференцированными штрафами за совершение неправильных действий в зависимости от ситуаций.

Пусть в среде (£ за совершение неправильных действий в зависимости от конкретной ситуации налагается штраф, представляющий собой функцию:

¡1: Х4 -» R+.

Требуется построить процесс обучения таким образом, чтобы суммарный штраф был минимальным. При атом возможен произвольный выбор метода обучения, стратегии порождения последовательности ситуаций и определение косвенной системы оценивания действий. Причем косвенные оценки, направляя ход обучения, не освобождают от штрафа за истинные неправильные действия.

Рассмотрим среду с однозначно-определенной целью. Пусть имеется подмножество ситуаций ХСХ{, и:

Vx€X: fi(x) = Q; Vx е Х$\Х : (i(x) = q; q<Q.

Теорема 6.Пусть среда (E является средой с однозначно-определенной целчо. Средние суммарные штрафы при обучении из нулевого состояния методами простого случайного поиска, случайного поиска со случайным обобщением и перебора без введения косвенного оценивания не зависят от стратегии порождения ситуаций и равны соответственно:

Ж4)=n(sg) = (q\x\ -HlXiVTl) -(lYsl -1); Ж*») = (Q-1*1 + ?ix£\x|) ■|Ys2i~1,

Введение косвенного оценивания может только ухудшить эти показатели.

Использование метода случайного поиска с обобщением позволяет проводить основной объем обучения в ситуациях с малой величиной штрафа за неправильные действия и затем распространить накопленные знания на остальные ситуации. Пусть:

Х = {х1,...,х1}-, 13

Предположим, что алгоритм распознавания Я обладает следующим свойством:

>У( € Удз : ЭСу,,...,у, € С«в, СУ1,...,У|

( V» = 17?: [■ЭДС»....и )](*») = У» ) * (4)

Теорема 7. Пусть среда (3 является средой с однозначно-определенной целью. Существуют стратегия порождения ситуаций и косвенная система оценивания действий, при которых средний суммарный штраф за неправильные действия в ходе обучения, осуществляемого методом случайного поиска с распознаванием В., обладающим свойством (4), не превосходит величины:

Ж^КСМ + г-НХаД^НУ*!.

Далее проводится анализ алгоритмов распознавания, обладающих свойствами, подобными (4).

Произвольную задачу распознавания £) =< X, / >, где = з, з<п, будем называть задачей ранга а.

Определение 19. Алгоритм распознавания В, £ ¡¡Н восстанавливает задачу О =< X,/ > (обозначение Я>£>), если:

3£У =< X',/' >е 2), X П X' = и : I» || Д(£')- (5)

Теорема 8, Из всех алгоритмов распознавания наименьшее количество задач восстанавливают тождественные алгоритмы.

Утверждение Х.Если алгоритм распознавания восстанавливает все задачи ранга з, то он также восстанавливает и все задачи меньших рангов.

Утверждение 2. Согласованный по вложению алгоритм распознавания не может восстанавливать все задачи ранга, превышающего .

Пусть мощность множества событий X четна (п = 2т). Введем обзначение:

Э1/2={д=<Х,/>6® : |Х|=т=^}. (6)

Очевидно, что:

Определение 20. Алгоритмы распознавания, восстанавливающие все задачи с рангами, не превышающими т, будем называть тотально восстанавливающими.

Множество всех таких алгоритмов обозначим £И>.

В проблеме восстановления задач мало иметь информацию о том, что некоторый алгоритм восстанавливает ту или иную задачу - важно уметь находить восстанавливающую задачу. Наиболее легко это позволяют делать симметрические алгоритмы распознавания. Далее приводится определение симметрических алгоритмов. Введем обозначение: ВхжВ? Х\ = Х\-Хг.

Утверждение 3.

УЯеЗ*, VI) € 2) : ЗШх(л) € 2) : II Я{Б). (7)

Определение 21 .Алгоритм распознавания Я € 1Н назовем симметрическим, если:

УБ<=Т>уз : Я(Б) = Д(Х>*<«>). (8)

Множество самосопряженных алгоритмов обозначим

Теорема 9. Любой симметрический алгоритм Я является тотально восстанавливающим. Причем для любой задачи Б £ 3?1/3 восстанавливающей задачей является

Теорема 10.Для любого конечного множества У и любого конечного множества X с четной мощностью: £Ях(Х, V) ф 0.

Теорема 11. Если оптимизирующий алгоритм распознавания Я 6 1Яор1 восстанавливает все задачи из множества 2)]/2, то он является симметрическим.

Последний раздел посвящен исследованию процессов обучения без повторения ошибок.

Определение 22. Обучение, при котором в каждой ситуации субчкт 3 предпринимает каждое неправильное действие не более одного раза, назовем обучением без повторения ошибок.

Теорема 12. Пусть: 3<|Удз|^|Х<£| — 3. Тогда для любого алгоритма распознавания существуют функция оценки 17 и управление порождением последовательности ситуаций такие, что обучение, начинаемое из нулевого состояния и определяемое оператором случайного поиска с обобщением, соответсвующим этому алгоритму распознавания, содержит повторные ошибки, созданные операцией распознавания.

Теорема 13. В любой среде существует алгоритм распознавания такой, что для любой функции оценки г) существует стратегия управления порождением последовательности ситуаций, зависящая от текущего состояния субгекта 05, при которой в ходе обучения, начинаемого из нулевого состояния и определяемого оператором случайного поиска с обобщением, ошибки операцией распознавания не повторяются.

ЗАКЛЮЧЕНИЕ

Основные результаты, полученные в диссертационной работе заключаются в следующем.

1. Исследованы некоторые структурные свойства операторов продолжения частично определенных функций. В числе втих свойств: согласованность по вложению, согласованность по непротиворечивости, а также согласованность по замкнутой цепочке непротиворечивости.

2. Построен структурный вквивалент свойства оптимизируемости операторов продолжения.

3. Построена теоретико-автоматная модель процесса обучения, включающая влементы теории распознавания.

4. Определена нижняя оценка средней вффективности обучения по всем весовым функциям оптимизирующих алгоритмов распознавания для произвольной стратегии порождения ситуаций.

5. Исследованы задачи обучения с дифференцированными штрафами за ошибочные действия, в частности задачи обучения в "опасных" ситуациях. Определены оценки средней вффективности обучения при использовании восстанавливающих алгоритмов.

6. Охарактеризовала связь оптимизирующих и тотально восстанавливающих алгоритмов распознавания.

ОСНОВНЫЕ РЕЗУЛЬТАТЫ ДИССЕРТАЦИИ ОПУБЛИКОВАНЫ В РАБОТАХ:

1. Novikov K.Yu. On Certain Classes of Recognition Algorithms.

. ¡I Pattern Recognition and Image Analysis.- 1994.- V.4, N.2.- P.93-97

2. Novikov K.Yu. On Knowledge Generalization and Learning Speed. // Pattern Recognition and Image Analysis.- 1994.- V.4, N.4.- P.359-371

3. Novikov K.Yu. Learning with Cooperation of Environment. // Pattern Recognition and Image Analysis.- 1995.- V.5, N.3.- P.340-362

4. Новиков К.Ю. Распознавание как составная часть процесса обучения. // Труды конференции: "Интеллектуальные и информационные технологии и стратегии системной информатизации Уральского региона". Челябинск, 1994, с.79-80

5. Новиков К.Ю. Элементы, обобщенного подхода к распознаванию •■ образов и их приложение в автоматной модели процесса обучения.

// Труды 2-й Всероссийской с участием стран СНГ конференции: "Распознавание образов и анализ изображений: новые информационные технологии", Часть 1. Ульяновск, 1995, с.6-8

Подписано в печать 14.09.95

Уч.-изд. д. 1,28_Тираж 100

Формат 60x84 1/16 Заказ 254