Нейросетевая реализация системы автономного адаптивного управления
Рефераты >> Программирование и компьютеры >> Нейросетевая реализация системы автономного адаптивного управления

Важной задачей ФРО для автономных систем также является не только распознавание образов, но и их хранение или запоминание. Это следует из автономности системы, т.к. для неавтономных систем распознанные образы могут храниться и использоваться вне системы. Вообще говоря, проблему запоминания можно решить множеством способов. Например, один из известных способов – организовать кольцо из нейронов, в котором сигнал мог бы прецессировать до бесконечности или в течении некоторого времени в случае затухания. В последнем случае система приобретает новое полезное свойство «забывчивости», которое, как известно, присуще биологическим системам и позволяет более рационально и экономно использовать ресурсы, т.к. ненужная или малоиспользуемая информация просто «забывается». Эксперименты проводились с формальной моделью без памяти, но очевидно, что она нужна. Нами предлагается ввести так называемую синаптическую память, т.е. способность запоминать входной сигнал в синаптическом блоке.

x1t D1 T1 y1 t

D1 t1 Rw

y2 t bwt+1

x2t D2 T2 .

D2 t2 Owt+1

&

cwt+1

. . .

. . .

. . .

xmt Dm Tm ymt

Dm tm

Рис. 3.2.1

В данной работе мы используем нейрон из [Жданов2], который модифицирован в соответствии с [Братищев]. Мы приведем лишь краткое описание. На рис. 3.2.1 представлена блочная схема предлагаемой формальной модели нейрона. Входы нейрона xit подаются на блоки задержки Di для задержки сигнала на время Di , а затем на триггерные элементы Ti для удлинения сигнала на величину ti . Данные элементы обеспечивают некоторую неопределенность момента поступления входного сигнала по отношению к моменту генерации выходного спайка и образуют таким образом синаптическую память, поскольку входной сигнал запоминается в этих элементах на некоторое время.

С учетом задержек Di и ti получаем, что, если на выходе обученного нейрона в момент t появился единичный сигнал, то единичные импульсы на входы нейрона поступили в интервалы времени di = [ t - ti - Di ; t - Di -1]. Неопределенность моментов поступления входных импульсов будет тем меньше, чем меньше задержки ti.

Пример временной диаграммы работы обученного нейрона с двумя входами и с заданными задержками Di и ti иллюстрирует рис. 3.2.2. Вопросительными знаками показаны неопределенности моментов прихода входных импульсов, соответствующие интервалам di.

x1 ? ? ?

x2 ? ?

y1

y2

c1

1 2 3 4 5 6 7 8 9 10 11 12 t

Рис. 3.2.2.

Различное отношение и расположение задержек Di и ti во времени наделяет нейрон возможностями формирования и распознавания образов следующих видов.

Если , то имеем пространственный образ. Например, образ некоторой геометрической фигуры.

Если , то имеем образ следования (важен порядок следования образующих, допустима неопределенность в конкретных моментах прихода импульсов). Примером может быть распознавание слов при чтении по буквам.

Если " ti = 1, то имеем пространственно-временной образ (ПВО), в этом случае однозначно определено, по каким входам и в какие моменты времени приходили сигналы. Примером может быть распознавание музыкального тона определенной высоты.

Элемент lw предназначен для набора статистики по данному пространственно-временному образу. Значение lw=1 указывает на то, что данный нейрон обучен.

Задержки Di и ti заданы изначально, т.е. являются константными параметрами нейрона. Если поступающая на данный нейрон последовательность сигналов содержит закономерность, описываемую такими временными параметрами, то нейрон сформирует образ такого пространственно-временного прообраза. Очевидно, что необходимое число нейронов такого типа в сети будет тем меньше, чем больше априорной информации о временных характеристиках прообразов известно на стадии синтеза сети.

Приведем формализм нейрона.

Owt+1 = cwt+1 & Swt+1 ;

cwt+1 = bwt+1 & lwt+1 ;

bwt+1 =

yit = ù cwt & ait ;

ait = ;

где = tï xit = 1 - момент импульса на входе xi ;

lw t = ;

Nw0 = 0;

Nwt = Nwt-1 + bwt ;

Rw(Nwt) - убывающая сигмоидальная функция.

3.3. Задача построения ФРО.

Для того, чтобы более правильно и экономно построить нейронную сеть ФРО, необходимо понять смысл или «концепцию» [Turchin] формируемых образов, т.е., более точно выражаясь, найти для данного образа множество обучающих входных фильмов или множество всех таких реализаций входных процессов, которые приводят к обучению данного нейрона или формированию данного образа. Введем понятие обучающего входного фильма.

Определение 3.3.1. Всякий входной фильм назовем обучающим для нейрона , если - начальный момент времени работы системы и , .

Таким образом, задачу построения НС ФРО можно сформулировать следующим образом: для данной совокупности входных фильмов построить такую сеть, в которой бы присутствовали нейроны, для которых данные входные фильмы являются обучающими. Построенная таким образом сеть способна решать эталонную задачу классификации, где в качестве эталонов используются данные входные фильмы. Известно множество способов конструирования и настройки сетей для классических формальных моделей нейронов, например, сети обратного распространения, использующие обобщенное -правило. Проблема предлагаемого подхода состоит в том, что 1) система должна быть автономной, а значит отсутствует «учитель»; 2) вообще говоря, a priori не известны все жизненно необходимые для системы образы. Но если мы обладаем априорной информацией об условиях существования системы (что почти всегда бывает), ее следует использовать при конструировании ФРО.


Страница: