DEVELOPMENT OF METHOD OF CONSTRUCTION OF COMPUTER SOLUTION OF CLUSTER STRUCTURE FOR NEURO-COMPUTERS
Abstract and keywords
Abstract (English):
The paper proposes a solution to the elementary fragment program scan tasks, and build the final structure of the computing cluster. The method is presented from the perspective of artificial neural network theory. Fragments of problems presented in the internal form of program presentation - Polish postfix form. Depending on how the fragments of data are required, the total computing cluster built the structure of one of the types: vector, pipelining, vector-conveyor, conveyor-vector, matrix.

Keywords:
clustering, neurocomputing technology, distributed computing, neurocomputational distributed neurocomputational
Text
Text (PDF): Read Download

В современном научном и производственном мире остро стоят проблемы существенной недостаточности вычислительных ресурсов для решения ряда задач. Устоявшимся решением данной проблемы является использование параллельных или распределенных вычислений.

В основе любых систем распределенных вычислений лежит модель вычислений. Модель вычислений связывает между собой архитектуру и модель программирования в распределенных системах, а также отражать взаимодействие процессов. Но на текущее время для классифицированных технологий распределенных вычислений универсальных моделей не построено. Это объясняется тем, что модели вычислений крайне зависимы от выбора архитектуры распределенной системы, и при выборе нестандартной архитектуры для решения специфических задач необходимо также решать задачу построения модели вычислений.

В работе [1] был предложен алгоритм выбора структуры обработки информации, который является неотъемлемой частью модели вычислений распределенного вычислительного кластера с нейрокомпьютерной архитектурой. В нейрокомпьютерных системах обработка информации производится в специализированных вычислительных структурах: векторных, конвейерных, векторно-конвейерных, конвейерно-векторных, матричных[2]. Нами был предложен вариант перенесения принципа обработки информации с нейрокомпьютерной системы на нейрокластерную.

Основной задачей данной статьи является поиск элементарных фрагментов программ, и построения итоговой вычислительной структуры кластера на нейрокомпьютерах. Решение этой задачи осложнено неопределенностью условий. Так, например, в одном и том же отрезке программного кода, выделенного в результате разбиения задач на подзадачи, данные могут требоваться лишь части переменных на разных итерациях вычисления.

Задачи с подобными неопределенными условиями рассматриваются и с успехом решаются в теории нейронных сетей[2]. Алгоритм выбора вычислительной структуры распределенного кластера примет вид искусственной нейронной сети.

Для разработки искусственной нейронной сети необходимо рассмотреть исчерпывающее множество событий. Исчерпывающее множество событий (ИМС) – совокупность событий, высказывания о которых покрывает весь возможный смысловой диапазон проявления объекта высказывания. Каждая допустимая ситуация характеризуется тем, что значение ИСТИНА – 1 может принимать единственное высказывание из этой совокупности, значение 0 могут принимать все высказывания [2].

Исчерпывающее множество событий рассматриваемой задачи состоит из:

  • числа классов эквивалентности .
  • Порядков классов .
  • Ситуаций, когда данные между фрагментами в классах передаются последовательно.
  • Ситуаций, когда данные передаются одновременно для всех фрагментов классов.
  • Ситуаций, когда данные между фрагментами в классах передаются последовательно c редким исключением фрагментов -го класса.
  • Ситуаций, когда данные между фрагментами в классах передаются последовательно, кроме -го, а -му классу, в свою очередь, данные передаются одновременно.
  • Ситуаций, когда данные передаются одновременно для всех фрагментов классов, данные между фрагментами -го класса передаются последовательно.

Различные комбинации этих утверждений образуют ИМС.

Дадим каждому утверждению условное обозначение: , , , , , ,  по порядку соответственно.

Таким образом, искусственная нейронная сеть примет вид (рис. 1), где векторная, конвейерная, векторно-конвейерная, конвейерно-векторная, матричная – вычислительные структуры распределенного вычислительного кластера.

 

Рис. 1. Схема искусственной нейронной сети, описывающая все ИМС

 

 

Схема, представленная на рисунке 1, описывает все исчерпывающее множество событий. Следующим шагом станет обучение этой сети эталонным набором утверждений, которые справедливы для описания всех вариаций существующих разбиений алгоритмов:

1. Если число классов эквивалентности равно , и порядок каждого , и

- обмен данными между фрагментами в классах осуществляется последовательно, - то «конвейерная структура»;

- информация требуется одновременно всем фрагментам классов, то – «векторная структура» [2].

2. Если число классов эквивалентности  равно единице и порядок каждого класса  равен , и

- обмен данными между фрагментами в классах осуществляется последовательно, то –«конвейерная структура»;

- информация требуется одновременно всем фрагментам классов, то –«векторная структура» [2].

3. Если число классов эквивалентности , и порядок каждого , и

- обмен данными между фрагментами в классах осуществляется последовательно, то – «конвейерная структура»;

- обмен данными между фрагментами в классах осуществляется последовательно c небольшим исключением фрагментов -го класса, то – «конвейерная структура»;

- обмен данными между фрагментами в классах, кроме -го, осуществляется последовательно, а -му классу информация требуется одновременно, то – «конвейерно-векторная структура»;

- фрагменты обмениваются информацией последовательно, однако в некоторых классах информация требуется одновременно, то –«конвейерно-векторная структура» [2].

4. Если порядок каждого класса равен числу классов эквивалентности , то – «матричная структура»;

- информация сразу требуется фрагментам всех классов, но в некоторых классах требуется последовательный обмен, то – «векторно-конвейерная структура»;

- информация требуется одновременно фрагментам всех классов, но фрагменты -го класса обмениваются последовательно, то – «векторно-конвейерная структура»;

- информация требуется одновременно фрагментам всех классов, кроме некоторых фрагментов -го класса, то – «векторно-конвейерная структура»;

- информация требуется одновременно всем фрагментам классов, то – «векторная структура»[2].

Затем необходимо подобрать функцию активации нейронов для каждого слоя, которая адекватно поможет обучить сеть подбором весов.

Из всего многообразия функций активации нейронов каждого слоя, наиболее подходящей является пороговая функция активации.

                       (1)

,

где  – синапсический вес входа или вес связи, по которой передается возбуждение от нейрона к нейрону.

Следующим шагом после выбора функции активации нейронов станет обучение нейронной сети методом трассировки. Задачей обучения является выбор единичных весов некоторых связей и нулевых весов других связей так, чтобы в соответствии с функциональным назначением сети сложились отношения «посылка — следствие», подобные тем, которые были созданы выше при построении ИМС. Для достижения требуемого результата необходимо использовать матрицы следования, отображающие как взаимодействие нейронов, так и веса синоптических связей.

Матрица следования для ИМС примет вид (2), где  – специально введенные условные обозначения для вычислительных структур: векторной, конвейерной, векторно-конвейерной, конвейерно-векторной и матричной соответственно.

 

                                 (2)

После обучения – подбора весовых коэффициентов матрица следования для минимизированной ИМС примет вид. (3).

                                  (3)

 

Таким образом, в результате обучения нейронной сети для каждого случая значение функции (1) получается максимальным, из чего можно предположить, что обучение прошло успешно.

Прежде чем начать тестирование работы полученной нейронной сети следует отметить, что для достижения универсальности обработки результатов, необходимо представить их в универсальной форме. Все задачи поставляются в вычислительный кластер в виде программного кода, а для его представления необходим транслятор для перевода его в машинно-понятную форму, что говорит о жесткой привязке к языку программного кода. Одной из распространённых универсальных форм представления программ является постфиксная польская форма представления программ. Для представления программных конструкций типа цикл, условие и т.д., разработана расширенная постфиксная польская форма[3,6]. Именно в такой промежуточной форме и подается на вход искусственной нейронной сети исходный код программы. В работе используется стандартный алгоритм приведения программного кода в постфиксную Польскую форму. На вход подается программный код, а на выходе получается очередь из операторов и операндов. Полученная очередь подается на вход искусственной нейронной сети.

Опробуем нейронную сеть на реальном примере.

Пример 1.

Пусть есть отрывок исходного программного кода:

A=1;

B=2;

C=3;

D=C;

X=A+B;

Y=C+D;

Return x+y;

В обратной польской записи выражение примет вид:

A1=B2=C3=DC=AB+X=CD+Y=XY+$BR. Деление на минимальные атомарные операции приведет к следующему виду:

  1. A1=
  2. B2=
  3. C3=
  4. DC=
  5. AB+
  6. X=
  7. CD+
  8. Y=
  9. XY+
  10. $BR

Безусловно, можно сократить некоторые бессмысленные операции, в частности операции присваивания и возвращения результата.

  1. A1=
  2. B2=
  3. C3=
  4. DC=
  5. AB+X=
  6. CD+Y=
  7. XY+$BR

Рассуждая по приведенному выше алгоритму получаем, что:

  1. Число классов эквивалентности равно единице, и порядок каждого класса равен единице, а информация передается независимо (т.е. параллельно) для случаев A1=, B2=, C3=.
  2. Случай DC= выпадает из данного рассуждения, поскольку он не может выполняться параллельно со всеми, т.к. пока не будет инициализировано значение С, не будет и инициализировано значение D. Таким образомDC= информация требуется последовательно. По первым результатам видно, что образуется векторно-конвейерная структура.
  3. Далее случаи AB+X= иCD+Y= не могут быть инициализированы до тех пор пока не инициализированы все переменные используемые в этих выражениях. Значит они выполняются последовательно, но относительно друг друга они могут выполняться параллельно.
  4. И последнее выражение XY+$BR выполняется последовательно после инициализации переменных X и Y.

Таким образом для каждого случая получаем максимально значение функции :

  1. Векторная
  2. Векторная
  3. Векторная
  4. Конвейерная
  5. Конвейерная
  6. Конвейерная
  7. Конвейерная

А в целом конвейерно-векторная, как показано на рис. 4.

Таким образом, в статье рассмотрен метод поиска элементарных фрагментов программ, и построения итоговой вычислительной структуры кластера на нейрокомпьютерах. Метод представлен с позиции теории искусственных нейронных сетей. Фрагменты задач представляются во внутренней форме представления программ – постфиксной Польской форме. В зависимости от того, каким образом фрагментам требуются данные, выстраивается итоговая вычислительная структура кластера одного из типов: векторная, конвейерная, векторно-конвейерная, конвейерно-векторная, матричная.

 

 

Рис. 4. Результат работы нейронной сети - вычислительная структура для данного отрезка кода

References

1. Ruchkin V.N., Romanchuk V.A., Fulin V.A., Lukashenko V.V. Razrabotka algoritma vybora vychislitel'noy struktury raspredelennogo klastera s neyrokomp'yuternoy arhitekturoy // Izvestiya Tul'skogo gosudarstvennogo universiteta. Tehnicheskie nauki. 2015. № 9. S. 236-244.

2. Galushkin A.I. Neyronnye seti: osnovy teorii M.: «Goryachaya liniya Telekom», 2010.

3. Toporkov V.V. Modeli raspredelennyh vychisleniy. M.: FIZMATLIT, 2004. 320 s.

4. Lukashenko V.V. Analiz osnovnyh voprosov klassifikaciy raspredelennyh vychislitel'nyh sistem // Sovremennaya tehnika i tehnologii. 2015. № 4 (44). S. 65-69.

5. Burcev V. S. Parallelizm vychislitel'nyh processov i razvitie arhitektury super EVM. M.: IVVS RAN, 1997. 152 s.

6. Voevodin V. V., Voevodin Vl. V. Parallel'nye vychisleniya. SPb.: BHV-Peterburg, 2002. 608 s.

7. Korneev V. V. Parallel'nye vychislitel'nye sistemy. M.: Nolidzh, 1999. 320 s.

8. Lacis A. Kak postroit' i ispol'zovat' superkomp'yuter. M.: Bestseller, 2003. 240 s.

9. Tanenbaum E. Arhitektura komp'yutera. SPb.: Piter, 2002. 704 s.

10. Buyya Ed. R. High performance cluster computing //Architectures and systems. Programming and applications. NewJersey: PrenticeHall PTR, 1999. 354 s.


Login or Create
* Forgot password?