|
Аннотация
В статье раскрывается перспективы развития вычислительной техники, в которой даны понятия о том, что собой представляет новое научное направление в области цифровой вычислительной техники, кратко дано представление о системе существующих знаний по цифровой вычислительной технике с памятью на триггерах и определены их фундаментальные ограничения
Учитывая концепцию иерархической информации, автор описал новую систему знаний в области компьютерных технологий, что позволяет одновременную обработку вместе иерархических уровней информации.
Дано перечисление функциональных возможностей, расширяющих систему существующих знаний, которые определяют новое научное направление в области вычислительных устройств на многофункциональных и многоуровневых схемах памяти.
Ключевые слова: теория автоматов, схемы памяти, иерархическая информация, нейрон, нейронные сети, принцип иерархического программного управления, программное обеспечение обработки иерархической информации.
Annotation
The article describes the prospects for the development of computing technology, which are given a clue as to what a new research direction in the field of digital computing, given a brief presentation on the system of the existing knowledge of digital computing in the flip-flop and are defined by their fundamental limitations.
Considering the concept of hierarchical information, the author described the new system of knowledge in the field of computer technology, which allows simultaneous processing of hierarchical information levels together.
Given enumeration of features that extend the existing system of knowledge that determine the new scientific direction in the field of computing devices in the multi-functional and multi-level circuitry related to memory.
Keywords: theory of automatic, memory circuits, hierarchical information, neuron, neural networks, the principle of hierarchical software management, pro-software handling hierarchical information.
ВВЕДЕНИЕ
Любое новое направление в области цифровой вычислительной техники представляет собой некоторую систему знаний, которую можно рассматривать с точки зрения ее основных критериев.
СИСТЕМА СУЩЕСТВУЮЩИХ ЗНАНИЙ ПО ЦИФРОВОЙ ВЫЧИСЛИТЕЛЬНОЙ ТЕХНИКЕ
Система существующих знаний по вычислительной технике имеет иерархическую междисциплинарную связь, описанную В.М. Глушковым [1–3].
Развитие этих работ основывалось на ряде фундаментальных достижений, таких, как: теория чистой двоичной логики, разработанной английским математиком Дж. Булем (1815 – 1864) [4]; принцип программного управления, разработанный английским математиком и инженером Чарльзом Беббиджем (1791–1871) при создании проекта механической аналитической машины; разработанной английским программистом-теоретиком Аланом Тюрингом (1912– 1954) теоретической модели компьютера, ставшей прообразом современного компьютера [5].
Виктор Иванович Шестаков (1907 —1987 ) — советский логик и теоретик-электротехник и американский ученый Клод Шеннон (1916 – 2001) в середине 1930-х гг. предложили интерпретацию булевой алгебры логики на релейно-контактных схемах [6].
Джон Атанасов (1903– 1995) – американский физик, математик и инженер-электрик болгарского происхождения, один из изобретателей первого электронного компьютера , который потом был создан в США на лампах и его идеи были описаны Дж. фон Нейманом в 1945 году [7].
Модернизацию идей Буля выполнил Дж. фон Нейман. В 40—50-х гг. XX в. Булева алгебра получила особенное значение при развитии вычислительной техники. Дж. фон Нейман описал структуру машины с использованием триггера, как элемента памяти, и предложил принцип хранимой в памяти программы [5].
В 1918 году русский ученый Михаил Александрович Бонч-Бруевич создал ламповый триггер, способный сохранять одну двоичную цифру. Это изобретение заложило фундамент электронным цифровым компьютерам [9]. В дальнейшем, в США этот триггер стали называть автоматом Мура с нетривиальной памятью в честь американского математика, начавшего изучение правильных автоматов [1].
Виктор Михайлович Глушков (1923–1982) – пионер математической теории вычислительных систем [8]. Его теорема о структурной полноте дала обоснование для разработки элементной базы вычислительных систем. В этой теореме основным элементом памяти предлагался автомат Мура (триггер) с нетривиальной памятью, обладающий полной системой переходов и полной системой выходов, и какая-нибудь функционально полная система логических элементов (элементарных автоматов без памяти), для построения произвольных конечных автоматов [1].
Изложение теории синтеза цифровых автоматов как единой математической теории, разработанной В.М. Глушковым, как он пишет, основывалось на работах известных ученых. Среди них: Д. Хафмен, Г. Мили, В.И. Шестаков, М. Уилкс, К. Шеннон, Дж. Маккарти, С.К. Клини, Э. Мур, Дж. Нейман, Д. Ауфенкамп, Ф. Хон и др. В.М. Глушков и его ученики подготовили теоретическую основу знаний по целым направлениям цифровой вычислительной техники, таким, как: теория цифровых автоматов и логическое проектирование дискретных устройств [1–3]; дискретные преобразователи [10]; алгебра алгоритмов, которые служат базовыми знаниями по теории программирования [11–12]; теория структур данных и параллельные вычисления [13]; внутренний интеллект ЭВМ [14–15]; архитектура ЭВМ [16]; самоорганизующиеся системы и искусственный интеллект [17–18].
В настоящее время интенсивно ведутся работы по реконфигурированным устройствам с целью обработки иерархической информации [21–23] на основе ПЛИС, а также работы по нейрокомпьютерам [24–26] на старой элементной базе, где в качестве памяти используется триггер или мемристор с несколькими состояниями, напоминающий многостабильный триггер, но эти устройства имеют существенные фундаментальные ограничения. Например, фирма IBM в рамках программы DARPA SyNAPSE построила программно- эмулируемую нейросеть из 5,3 миллиардов нейронов и 100 триллионов синапсов на компьютере Lawrence Livermore National Lab (LBNL) Blue Gene/Q Sequoia (1572864 processor cores, 1.5 PB memory, 98,304 MPI processes, and 6,291,456 threads), в котором информация обрабатывается в автоматном дискретном времени и входные сигналы определяются только одной переменной x(t).
В компьютерах и нейрокомпьютерах всегда сравнивалась структура и функция памяти с памятью живых организмов, память которых обладает лучшей избирательностью, большей экономичностью и полезностью, чем неизменяемая структура триггера [4–5].
Построение монофункциональных схем памяти (триггеров) и методов построения на их базе компьютерных устройств, работа которых рассматривается в автоматное дискретное время, считается почти завершенной темой [5].
Актуальным направлением снятия ограничения двоичных схем памяти стала разработка многофункциональных схем памяти. Исследования в области создания многофункциональных схем памяти рассмотрены многими известными учеными ХХ века. В первую очередь нужно выделить работы представителей научных школ В. М. Глушкова [1–3; 28], М. А. Гаврилова [29], А. Д. Закревского [30], Э.В. Евреинова и И.В. Прангишвили [31], и многих других известных ученых в мире. Попытка применить в построении автоматов Мили и Мура схем памяти, в которых бы осуществлялось управление многофункциональными функциями возбуждения и функций выходов двоичных схем памяти, не дало ожидаемых результатов. Это связано с тем, что изменение управляющих сигналов и запоминание состояния схемы памяти в реконфигурированных вычислительных системах выполняется последовательно, что ограничивает быстродействие компонентов компьютерных систем [32–33].
Ограничения производительности современных компьютерных систем и сетей происходят за счет неизменяемых функциональных возможностей элементарных схем памяти (триггеров), которые влияют на принципы и методы теории проектирования устройств компьютеров и компьютерных систем.
«Переход от дедуктивного метода, удовлетворяющего существующим детерминированным системам, к индуктивному методу, связанному с вероятностными системами, требует иного образа мышления. Инерция старого образа мышления еще не преодолена. Истинным препятствием в развитии нового направления является не сложность проблем, а консервативность людей», как писал Ст. Бир [4].
Все эти междисциплинарные разработки теоретических знаний в области разработки современных компьютеров и нейрокомпьютеров основывались и сейчас основываются на элементной базе интегральных схем. Эта база реализует функции комбинационных схем на основе булевой алгебры, а в качестве памяти при этом используются триггеры и мемристоры с несколькими состояниями, что накладывает фундаментальные ограничения на разработанные и разрабатывающиеся компьютерные системы [19 –20].
Автор считает, что все рассматриваемые работы по перестраиваемой схеме памяти велись за счет перестраиваемых функций возбуждения и выходов, в основе которых находится RS-триггер. Они имеют фундаментальные ограничения, которые существенно отражаются на построении вычислительных машин и систем, а именно:
ПРЕДСТАВЛЕНИЯ ОБ ИЕРАРХИЧЕСКОЙ ИНФОРМАЦИИ
Современные компьютерные и нейрокомпьютерные системы, построенные на современной базе, используют последовательную информацию в виде входных информационных сигналов x(t) и используют эту информацию в автоматном дискретном времени [19–26].
На самом деле информация иерархическая и является третьим элементом Вселенной вместе с материей и движением [34].
В 1948 г. Клод Шеннон (США) предложил концепцию, основывающуюся на представлении об информации как о некоей субстанции, существующей в реальном мире независимо от человека. «…Информацию можно рассматривать как нечто весьма схожее с физической величиной, такой как масса и энергия». В том же году в своем фундаментальном труде «Кибернетика, или управление и связь в животном и машине» Норберт Винер (1894—1964) определил информацию как «обозначение содержания, полученного из внешнего мира в процессе нашего приспособления к нему и приспособления к нему наших органов чувств». В отличие от Шеннона он не считал, что информация, материя и энергия – это категории одного порядка – «Информация есть информация, а не материя и не энергия». Ближе всех к пониманию информации подошёл академик В.М. Глушков. В его определении информация - это мера неоднородности распределения материи и энергии в пространстве и времени [35]. Хорошо видно, что понятие об информации было в те годы не совсем однозначно.
По мнению профессора В.К. Промоненкова, информация – это любые неоднородности материи и процессов (форма, структура, ритмы, реплики). Неоднородность - это количественная и качественная различимость состояния субстанции средствами некоторого наблюдателя, в том числе и средствами разума. Как он высказался в своей работе, информация является иерархичной («информация об информации») и представляет собой третий элемент Вселенной [34]. С этим автору трудно не согласиться в связи с тем, что он создает направление в области цифровой вычислительной техники, в котором рассматриваются вопросы запоминания и обработки иерархической информации, уже почти сорок лет [38–48; 52–63].
Автор использовал вместо входного сигнала x(t), поступающего на схему памяти (триггер) устройства вычислительной техники, входное слово p(T) = x(t), e(Δ), состоящее из двух последовательных сигналов x(t) и e(Δ), поступающее на многоуровневую память за один машинный такт T [47–48]. Этого различия оказалось достаточно, чтобы появилась возможность обработки общей и частной информации одновременно за один машинный такт T, что в устройствах с памятью на триггерах и мемристорах принципиально осуществить невозможно [19–26].
НОВАЯ СИСТЕМА ЗНАНИЙ В ОБЛАСТИ ВЫЧИСЛИТЕЛЬНОЙ ТЕХНИКИ
Работа по новому направлению в области вычислительных машин началась автором в 1977 году. В 1986 году работа докладывалась на семинаре Института проблем моделирования в энергетике АН УССР, которая получила одобрение академика Георгия Евгеньевича Пухова (1916–1988). На основе этой работы была депонирована монография, где впервые были изложены принципы нового направления в области компьютерной техники [39]. В 90-х годах ХХ столетия вышли два учебных пособия и монография на эту же тему [40–42].
Так в чем же состоит новая система знаний, которые определяют новое научное направление в области компьютерной техники?
Впервые разработаны автором многофункциональные и иерархические абстрактные автоматы, способные обрабатывать иерархическую информацию (общую и частного типа) одновременно за один машинный такт T и автоматы 4-го рода, контролирующие работоспособность элементарных схем памяти [39–40; 42–44].
Впервые разработаны автором теории микросинтеза и анализа многофункциональных и многоуровневых элементарных схем памяти [9;39; 41–43; 45–48].
Впервые разработаны автором методы построения типовых устройств вычислительной техники на МФСП и МУСП [42–43], таких как:
Человеческий мозг имеет ряд преимуществ перед всеми технико-кибернетическими устройствами по таким важным, на взгляд автора, свойствам.
Во-первых, входные сигналы, поступающие из внешней среды, воздействуют на глаза, уши, тело, на вкусовые качества еды и имеют многофункциональную, матричную структуру.
Во-вторых, информация, которая поступает из внешней среды, обобщается. Это видно на примере глаза. Рецепторов в глазе порядка 18–20 миллионов, а колбочек, которые обобщают видимую информацию через рецепторы глаза, порядка 72 тысяч. То есть происходит сжатие информации приблизительно в 256 раз уже на втором уровне. Эту проблему сжатия информации важно понять и решить технически.
В-третьих, необходимо рассматривать естественную расширяющую связь между нейронами человеческого мозга. У ребенка постепенно начинают устанавливаться связи, необходимые для обобщения полученной (расширяющей) информации, построения соответствующих шаблонов и моделей, отражающих реальный мир индивидуального человека.
В-четвертых, человеческий мозг обладает от 14 до 20 миллиардов нейронов. Это достаточно большая структура по количеству нейронов, которую трудно физически создать на современном этапе развития техники, а тем более ею управлять.
Талантливый математик Фрэнк Пламптон Рамсей доказал, что полная неупорядоченность невозможна в таких больших структурах, как человеческий мозг, Вселенная и т.д. Таким образом, каждое достаточно большое множество чисел, точек или объектов обязательно содержит упорядоченную структуру. Работы в этом направлении подтвердили этот важный результат [64]. Однако, проблема создания упорядоченных структур в моделях человеческого мозга остается.
Пятое, в мозгу нет вычислительной машины, логических теорий, позиционных систем счисления, а только своя логика получения информации, сжатия информации, выбор пути связи с другими клетками, для обобщения этой информации. Вычисления, рассуждения, системы счисления и любые другие алгоритмы являются производными тех моделей, которые уже обобщены и представляют для человека интерес, как пишет Никитин А.В. в интересной работе «Логика управления клетки» [65].
Шестое относится к структуре нейрона, который имеет два множества входных сигналов: возбуждающих и тормозящих, чего триггеры и мемристоры не имеют, а используют только устанавливающие (возбуждающие) входные сигналы x(t).
Впервые в качестве нейронов и нейронных сетей были предложены многоуровневые схемы памяти, которые имеют два множества входных сигналов: устанавливающие (возбуждающие) x(t) и сохраняющие (избирательные) e(Δ). В области нейронов, нейронных связей и архитектурных ансамблей нейронных моделей, автором предложены следующие результаты, которые следуют из предложенного нового направления [43–44].
Рассмотрим построение нейронов на основе МУСП и его характеристики:.
На основе свойств трехуровневой схемы памяти можно строить регистр аксона, который избирательно может присоединять выходной сигнал нейрона либо к одному или нескольким нейронам в детерминированном, вероятностном или нечетком режимах [44]. Это позволяет строить модели нейронных сетей, как детерминированных, так и вероятностных и нечетких.
Это же позволяет в области программного обеспечения компьютеров и нейрокомпьютеров использовать реконфигурированные микропроцессоры, которые в состоянии изменять структуру команд без потери быстродействия за счет введенного общего кода в адресную систему команд на основе иерархического принципа программного управления [41–42; 60].
В своё время под руководством автора описанные наработки были применены в конкретных устройствах. Теоретические и практические результаты этих работ изложены в докторской диссертации автора [66–67]. В настоящее время работы по развитию этого нового направления под руководством автора продолжаются его аспирантами [52–53; 58-63].
Эти новые знания в области вычислительной техники позволяют сделать следующие выводы:
Обычно изменение научной парадигмы относится к наиболее драматическим событиям в истории науки. Когда научная дисциплина меняет одну парадигму на другую, то это называется «научной революцией» или «сдвигом парадигмы». Решение отказаться от парадигмы всегда одновременно есть решение принять другую парадигму, а приговор, приводящий к такому решению, включает как сопоставление обеих парадигм с природой, так и сравнение парадигм друг с другом.
В 1935 году Гаузе установил закон, известный в биологии как закон конкурентного исключения (принцип или закон Вольтерры-Гаузе). По нему два вида не могут устойчиво существовать в одной экологической нише: происходит конкурентное вытеснение одного другим [49]. Вытесненная по этому закону популяция попадает в условия, отличные от прежних условий. И здесь вступает в силу закон воли жизни, установленный Четвертаковым в 1905 г. [50]. По этому закону численный состав популяции растет при благоприятных условиях существования и резко падает при неблагоприятных. Закон действует всегда и в любой популяции [50].
ЗАКЛЮЧЕНИЕ
Описанные ссылки на полученные знания в междисциплинарных областях знаний нового направления в сфере компьютерных систем позволят поднять уровень обработки иерархической информации на более высокий уровень. Благоприятные усилия по внедрению этих разработок, к сожалению, под силу только передовым фирмам, таким как Intel, IBM и им подобным или государственным программам, потому что разработку надо начинать с нуля
Фирмам позволит опередить своих конкурентов, а странам – поднять свой престиж и экономику.
Также, это позволит сделать шаг вперед и в области развития компьютеров, нейрокомпьютеров и позволит создать конкурентоспособные устройства по сравнению с существующими на существующей технологии интегральных схем.
Литература
Мараховский Л.Ф. – д.т.н., профессор ГЭТУТ, член-корреспондент РАЕ, академик Междисциплинарной академии наук Украины. marachovsky@ukr.net