Library
|
Your profile |
Software systems and computational methods
Reference:
Lyutikova, L.A., Shmatova, E.V. (2017). Search of Logical Regularities in the Data Using Sigma-Pi Neural Networks. Software systems and computational methods, 3, 25–34. https://doi.org/10.7256/2454-0714.2017.3.24050
Search of Logical Regularities in the Data Using Sigma-Pi Neural Networks
DOI: 10.7256/2454-0714.2017.3.24050Received: 30-08-2017Published: 06-10-2017Abstract: In this article the authors offer a method for constructing logical operations to analyze and correct the results of the operation of sigma-pi neural networks designed to solve recognition problems. The aim of the research is to reveal the logical structure of implicit regularities formed as a result of training the neural network. The method proposed by the authors restores the training sample based on the values of the sigma-pi weighting coefficients of the neuron, analyzes the relationships of this structure and allows to detect implicit regularities, which contributes to the increase of the adaptive properties of the sigma-pi neuron. To solve this problem, the authors perform a logical-algebraic analysis of the subject area within the framework of which the cigma-pi of a neuron is trained, a logical decision function is constructed, its properties and applicability to the correction of the work of a neuron are investigated. It is widely known that the combined approach to the organization of the recognition algorithms increases their effectiveness. The authors argue that the combination of the neural network approach and the use of logical correctors allows, in cases of an incorrect response, to indicate the object closest to the requested attributes from the sample on which the sigma-pi neuron was trained. This significantly improves the quality of the automated solution of intellectual problems, i.e. ensuring the accuracy of achieving the right solution by using the most effective systems for analyzing the original data and developing more accurate methods for their processing. Keywords: neuron, neural networks, logical function, predicate, algorithm, operations on algorithms, decision function, corrective operation, logical-algebraic approach, ClassifierThis article written in Russian. You can find original text of the article here . Введение Задачи, связанные с классификацией и идентификацией предметов, явлений и сигналов, характеризующихся конечным набором некоторых свойств и признаков, возникают в таких отраслях как робототехника, информационный поиск, мониторинг и анализ визуальных данных, исследования искусственного интеллекта. Существует ряд методов для решения данных задач, каждый из которых обладает как своими преимуществами, так и своими недостатками [1]. Комбинированный подход применяется, когда требуется скорректировать работу нескольких различных алгоритмов, каждый из которых безошибочно классифицирует лишь часть обучающих объектов. Цель коррекции — сделать так, чтобы ошибки одних алгоритмов были скомпенсированы другими и качество результирующего алгоритма оказалось лучше, чем каждого из базовых алгоритмов в отдельности [2-4]. На практике существуют различные подходы к построению комбинированных корректирующих алгоритмов, сочетание которых дает практически значимые результаты[4-9]. В данной работе рассматривается подход, основанный на логическом анализе данных, используемый для коррекции работы SP-нейронной сети. Можно предположить, что сигма-пи нейронная сеть содержит определенные логические правила в весовых коэффициентах, однако эти правила не являются явными. Для осуществления контрольных и корректирующих функций работы сигма-пи нейрона предлагается использование метода, позволяющего по весам восстановить обучающую выборку, провести ее логический анализ, построить базу знаний минимизировать ее, и в случаи ошибочной работы сигма-пи нейрона скорректировать ответ относительно построенных правил. В статье рассматривается метод обнаружения в структуре сигма-пи нейрона ранее не известных, практически полезных, доступных интерпретации знаний, необходимых для принятия решений.
Постановка задачи Описание, заданного объекта представляет собой Формальная постановка задачи. Пусть Вид функции Пусть SP-нейрон представленный следующей структурой
где Будем говорить, что работа сигма-пи нейрона некорректна, если 1) он не опознал соответствующий запросу элемент,т.е.
2) он опознал объект, не принадлежащий данной предметной области, т.е. 3) при запросе
где Необходимо построить функцию, которая сможет подобратьпри ошибке работы сигма-пи нейрона, наиболее близкий элемент или класс элементов из обучающей выборке по заданным признакам:
Процедура обучения сигма пи нейрона. Простой алгоритм обучения, позволяющий обучить сигма пи нейрон за один проход,был первоначально предложен Тимофеевым А.В. [13].
1) 2) На где После
ПРИМЕР. Пусть задана следующая предметная область:
Очевидно, что в результате обучения по данным таблицы SP-нейрон будет иметь вид: Введем запрос
Логические методы исследования данных В данном разделе рассматривается логические методы решения задачи распознавания. Предлагается метод построения логического классификатора, рассматриваются его свойства[14,15]. Данные, с которыми приходится иметь дела при решении задач распознавания, как известно, являются неполными, неточными, неоднозначными. Однако получаемые решения должны соответствовать закономерностям явно и неявно присутствующим в рассматриваемой предметной области. Логические методы могут достаточно хорошо проанализировать данные, выделить существенные и несущественные признаки, выявить минимальный набор правил необходимый для того, чтобы полностью восстановить исходные закономерности. Определение. Будем говорить, что построенная система решающих правил является полной, если она обеспечивает вывод всех возможных решений в рассматриваемой области. Определение. Система правил, в которойна наборе признаков Определение. Классом будем называть группу объектов, выделенных по определенному признаку (группе признаков). Каждый объект может быть представителем одного или нескольких классов, каждый класс определятся набором однотипных признаков. Правило продукции позволяет выразительно представить зависимости между объектом и его признаками. где предикат Решающей функций назовем конъюнкцией всех решающих правил:
Функцию (1) можно проинтерпретировать следующим образом: Если обучающую выборку, состоящуюиз
то данная функция принимает значения «0» на наборах Функция (1) выражает зависимость между характеристиками объекта и самим объектом, находит все возможные классы в заданной области, вплоть до классов объектов объединенных по единственному признаку, допускает включение новых правил продукции(модифицируема), при вводе значение любого объекта, из исследуемой области определяет этот объект. Если вводимые данные точно не определены в области, по которой была построена функция, то функция определяет наиболее подходящий объект или классы объектов, идентифицируемые по части входных данных. Все свойства функции (1) подробно рассмотрены в работах [16]. Поскольку функция - это дизъюнкция конъюнкций разной длины переменныхона может быть подвергнута сокращению.
Выделение правил по весам сигма пи нейрона. В данной работе рассматривается где Обучающая выборка по которой проводилась настройка весов вообще говоря может быть неизвестна. Требуется восстановить обучающую выборку, обнаружить логические закономерности и использовать их для корректировки результата работы исходного Восстановление обучающей выборки по полиному- по сути процедура обратная обучению. На нижним уровне находятся переменные, Веса первого слоя ПРИМЕР Пусть обученный Восстановим объекты обучающей выборки и найдем обобщающие логические правила (см.рис.1).
Рис. 1.
Построение неявных правил: Для построения по дереву неявных правил рассмотрим путь из каждой вершины Если пути от заданной вершины На примере это выглядит как на рис. 2.
Рис. 2.
Штрих пунктирной линией обозначены связи с отрицанием переменной. что полностью совпадает с объектной частью функции (1). ТЕОРЕМА. Пусть Доказательство: Как было показано выше по структуре нейрона можно восстановить обучающую выборку. Для которой возможно построить логическую решающую функцию (1), которая строит полную систему правил для заданной предметной области. Предложенная процедура построения неявных правил упрощает задачу. Поскольку при помощи логической функции (1) можно провести полный анализ обучающей выборки, найти все возможные связи, то объектная часть логической функции может выступить в качестве корректора для сигма-пи нейрона, которую в соответствии с предложенным выше алгоритмом можно построить, опираясь на структуру самого сигма-пи нейрона, даже не имея обучающей выборки. В окончательном виде модель SP-нейрона вместе с его корректором может иметь имеет следующий вид: где
Заключение В работе рассмотрены вопросы поиска логических закономерностей по структуре обученногоSP-нейрона. Предложено совместное использование нейросетевых технологий и методов логического вывода, как средства выявления логических закономерностей и представления более точного результата в задачах распознавания. Так же рассмотрены преимущества логического анализа данных и построена логическая функция для выявления всех закономерностей исследуемой предметной области. Предложена процедура построения деревьев решений на основе обученного сигма-пи нейрона, которая не предъявляет никаких требований к архитектуре, алгоритму обучения, входным и выходным значениям и другим параметрам сети. Построение дерева осуществляется по структуре нейрона, результат выявляет ряд скрытых логических закономерностей данных, строит логическую функцию, которая корректирует работу нейрона в случае неточных зашумленных данных, позволяя указать наиболее правдоподобные (близкие к эталонным) ответы в рамках сделанного запроса, а также легко модифицироваться в случае правильного ответа нейрона непредусмотренного обучающей выборкой.В результате существенно повышается качество автоматизированного решения интеллектуальных задач, надежность их функционирования, обеспечение точности достижения верного решения за счет использования наиболее эффективных систем анализа исходных данных и разработки более точных методов их обработки. References
1. Flakh P. Mashinnoe obuchenie. Nauka i isskustvo postroeniya algoritmov, kotorye izvlekayut znaniya iz dannykh. M.: MDK Press, 2015. 400 s.
2. Zhuravlev Yu. I. Ob algebraicheskom podkhode k resheniyu zadach raspoznavaniya ili klassifikatsii // Problemy kibernetiki. 1978. T. 33. S. 5–68. 3. Vorontsov K. V. Optimizatsionnye metody lineinoi i monotonnoi korrektsii v algebraicheskom podkhode k probleme raspoznavaniya // Zhurnal vychislitel'noi matematiki i matematicheskoi fiziki. 2000. T. 40, № 1. S. 166–176. 4. Ablameiko S.V., Biryukov A.S., Dokukin A.A., D'yakonov A.G., Zhuravlev Yu.I., Krasnoproshin V.V., Obraztsov V.A., Romanov M.Yu., Ryazanov V.V. Prakticheskie algoritmy algebraicheskoi i logicheskoi korrektsii v zadachakh raspoznavaniya po pretsedentam // Zhurnal vychislitel'noi matematiki i matematicheskoi fiziki. 2014. T. 54. № 12. S. 1979. 5. Timofeev A.V., Kosovskaya T.M. Neirosetevye metody logicheskogo opisaniya i raspoznavaniya slozhnykh obrazov // Trudy SPIIRAN, 27 (2013). S. 144–155. 6. Dyukova E.V., Zhuravlev Yu.I., Prokof'ev P.A. Metody povysheniya effektivnosti logicheskikh korrektorov // Mashinnoe obuchenie i analiz dannykh. 2015. T. 1. № 11. S. 1555-1583. 7. Gridin V.N., Solodovnikov V.I., Evdokimov I.A., Filipkov S.V. Postroenie derev'ev reshenii i izvlechenie pravil iz obuchennykh neironnykh setei // Iskusstvennyi intellekt i prinyatie reshenii. 2013. №4. S. 26-33. 8. Zhiting Hu, Xuezhe Ma, Zhengzhong Liu, Eduard Hovy, Eric Xing Harnessing Deep Neural Networks with Logic Rules // Computer Science. Learning 2016 .arXiv:1603.06318 9. Alex Graves, Greg Wayne, Malcolm Reynolds, Tim Harley, Ivo Danihelka, Agnieszka GrabskaBarwinska, Sergio Gómez Colmenarejo, Edward Grefenstette, Tiago Ramalho, John Agapiou, et al. Hybrid computing using a neural network with dynamic external memory. Nature, 538:(7626):471–476, 2016. 10. Shibzukhov Z.M. O potochechno korrektnykh operatsiyakh nad algoritmami raspoznavaniya i prognozirovaniya //Doklady RAN. 2013, T.450, №1. S.24-27. 11. Shibzukhov Z.M. Correct Aggregation Operations with Algorithms // Pattern Recognition and Image Analysis. 2014, Vol. 24, No. 3, pp. 377–382. 12. Shibzukhov Z.M. O nekotorykh konstruktivnykh i korrektnykh klassakh algebraicheskikh sigma-pi algoritmov // Doklady RAN, 2010. T. 432, №4. S. 465-468. 13. Timofeev A.V., Pshibikhov V.Kh. Algoritmy obucheniya i minimizatsii slozhnosti polinomial'nykh raspoznayushchikh sistem // Izvestiya AN SSSR. Tekhnicheskaya kibernetika. 1974. № 7. S. 214-217. 14. Timofeev A.V., Lyutikova L.A. Razvitie i primenenie mnogoznachnykh logik i setevykh potokov v intellektual'nykh sistemakh // Trudy SPII RAN. Vyp. 2, 2005. S. 114-126. 15. Lyutikova L. A., Shmatova E. V. Analiz i sintez algoritmov raspoznavaniya obrazov s ispol'zovaniem peremenno-znachnoi logiki // "Informatsionnye tekhnologii". Tom 22. №4. 2016. S. 292—297. 16. Lyutikova L.A. Ispol'zovanie matematicheskoi logiki s peremennoi znachnost' pri modelirovanii sistem znanii // Vestnik Samarskogo gosudarstvennogo universiteta. Estestvennonauchnaya seriya. №6(65). 2008. S. 20-27. |