Рус Eng Cn Translate this page:
Please select your language to translate the article


You can just close the window to don't translate
Library
Your profile

Back to contents

Genesis: Historical research
Reference:

Prerequisites for establishment and development stages of the technology of artificial intelligence

Bakhteev Dmitrii V.

PhD in Law

Docent, the department of Criminalistics, Ural State Law University

620137, Russia, Sverdlovskaya oblast', g. Ekaterinburg, ul. Komsomol'skaya, 21, kafedra kriminalistiki

dmitry.bakhteev@gmail.com
Other publications by this author
 

 

DOI:

10.25136/2409-868X.2019.8.30382

Received:

25-07-2019


Published:

25-08-2019


Abstract: The object of this research is the technology of artificial intelligence. The subject of this research is the mechanisms and factors of the establishment and development of this technology. Philosophical prerequisites underlied the classical scientific works; however, the foundation for the establishment of the aforementioned technology is the studies in the area of neurophysiology and theory of computation. In the XX century, with the advancement of computer engineering, this technology received an impetus to development, which lead to its widespread proliferation and increased the interest of socio-humanitarian sciences, primarily jurisprudence and ethics towards it. The following conclusions were made. Methodological foundation of the modern technologies of artificial intelligence is the nervous system theory, which serves as prototype for designing the artificial intelligence systems on the basis of the artificial neural networks. The process of establishment and development of such technology was divided into five stages. The factors ensuring wide proliferation of the systems of artificial intelligence include: the possibility of modeling of the processes of human reasoning, collection and processing of large data, interdisciplinary and multifaceted nature of scientific research on this technology.


Keywords:

artificial intelligence, artificial neural network, artificial intelligence history, connectionism, big data, neuron, computer engineering, artificial intelligence ethics, AI winter, thinking modeling

This article written in Russian. You can find original text of the article here .

Стремление создать нечто разумное, не связанное с человеком биологически, пронизывает практически всю историю человечества. Не вдаваясь в историю культуры, можно указать на древнееврейские мифы о Големе – человеке из глины, попытку Пигмалиона создать себе из мрамора спутницу – Галатею, гомункулусов Парацельса и искусственных людей, проявлявшихся в литературных произведениях – чудовище Франкенштейна М. Шелли, Россумские универсальные роботы К. Чапека. Кроме этого, во множестве фольклорных произведений встречаются проявления интеллектуальной техники, в качестве примеров можно привести скатерть-самобранку или любое оружие, обладающиее собственной волей (копьё Ареадбар, принадлежащее богу Луху (ирландская мифология), метаемый диск Сударшана-чакра (индийская мифология), меч Тюрфинг (скандинавская мифология и пр.). Во все времена в речи (а значит, и сознании) людей происходило наделение неодушевлённых предметов качествами разумных субъектов, нашедшее отражение в настоящем времени: «очки спрятались», «автомобиль не пожелал заводиться», и т. д.

Первой философской предпосылкой формирования искусственного интеллекта следует считать работы Аристотеля, который впервые в истории предпринял попытку формализации операций мышления человека, сформулировал некоторые основы формальной силлогистической логики, которые многими столетиями позже будут интегрированы автоматизированные технические устройства. В истории техники есть немало примеров попыток создания машин, облегчающих отдельные мыслительные операции, как правило, вычислительного характера: считающие часы В. Шиккарда (1623), суммирующая машина Б. Паскаля (1642), арифмометр Г. Ф. Лейбница (1673), разностная машина (машина различий) Ч. Беббиджа (1822). Указанные примеры, не являясь интеллектуальными компьютерными системами, всё же послужили появлению и развитию компьютерной техники, что в свою очередь привело к возникновению такой технологии как искусственный интеллект. В настоящей статье будет предпринята попытка проанализировать, каким образом в мировоззрении человека и научно-техническом прогрессе произошли изменения, позволившие говорить с научной точки зрения о таком явлении как искусственный интеллект.

Р. Декарт, отказывая человеку в возможности создать нечто более совершенное, чем он сам, аргументировал эту идею двумя критериями, которые на настоящем этапе развития науки и техники уже не являются безусловно невозможными: возможность полноценно ощущать себя в окружающем мире и реагировать на изменения в нём и отсутствие универсальности в выполнении различных действий [4, с. 120-121]. Таким образом, отдельные методологические основы современных концепций искусственного интеллекта берут своё начало в механистическом восприятии мышления, его отдельных функций и производной от них функциональной деятельности человека.

Современные же основы сопоставления человеческого мышления и функционирования машины следует отслеживать через сопоставление нескольких областей научного знания: физиологии, математики, компьютерных наук, философии и некоторых других.

Научно обоснованная идея о том, что каждый ментальный процесс связан с определённой областью головного мозга, принадлежит австрийскому физиологу Ф. Й. Галлю. «Ещё в детстве Галль был впечатлён странным соответствием между необычными талантами своих друзей и столь же необычными вариантами в строении их черепа. Позже Галль разработал краниометрический метод для изучения локализации мозговых функций» [3, с. 21]. Известный физиолог Дж. Х. Джексон ещё в конце XIX века указывал, что «каждый процесс мышления должен ассоциироваться с соответствующей активностью в работе нервных сетей высшего уровня» [15, pp. 316-318]. Данная точка зрения к настоящему времени является лишь частично верной, поскольку, несмотря на установление функциональной определённости отдельных отделов человеческого мозга, значительная его часть может быть условно охарактеризована «неразмеченной». Однако прорыв в области изучения физиологических основ мышления человека, его высшей нервной деятельности связан с работами А. Гуда, П. Брока, С. Рамон-и-Кахаля, К. Гольджи, создавших нейронную теорию нервной системы. Их исследование было продолжено в работах Г. Бергеля, И. П. Павлова, У. Пенфилда, Н. П. Бехтеревой и многих других учёных. В итоге была сформирована концепция, согласно которой мышление построено на основе электромагнитного, химического или смешанного перемещения ионов между синапсами, представляющими точки контактного взаимодействия нервных клеток (нейронов) головного и спинного мозга центральной нервной системы. Каждая нервная клетка (нейрон) способна развивать генерировать свой собственный сигнал, при этом последний может относиться только к одной форме перемещения ионов. Нейрон способен суммировать входные сигналы и вырабатывать исходящий сигнал стандартной величины в момент, когда величина суммы входящих импульсов превысит определённый порог.

Дж. фон Нейман, имя которого носит архитектура большинства современных компьютерных устройств, считал, что деятельность живого организма имеет аналогово-цифровую природу, а клетку нервной ткани – нейрон – вполне можно сопоставлять с электронной лампой [9, с. 143-157] (в компьютерах первого поколения логические цепи строились на базе ламп). Нейроны как таковые не могут быть названы элементарными физическими единицами когнитивных процессов, однако их объединение уже позволяет производить мыслительные операции. Именно принцип связи достаточно большого количества простых вычислительных элементов (будь это нейроны или электронные лампы) позволяет мозгу или компьютеру обрабатывать сложные массивы информации.

Упомянутые выше теоретические и практические положения напрямую не связаны с системами искусственного интеллекта, однако в них содержатся некоторые философские и топографические основы рассматриваемой технологии.

А. Лавлесс, которую часто называют первым в истории программистом, писала, что компьютер « мог бы воздействовать на другие вещи, не только числа, если бы были найдены объекты, взаимные фундаментальные отношения которых могут быть выражены таковыми из абстрактной науки об операциях, и которые также должны быть подвержены адаптации к действию операционной нотации и механизмам двигателя ... Предполагая, например, что фундаментальные отношения тональных звуков в науке о гармонии и музыкальной композиции восприимчивы к такому выражению и адаптации, этот двигатель может составлять сложные и научные музыкальные произведения любой степени сложности или степени» [18]. Таким образом, желаемое на заре становления вычислительной техники будущее включало в себя не только выполнение простых и сложных математических вычислений, но и реализацию эвристических, творческих функций.

Аналогичной точки зрения придерживался Н. Винер, основатель современных кибернетики и науки управления. Он писал, что как биологические, так и механические системы управления стремятся к осуществлению рационального целенаправленного поведения, которое, в свою очередь, представляет собой минимизацию ошибок с помощью обучения и накопления опыта [2].

Другим основателем современной теории возможности создания машин, автоматов, конструктов, способных по своим когнитивным возможностям стать сравнимыми с человеком считается британский учёный А. Тьюринг, который при работе над усовершенствованием устройства «криптологическая бомба», созданного польскими учёными и направленной на взлом немецкой шифровальной машины «Энигма», сформулировал условия мысленного эксперимента, получившего название «игра в имитацию» [8, с. 56-58]. Участниками этого эксперимента являются три человека: мужчина (А), женщина (B) и лицо, задающее вопросы (C). C отделён от других участников. Цель игры в имитацию состоит в том, чтобы С, задавая вопросы А и B, постарался определить, кто из них является мужчиной, а кто женщиной. Тьюринг предложил заменить в этой системе А или B машиной; в этом случае C уже должен определить, кто из других участников является человеком, а кто машиной. Этот эксперимент получил название теста Тьюринга и к настоящему времени используется для прогнозирования появления антропоморфного (по своим функциональным признакам) искусственного интеллекта.

Поскольку искусственный интеллект, хотя и представляет междисциплинарную область знаний, опирается всё же на компьютерные технологии, то важной точкой в его истории является создание первых современных компьютеров с возможностью программирования. Таковым стал компьютер Z1 немецкого учёного Конрада Цузе (1936 г.), а первым полностью функциональным цифровым компьютером стал ENIAC, работа над которым была завершена в 1946 г.

В 1943 г. У. МакКаллох и У. Питтс в совместной статье обосновали с помощью терминологии логики высказываний (пропозициональной логики) сетевой характер обработки информации в любых системах, предложили термины «искусственный нейрон» и «искусственная нейронная сеть». Под первым понималась нелинейная функция, способная изменять свой значение в зависимости от входящих сигналов. Объединение большого количества искусственных нейронов формирует искусственную нейронную сеть, способную выполнять логические и вычислительные операции [17, pp. 99-103]. В их работе была заложена синтетическая структура теории искусственного интеллекта, включающая знания из области физиологии, математической логики и зарождавшихся тогда компьютерных наук. Так, к примеру, в упомянутой работе был развит принцип, согласно которому вычислительные (в том числе моделирующие) операции любой степени сложности могут быть произведены при помощи примитивных компонентов, если количество последних достаточно велико. Сетевая (коннекционистская) модель, получившая закрепление в рассматриваемой технологии, предполагает, что интеллект – это возникающее, а не имманентное качество; «высокоуровневые задачи, например, распознавание шаблонов и установление связей между ними, проявляется автоматически в результате распространения активности по сети посредством элементарных операций во взаимосвязанных обрабатывающих устройствах» [1, с. 95]. Именно данную работу считают стартовой точкой развития технологии искусственного интеллекта.

В работах У. Маккалоха и У. Питтса была также озвучена теория о том, что сетевая структура искусственной нейронной сети может быть способна к обучению и тем самым увеличению своей эффективности без изменения количества структурных компонентов. У. Хебб развивая данную идею, продемонстрировал в 1949 г. в своей монографии модель обучения искусственной нейронной сети на основе принципа иерархичности как самих искусственных нейроной, так и объединений (ассамблей) искусственных нейронных сетей [13].

В 1951 г. М. Минский и Э. Эдмонс сконструировали на основе 40 искусственных нейронов сетевой компьютер. Это был первый случай эмпирической проверки теории о возможности производства вычислений с использованием искусственной нейронной сети.

В 1955 г. будущий нобелевский лауреат А. Ньюэлл, Х. А. Саймон и Дж. С. Шоу создали компьютерную программу «Logic Theorist» («Теоретик логики»). С помощью этой программы удалось решить 38 из 52 теорем Б. Рассела, для некоторых из которых были найдены новые, более оптимальные решения. Именно в обсуждении этой программы впервые прозвучал термин «сильный искусственный интеллект» – техническое устройство, по своим характеристикам и возможностям не уступающее человеческому разуму.

В 1956 г. под руководством Д. Маккарти в Дартмутском колледже был организован двухмесячный научный семинар, на котором присутствовали крупные американские учёные, занимавшиеся проблематикой моделирования решения логических и творческих задач посредством вычислительной техники. В работе семинара приняли участие К. Шеннон, Н. Рочестер, М. Минский, О. Селфридж, А. Ньюэлл, Х. Саймон и др. Основными результатами этого семинара стало возникновение термина «искусственный интеллект» (в качестве альтернативы также рассматривался термин «вычислительная рациональность» [6, с. 56]) и оформление соответствующей междисциплинарной области знаний. На наш взгляд, именно указанное научное мероприятие в некотором роде обособило теорию и практику искусственного интеллекта от её основного источника – кибернетики. Если в последней приоритет отдавался автоматизации информационных процессов через понимание закономерностей связей индивидуальных элементов, но теория искусственного интеллекта с помощью связей индивидуальных элементов призвана решать внешние относительно этих элементов задачи. Таким образом, искусственный интеллект стал восприниматься одновременно как объект изучения и как метод (на тот момент лишь потенциальный) решения познавательных задач.

На уровне прикладной компьютерной модели эта теория У. Маккалоха и У. Питтса была реализована Ф. Розенблаттом в 1957 г. под названием «перцептрон» [20, pp. 385-408], а первое физическое воплощение она получила в виде электронного устройства «Марк-1» тремя годами позже. Несмотря на свою простоту, данное устройство было способно под определёнными условиями регистрировать и распознавать графические символы, то есть выполнять базовые функции мышления человека: накопление информации и распознавание (классификация) образов. В условиях первых моделей искусственных нейронных сетей каждый искусственный нейрон мог работать только бинарно, подобно нейрону нервной ткани: оперировать только наличием сигнала (возбуждением, по аналогии с биологическими нейронами) или его отсутствием (торможением). Аналоговые (волновые) реакции искусственных нейронов появились гораздо позже.

О. Селфридж и Е. Дэвид в статье «Глаза и уши для компьютера» в 1962 г. выдвинули идею полезности оснащения компьютерной техники средствами распознавания графических и звуковых образов [11]. В данной работе были предложены основы распознавания графических и звуковых образов с помощью их компьютерной обработки. При этом вероятность ошибки распознавания оценивалась в интервале от 0.5 до 25 процентов, что в целом коррелирует с коэффициентом полезного действия человека при распознавании изображений. Данная технология получила наименование компьютерного зрения. Большинство современных задач, разрешаемых с помощью систем искусственного интеллекта и роботехники включают в себя распознавание образов материального мира, в силу этого компьютерное зрение и искусственный интеллект следует рассматривать как неразрывные часть и целое.

В 1963–1969 гг. А. П. Петров, популяризатор информатики и кибернетики в СССР, а также М. Минский указывали на ограниченность и недостатки существовавших на то время моделей перцептронов, что в результате привело к падению интереса научного сообщества к технологии искусственного интеллекта.

Следующий период развития технологии искусственного интеллекта, продлившийся примерно с 1974 по начало 1980-х гг., получил название «зимы искусственного интеллекта» («AI winter). В качестве причин данного кризиса назывались:

· ограниченность искусственного интеллекта в решении прикладных задач: компьютеры прекрасно справляются с решением математических задач, однако испытывают серьезные сложности при взаимодействии с материальным миром (парадокс Моравеца) [19];

· недостаточность исходных данных. Способы получения т. н. «больших данных» к указанному моменту времени ещё не были разработаны, а объёма имеющих баз данных не хватало и не могло хватать для решения поставленных задач;

· вычислительные возможности компьютеров того времени не позволяли производить обучение сети за достаточно короткое время, эта задача в ряде случаев могла решаться за счёт распараллеливания процессов вычисления, однако далеко не во всех случаях это было возможно. Для примера: наиболее производительный компьютер по состоянию на 1970 г., американский CDC 7600 имел производительность в 10 мегафлопсов (флопс – единица измерения производительности компьютеров, показывающая количество выполняемых компьютером операций с плавающей запятой), наиболее мощный современный компьютер, Summit имеет мощность 122,3 петафлопса, а к 2023 г. ожидается появление компьютеров, чья производительность будет оцениваться с приставкой «экза»;

· разочарование финансового толка: в технологии искусственного интеллекта были инвестированы миллионы долларов, однако ожидаемого эффекта (автоматизации исследовательской деятельности, финансового планирования и отдельных бизнес-процессов) так и не произошло.

Возвращение интереса к искусственному интеллекту началось с работ Т. Кохонена [16], посвящённых запоминанию информации искусственной нейронной сетью и Дж. Хопфилда, оптимизировавшего алгоритм обучения сети с целью повышения её эффективности (в том числе с точки зрения энергоресурсов) [14]. В 1997 г. компьютер «Deep Blue» одержал победу над чемпионом мира по шахматам, Гарри Каспаровым. В конце 1990-х – начале 2000-х гг. за счёт технологий оптимизации поисковых алгоритмов и индексации сайтов резко возрастает роль интернета. К настоящему времени технология искусственного интеллекта продолжает интеграцию в различные секторы экономики и в этот раз человечество к ней (хотя бы с технической точки зрения) готово.

Учитывая изложенное, развитие технологии искусственного интеллекта можно условно дифференцировать на несколько этапов:

1. Предварительный этап (до 1936 г.): формирование математических основ функционирования вычислительных устройств, моделирование механистических и коннективистских представлений в философии, открытие нейрона и исследование физиологии мозга.

2. Первоначальный этап (1936–1955 гг.): появление первых компьютеров современной архитектуры, разработка философских и математических основ искусственных нейронных сетей, первые эксперименты по созданию, формулирование теста Тьюринга.

3. Этап «раннего энтузиазма» (1955–1974 гг.): создание перцептронов, разработка концепции компьютерного зрения, популяризация технологии, привлечение первых инвестиций в разработку экспертных систем на базе искусственных нейронных сетей, появление сомнений в перспективности данной технологии.

4. «Зима искусственного интеллекта» (1974 – начало 1980-х гг.): падение интереса к технологии, малое количество публикуемых научных работ, общий упадок области.

5. Период подъёма (начало 1980-х–настоящее время): индустриализация искусственного интеллекта, научное закрепление, расширение предметности и методов исследование, появление интереса представителей гуманитарных наук к проблематике искусственного интеллекта.

Таким образом, совершенствование качественно-количественных характеристик компьютерной техники, оптимизация моделей искусственного интеллекта, интеграция их в хозяйственную деятельность вывели данную технологию из области исключительно номотетического, естественно-технического знания и привлекли внимание учёных, работающих в областях знания герменевтического – в первую очередь этики и правоведения.

С точки зрения методологических основ рассматриваемой технологии, можно выделить три фактора, позволившие её получить признание научного сообщества:

1. Небезосновательная направленность на детальное моделирование как общих основ человеческого мышления, так и физической структуры мозга человека. К настоящему моменту человек может представлять разумность и интеллектуальность исключительно на примере самого себя. Исследования Дж. Баррета и Ф. Кейла, Э. Юкдовского продемонстрировали, что при моделировании ситуации со всемогущим искусственным интеллектом испытуемые наделяют его человекоподобными качествами [10, 21]. При этом один из разработчиков современных научных основ машинного обучения Р. Саттон указывает, что одной из главных проблем при разработке систем искусственного интеллекта является то, что их разработчики пытаются смоделировать человеческое мышление, в том числе как механически воспроизвести физическую топографию человеческого мозга, в то время как агенты (системы) искусственного интеллекта должны уметь совершить открытия, а не просто понимать содержание того, что открыл человек [5].

2. Возможность накопления и обработки больших данных, на основе которых осуществляется обучения искусственных нейронных сетей. В данном контексте невозможно избежать очередного сопоставления искусственного интеллекта с развитием человеческого мышления: аналогично процессу обучения человека, чем больше точной информации доступно, тем точнее компьютерная система будет принимать решения. С развитием компьютерной техники человечество одновременно стало генерировать гораздо больший объём информации, чем это было возможно в прошлом и получило действенный инструментарий по работе со значительными объёмами информации, как структурированной, так и не структурированной.

3. Возможность исследования искусственного интеллекта с разных позиций, как с точки зрения отдельных научных дисциплин, так и с позиций отдельных аспектов восприятия данной технологии. Так, помимо описанного выше коннекционистского подхода, с позиций которого было изложено развитие искусственного интеллекта, следует упомянуть ещё несколько направлений [12].

Эволюционный подход рассматривает искусственные нейронные сети с позиций дарвиновского эволюционизма: при обучении сети наиболее оптимальные модели её поведения конкурируют, в то время как наименее эффективные – игнорируются. Реализация данной модели носит название генетических алгоритмов.

Байесовский подход предполагает, что обучение – это интерпретация вероятностей. При этом вероятность рассматриваются не с точки зрения частотности, предполагающей наличие объективных случайностей, а как мера нашего знания о чём-либо. Частотный подход предлагает опору при прогнозировании исключительно на ранее собранную статистику. К примеру, в метеорологии он может быть использован при предсказании температуры воздуха. Байесовский подход предполагает распределение вероятностей возможных температур воздуха, с учётом динамически изменяющихся факторов. В байесовской модели используется переход от априорной к апостериорной вероятности и обратно. Наиболее распространённым примером использования байесовского подхода к искусственному интеллекту является выявление спама в электронных сообщениях и определения источников недостоверных сообщений (фейк-ньюз).

Символистский подход использует для работы со входящей информацией логическую связку импликации (если – то). Процесс обучения искусственной нейронной сети представляется как дедуктивный, то есть для получения нового знания достаточно лишь правильно обработать уже имеющиеся сведения.

Подход направления аналогистов опирается на концепцию, что для получения нового знания необходима экстрополяция признаков и поиск ближайшего аналога. В рамках данного подхода реализованы алгоритмы-советники, предлагающие исходя из выбора пользователей схожие варианты, что широко используется в интернет-торговле.

Знание предпосылок и логики развития технологии, способной оказать существенное воздействие на развитие как отдельного человека, так и общества в целом, позволяет оценивать перспективы такого воздействия, что, в свою очередь, является необходимым аспектом правого регулирования технологических инноваций. В. М. Сырых указывает: «Правоведам приходится заимствовать методы научного познания, разрабатываемые математикой, статистикой, социологией и другими науками. Понятно, что все заимствованные методы научного познания оказывают позитивное влияние в той мере, в какой правоведам удается их конкретизировать к специфике познания правовых явлений и их закономерностей и наоборот» [7]. Специфическое значение для юридических наук технологии искусственного интеллекта состоит в том, что данная технология может выступить не только объектом правового регулирования, но также и методом познавательной деятельности, как в юридической практике, так и при проведении отраслевых теоретических исследований.

References
1. Alpaidin E. Mashinnoe obuchenie: novyi iskusstvennyi intellekt. Per. s angl. M.: Izd. gruppa «Tochka», 2017. 208 c.
2. Viner N. Kibernetika, ili Upravlenie i svyaz' v zhivotnom i mashine. / Per. s angl. I. V. Solov'eva i G. N. Povarova; Pod red. G. N. Povarova. M.: Nauka; Glavnaya redaktsiya izdanii dlya zarubezhnykh stran, 1983.
3. Voznyak R. Mozg i soznanie. Ot Rene Dekarta do Uil'yama Dzheimsa. M.: Izdatel'skie resheniya, 2017. 130 s.
4. Dekart R. Rassuzhdeniya o metode dlya khoroshego napravleniya razuma i otyskaniya istiny v naukakh. V kn. R. Dekart. Sochineniya. SPb: Nauka, 2015. 560 s.
5. Interv'yu s Richardom Sattonom. 2017. URL: https://web.archive.org/web/20180111052706/https://www.kdnuggets.com/2017/12/interview-rich-sutton-reinforcement-learning.html (data obrashcheniya: 17.01.2019).
6. Rassel S., Norvig P. Iskusstvennyi intellekt: sovremennyi podkhod, 2-e izd.: Per. s angl. M.: OOO «I. D. Vil'yams», 2018. 1408 s.
7. Syrykh V. M. Istoriya i metodologiya yuridicheskoi nauki. M: Norma: INFRA-M, 2012. 464 s.
8. T'yuring A. M. Mozhet li mashina myslit'? Per. s angl. M.: URSS: LENAND, 2018. 232 s.
9. Fon Neiman Dzh. Obshchaya i logicheskaya teoriya avtomatov. M.: URSS: LENAND, 2018. 232 s.
10. Barrett J. L., Keil F. C. Conceptualizing a Nonnatural Entity: Anthropomorphism in God Concepts // Cognitive psychology. 1996. Vol. 31. issue 3. DOI: 10.1006/cogp.1996.0017.
11. David E. E. Jr, Selfridge O. G. Eyes and Ears for Computers // Proceedings of the IRE. Vol. 50. Issue 5. 1962. Pp. 1093–1101. DOI: 10.1109/JRPROC.1962.288011.
12. Domingos P. The Master Algorithm: How the Quest for the Ultimate Learning Machine Will Remake Our World. New York: The Basic Books, 2018. 352 p.
13. Hebb O. D. The organization of behavior. A neurophysiological theory. New York: John Wiley & Sons inc., 1949. 335 p.
14. Hopfield J. J. Learning algorithms and probability distributions in feed-forward and feed-back networks // Proceedings of the National Academy of Sciences of USA Vol. 84. Issue 23. 1987. Pp. 8429-8433. DOI: 10.1073/pnas.84.23.8429.
15. Jackson, J. H.. On the anatomical, physiological and pathological investigation pf epilepsies. West Riding Asylum Medical Reports. London: Hodder and Stoughton, 1931. 339 p.
16. Kohonen, T. Self-Organized Formation of Topologically Correct Feature Maps // Biological Cybernetics. Vol. 43. Issue 1. 1982. DOI: 10.1007/bf00337288.
17. McCulloch W. S., Pitts W. A logical calculus of the ideas immanent in nervous activity // Bulletin of Mathematical Biophysics. Vol. 5. 1943. P. 99–103.
18. Menabrea L. Sketch of the Analytical Engine invented by Charles Babbage Esq.. Scientific Memoirs, 1843. URL: http://livros01.livrosgratis.com.br/ps000141.pdf (data obrashcheniya: 08.07.2019).
19. Moravec H. P. Mind children. The future of robot and human intelligence. Cambridge: Harvard University Press, 1988. 224 p.
20. Rosenblatt F. The perceptron: a probabilistic model for information storage and organization in the brain // Psychological Review. Vol. 65. Issue 6. 1958. Pp. 385–408.
21. Yukdowsky, Eliezer. (2008). Artificial Intelligence as a Positive and Negative Factor in Global Risk. Global Catastrophic Risks. New York: Oxford University Press, 2008. 46 p.