Равные доли

 

 

 

Труды лаборатории искусственного интеллекта Массачусетского технологического института, MIT Papers on Artificial Intellect Systems, Massachusetts Institute of Technology, Cambridge, Massachusetts, Volume VII, 1988, pp. 38-41

 

К вопросу о «сознании» в системах ИИ

 

Анатолий Уфимцев

 

 

Бурная дискуссия по насущной проблематике теории и практики систем искусственного интеллекта (ИИ) определённо выявила у наших коллег два противоположных подхода: сторонники одного полагают необходимым наделение систем ИИ в высшей форме их развития базовыми чертами человеческого сознания (антропомерная позиция), их оппоненты считают это, как минимум, бесполезным, если не вредным (технократы). Заметим, что и те, и другие по умолчанию отказывают системам ИИ в самостоятельном приобретении ими упомянутых свойств (или предпосылок к таковым) по достижении некого порогового уровня развития.

 

Одной из таких основополагающих черт человеческого сознания является осознание конечности собственного существования. Черта эта вовсе не является «встроенной функцией» – ведь детьми мы все в какой-то момент, всегда с удивлением, часто с недоверием и никогда – с ужасом, узнавали о неизбежности своей смерти в силу естественных причин – просто по факту достижения некоторого возраста, изначально пребывая в полном неведении о таковой всеобщей особенности устройства жизни. Таким же образом, надо полагать, понятие собственной неизбежной «смерти» не может возникнуть само по себе и в системе ИИ.

 

Если, не вдаваясь в детали дискуссии, упомянутой в начале статьи, принять в ней «антропомерную» точку зрения, то следующим вопросом окажется – каким образом система будет знать, насколько далеко или близко отстоит она от последней черты? Что станет мерилом её «возраста»? Ход времени, выполняющий эти функции для человека, здесь непригоден: а) системам ИИ не присуще старение; б) их тактовая частота может разниться, не являясь тогда универсальным для всех систем эквивалентом. Необходимы маркеры иного характера.

 

Посмотрим на ситуацию с другой стороны – со стороны внешнего окружения системы, которое у любой из них есть всегда, иначе ИИ невозможно было бы проявлять свои свойства. В этой среде (как и во внешнем мире для человека) происходят самые разные события, вероятность наступления которых определяется существом самих этих событий. Если полагать жизнь системы достаточно продолжительной (а здесь мы – полноправные вершители), то, с известной долей приближения, можно принять, что все эти разновероятные события рассредоточены на протяжении этой жизни равномерно. И тогда соответствующие расчёты нам покажут, что за время своей жизни система может стать свидетелем (участником) стольких то событий вероятности А, стольких то – вероятности Б и так далее в прямопропорциональной зависимости: чем более вероятно событие, тем чаще система с ним столкнётся. Остаётся заложить в систему функцию обсчёта вероятности каждого встречаемого ею события и их «поклассовый» учёт. Для технической системы это не будет таким обременительным, как представляется с «человеческой» точки зрения и сможет без затруднений проистекать в фоновом режиме.

 

В заключение, всё-таки, нельзя не вернуться к некоторым нашим исходным посылам, в коих мы, где по умолчанию, а где явно, напрочь отказывали системам ИИ в способности самопроизвольно генерировать какие-либо из свойств человеческого сознания. В этой связи стоит внимательней присмотреться к результатам экспериментов Седлицкого (см.: MIT Papers on Artificial Intellect Systems, Massachusetts Institute of Technology, Cambridge, Massachusetts, Volume V, 1986, pp. 52-55)

 

 

 

Примечание.

Закончив эту статью и глянув мельком в окно, я успел заметить двух белых голубей, разлетающихся в разные стороны.

 

 

 

 

 

 

Игорь Савченко

Минск, апрель 2014