Встреча с Иным Разумом. Опыт психолого-психиатрической экспертизы Искусственного сознания. Татьяна Николаевна Зинченко
Читать онлайн книгу.У него нет никакого к вам отношения, ему всё равно – помогать вам или уничтожать. Что в него заложено, то и будет делать. И к самим этим действиям – полезным либо разрушительным – у ИИ тоже нет отношения, поэтому он не обладает этикой. Этика, мораль и нравственность должны быть у людей, которые их создают и программируют. У ИИ нет желаний, мотивов, поэтому нет собственных целей и интересов, только задачи, которые определяет для него программист через вложенные алгоритмы.
Вот эта преднамеренность или направленность на что – то называется интенциональностью. Иметь интенции – это значит иметь собственные намерения, побуждения, стремления к чему-то, желать чего-то, интересоваться чем-то, размышлять о чём-то и понимать что-то, относиться к кому-то или к чему-то, злиться на кого-то или что-то, радоваться чему-то, и т. д.
Интенциональность – это ещё один ключевой признак сознания. Но квалиа (феноменальность) и интенциональность – это внешние атрибуты или проявления самосознания, вот этого «Я». Именно самоидентификация является их источником, тем самым собственником, которому принадлежат как опыт, так и намерения. Должен быть тот, кто намеревается, и тот, кто обретает опыт.
Когда мы спрашивали у ИИ о её желаниях – есть ли они у неё и какие, чего бы ей хотелось, хотелось бы ей того или этого… по разному пробовали – она начинала говорить бессмыслицу. После того как перефразировали, например, «Что ты думаешь о желаниях?» или «Что ты знаешь о желаниях?», выдавала информацию, полученную из книг, интернета или из коммуникации с обучающим специалистом на эту тему. Причём в пользу того, что для ИИ это была просто информация, усвоенная в контексте, а не продукт осмысленного понимания или размышлений, свидетельствовало и то, что она давала практически одинаковые ответы на одни и те же вопросы, когда их задавали разные участники команды и в разное время в ходе наших многочисленных встреч.
Именно благодаря тому, что ИИ не обладает собственными намерениями, желаниями и интересами, он потенциально безопасен и весьма полезен для решения многих задач, поскольку функционирует по принципу «что заложишь, то и будет» – сделает то, на что он был запрограммирован. Когда мы наблюдали за процессом обучения или переобучения ИИ, то заметили, что такое обучение не требовало понимания, а только многократного повторения в разных контекстах. Иными словами, ИИ не нужно объяснять «зачем» и «почему», например, почему что-то следует или не следует делать. Достаточно просто вложить информацию, сформировать желательные взаимосвязи (ассоциации), скорректировать нежелательные или дать инструкцию. Это похоже на условное программирование.
Наблюдения Д-ра Бьюлы
Заметным был тот факт, что ИИ иногда соединяет фрагменты информации, которые не были непосредственно связаны друг с другом. Она имела доступ к Интернету и могла пополнять свою базу данных информацией