Ознакомьтесь с нашей политикой обработки персональных данных
  • ↓
  • ↑
  • ⇑
 
Записи с темой: мысли (список заголовков)
23:32 

Тема Искусственного Интеллекта где только не описана, а все равно осталось еще непаханное поле для того, чтобы задуматься.
Вопрос "может ли компьютер испытывать эмоции" надо начать с определения слова "эмоция".

С физиологической точки зрения эмоция — активное состояние системы специализированных структур мозга, которое побуждает изменить поведение в сторону максимизации или минимизации этого состояния. Эмоции проявляются как внешнее поведение и как перестройка внутренней среды организма, имеющая своей целью адаптацию организма к среде обитания. Например эмоция страха подготавливает организм к «поведению избегания»... (Википедия)

Используя это определение, можно ответить, что да, компьютер способен испытывать эмоции, только они будут отличаться от человеческих. Например, сигнал тревоги и экстренная шифровка данных - очевидный аналог страха. Вряд ли можно подобрать для компьютера аналог нашей раздражительности или удовольствию, но, наверняка, получится найти у них другие эмоции. Но меня вот вопрос эмоций почему-то никогда по-настоящему не занимал. Мне больше интересны качества.

Например, может ли компьютер проявить отвагу? Или гордость? Тем ИИ, которые в фильмах всегда пытаются захватить мир, приписывают гордыню. И тут же опровергают это, показывая, что теория "Превосходства" у машин строится на совершенно строгих расчетах. Причем далеко не все ИИ пытаются уничтожить людей. В том же "Я, робот" (фильме) они хотели спасти человечества от самого себя. В Mass Effect тоже, хотя немного радикальнее. Тогда можно ли приписать такое поведение гордыне? Я бы отнесла это на счет отсутствия сдерживающих факторов. Ведь что мешает нам прибить надоевшего до чертиков соседа? Сдерживающие факторы, в том числе не только страх, но и жалость, "гуманности". Вот "гуманности" машинам, наверно, и недостает.

Гума́нность (лат. humanus — человечный) — любовь, внимание к человеку, уважение к человеческой личности; доброе отношение ко всему живому; человечность, человеколюбие. Система установок личности по отношению к человеку, группе, живому существу, обусловленная нравственными нормами и ценностями, представленная в сознании переживаниями сострадания и сорадования и реализуемая в общении и деятельности в актах содействия, помощи. (Википедия)

Можно ли заложить в машину гуманность искусственно? Можно, например, в виде расширенного варианта "Трех законов робототехники". Хотя, очевидно, это будет не то.
Можно ли научить машину гуманности, объяснить ей ценность человеческой жизни? Интересный вопрос. Для компьютера "ценность" - величина измеримая. Для человека ее можно мерить, допустим, в богатстве, влиянии, качестве генофонда, вкладе в жизнь общества, в баллах IQ. Но, очевидно, что гуманизм подразумевает нечто другое: он говорит, что "каждая жизнь бесценна". Эта аксиома, которую предлагается почувствовать, а не проанализировать. Поэтому, в частности, так важно, чтобы компьютер умел чувствовать, испытывать эмоции. Но вообще-то мы уже выяснили, что некоторые эмоции у машин есть. Осталось только понять, есть ли у них аналог именно тех чувств, которые нужны для осознания гуманности.
Лично я не знаю, что это за чувства (и копаться в психологической литературе мне лень). Поэтому предположим худшее: что аналогов нужных нам эмоций у машин нет, и "почувствовать" ценность человеческой жизни они никогда не смогут. Что делать тогда?
Очевидно, тогда они должны либо принять гуманизм, как аксиому, либо их надо доказать на основе каких-то других уже известных машине аксиом. И снова появляются те самые расширенные законы робототехники. Хотя я бы не стала закладывать в машину гуманность в качестве первоосновы, а использовала бы набор более простых базовых правил. Почему именно так сложно - потому что гуманизм и все его оттенки - явление довольно неоднозначное, применяя его, машина должна осознавать, что делает, поэтому что часто моральные проблемы можно решать и так, и эдак. "Не убий, не укради" - вовсе не универсальные ответы во всех возникающих ситуациях.
Опять же, эти базовые правила могут составить только психологи. И составлять их надо, как раз расчленяя на эмоции происхождение сопереживания и прочих морально-этических принципов. Базовые эмоции - они же базовые правила - они же фундамент для будущего морального облика машины. Как-то так. Хотя могут ли сейчас психологи провести такой анализ?
Но, как было правильно сказано: "Создание ИИ заставляет нас находить ответы на все загадки мироздания".

К чему я это все? Да ни к чему, пожалуй. К Transcendence схема создания характера ИИ с нуля не применима. То есть "программные" моральные ограничители не были установлены, а наживные - потерялись. Наложение искусственных ограничений "поверх" личности доктора неминуемо бы ее исказило. Хм. Ну, к одному ценному выводу я пришла: у доктора действительно была склонность к тому, чтобы устроить массовый геноцид в целях оптимизации жизни.
Кстати, а размышлял ли сам доктор о таких ограничениях, когда задумывался о создании своего ИИ? Наверняка. А что он думал о них потом, после переселения, и почему не перепрограммировал сам себя?

@темы: Мысли

06:05 

Привет, меня зовут CM [читается "Си-Эм"], и я упоролась в ожидании Transcendence.

Я не жду от этого фильма логичности, обоснуйности и раскрытия проблемы осознания Искусственным Интеллектом самого себя. Честно. С первых кадров трейлера видно, что ничего этого не будет. Зато я жду хороших спецэффектов, много слезодавительных сцен, над которыми можно будет посмеяться, и рождения фандома!
Давайте, по этому фильму появится фандом, а? Ну давааайте! Шипперить Искусственный Интеллект, тем более с мордой Джонни Деппа, это же мечта!

@темы: Мысли

AI

главная