Если вы все еще не заметили, за окном уже давно наступило самое настоящее третье тысячелетие. И, как завещали герои Ильфа и Петрова, железный конь технологического прогресса неотвратимо идёт на смену крестьянской лошадке, грозно жужжа дронами, обиженно лязгая роботами Boston Dynamics и ехидно ухмыляясь во все 33 нейросети.

Оценив масштабы всего безобразия, мы в BTNews решили подстраховаться и выяснить, не собираются ли пылесосы поработить человечество и что по этому поводу думают знаменитые философы прошлого.

Что это вообще за штука такая — сознание?

Меланхоличный Платон

Этот вопрос волновал гениальные умы еще задолго до нашей эры. Древнегреческий математик Платон, например, полагал, что сознание представляет собой некую бестелесную субстанцию, которая продолжает жить даже после смерти материи (такая концепция получила название дуализма). Его земляк Демокрит, напротив, утверждал, что все умственные процессы материальны и происходят сугубо внутри нашего тела (а вот это уже физикализм).

Ехидный Демокрит

Во все времена философы выдвигали самые разные предположения касаемо признака, который отличает нас от безвольных кусков мяса. Так или иначе, большинство из них пришло к выводу, что сознание само по себе — это совокупность всего, что принимает участие в мышлении (в том числе и чувств). Есть ли оно у братьев наших меньших — машин? Попробуем разобраться.

Тест Тьюринга, приз Лёбнера и отравленное яблоко

Британский ученый Алан Тьюринг, живший в первой половине двадцатого века, стал одним из отцов-основателей цифровой компьютерной техники, написал ряд фундаментальных работ в области информатики и даже принял участие в дешифровке немецких радиосигналов во время Второй Мировой Войны. Но мы сосредоточимся на его работе в области философии сознания — так называемом «тесте Тьюринга», который, как считал Алан, может выявить разумную машину.

В ходе эксперимента, организованного Аланом, несколько «судей» вели диалог с неизвестными собеседниками, часть из которых была людьми, а часть — чем-то вроде чат-ботов из ВК. Судьям предоставлялась возможность задавать собеседнику любые вопросы, какие только взбредут им в голову, а на основе ответов они должны были сделать вывод, компьютер перед ними или человек. По мнению Тьюринга, тест можно было считать пройденным в том случае, если машинам удалось обмануть более 30% судей. Но и по сей день ни одна программа в мире не прошла это испытание. В Америке даже есть один богатый парень Хью Лёбнер, готовый озолотить счастливчика, ставшего автором такой программы.
Судьба обошлась с Аланом Тьюрингом жестоко. Общественные гонения по поводу нетрадиционной сексуальной ориентации ученого толкнули его на суицид. Умирая, создатель первой шахматной программы в мире воссоздал сцену из мультфильма «Белоснежка», проглотив кусочек отравленного яблока.

Лист бумаги, карандаш, стирательная резинка и железная дисциплина — вот и все, что нужно человеку, чтобы стать примером универсальной вычислительной машины.

Функционализм и Ламетри

Очень многих мыслителей смутила логика Тьюринга. Они посчитали дурацкой идею сравнивать человека и компьютер, успешно им притворяющийся. Однако, с точки зрения функционализма (эта концепция призывает к объективной оценке результата явления без углубления в его механизм), нет никакой разницы между человеком и роботом, если они функционируют одинаково.

Откуда вообще взялось утверждение, что человек представляет собой нечто большее, чем хорошо отлаженный механизм? Стоит ли говорить о какой-то свободе воли, если наше настроение легко можно изменить парой баночек пивка? Один французский врач, названный в честь грибной запеканки (Жульен Офре де Ламетри), вообще заявил, что между человеком и его точной механической копией нет никакой разницы. Ламетри, кстати, потом слишком много съел на пире в свою же честь и… умер. Но это так, к слову о необычных смертях на самом деле это машины заметают следы.

Твой маршрут нарисован внутри тебя химически. И когда тебе кажется, что ты идешь к свету и счастью, ты просто идешь к своему внутреннему дрессировщику за очередным куском сахара. Причем нельзя даже сказать, что это идешь ты. Просто химический компьютер выполняет оператор «take sugar», чтобы перейти к оператору «rejoice 5 seconds». А потом опять будет оператор «suffer», его никто никогда не отменял и не отменит. Никакого «тебя» во всем этом нет.  (Виктор Пелевин, «S.N.U.F.F.»)

Зомби-апокалипсис и китайские иероглифы

Эй, эй, не торопись уходить в горы и становиться отшельником! Ты все равно без Twitter и часа не протянешь, тоже мне, Будда нашелся. Послушай, на самом деле все вовсе не так уж плохо. Во-первых, даже если Тьюринг с Ламетри правы, до сих пор не нашлось ни одной программы, которая подошла бы под их критерии искусственного интеллекта. Хотя кто знает, что будет через пять-десять лет… Посему давай поторопимся подвергнуть критерии сомнению. В этом нам помогут такие замечательные ребята, как Дэвид Чалмерс и Джон Серл, выдающиеся ученые и философы второй половины двадцатого века.Американскому когнитологу Дэвиду Чалмерсу философия обязана возникновением такого термина, как философский зомби. Зомби в понимании Чалмерса представляет собой существо, по внешнему виду и функциональности идентичное настоящему человеку, но, в отличие от него, не испытывающее ни любви, ни радости, ни каких-либо других чувств, свойственных нам с вами. Такое существо способно имитировать проявления этих эмоций, но никак не ощущать их.

Тем не менее зомби Чалмерса легко прошел бы тест Тьюринга на отлично. Какой из этого можно сделать вывод? Между идеальным искусственным интеллектом с точки зрения Тьюринга и настоящим человеком ни в коем случае нельзя ставить знак равенства. Между этими понятиями — огромная пропасть, имя которой — сознание. И от этой пропасти никуда не деться.

Одной только нейробиологии не разгадать всех тайн сознания.

Что до Джона Серла, ему с его мыслительным экспериментом под названием Китайская комната удалось не только переплюнуть доводы Тьюринга, но и на долгое время успокоить все философское сообщество, взволнованное вопросом механического разума. Суть эксперимента довольно проста: мы имеем человека, запертого в комнате с несколькими десятками книжных томов. Человек совершенно не знает китайского языка, но в книгах подробно описано, каким набором неизвестных ему иероглифов следует отвечать на другой набор неизвестных ему иероглифов. Итак, этому человеку в комнату периодически поступают сообщения, содержащие вопросы на китайском языке. Следуя подробным инструкциям из книг, наш подопытный отвечает на сообщения, и у теоретического китайца, находящегося снаружи, не может возникнуть никаких сомнений в том, что собеседник внутри комнаты знает его язык. Но система всего лишь выполняет программу, не осознавая ни цели, ни значения своих действий. Да, программа очень хорошо продумана, но это не делает её разумной, не дарит ей сознание. А значит, она не намного умнее обычного кухонного блендера.

Итак, продравшись через джунгли малопонятных формулировок и запутанной паранойи, мы пришли к не самому плохому выводу: до создания искусственного разума человечеству ещё далеко. Так что пока мы все можем дружно выдохнуть, сесть перед телевизором и поржать над очередной косячной частью Терминатора. А я пока пойду посмотрю, что там с моим робо-пылесосом. Он как-то странно мигает в последние дни…

comments powered by HyperComments