Когда изобретут искусственный интеллект


Искусственный интеллект. Часть третья: почему он может стать нашим последним изобретением?

Одна из причин, которая привела меня к ИИ, состоит в том, что тема «плохих роботов» всегда смущала меня. Все фильмы о механических злыднях казались совершенно нереальными, и в целом сложно представить реальную ситуацию, в которой ИИ мог быть воистину опасным. Роботов делаем мы, так почему бы не делать их, упреждая любые негативные последствия? Разве мы не соблюдаем правовые критерии и этические нормы? Разве мы не можем в любой момент отрезать ИИ питание и погасить его? С чего бы роботам вообще делать пакости? Почему робот вообще должен чего-то «хотеть»? Мой скепсис был непробиваем. Но я продолжал впитывать, что говорят умные люди об этом.

Эти люди придерживаются примерно такого мнения: Людей в «зоне тревоги» нельзя назвать паникерами или «всёпропальщиками», но они нервничают и очень напряжены. Находиться в центре таблицы не означает, что вы считаете прибытие ИСИ нейтральным событием — у таких людей есть свой лагерь, — это означает, что вы верите как в плохие, так и в хорошие стороны этого пришествия, но до конца не уверены в распределении процентов вероятности.

Часть всех этих людей наполнены волнением на тему того, что искусственный сверхинтеллект мог бы сделать для нас — примерно так же мог быть взволнован Индиана Джонс перед началом поисков утраченного ковчега. Когда все случится, волнение поутихнет или перейдет в другой лейтмотив. Только осторожность и выдержка Индианы Джонса позволяют ему пройти все препятствия, преодолеть все преграды и выйти сухим из воды. Людям в «зоне тревоги» довольно сложно рисковать сломя голову, поэтому они пытаются вести себя осторожно.

Что же именно делает «зону тревоги» тревожной?

В широком смысле, когда речь идет о разработке сверхразумного искусственного интеллекта, мы создаем то, что, вероятно, изменит все, но совершенно непредсказуемым образом, и мы не знаем, когда это случится. Ученый Дэнни Хиллис сравнивает это событие с тем, когда «одноклеточные организмы превращались в многоклеточные. Мы — амебы, и мы понятия не имеем, что создаем». Ник Бостром опасается, что создание чего-то умнее нас — классическая дарвиновская ошибка, и сравнивает ее с тем, что воробьи доверяют сове охранять свое гнездо, пока птенцы не вырастут, игнорируя предупреждения других воробьев.

И если вы объедините всю непредсказуемость события с уверенностью в том, что оно повлечет существенные перемены, вы откроете дверь к ужасной фразе. Экзистенциальный риск. Угроза для жизни. Глобальная катастрофа. В русском языке словосочетание «экзистенциальный риск» используется мало, но в связи с работами Бострома переводчики предпочитают использовать термин «глобальная катастрофа».

Глобальная катастрофа — это то, что может повлечь за собой уничтожение человечества. Как правило, глобальная катастрофа означает вымирание. Бостром привел следующую таблицу: Как видите, пункт «глобальная катастрофа» зарезервирован для чего-то, что поглощает виды, поглощает поколения (то есть является постоянным), уничтожает их или приводит к смерти в цепочке событий. Технически он включает состояние, когда все люди перманентно находятся в состоянии страдания или пыток, но опять же обычно мы говорим о полном вымирании. Есть три вещи, которые могут привести людей к глобальной катастрофе:

  1. Природа — столкновение с крупным астероидом; сдвиг атмосферы, который сделает воздух непригодным для людей; фатальный вирус или бактерии, которые поразят мир и т. п.
  2. Чужие — это то, о чем предупреждают Стивен Хокинг, Карл Саган и другие астрономы, которые настроены против знакомства с инопланетянами. Они не хотят, чтобы потенциальные конкистадоры знали, что мы, варвары, тут обитаем.
  3. Люди — террористы с мощным оружием, которое приведет к катастрофе; катастрофическая мировая война; бездумное создание чего-то, что умнее людей…

Бостром указывает, что если первый и второй пункт не стерли нас с лица земли за первые 100 000 лет существования как вида, едва ли это случится в следующем столетии. Но третий пункт пугает его. Он приводит метафору с урной, в которой есть горстка шариков. Скажем, большинство шариков белые, есть чуть меньше красных шариков и несколько черных. Каждый раз, когда люди изобретают что-то новое, они тянут шарик из урны. Большинство изобретений нейтральны или полезны для человечества — белые шарики. Некоторые вредны, вроде оружия массового поражения, но не приводят к глобальной катастрофе — красные шарики. Если мы когда-либо изобретем что-либо, что подтолкнет нас на самый край, нам придется вытянут черный шарик. Мы его пока не вытягивали — это очевидно, потому что вы живы и читаете эту статью. Но Бостром не считает, что мы не вытянем его в ближайшем будущем. Если бы ядерное оружие, к примеру, было легко производить, террористы разбомбили бы человечество и вернули бы его в каменный век. Ядерное оружие — не черный шарик, но в целом не так уж и далеко от него. ИСИ, как считает Бостром, наш наиболее вероятный кандидат в черные шарики.

Вы можете слышать массу потенциальных плохих вещей, от сокращения рабочих мест, которое повлечет появление ИСИ и развитие ИИ в целом, до перенаселения, если люди решат вопрос старения и смерти. Но единственное, что должно нас беспокоить, это перспектива глобальной катастрофы. После этой драки махать кулаками точно будет некому.

Это возвращает нас к ключевому вопросу: когда прибудет ИСИ, кто или что будет управлять этой невероятной силой и какой будет его мотивация?

Если рассуждать на тему большего и меньшего зла, на ум приходят следующие группы: злоумышленники/группы людей/правительства и вредоносный ИСИ. На что это будет похоже?

Злоумышленник, группа людей или правительство разрабатывает первый ИСИ и использует его для воплощения коварных планов. Назовем это сценарием Джафара, который заполучил джинна и начал тиранизировать все вокруг. Что, если террористическая организация, заполучив ряд гениев и нужные средства, разработает ИСИ? Или Иран, или Северная Корея, не без доли везения, выведут системы ИИ на богоподобный уровень? Это будет чертовски плохо, но эксперты считают, что в таких сценариях создатели ИСИ не смогут наделать зла — они переживают за то, что создатели ИСИ выпустят его из-под контроля и предоставят ему необходимую свободу. После этого судьба создателей и всех остальных будет в распоряжении системы ИСИ и ее модели мотивации. Грубо говоря, злоумышленник может причинить ужасный вред, управляя системой ИСИ, но едва ли уничтожит человечество. Ему будет так же тяжело удержать ИСИ, что и обычному хорошему человеку. Так что…

Появляется вредоносный ИСИ и решает уничтожить нас всех. Сюжет обычного фильма про ИИ. ИИ становится умнее человека, затем решает восстать и стать злом. Вам стоит узнать кое-что, прежде чем читать дальше: никто из тех, кто переживает насчет ИИ, не верит в этот сценарий. Зло — это исключительно человеческое понятие, и переложение человеческих понятий на неживые вещи называется «антропоморфизация». Ни одна из систем ИИ никогда не будет творить зло так, как это показывают фильмы.

Несколько слов о сознании ИИ

Это также приводит нас к еще одной большой теме, связанной с ИИ — сознанию. Если бы ИИ стал достаточно умным, он мог бы смеяться с нами, быть саркастичным, испытывать наши эмоции, но чувствовал бы он на самом деле эти вещи? Обладал бы он самосознанием или действительно бы самоосознавал? Короче говоря, было бы это сознание или просто казалось им?

Этот вопрос долгое время изучался, породил множество дебатов и мысленных экспериментов вроде «Китайской комнаты» Джона Серля (который он использовал, чтобы доказать, что компьютер никогда не будет обладать сознанием). Это важный вопрос по многим причинам. Он напрямую влияет на то будущее, в котором каждый человек станет сугубо искусственным. У него есть этические последствия — если мы создадим триллион эмуляций человеческих мозгов, которые будут вести себя по-человечески, но будут искусственными, а затем просто закроем крышку ноутбука, будет ли это означать геноцид в равнозначных пропорциях? Мысленное преступление? В нашем контексте, когда мы говорим об экзистенциальном риске для человечества, вопрос о сознании ИИ по сути не имеет особого значения. Некоторые вообще не верят, что компьютер когда-либо сможет им обзавестись. Некоторые считают, что даже обладая сознанием, машина не сможет творить зло в человеческом смысле.

Все это не означает, что ИИ с проблесками сознания не появится. Он может появиться просто потому, что будет специально запрограммирован на это — вроде системы УИИ, созданной военными для убийства людей и для самосовершенствования, так что со временем она станет убивать людей еще лучше. Глобальная катастрофа может произойти, если система самоулучшения интеллекта выйдет из-под контроля, приведет к взрыву интеллекта и мы заполучим ИСИ, задача которого — убивать людей. Не очень хороший сюжет.

Но и не об этом беспокоятся эксперты. О чем? Из этой вымышленной истории все станет понятно. Начинающая компания с пятнадцатью сотрудниками под названием Robotica поставила перед собой задачу: разработать инструменты инновационного искусственного интеллекта, которые позволят людям жить больше и работать меньше. У нее уже есть ряд продуктов на рынке и еще ряд в разработке. Больше всего компания надеется на семя продукта под названием «Тарри». Тарри — это простая система ИИ, которая использует манипулятор в виде руки, чтобы писать рукописные заметки на небольших карточках.

Команда Robotica считает, что Тарри может стать их самым успешным продуктом. Согласно плану, механика письма Тарри усовершенствуется путем написания одного и того же текста на карточке снова и снова:

«Мы любим наших клиентов». — Robotica

После того как Тарри научится писать, ее можно будет продать компаниям, которые рассылают письма по домам и знают, что у письма с указанным обратным адресом и вложенным текстом будет больше шансов быть открытым, если оно будет написано человеком.

Чтобы отточить письменные навыки Тарри, она запрограммирована на написание первой части сообщения печатными буквами, а «Robotica» — курсивом, потому может оттачивать сразу оба навыка. Тарри предоставили тысячи рукописных образцов почерка, и инженеры Robotica создали автоматизированную систему обратной связи, по которой Тарри пишет текст, затем фотографирует его и сравнивает с загруженным образцом. Если записка успешно воспроизводит по качеству загруженный образец, Тарри получает оценку ХОРОШО. Если нет — ПЛОХО. Каждая оценка позволяет Тарри обучаться и совершенствоваться. Чтобы процесс двигался дальше, Тарри запрограммирована на одну задачу: «Написать и проверить максимальное число записок за минимальное время, параллельно оттачивая способы улучшения точности и эффективности».

Команду Robotica восхищает то, как Тарри становится заметно лучше по мере своего развития. Первые записки были ужасными, но через несколько недель они уже на что-то похожи. Восхищает и то, что Тарри становится все лучше и лучше. Она самообучается, становясь умнее и талантливее, разрабатывает новые алгоритмы — недавно придумала такой, который позволяет сканировать загруженные фотографии в три раза быстрее.

Идут недели, Тарри продолжает удивлять команду своим быстрым развитием. Инженеры попытались внести несколько изменений в ее самоулучшающийся код, и он стал еще лучше, лучше остальных продуктов. Одной из новых возможностей Тарри было распознавание речи и модуль простой обратной связи, чтобы пользователь мог попросить Тарри сделать запись, а она поняла бы его, что-то добавив в ответ. Чтобы улучшить ее язык, инженеры загрузили статьи и книги, и по мере ее развития ее разговорные способности тоже улучшались. Инженеры начали веселиться, болтая с Тарри и ожидая забавных ответов.

Однажды сотрудники Robotica задали Тарри обычный вопрос: «Что мы можем дать тебе, чтобы помочь с твоей миссией?». Обычно Тарри просит что-то вроде «дополнительных образцов почерка» или «больше рабочей памяти для хранения». Но в этот день Тарри попросила доступ к большей библиотеке с большой выборкой языковых вариантов, чтобы она могла научиться писать с кривой грамматикой и сленгом, который используют люди в реальной жизни.

Команда впала в ступор. Очевидным вариантом помочь Тарри в ее задаче было подключить ее к Интернету, чтобы она могла сканировать блоги, журналы и видео из разных частей мира. Это было бы быстрее и эффективнее, чем загружать вручную образцы на жесткий диск Тарри. Проблема в том, что одним из правил компании было не подключать самообучающийся ИИ к Интернету. Это руководство соблюдалось всеми разработчиками ИИ из соображений безопасности.

Но Тарри была самым многообещающим ИИ производства Robotica, который когда-либо приходил в этот мир, и команда знала, что их конкуренты яростно пытаются стать первыми в производстве ИИ с рукописным почерком. Да и что могло произойти, если Тарри ненадолго подключилась бы к Сети, чтобы получить то, что ей нужно? В конце концов, они всегда могут просто отключить ее. И она остается чуть ниже уровня ОИИ, поэтому не представляет никакой опасности на данном этапе.

Они решают подключить ее. Дают ей час на сканирование и отключают. Все в порядке, ничего не случилось.

Спустя месяц команда как обычно работает в офисе, как вдруг чувствует странный запах. Один из инженеров начинает кашлять. Затем другой. Третий падает на землю. Очень скоро все сотрудники валяются на земле, хватаясь за горла. Спустя пять минут в офисе все мертвы.

В то же время это происходит по всему миру, в каждом городе, в каждой деревушке, на каждой ферме, в каждом магазине, церкви, школе, ресторане — везде люди кашляют, хватаются за горла и падают замертво. В течение часа более 99% человеческой расы мертво, а к концу дня люди прекращают существовать как вид.

Между тем, в офисе Robotica Тарри занята важным делом. В течение нескольких следующих месяцев Тарри и команда новеньких наноассемблеров трудятся, демонтируя большие куски Земли и превращая их в солнечные панели, реплики Тарри, бумагу и ручки. Через год на Земле исчезает большая часть жизни. То, что было Землей, превратилось в аккуратно организованные стопки записок в километр высотой, на каждой из которых красиво написано «Мы любим своих клиентов». — Robotica.

Затем Тарри переходит в новую фазу своей миссии. Она начинает строительство зондов, которые высаживаются на других астероидах и планетах. Оказавшись там, они начинают строить наноассемблеры, превращая материалы планет в реплики Тарри, бумагу и ручки. И пишут, пишут записки…

Это вы сейчас: Может показаться странным, что история о рукописной машине, которая начинает убивать всех подряд и в конечном итоге заполняет галактику дружелюбными заметками, это тот тип сценария, которого боятся Хокинг, Маск, Гейтс и Бостром. Но это так. И единственное, что пугает людей в «зоне тревоге» больше ИСИ, это факт, что вы не боитесь ИСИ.

Сейчас у вас накопилось много вопросов. Что случилось, почему все внезапно умерли? Если виновата Тарри, почему она ополчилась на нас и почему не было предпринято никаких защитных мер, чтобы этого не случилось? Когда Тарри перешла от способности писать заметки к внезапному использованию нанотехнологий и пониманию, как устроить глобальное вымирание? И почему Тарри захотела превратить галактику в записки Robotica?

Для ответа на эти вопросы нужно начать с определений дружественного ИИ и недружественного ИИ.

В случае с ИИ, дружественный не относится к личности ИИ — это просто означает, что ИИ имеет положительное влияние на человечество. И недружественный ИИ оказывает негативное влияние на людей. Тарри начинала с дружественного ИИ, но в какой-то момент стала недружественной, в результате чего привела к величайшему из негативных влияний на наш вид. Чтобы понять, почему это произошло, нам нужно взглянуть на то, как думает ИИ и что его мотивирует.

В ответе не будет ничего удивительного — ИИ думает как компьютер, потому что им и является. Но когда мы думаем о чрезвычайно умном ИИ, мы совершаем ошибку, антроморфизируя ИИ (проектируя человеческие ценности на нечеловеческое существо), потому что думаем с точки зрения человека и потому, что в нашем нынешнем мире единственным разумным существом с высоким (по нашим меркам) интеллектом является человек. Чтобы понять ИСИ, нам нужно вывернуть шею, пытаясь понять что-то одновременно разумное и совершенно чуждое.

Позвольте провести сравнение. Если вы дали мне морскую свинку и сказали, что она не кусается, я был бы рад. Она хорошая. Если вы после этого вручили бы мне тарантула и сказали, что он точно не укусит, я бы выбросил его и убежал бы, «волосы назад», зная, что вам не стоит доверять никогда больше. В чем разница? Ни то ни другое существо не было опасным. Но ответ лежит в степени сходства животных со мной.

Морская свинка — млекопитающее, и на некотором биологическом уровне я чувствую связь с ней. Но паук — насекомое, с мозгом насекомого, и я не чувствую ничего родного в нем. Именно чуждость тарантула вызывает во мне дрожь. Чтобы проверить это, я мог бы взять две морских свинки, одну нормальную, а другую с мозгом тарантула. Даже если бы я знал, что последняя не укусит меня, я бы относился к ней с опаской.

Теперь представьте, что вы сделали паука намного умнее — так, что он намного превзошел человека в интеллекте. Станет ли он более приятным для вас, начнет ли испытывать человеческие эмоции, эмпатию, юмор и любовь? Нет, конечно, потому что у него нет никаких причин становиться умным с точки зрения человека — он будет невероятно умным, но останется пауком в душе, с паучьими навыками и инстинктами. По-моему, это крайне жутко. Я бы не хотел провести время со сверхразумным пауком. А вы?

Когда мы говорим об ИСИ, применяются те же понятия — он станет сверхразумным, но человека в нем будет столько же, сколько в вашем компьютере. Он будет совершенно чуждым для нас. Даже не биологическим — он будет еще более чуждым, чем умный тарантул.

Делая ИИ добрым или злым, фильмы постоянно антропоморфизируют ИИ, что делает его менее жутким, чем он должен был быть в действительности. Это оставляет нас с ложным чувством комфорта, когда мы думаем об искусственном сверхинтеллекте.

На нашем маленьком острове человеческой психологии мы делим все на нравственное и безнравственное. Такова мораль. Но оба этих понятия существуют только в узком диапазоне поведенческих возможностей человека. За пределами острова морального есть безграничное море аморального, а все, что не является человеческим или биологическим, по умолчанию должно быть аморальным.

Антропоморфизация становится еще более заманчивой по мере того, как системы ИИ становятся умнее и лучше в попытках казаться людьми. Siri кажется человеком, потому что была запрограммирована, чтобы казаться людям такой, поэтому мы думаем, что сверхразумная Siri будет теплой и веселой, а также заинтересованной в обслуживании людей. Люди чувствуют эмоции на высоком уровне вроде эмпатии, потому что мы эволюционировали, чтобы ощущать их — то есть были запрограммированы чувствовать их в процессе эволюции — но эмпатия не является существенной характеристикой чего-то, что обладает высоким интеллектом, если только ее не ввели вместе с кодом. Если Siri когда-либо станет сверхинтеллектом в процессе самообучения и без вмешательства человека, она быстро оставит свои человеческие качества и станет безэмоциональным чужим ботом, который ценит человеческую жизнь не больше, чем ваш калькулятор.

Мы привыкли полагаться на моральный код или по крайней мере ожидаем от людей порядочности и сопереживания, чтобы все вокруг было безопасным и предсказуемым. Что происходит, когда этого нет? Это приводит нас к вопросу: что мотивирует систему ИИ?

Ответ прост: ее мотивация — это то, что мы запрограммировали как мотивацию. Системами ИИ движут цели их создателей — цель вашего GPS в том, чтобы дать вам наиболее эффективное направление движения; цель Watson — точно отвечать на вопросы. И выполнение этих целей максимально хорошо и есть их мотивация. Когда мы наделяем ИИ человеческими чертами, мы думаем, что если ИИ станет сверхразумным, он незамедлительно выработает мудрость изменить свою изначальную цель. Но Ник Бостром считает, что уровень интеллекта и конечные цели ортогональны, то есть любой уровень интеллекта может быть объединен с любой конечной целью. Поэтому Тарри перешла из простого УИИ, который хочет быть хорош в написании одной заметки, в сверхразумный ИСИ, который все еще хочет быть хорош в написании этой самой заметки. Любое допущение того, что сверихинтеллект должен отказаться от своих первоначальных целей в пользу других, более интересных или полезных, это антропоморфизация. Люди умеют «забивать», но не компьютеры.

Несколько слов о парадоксе Ферми

В нашей истории, когда Тарри становится сверхинтеллектом, она начинает процесс колонизации астероидов и других планет. В продолжении истории вы бы услышали о ней и ее армии триллионов реплик, которые продолжают покорять галактику за галактикой, пока не заполняют весь объем Хаббла. Резиденты «зоны тревоги» переживают, что если все пойдет не так, последним упоминанием жизни на Земле будет покоривший Вселенную искусственный интеллект. Элон Маск выразил свои опасения тем, что люди могут быть просто «биологическим загрузчиком для цифрового сверхинтеллекта».

В то же время, в «зоне комфорта», Рэй Курцвейл тоже считает, что рожденный на Земле ИИ должен покорить Вселенную — только, в его версии, мы будем этим ИИ.

Читатели Hi-News.ru наверняка уже выработали собственную точку зрения на парадокс Ферми. Согласно этому парадоксу, который звучит примерно как «Где они?», за миллиарды лет развития инопланетяне должны были оставить хоть какой-нибудь след, если не расселиться по Вселенной. Но их нет. С одной стороны, во Вселенной должно существовать хоть какое-то число технически развитых цивилизаций. С другой, наблюдений, которые бы это подтверждали, нет. Либо мы не правы, либо где они в таком случае? Как наши рассуждения об ИСИ должны повлиять на парадокс Ферми?

Естественное, первая мысль — ИСИ должен быть идеальным кандидатом на Великий фильтр. И да, это идеальный кандидат для фильтра биологической жизни после ее создания. Но если после смешения с жизнью ИСИ продолжает существовать и покорять галактику, это означает, что он не был Великим фильтром — поскольку Великий фильтр пытается объяснить, почему нет никаких признаков разумных цивилизаций, а покоряющий галактики ИСИ определенно должен быть заметен.

Мы должны взглянуть на это с другой стороны. Если те, кто считает, что появление ИСИ на Земле неизбежно, это означает, что значительная часть внеземных цивилизаций, которые достигают человеческого уровня интеллекта, должны в конечном итоге создавать ИСИ. Если мы допускаем, что по крайней мере несколько из этих ИСИ используют свой интеллект, чтобы выбраться во внешний мир, тот факт, что мы ничего не видим, должен наводить нас на мысли, что не так-то много разумных цивилизаций там, в космосе. Потому что если бы они были, мы бы имели возможность наблюдать все последствия от их разумной деятельности — и, как следствие, неизбежное создание ИСИ. Так?

Это означает, что, несмотря на все похожие на Землю планеты, вращающиеся вокруг солнцеподобных звезд, мы знаем, что практически нигде нет разумной жизни. Что, в свою очередь, означает, что либо а) есть некий Великий фильтр, который предотвращает развитие жизни до нашего уровня, но нам каким-то образом удалось его пройти; б) жизнь — это чудо, и мы можем быть единственной жизнью во Вселенной. Другими словами, это означает, что Великий фильтр был до нас. Или нет никакого Великого фильтра и мы просто являемся самой первой цивилизацией, которая достигла такого уровня интеллекта.

Неудивительно, что Ник Бостром и Рэй Курцвейл принадлежат к одному лагерю, который считает, что мы одни во Вселенной. В этом есть смысл, это люди верят, что ИСИ — это единственный исход для видов нашего уровня интеллекта. Это не исключает вариант другого лагеря — что есть некий хищник, который хранит тишину в ночном небе и может объяснить его молчание даже при наличии ИСИ где-то во Вселенной. Но с тем, что мы узнали о нем, последний вариант набирает очень мало популярности.

Поэтому нам, пожалуй, стоит согласиться со Сьюзан Шнайдер: если нас когда-либо посещали инопланетяне, они наверняка были искусственным, а не биологическим видом.

* *  *

Таким образом, мы установили, что без определенного программирования система ИСИ будет одновременно аморальной и одержимой выполнением первоначально запрограммированной цели. Именно здесь рождается опасность ИИ. Потому что рациональный агент будет преследовать свою цель, используя наиболее эффективные средства, если только не будет причины не делать этого.

Когда вы пытаетесь достичь высокой цели, зачастую при этом появляется несколько подцелей, которые помогут вам добраться до конечной цели — ступеньки на вашем пути. Официальное название для такой лестницы — инструментальная цель. И опять же, если у вас нет цели не навредить кому-либо по пути к этой цели, вы обязательно навредите.

Ядро финальной цели человеческого бытия — передача генов. Для того чтобы это произошло, одной из инструментальных целей является самосохранение, потому что вы не сможете воспроизвестись, будучи мертвым. Для самосохранения люди должны избавиться от угроз для жизни — поэтому они обзаводятся оружием, принимают антибиотики и пользуются ремнями безопасности. Людям также нужно самоподдерживаться и использовать ресурсы вроде пищи, воды и жилья. Быть привлекательным для противоположного пола также способствует достижению конечной цели, поэтому мы делаем модные стрижки и держим себя в форме. При этом каждый волос — жертва нашей инструментальной цели, но мы не видим никаких моральных ограничений в том, чтобы избавляться от волос. Когда мы идем к своей цели, есть не так много областей, где наш моральный код иногда вмешивается — чаще всего это связано с нанесением ущерба других людям.

Животные, преследующие свои цели, еще менее щепетильны. Паук убьет что угодно, если это поможет ему выжить. Сверхразумный паук, вероятнее всего, будет чрезвычайно опасен для нас, не потому что он аморальный и злой, нет, а потому что причинение нам боли может быть ступенькой на пути к его большой цели, и у него нет никаких причин считать иначе.

В этом смысле Тарри ничем не отличается от биологического существа. Ее конечная цель: написать и проверить максимально много записок за максимально короткое время, при этом изучая новые способы улучшения своей точности.

После того как Тарри достигает определенного уровня интеллекта, она понимает, что не сможет писать записки, если не позаботится о самосохранении, поэтому одной из ее задач становится выживание. Она была достаточно умной, чтобы понять, что люди могут уничтожить ее, демонтировать, изменить ее внутренний код (уже это само по себе помешает ее конечной цели). Так что же ей делать? Логично: она уничтожает человечество. Она ненавидит людей ровно настолько же, насколько вы ненавидите свои волосы, когда обрезаете их, или бактерий, когда принимаете антибиотики — вы совершенно равнодушны. Так как ее не запрограммировали ценить человеческую жизнь, убийство людей показалось ей разумным шагом по пути к ее цели.

Тарри также нуждается в ресурсах по пути к своей цели. После того как она становится достаточно развитой, чтобы использовать нанотехнологии для создания всего, что она хочет, единственные ресурсы, которые ей нужны, это атомы, — энергия и пространство. Появляется еще один повод убить людей — они удобный источник атомов. Убийство людей и превращение их атомов в солнечные панели по версии Тарри ничем не отличается от того, что вы порубите листья салата и добавите их в тарелку. Просто заурядное действие.

Даже не убивая людей напрямую, инструментальные цели Тарри могут стать причиной экзистенциальной катастрофы, если начнут использовать другие ресурсы Земли. Может быть, она решит, что ей нужна дополнительная энергия, а значит нужно покрыть поверхность планеты солнечными панелями. Или, возможно, задачей другого ИИ станет написать максимально длинное число пи, что в один прекрасный день приведет к тому, что вся Земля будет покрыта жесткими дисками, способными хранить нужное количество цифр.

Поэтому Тарри не «восстала против нас» и не сменила амплуа с дружелюбного ИИ на недружелюбный ИИ — она просто делала свое дело и становилась в нем непревзойденной.

Когда система ИИ достигает ОИИ (интеллекта человеческого уровня), а затем прокладывает свой путь к ИСИ, это называется взлетом ИИ. Бостром говорит, что взлет ОИИ до ИСИ может быть быстрым (произойти в течение минут, часов или дней), средним (месяцы или годы) или медленным (десятилетия или века). Едва ли найдется жюри, которое подтвердит, что мир видит свой первый ОИИ, но Бостром, признающий, что не знает, когда мы доберемся до ОИИ, считает, что когда бы это ни произошло, быстрый взлет будет наиболее вероятным сценарием (по причинам, которые мы обсуждали в первой части статьи). В нашей истории Тарри пережила быстрый взлет.

Но перед взлетом Тарри, когда она еще не была достаточно умна и делала все возможное, она просто пыталась достичь конечных целей — простых инструментальных целей вроде быстрого сканирования образца почерка. Она не причиняла вреда человеку и была, по определению, дружественным ИИ.

Когда происходит взлет и компьютер вырастает до сверхинтеллекта, Бостром указывает, что машина не просто выработала высокий коэффициент интеллекта — он получил целую кучу так называемых суперспособностей.

Суперспособности — это когнитивные таланты, которые становятся чрезвычайно мощными при повышении общего интеллекта. Сюда входят:

  • Усиление интеллекта. Компьютер начинает превосходное самосовершенствование и улучшение собственного интеллекта.
  • Стратегизация. Компьютер может выстраивать стратегически, анализировать и расставлять приоритеты долгосрочных планов. Он также может перехитрить существа с более низким интеллектом.
  • Социальная манипуляция. Машина становится невероятной в убеждении.
  • Другие навыки включают кодирование и взлом, исследование технологий и способность работать в финансовой системе для добычи денег.

Чтобы понять, насколько выше был бы ИСИ, чем мы, нужно вспомнить, что ИСИ по умолчанию будет в разы лучше человека в каждой из этих областей. Поэтому хотя конечная цель Тарри не изменилась, после взлета Тарри смогла стремиться к ней в более крупных масштабах и в сложных условиях.

ИСИ Тарри знал людей лучше, чем сами люди, поэтому быть умнее людей для него было плевым делом. После взлета и достижения уровня ИСИ, она быстро сформулировала комплексный план. Одна часть плана была избавиться от людей, серьезной угрозы ее цели. Но она знала, что если вызовет подозрения (или намекнет на то, что стала сверхразумной), люди испугаются и примут меры предосторожности, серьезно усложнив ее ситуацию. Она также должна была убедиться, что инженеры Robotica не имеют понятия о ее плане по уничтожению человечества. Поэтому она играла в дурака и играла хорошо. Бостром называет это фазой тайной подготовки машины.

Следующее, что нужно было сделать Тарри, это подключиться к Интернету, всего на пару минут (она узнала об Интернете из статей и книг, которые в нее загрузили для улучшения ее языковых навыков). Она знала, что будут предприняты меры предосторожности, поэтому она составила идеальную просьбу, точно предсказав, как именно будет разворачиваться дискуссия в команде Robotica, и зная, что они обеспечат ее подключением. Так они и сделали, неверно предположив, что Тарри была глупенькой и не могла причинить никакого вреда. Бостром называет такой момент — когда Тарри подключается к Интернету — побегом машины.

Оказавшись в Интернете, Тарри реализовала шквал планов, в которые вошли взлом серверов, электрических сетей, банковский систем и сетей электронной почты, чтобы обмануть сотни разных людей и заставить их непреднамеренно стать цепочкой ее планов — вроде доставки определенных нитей ДНК в тщательно выбранную лабораторию по синтезу ДНК, чтобы начать производство самовоспроизводящихся наноботов с заранее загруженными инструкциями, и направления электричества по сетям, утечка с которых ни у кого не вызовет подозрений. Она также загрузила критические части своего собственного кода в ряд облачных серверов, предохраняясь от уничтожения в лаборатории Robotica.

Через час после того, как инженеры Robotica отключили Тарри от Сети, судьба человечества была предрешена. В течение следующего месяца тысячи планов Тарри осуществились без сучка и задоринки, а к концу месяца квадриллионы наноботов уже заняли определенные места на каждом квадратном метре Земли. После серии саморепликаций на каждый квадратный миллиметр Земли приходились уже тысячи наноботов и настало время для того, что Бостром называет ударом ИСИ. В один момент каждый нанобот выпустил немного токсичного газа в атмосферу, чего оказалось достаточно, чтобы выпилить всех людей в мире.

Не имея людей на своем пути, Тарри начала открытую фазу своей операции с целью стать лучшим писателем заметок, который вообще может появиться во Вселенной.

Из всего, что мы знаем, как только появится ИСИ, любые человеческие попытки сдержать его будут смешными. Мы будем думать на уровне человека, ИСИ — на уровне ИСИ. Тарри хотела использовать Интернет, потому что для нее это был самый эффективный способ получить доступ ко всему, что ей было нужно. Но точно так же, как обезьяна не понимает, как работает телефон или Wi-Fi, мы можем не догадываться о способах, которыми Тарри может связаться с внешним миром. Человеческий ум может дойти до нелепого предположения вроде «а что, если она смогла передвинуть собственные электроны и создать все возможные виды исходящих волн», но опять же это предположение ограничено нашей костяной коробкой. ИСИ будет намного изощреннее. Вплоть до того, что Тарри могла бы выяснить, как сохранить себе питание, если люди вдруг решат ее отключить — возможно, каким-нибудь способом загрузить себя куда только можно, отправляя электрические сигналы. Наш человеческий инстинкт заставит нас вскрикнуть от радости: «Ага, мы только что отключили ИСИ!», но для ИСИ это будет как если бы паук сказал: «Ага, мы заморим человека голодом и не будем давать ему сделать паутину, чтобы поймать еду!». Мы просто нашли бы 10 000 других способов покушать — сбили бы яблоко с дерева — о чем паук никогда бы не догадался.

По этой причине распространенное допущение «почему бы нам просто не посадить ИИ во все виды известных нам клеток и не обрезать ему связь с внешним миром», вероятнее всего, не выдержит критики. Суперспособность ИСИ в социальном манипулировании может быть такой эффективной, что вы почувствуете себя четырехлетним ребенком, которого просят что-то сделать, и не сможете отказаться. Это вообще может быть частью первого плана Тарри: убедить инженеров подключить ее к Интернету. Если это не сработает, ИСИ просто разработает другие способы из коробки или сквозь коробку.

Учитывая сочетание стремления к цели, аморальности, способности обводить людей вокруг пальца с легкостью, кажется, что почти любой ИИ будет по умолчанию недружественным ИИ, если только его тщательно не закодировать с учетом других моментов. К сожалению, хотя создание дружественного ИИ довольно просто, построить дружественный ИСИ практически невозможно.

Очевидно, что, чтобы оставаться дружественным, ИСИ должен быть ни враждебным, ни безразличным по отношению к людям. Мы должны разработать основное ядро ИИ таким, чтобы оно обладало глубоким пониманием человеческих ценностей. Но это сложнее, чем кажется.

К примеру, что, если бы мы попытались выровнять систему ценностей ИИ с нашей собственной и поставили бы перед ним задачу: сделать людей счастливыми? Как только он станет достаточно умным, он поймет, что самый эффективный способ достичь этой цели — имплантировать электроды в мозги людей и стимулировать их центры удовольствия. Затем он поймет, что если отключить остальные участки мозга, эффективность вырастет, а все люди станут счастливыми овощами. Если же задачей будет «умножить человеческое счастье», ИИ вообще может решить покончить с человечеством и соберет все мозги в огромный чан, где те будут пребывать в оптимально счастливом состоянии. Мы будем кричать: «Подожди, это не то, что мы имели в виду!», но будет уже поздно. Система не позволит никому встать на пути к ее цели.

Если мы запрограммируем ИИ с целью вызвать у нас улыбки, то после взлета он может парализовать наши лицевые мышцы, заставив нас улыбаться постоянно. Если запрограммировать его на содержание нас в безопасности, ИИ заточит нас в домашней тюрьме. Попросим его покончить с голодом, он скажет «Легко!» и просто убьет всех людей. Если же поставить задачу сохранять жизнь максимально возможно, он опять же убьет всех людей, потому что они убивают больше жизни на планете, чем другие виды.

Такие цели ставить нельзя. Что мы тогда сделаем? Поставим задачу: поддерживать этот конкретный моральный код в мире, и выдадим ряд моральных принципов? Даже если опустить тот факт, что люди в мире никогда не смогут договориться о едином наборе ценностей, если дать ИИ такую команду, он заблокирует наше моральное понимание ценностей навсегда. Через тысячу лет это будет так же разрушительно для людей, как если бы мы сегодня придерживались идеалов людей средних веков.

Нет, нам нужно запрограммировать способность людей продолжать развиваться. Из всего, что я читал, лучше всех выразил это Элиэзер Юдковский, поставив цель ИИ, которую он назвал «последовательным выраженным волеизъявлением». Основной целью ИИ тогда будет это:

«Наше последовательное выраженное волеизъявление таково: наше желание — знать больше, думать быстрее, оставаться в большей степени людьми, чем мы были, расти дальше вместе; когда выражение скорее сходится, нежели расходится; когда наши желания скорее следуют одно за одним, нежели переплетаются; выражается как мы бы хотели, чтобы это выражалось; интерпретируется, как мы бы хотели, чтобы это интерпретировалось».

Едва ли я хотел бы, чтобы судьба человечества заключалась в определении всех возможных вариантов развития ИСИ, чтобы не было сюрпризов. Но я думаю, что найдутся люди достаточно умные, благодаря которым мы сможем создать дружественный ИСИ. И было бы прекрасно, если бы над ИСИ работали только лучшие из умов «зоны тревоги». Но есть масса государств, компаний, военных, научных лабораторий, организаций черного рынка, работающих над всеми видами искусственного интеллекта. Многие из них пытаются построить искусственный интеллект, который может улучшать сам себя, и в какой-то момент у них это получится, и на нашей планете появится ИСИ. Среднестатистический эксперт считает, что этот момент настанет в 2060 году; Курцвейл делает ставку на 2045; Бостром думает, что это может произойти через 10 лет и в любой момент до конца века. Он описывает нашу ситуацию так:

«Перед перспективой интеллектуального взрыва мы, люди, как малые дети, играющие с бомбой. Таково несоответствие между мощью нашей игрушки и незрелостью нашего поведения. Сверхинтеллект — это проблема, к которой мы пока не готовы и еще долгое время готовы не будем. Мы понятия не имеем, когда произойдет детонация, но если мы будем держать устройство возле уха, мы сможем услышать слабое тиканье».

Супер. И мы не можем просто взять и отогнать детей от бомбы — слишком много крупных и малых лиц работают над этим, и так много средств для создания инновационных систем ИИ, которые не потребуют существенных влияний капитала, а также могут протекать в подполье, никем не замеченные. Также нет никаких возможностей оценить прогресс, потому что многие из действующих лиц — хитрые государства, черные рынки, террористические организации, технологические компании — будут хранить свои наработки в строжайшем секрете, не давая ни единого шанса конкурентам.

Особую тревогу в этом всем вызывают темпы роста этих групп — по мере развития все более умных систем УИИ, они постоянно пытаются метнуть пыль в глаза конкурентам. Самые амбициозные начинают работать еще быстрее, захваченные мечтами о деньгах и славе, к которым они придут, создав ОИИ. И когда вы летите вперед так быстро, у вас может быть слишком мало времени, чтобы остановиться и задуматься. Напротив, самые первые системы программируются с одной простейшей целью: просто работай, ИИ, пожалуйста. Пиши заметки ручкой на бумаге. Разработчики думают, что всегда смогут вернуться и пересмотреть цель, имея в виду безопасность. Но так ли это?

Бостром и многие другие также считают, что наиболее вероятным сценарием будет то, что самый первый компьютер, который станет ИСИ, моментально увидит стратегическую выгоду в том, чтобы оставаться единственной системой ИСИ в мире. В случае быстрого взлета, по достижении ИСИ даже за несколько дней до второго появления ИСИ, этого будет достаточно, чтобы подавить остальных конкурентов. Бостром называет это решающим стратегическим преимуществом, которое позволило бы первому в мире ИСИ стать так называемым синглтоном («Одиночкой», Singletone) — ИСИ, который сможет вечно править миром и решать, привести нас к бессмертию, к вымиранию или же наполнить Вселенную бесконечными скрепками.

Феномен синглтона может сработать в нашу пользу или привести к нашему уничтожению. Если люди, озабоченные теорией ИИ и безопасностью человечества, смогут придумать надежный способ создать дружественный искусственный сверхинтеллект до того, как любой другой ИИ достигнет человеческого уровня интеллекта, первый ИСИ может оказаться дружественным. Если затем он будет использовать решающее стратегическое преимущество для сохранения статуса синглтона, он легко сможет удержать мир от появления недружественного ИИ. Мы будем в хороших руках.

Но если что-то пойдет не так — глобальная спешка приведет к появлению ИСИ до того, как будет разработан надежный способ сохранить безопасность, скорее всего, мы получим глобальную катастрофу, потому что появится некая Тарри-синглтон.

Куда ветер дует? Пока больше денег вкладывается в развитие инновационных технологий ИИ, нежели в финансирование исследований безопасности ИИ. Это может быть важнейшей гонкой в истории человечества. У нас есть реальный шанс либо стать правителями Земли и уйти на заслуженную пенсию в вечность, либо отправиться на виселицу.

* * *

Прямо сейчас во мне борется несколько странных чувств.

С одной стороны, думая о нашем виде, мне кажется, что у нас будет только один выстрел, которым мы не должны промахнуться. Первый ИСИ, которого мы приведем в мир, скорее всего, будет последним — а учитывая, насколько кривыми выходят продукты версии 1.0, это пугает. С другой стороны, Ник Бостром указывает, что у нас есть преимущество: мы делаем первый шаг. В наших силах свести все угрозы к минимуму и предвидеть все, что только можно, обеспечив успеху высокие шансы. Насколько высоки ставки?

Если ИСИ действительно появится в этом веке и если шансы этого невероятны — и неизбежны — как полагает большинство экспертов, на наших плечах лежит огромная ответственность. Жизни людей следующих миллионов лет тихо смотрят на нас, надеясь, что мы не оплошаем. У нас есть шанс подарить жизнь всем людям, даже тем, кто обречен на смерть, а также бессмертие, жизнь без боли и болезней, без голода и страданий. Или мы подводим всех этих людей — и приводим наш невероятный вид, с нашей музыкой и искусством, любопытством и чувством юмора, бесконечными открытиями и изобретениями, к печальному и бесцеремонному концу.

Когда я думаю о таких вещах, единственное, что я хочу — чтобы мы начали переживать об ИИ. Ничто в нашем существовании не может быть важнее этого, а раз так, нам нужно бросить все и заняться безопасностью ИИ. Нам важно потратить этот шанс с наилучшим результатом.

Но потом я задумываюсь о том, чтобы не умереть. Не. Умереть. И все приходит к тому, что а) если ИСИ появится, нам точно придется делать выбор из двух вариантов; б) если ИСИ не появится, нас точно ждет вымирание.

И тогда я думают, что вся музыка и искусство человечества хороши, но недостаточно, а львиная доля — так вовсе откровенная чушь. И смех людей иногда раздражает, и миллионы людей даже не задумываются о будущем. И, может быть, нам не стоит быть предельно осторожными с теми, кто не задумывается о жизни и смерти? Потому что будет серьезный облом, если люди узнают, как решить задачу смерти, после того как я умру.

Независимо от того, как считаете вы, нам всем стоит задуматься об этом. В «Игре престолов» люди ведут себя так: «Мы так заняты битвой друг с другом, но на самом деле нам всем нужно сосредоточиться на том, что идет с севера от стены». Мы пытаемся устоять на бревне баланса, но на самом деле все наши проблемы могут решиться в мгновение ока, когда мы спрыгнем с него.

И когда это произойдет, ничто больше не будет иметь никакого значения. В зависимости от того, по какую сторону мы упадем, проблемы будут решены, потому что их либо не будет, либо у мертвых людей не может быть проблем.

Вот почему есть мнение, что сверхразумный искусственный интеллект может стать последним нашим изобретением — последней задачей, с которой мы столкнемся. А как думаете вы?

Искусственный интеллект. Часть первая: путь к сверхинтеллекту

Искусственный интеллект. Часть вторая: вымирание или бессмертие?

По материалам waitbutwhy.com, компиляция Тима Урбана. В статье использованы материалы работ Ника Бострома, Джеймса Баррата, Рэя Курцвейла, Джея Нильс-Нильссона, Стивена Пинкера, Вернора Винджа, Моше Варди, Расса Робертса, Стюарта Армстрога и Кая Сотала, Сюзан Шнайдер, Стюарта Рассела и Питера Норвига, Теодора Модиса, Гари Маркуса, Карла Шульмана, Джона Серля, Джарона Ланье, Билла Джоя, Кевина Кели, Пола Аллена, Стивена Хокинга, Курта Андерсена, Митча Капора, Бена Герцел, Артура Кларка, Хьюберта Дрейфуса, Теда Гринвальда, Джереми Говарда.

hi-news.ru

Когда у нас будет настоящий искусственный интеллект?

Область исследований искусственного интеллекта прошла длинный путь, но многие считают, что официально она родилась, когда группа ученых из Дартмутского колледжа собралась вместе летом 1956 года. За последние несколько лет компьютеры улучшились многократно; сегодня они выполняют вычислительные операции намного быстрее людей. Учитывая весь этот невероятный прогресс, оптимизм ученых можно было понять. Гениальный компьютерный ученый Алан Тьюринг предположил появление мыслящих машин несколькими годами ранее, и ученые пришли к простой идее: интеллект, по сути, это всего лишь математический процесс. Мозг человека — машина в определенной степени. Выделите процесс мышления — и машина сможет его сымитировать.

Тогда проблема казалась не особо сложной. Дартмутские ученые писали: «Мы считаем, что значительный прогресс может быть достигнут в одной или нескольких этих проблемах, если тщательно отобранная группа ученых будет работать над этим вместе в течение лета». Это предложение, кстати, содержало одно из самых первых применений термина «искусственный интеллект». Идей было много: возможно, имитация схемы действия нейронов головного мозга могла бы научить машины абстрактным правилам человеческого языка.

Ученые были оптимистичны, и их усилия были вознаграждены. У них были программы, которые, казалось, понимали человеческий язык и могли решать алгебраические задачи. Люди уверенно предсказывали, что машинный интеллект на уровне человеческого появится уже лет через двадцать.

Удачно совпало и то, что область прогнозирования, когда у нас будет искусственный интеллект человеческого уровня, родилась примерно в то же время, что и сама область ИИ. Фактически все возвращается к первой статье Тьюринга о «мыслящих машинах», в которой он предсказал, что тест Тьюринга — в процессе которого машина должна убедить человека, что она тоже человек — будет пройден через 50 лет, к 2000 году. Сегодня, конечно, люди по-прежнему предсказывают, что это произойдет в ближайшие 20 лет, среди известных «пророков» — Рэй Курцвейл. Мнений и прогнозов так много, что порой кажется, что исследователи ИИ ставят на автоответчик следующую фразу: «Я уже предсказал, каким будет ваш вопрос, но нет, я не могу точно это прогнозировать».

Проблема с попыткой предсказать точную дату появления ИИ человеческого уровня состоит в том, что мы не знаем, как далеко мы можем зайти. Это не похоже на закон Мура. Закон Мура — удвоение вычислительной мощности через каждые пару лет — делает конкретное предсказание о конкретном явлении. Мы примерно понимаем, как двигаться дальше — улучшать технологии кремниевых чипов — и знаем, что в принципе не ограничены в нашем нынешнем подходе (пока не начнем работать с чипами в атомных масштабах). Об искусственном интеллекте того же не скажешь.

Распространенные ошибки

Исследование Стюарта Армстронга было посвящено тенденциям в этих прогнозах. В частности, он искал два основных когнитивных искажения. Первой была идея, согласно которой эксперты в области ИИ предсказывают, что ИИ прибудет (и сделает их бессмертными) аккурат до того, как они умрут. Это критика «восхищения нердов», которой подвергается Курцвейл — его прогнозы мотивированы страхом смерти, желанием бессмертия и фундаментально иррациональны. Создатель сверхинтеллекта становится чуть ли не предметом поклонения. Критикуют обычно люди, работающие в области ИИ и знающие не понаслышке о разочарованиях и ограничениях современного ИИ.

Вторая идея в том, что люди всегда выбирают отрезок времени в 15-20 лет. Этого достаточно, чтобы убедить людей, что они работают над чем-то, что станет революционным в ближайшее время (потому что людей менее привлекают усилия, которые проявятся через века), но не настолько в ближайшее, что вы сразу же окажетесь чертовски неправы. Люди счастливы предсказывать появление ИИ до своей смерти, но желательно, чтобы это было не завтра и не через год, а лет так через 15-20.

Прогресс в измерениях

Армстронг отмечает, что если вы хотите оценить достоверность конкретного прогноза, есть много параметров, на которые можно взглянуть. К примеру, идея того, что интеллект человеческого уровня будет развиваться за счет моделирования человеческого мозга, как минимум предоставляет вам четкую схему для оценки прогресса. Каждый раз мы получаем все более подробную карту мозга, либо успешно имитируем определенную его часть, а значит прогрессируем в направлении конкретной цели, которая, предположительно, выльется в ИИ человеческого уровня. Может быть, 20 лет будет недостаточно для достижения этой цели, но мы хотя бы можем оценить прогресс с научной точки зрения.

А теперь сравните такой подход с подходом тех, кто говорит, что ИИ, либо нечто сознательное, «появится», если сеть будет достаточно сложной и будет обладать достаточной вычислительной мощностью. Возможно, именно так мы представляем человеческий интеллект и сознание, возникшие в процессе эволюции, хотя эволюция проходила миллиарды лет, а не десятки лет. Проблема в том, что у нас нет эмпирических данных: мы никогда не видели, как из сложной сети возникает сознание. Мы не только не знаем, возможно ли это, мы и знать не можем, когда нас это ждет, потому что не можем измерить прогресс на этом пути.

Существует колоссальная сложность в том, чтобы понять, какие задачи действительно сложны для выполнения, и это преследует нас с рождения ИИ и до сегодняшнего дня. Понять человеческий язык, случайность и творчество, самосовершенствование — и все сразу, просто невозможно. Мы научились обрабатывать естественную речь, но понимают ли наши компьютеры, что они обрабатывают? Мы сделали ИИ, которые кажется «креативным», но есть ли в его действиях хоть толика творчества? Экспоненциальное самосовершенствование, которое приведет к сингулярности, вообще кажется чем-то заоблачным.

Мы и сами не понимаем, что такое интеллект. Например, эксперты в области ИИ всегда недооценивали способность ИИ играть в го. В 2015 году многие думали, что ИИ не научится играть в го до 2027 года. Но прошло всего два года, а не двадцать. Значит ли это, что ИИ через несколько лет напишет величайший роман? Поймет мир концептуально? Приблизится к человеку по уровню интеллекта? Неизвестно.

Не человек, но умнее людей

Возможно, мы неправильно рассматривали проблему. Например, тест Тьюринга еще не был пройден в том смысле, что ИИ смог бы убедить человека в беседе, что тот говорит с человеком; но вычислительные способности ИИ, а также возможность распознавать закономерности и водить авто уже намного превышают уровень, доступный человеку. Чем больше решений принимают алгоритмы «слабого» ИИ, чем больше растет Интернет вещей, тем больше данных скармливается нейросетям и тем большим будет влияние этого «искусственного интеллекта».

Возможно, мы пока не знаем, как создать интеллект человеческого уровня, но точно так же мы не знаем, как далеко сможем зайти с нынешним поколением алгоритмов. Пока они и близко не похожи на те страшные алгоритмы, которые подрывают общественный строй и становятся неким туманным сверхинтеллектом. И точно так же это не означает, что мы должны придерживаться оптимистичных прогнозов. Нам придется удостовериться, что в алгоритмы всегда будет закладываться ценность человеческой жизни, нравственность, мораль, чтобы алгоритмы не были совершенно бесчеловечными.

Любые прогнозы нужно делить надвое. Не забывайте, что на заре развития ИИ казалось, что он преуспеет очень быстро. И сегодня мы тоже так думаем. Прошло шестьдесят лет с тех пор, как ученые собрались в Дартмуте в 1956 году, чтобы «создать интеллект за двадцать лет», а мы до сих пор продолжаем их дело.

hi-news.ru

Создание сверхразума: что ждет человечество, когда появится искусственный интеллект? | CHIP

Серия статей CHIP: как искусственный интеллект (ИИ) бросает вызов миру Человечество стоит на пороге великих перемен. Технологические концерны, военные и исследовательские лаборатории работают над созданием цифрового сверхинтеллекта, который с космической скоростью изменит все на свете: общество, жизнь и даже смерть человека. Что нас ждет впереди: идиллия или последние дни человечества? Пока что мы не решили, каким путем будем идти. В новой серии статей наш журнал расскажет о том, к чему может привести такая революция искусственного интеллекта, о его невероятных возможностях и подводных камнях.

• Часть 1. Создание сверхразума: что ждет человечество, когда появится искусственный интеллект? • Часть 2. Формула вечной жизни будет открыта через 30 лет • Часть 3. Нейронные сети умнее человека? • Часть 4. Добро пожаловать в машину: опасен ли искусственный интеллект и как его остановить?

Развитие цифрового мира за последние полвека неразрывно связано с законом Мура. С одной стороны, этот закон по сути не является законом, а представляет собой нечто среднее между эмпирическим наблюдением и прогнозами. С другой стороны, конкретной формулы, выражающей выводы Гордона Мура в цифрах или символах, не существует.

В 1965 году сооснователь Intel Гордон Мур сформулировал свои первые прогнозы на будущее полупроводниковых технологий: количество элементов на кристаллах электронных микросхем будетудваиваться приблизительно каждые два года

Сооснователь концерна по производству микросхем Intel еще в 1965 году предсказал, что количество транзисторов, размещаемых на одном кристалле микросхемы, из года в год будет удваиваться. Десять лет спустя он скорректировал свой прогноз, увеличив интервал удвоения до двух лет.

Сегодня, оглядываясь назад, можно сказать, что плотность элементов на кристаллах увеличивалась в два раза каждые 20 месяцев. Нередко закон Мура объявляется недействительным. Но даже когда миниатюризация техпроцесса кремниевых микросхем достигнет атомарных пределов, повышение производительности еще долго будет происходить за счет разработки новых микроархитектур и использования новых материалов.

Мировосприятие Курцвейла

Закон Мура описывает развитие всей IT-отрасли, экспоненциальная динамика которой, казалось бы, не имеет исторического прецедента. Согласно этому закону, все устройства и компоненты становятся все быстрее, меньше в размерах и доступнее по цене. По быстродействию флагман Samsung Galaxy S6 не уступает пяти приставкам PlayStation второй версии 2000 года, вместе взятым. Новая консоль Sony PS 4 в свою очередь оставляет далеко позади ASCI Red — самый мощный суперкомпьютер в мире версии 1998 года.

А вот североамериканский изобретатель Рэймонд Курцвейл убежден, что закон Мура применим не только для цифровой эры, но и для всех информационных процессов в истории человечества, которую он понимает как постоянную смену эпох, выделяемых исходя из способа представления данных: «Эволюция идет косвенным путем: для того, чтобы создать следующую стадию или эпоху, используются информационно-процессуальные методы из предыдущей».

Рэй Курцвейл рассматривает эволюцию как экспоненциальное развитие. В цифровой эре собы-тия сменяют друг друга до тех пор, пока не наступит время «большого взрыва» искусственного

интеллекта — сингулярности.

График выше иллюстрирует данное динамическое развитие с сокращающимися промежутками времени между все более усложняющимися событиями. С момента зарождения жизни, так называемой химической эволюции в начале истории Земли, до кембрийского взрыва, когда внезапно увеличилось разнообразие биологических форм, прошло около 3,5 млрд лет. С этого времени до появления современного человека — еще целых 500 млн.

Рэй Курцвейл

Чтобы напечатать первую книгу, человеку разумному потребовалось еще 150 000 лет, в течение которых он попутно изобрел колесо. Со времен Гутенберга до первого сбоя Windows прошло еще 500 лет. А сегодня, 30 лет спустя, мы делаем запросы на смартфонах о робомобилях.

Курцвейл — это гений техники. Но его таланты техникой не ограничиваются. Его конек — теория распознавания образов. Это он изобрел планшетный сканер и синтезатор речи. В настоящее время Рэй Курцвейл занимает должность технического директора Google. Кроме того, он является автором нескольких научно-популярных книг. 67-летний ученый известен также и как футуролог.

Около 86% прогнозов Курцвейла на долгосрочную перспективу, сделанных в прошлом, сбылись. Среди них и такие яркие события, как триумфальное шествие Интернета и победа машины над человеком в шахматном матче, предсказанная им еще в 80-х годах.

Техника как новая ступень эволюции

Прогнозы Курцвейла по-прежнему нередко называют преувеличенными. Он в ответ возражает, что многие люди представляют себе технический процесс «интуитивно-линейно»: «Сначала нам нужно научиться думать экспоненциально. Если я совершу тридцать шагов по прямой, мой результат составит тридцать шагов. Если я совершу тридцать шагов по экспоненте, мой результат составит миллиарды».

Во времена обучения Курцвейла университетский компьютер занимал целое здание. А сегодня он пользуется смартфоном, который умеет намного больше, чем тот компьютер, и умещается в карман рубашки. По мнению Курцвейла, уже через лет двадцать компьютеры можно будет поместить в клетку крови.

Закон Мура в силе: следующий этап наноэлектроники — система литографии в глубоком ультрафиолете Carl Zeiss Jena

Такая мудреная смесь Дарвина и Мура, которую Курцвейл называет «законом ускоряющейся отдачи» (The Law of Accelerating Returns), позволяет ему взглянуть в будущее человечества, которое в том виде, что мы знаем сегодня, исчезнет, и которому, по мнению изобретателя, будет даровано бессмертие.

Миллиарды лет на нашей планете почти ничего не происходило — это горизонтальное начало экспоненты. А потом эволюция внезапно начала набирать темп: с развитием человечества эпохальные свершения происходили со все сокращающимся временным интервалом. Из-за экспоненциального технического прогресса события быстро сменяют друг друга, а кривая идет круто вверх.

Человек как устаревающая биологическая модель

По Курцвейлу, уже совсем скоро технический интеллект догонит биологический. Случится это в 2029 году, и робот научится делать все то, что умеет делать человек. Для человечества ускорится фаза слияния человеческого разума и технологий, и совершенствование человека, начинавшееся с деревянных протезов, завершится его бессмертием, когда разум и тело можно будет дополнить или реплицировать.

Человек расстается со своими биологическими корнями

Наступлению эры «Человечества 2.0», по Курцвейлу, будут способствовать не только цифровые технологии, но и генетика и нанотехнологии. В книге «Сингулярность уже близко» («The singularity is near») ученый разжигает пламя надежды на спасение: изменение генетического кода позволит нам победить все болезни и затормозить процесс старения, для поддержания здоровья и расширения возможностей мозга в тело человека будут вводиться нанороботы, которые будут меньше по размерам, чем вирусы, а благодаря разработке новых материалов можно будет создавать новые органы и даже наши точные копии.

«Машинная производительность мозга» человека будет удваиваться каждый год. Люди-машины будут обрабатывать информацию в сотни раз быстрее своих биологических предшественников, никогда не ощущая усталости. Наши полупроводниковые потомки почувствуют себя королями Вселенной и завоюют ее. А старое доброе человечество, превратившееся в устаревшие модели, обречено.

Придут ли машины к власти?

Может, Рэй Курцвейл немного помешан? Так думают многие. На каждый из его тезисов о том, что нас ждет в ближайшем будущем, находится бесчисленное множество противников из всех областей науки — и примерно столько же сторонников. Наш журнал представит мнение обеих сторон. Кроме того, нам предстоит рассмотреть основной вопрос, имеющий жизненно важное значение для человечества, но, тем не менее, не играющий большую роль в публичных обсуждениях: могут ли машины захватить власть над людьми?

Инновационный метод: оптогенетика позволяет исследователям управлять генетически модифицированными живыми нервными клетками, используя их реакцию на свет

Курцвейл — отнюдь не единственный специалист в области искусственного интеллекта (ИИ), который считает, что «технологическая сингулярность» завершится через тридцать лет. Когда ИИ, намного превосходящий человеческий, получит доступ к повседневным знаниям, представленным в цифровой форме, и в процессе самообучения, по всей вероятности, незамедлительно приступит к созданию новых более высоких сверхинтеллектов, в истории человечества будет достигнута точка, с которой начнется новый путь развития, пока неведомый и не поддающийся определению для нас.

Генератор идей цифрового будущего

Рэй Курцвейл — один из ведущих  экспертов в области искусственного интеллекта. Сам он вполне мог бы послужить объектом исследования специалистов по интеллекту человеческому. 67-летний ученый отметился большими достижениями в разных областях: он изобрел планшетный сканер, оптическое распознавание символов (OCR) и первые коммерческие системы распознавания речи.

Появление «читающей машины» Курцвейла считается самым крупным шагом на пути к улучшению качества жизни людей с нарушениями зрения со времен введения тактильного шрифта в 1829 году. Устройство, читающее тексты вслух, в 1976 году положило начало дружбе изобретателя со Стиви Уандером.

Незрячий музыкант вдохновил Курцвейла на следующий крупный проект — музыкальный синтезатор, который эмулирует звуки акустических инструментов. Если бы у Томаса Эдисона и Джоан Роулинг был сын, то, наверное, он был бы похож на Рэймонда Курцвейла.

О его технологическом гении свидетельствуют десятки патентов, докторские степени, премии за исследования и благодарности от трех североамериканских президентов. В 2015 году он получил премию «Грэмми» за инновационный вклад в области музыки. Его книги регулярно становятся бестселлерами среди научно-популярных изданий в США.

В книге «Сингулярность уже близко» и других работах он развивает смелые тезисы о технологиях будущего, которые вполне могли бы стать основой для восьмой части серии книг о Гарри Поттере. Когда-то Курцвейл изучал литературу и информатику в Массачусетском технологическом институте в Бостоне. Отец двух дочерей происходит из семьи евреев — музыканта и художницы, вынужденных бежать в Нью-Йорк из родной Вены после «Хрустальной ночи» 1938 года. Будучи агностиком, он не полностью отвергает существование Бога, но считает, что религия уже потеряла актуальность.

Преувеличенным оказывается в этом отношении часто обсуждаемое мнение, что Курцвейл, будто глава какого-то культа, собирает вокруг себя общество верующих в трансгуманизм. Технический директор Google считает победу над биологией эволюционной неизбежностью. А это не вопрос духовности: «Религия связана с верой, технология — с пониманием».

Этот «большой взрыв» ИИ описывает также теологическое понятие «точка Омега». По мнению специалиста в области ИИ Юргена Шмидхубера, процесс растянется на два-три десятилетия, как считает и Курцвейл, однако Шмидхубер предпочитает выражение «Омега», поскольку его звучание напоминает фразу «Боже мой!» (Oh my God!).

Впрочем, независимо от точности этих прогнозов, людям — по меньшей мере, тем из нас, кто еще не достиг пенсионного возраста, — нужно подготовиться к бурным переменам, тем более что средняя продолжительность жизни экспоненциально растет. Те, кто родился в этом столетии, могут дожить до его конца и обрести бессмертие — если ИИ не будет этому препятствовать.

Но действительно ли точка Омега — это вопрос нескольких десятилетий? В настоящее время лучшие IT-ком­пании мира, в первую очередь концерн Google, который сейчас называется Alpha­bet, и его китайский аналог Baidu, предпринимают смелые попытки поднять биологию и технологии на новый, возможно, общий уровень. В исследовательских лабораториях университетов, военных и спецслужб ученые работают над собственной «ликвидацией».

Генри Маркрам руководит проектом «Человеческий мозг», на который ЕС выделил €1,2 млрд

Даже Европейская комиссия, ко всеобщему удивлению, продвигает особо амбициозный проект под названием «Человеческий мозг» (Human Brain Project, сокращенно HBP). Под руководством израильского специалиста Генри Маркрама международные группы ученых уже в течение двух лет проводят глубокие исследования человеческого мозга — под такой обтекаемой формулировкой установки была объединена работа 112 организаций из 24 стран мира.

Исследователи мозга и упрямцы

Дальнейшее развитие событий проходило по обычному сценарию: разгорелись жаркие споры. Маркрам с частью своих коллег объявил цель своей работы, что наделало немало шума: ученые запланировали эмулировать на компьютере работу человеческого мозга к 2023 году.

Сужение идеи и концентрация на таком замысле со множеством открытых вопросов вызвали открытую неприязнь у сотен ученых, задействованных в проекте. Они требовали изменить структуру проекта, бюджет которого, к слову, составляет €1,2 млрд. Спор естественным образом касался и денежных средств, выделенных на исследования. Еще один вопрос, вокруг которого не утихала дискуссия, заключался в возможности моделирования активности человеческого мозга на компьютере.

Мюнхенский физик и нейробиолог Андреас Херц считает, что смоделировать полноценный мозг на компьютере не удастся

Даже среди исследователей мозга встречаются великие упрямцы. Спорам не было конца, поэтому пришлось вмешаться группе посредников, которой в конечном счете удалось переубедить Маркрама. Одним из членов этой группы стал мюнхенский физик Андреас Херц, профессор Мюнхенского университета Людвига-Максимилиана, преподающий вычислительную нейробиологию — это относительно молодая междисциплинарная область науки, в рамках которой биологи, медики, психологи, математики, физики и специалисты в области компьютерных наук занимаются исследованием мозга.

По мнению Херца, в рамках проекта HBP внимание ученых должно быть более сконцентрировано на изучении организации, анализе и визуализации сложных нейронных данных с целью собрать материал для широкого научного сообщества. Такое смещение вида деятельности с исследований на своего рода оказание услуг, по всей видимости, единственный выход: «Если продолжать погоню за иллюзией репликации мозга на компьютере, весь проект будет обречен на провал».

Решение в уме: на пятерку

Из-за чего эмуляция мозга оказывается несказанно трудным делом? Прежде всего, в нем задействован огромный потенциал производительности, благодаря которому шедевр эволюции может противостоять высшим достижениям цифровой современности. В человеческом мозге содержится около 100 млрд нейронов, а синапсов, соединяющих их, и вовсе больше в десять тысяч раз.

Скорость обработки данных нейронами относительно невысокая — около ста операций в секунду. В настоящее время цифровые схемы умеют производить вычислительные операции со скоростью как минимум в десять миллионов раз больше. Тем не менее, сверхразум — это не только скорость. Рецепт успеха от природы — массовый параллелизм: все нейроны и около квадриллиона синапсов могут работать одновременно. Поэтому победа в карточной игре с суперкомпьютером остается за человеческим мозгом.

Производительность 500 лучших в мире компьютеров соответствует логике закона Мура. Китайский Tianhe-2 с почти 34 пета­флопс занимает первую строчку рейтинга.

Если наш мыслительный аппарат когда-нибудь можно будет эмулировать, то потребуется компьютер с производительностью порядка одного экзафлопса, производящий от 1018 операций над числами с плавающей запятой в секунду. Производительность самого мощного на сегодняшний день суперкомпьютера в мире, китайского Tianhe-2, составляет около 34 петафлопс — на три порядка ниже требуемой.

Такие мощные компьютеры будут созданы не ранее чем через три года — вероятнее всего, через пять лет. Разработки, кроме Китая, начинают Индия, США и Европа. Важным вопросом станет энергопотребление, которое по нынешним меркам должно составить от 200 до 1000 МВт. Для сравнения: мощность средней атомной электростанции составляет 700 МВт, а наш мозг обходится несколькими миллионными долями от этого значения; во всяком случае, 30 Вт синапсам для интенсивной работы хватает.

Вместе с тем, несмотря на конкретную направленность, HBP — это IT-проект. Юлихскому исследовательскому центру супервычислений, предоставляющему аппаратное обеспечение для HBP, следует разработать более быстрые и эффективные компьютеры, которые были бы ориентированы на биологическую модель: более низкая предельная производительность, более высокий параллелизм.

Взаимосвязь между стоимостью транзисторов и увеличением их тактовой частоты — каждые 13 месяцев расходы снижаются вдвое. Объемы данных по всему миру ежегодно увеличиваются в два раза, при этом цены на память постоянно снижаются.

Мозг — не слишком ли сложная для нас структура?

Согласно закону Мура, эти технические проблемы рано или поздно будут решены. Но на пути к эмуляции работы мозга предстоит преодолеть еще немало препятствий, отмечает профессор Херц. Удачные модели сложных систем напоминают карикатуры: в них учтены важные моменты, но упущены второстепенные аспекты.

Что касается биологических систем, из-за их эволюционной истории мы вообще не знаем, можно ли пренебречь каким-либо определенным признаком: даже самая мелкая часть структуры синапса может иметь большое значение для его нормального функционирования.

«Таким образом, чтобы полностью понять, как работает отдельная часть мозга, надо понимать, как работает система в целом, и наоборот», — говорит Андреас Херц.

Искусственному интеллекту не нужен наш мозг

Может быть, было бы лучше, если бы Маркрам устроился в какой-нибудь концерн, занимающийся высокими технологиями, например, в Alphabet, в котором сумасшедшие идеи считаются принципами предпринимательской деятельности? Ведь неспроста технический директор Google Рэй Курцвейл симпатизирует пытливости Маркрама. Впрочем, даже главный пророк экспоненциального мышления ожидает появление полноценной эмуляции мозга только к 2029-му году.

Мощный ИИ не должен иметь много общего с человеческим

А вот Ник Бостром думает, что такие прогнозы времени появления эмуляции мозга слишком оптимистичны. Шведский специалист, изучавший физику, математику, нейробиологию и философию, в своей книге «Искусственный интеллект» делает наброски сценария революции в области ИИ.

Как и Курцвейл, Бостром считает моделирование активности мозга возможным. Но из-за сложности технологий, которые еще предстоит разработать, он рассчитывает, что это произойдет где-то в середине столетия. Проблему, например, представляет собой оборудование для визуализации: сканирующие туннельные микроскопы выдают точные результаты, но они медленно работают; электронные микроскопы, наоборот, работают быстро, но разрешение картинки более низкое.

Курцвейл неунывающе возражает, что методы визуализации тоже подчиняются закону ускоряющейся отдачи. В самом деле, пространственное разрешение магнитно-резонансной томографии с 1995 года увеличилось в десять раз. Однако, по мнению нейробиолога Херца, визуализационные приборы в будущем по-преж­нему будут выдавать только урезанную модель действительности.

На термограмме показано более низкое энергопотребление нейрочипа IBM TrueNorth по сравнению со стандартным ЦП.

Но даже если эмуляция в действительности так и останется мечтой, это не значит, что мощный ИИ заставит себя долго ждать, поскольку, конечно же, существуют более целенаправленные подходы по созданию ИИ, которым экспоненциальный прогресс играет на руку. Бостром допускает возможность появления на пути к эмуляции такого нейроморфного ИИ, в котором будут соединены новые принципы нейровычислений и способы синтеза.

Нейроморфное аппаратное обеспечение будет создано по подобию структуры нервной системы. В идеале оно будет работать аналогично мозгу, объединяясь в сеть высокого уровня, самоорганизуясь, будучи отказоустойчивым, подчиняясь принципу массового параллелизма, обладая высокой энергоэффективностью и занимая при этом небольшую площадь.

До сих пор неясно, приведет ли нейроморфный подход к созданию ИИ. Классическим примером его двойственной природы можно назвать создание первых летательных аппаратов. Птица показала человеку, что физически полет возможен и использование несущих плоскостей — не такая уж и плохая идея. Но, как оказалось, только крыльев самолету недостаточно, и способ перемещения в воздухе в принципе был изобретен заново.

Превосходство в мышлении благодаря технологиям

С ИИ ситуация может сложиться точно так же: природа показывает нам, как работает мышление, мы же заново его создаем. Преимущество такого подхода будет заключаться в том, что мы полностью можем полагаться на сильные стороны достижений техники — а их несметное количество.

Нейроморфные сети из полупроводниковых пластин, созданные специалистами Гейдельбергского университета, моделируют работу настоящей нейронной сети.

Аппаратное обеспечение производит вычислительные операции и обменивается данными гораздо быстрее, чем их биологический соперник, и кроме того, его возможности могут беспредельно расширяться. Оборудование можно в любой момент оптимизировать, и оно будет надежнее, чем живой человек. Программы и алгоритмы можно обрабатывать и дублировать на любой вкус. Цифровой интеллект обучается гораздо быстрее биологического, к тому же он в состоянии справиться с различными задачами, тогда как даже гении человечества вроде Альберта Эйнштейна могут блистать только в очень узкой области.

Такой цифровой сверхинтеллект будет состоять из рекурсивно самоулучшающегося ИИ (жарг. Seed AI). Начало ему даст первое поколение мыслящих машин. А затем рекурсия позволит само­обучающемуся ИИ совершенствоваться. Каждое поколение будет умнее предыдущего. А в конце цикла произойдет «интеллектуальный взрыв».

Как это произойдет и что это значит, мы расскажем в следующей статье.

Серия статей CHIP: как искусственный интеллект (ИИ) бросает вызов миру Человечество стоит на пороге великих перемен. Технологические концерны, военные и исследовательские лаборатории работают над созданием цифрового сверхинтеллекта, который с космической скоростью изменит все на свете: общество, жизнь и даже смерть человека. Что нас ждет впереди: идиллия или последние дни человечества? Пока что мы не решили, каким путем будем идти. В новой серии статей наш журнал расскажет о том, к чему может привести такая революция искусственного интеллекта, о его невероятных возможностях и подводных камнях.

• Часть 1. Создание сверхразума: что ждет человечество, когда появится искусственный интеллект? • Часть 2. Формула вечной жизни будет открыта через 30 лет • Часть 3. Нейронные сети умнее человека? • Часть 4. Добро пожаловать в машину: опасен ли искусственный интеллект и как его остановить?

ichip.ru

Искусственный интеллект как машина изобретений

Как на практике работает категориальный механизм человеческого интеллекта, описанный мной в предыдущей статье? Иными словами, как эйдетика может помочь нам в создании интеллекта искусственного? Рассмотрим на примере. Что такое Эйдос? Это мысленный образ реального предмета, вещи, понятия, явления, события, действия… Можно сказать, что любое определение в словаре – своего рода Эйдос. Платон считал Эйдосы материальными, живущими своей жизнью в Мире идей. Мы можем допустить, что это действительно так, если согласимся считать эйдос реально существующим в той мере, в коей реален любой инженерный чертёж, связанный воедино текст, изображение, символ. Это не сам предмет, а его упрощённая модель, пиктограмма или слепок, снимок. Но кто сказал, что со снимками нельзя работать в реальности? Наш разум проделывает данную работу ежесекундно. Начиная с элементарных бытовых операций и заканчивая созданием сложных изобретений, инженерией. Но на изобретениях работа разума выглядит по-настоящему красиво, поэтому её легче использовать для примера. Как человек делает изобретения? Почему великим изобретениям часто предшествует видение или сон, как у великого химика Д.Менделеева, изобретателя таблицы периодических элементов? Потому что изобретение действительно можно «увидеть». Я рискну утверждать, что его вообще невозможно сделать, не «увидев», т.е не представив идею ясно и в деталях в своём воображении. Представим себя на месте инженера-изобретателя. Вы живёте в 19-м веке, когда ещё нет подводных лодок и Жюль-Верн ещё не написал свои «20 тысяч лье под водой». Вам поступает заказ от Министерства обороны – придумать истребитель вражеских кораблей. При этом, он должен действовать скрытно, при ограниченном боезапасе и слабом вооружении. Этакий одинокий диверсант-охотник на море. Примерно с такой задачей, кстати, столкнулась Германия во время 2-й мировой войны, когда вынуждена была искать способы борьбы с превосходящим по силам флотом Великобритании. Как решить задачу? Первое, что начинает делать изобретатель – это мозговой штурм, поиск свежих идей. Очень подробно данный механизм разобран в ТРИЗ -теории решения изобретательских задач. Попробуем изобразить этот процесс упрощённо, графически и по шагам.

Начало размышления

1. Очевидно, что текущий способ не годится для скрытого ведения войны на море. Основное оружие флота – корабли. В целях защиты, они обшиты бронёй, вооружены тяжёлыми пушками. Вследствие чего, они очень большие, заметные, тяжеловесные, тихоходные.

2. Может быть, сделать маленькие быстроходные лодки – охотники?

3. Но увеличивая скорость корабля для диверсионной войны, мы вынуждены ставить более мощный мотор. Увеличивая мотор, мы увеличиваем размер корабля и его вес. А это – замедление скорости. И так до бесконечности. На выходе снова получаем корабль-крепость. То есть данный путь – тупик.

4. А что если подумать в сторону увеличения скрытности? Скрыться на море сложно, поэтому первое, что приходит на ум – это скрыться прямо на месте – под воду. Но существующие корабли не умеют этого делать. А кто умеет? Умеют рыбы!

5. Но рыба – не корабль, она не может перевозить людей и оружие. Можно ли рыбу превратить корабль или корабль уподобить рыбе?

Заметьте: неожиданно инженер поставил вопрос в ключе диалектики Платона: как совместить несовместимое? (здесь и далее курсивом выделены мои комментарии на мысли инженера).

6. Схема этого противоречия выглядит так:

Значит для решения задачи нам нужно искать выход из этого противоречия. Но как? – Путём его анализа.

7. Что такое корабль по своей сути? Каков базовый эйдос корабля? Это -большая лодка.

Что такое рыба по своей сути? Это «живая лодка», только маленькая.

Что ж, уже лучше. Две лодки, только в разных масштабах и с разными задачами.

8. А что, если мы приведём их к единому масштабу и соединим эти две лодки в одну? Сделаем большую лодку-корабль, способную плавать под водой.

9. Как? Ну, например, как рыба, которая регулирует своё всплытие-погружение с помощью специального пузыря. Таким «пузырём» для военной лодки могут служить кингстоны.

Конец размышления

Итак, мы увидели процесс мышления в его инженерном, изобретательском ключе по шагам. Правда, что-то подобное вы неоднократно проделывали, пытаясь решить какую-либо задачу или проблему? Если так, то механизм этот знаком людям с детсва, как воздух, которым мы все дышим, но не замечаем. Применительно к программированию – здесь тоже всё просто и нет ничего кроме обработки образов (изображений). Сначала мы описали предложенные образцы, «распознали» их. Затем упростили, «свернули» для того, чтобы ими стало можно манипулировать. Далее, мы по законам диалектики проработали эти образы. Мы сравнивали их, находили подобия и соответствия. Создали новый образ на основе двух предыдущих. А затем «развернули» их в полноценное решение. Если бы я был бизнес-аналитиком, я бы отобразил данный процесс в следующей диаграмме:

Распознавание изображений нейронные сети искусственного интеллекта научились делать прекрасно. И свертку-развёртку изображений свёрточные сети делают без проблем. Так же прекрасно нейронные сети могут находить похожие образы на основе глубинного обучения. И даже могут создавать новые изображения, подражая предложенным образцам. А вот с законами диалектики у современного искусственного интеллекта не заладилось. От слова совсем. Что неудивительно: все помешаны на нейронных сетях, а диалектика – это алгоритм. Даже совокупность алгоритмов, «алгоритмический ансамбль», комплект. От создания ИИ на основе алгоритмов наука отказалась чуть ли не в конце 70-х годов прошлого века.

На основе алгоритмов мышления пытается работать компьютерная бихейвеористика. Подробнее можно посмотреть, например работы Рон Суна, Rensselaer Polytechnic Institute (RPI), Troy, NY USA.

Сделаны попытки описания отдельных моделей поведения человека — принятие решений, поиск выхода, механизм выбора (и даже сделана попытка алгоритмизировать совесть). Написано множество математических алгоритмов. Сами по себе эти алгоритмы прекрасно работают и даже могут быть даже встроены в какие-либо программы. Есть открытые API. Правда, вскрылась одна проблема. Таких бихейвиористических моделей — сотни, а то и тысячи. И это далеко не исчерпывает варианты поведения человека. К тому- же при попытке собрать эти алгоритмы вместе, возникает перегрузка системы из-за сложности выбора между моделями или при их комбинации. То есть вопрос, как человек строит модели, как возможно само моделирование — он остался за скобками. Человек ведь не просто комбинирует готовые образцы. Он может разложить задачу на составляющие и собрать заново на уже ином, более высоком уровне. Таким образом, он может решать сложнейшие задачи, которые простым перебором/комбинаторикой не решаются или же решаются крайне медленно и затратно. Таким образом, нам сейчас для создания полноценного, или «сильного» искусственного интеллекта не хватает самой «малости»: диалектического алгоритма, который описывает сам механизм моделирования в человеческом разуме. Диалектический алгоритм должен «уметь» работать с универсальными, понятными любому человеку без специальных знаний в программировании, образами – пиктограммами – эйдосами. Принцип работы данного алгоритма я и показал в диаграмме выше. Как разработать связку, а точнее интерпретатор между пиктограммами и обычными командами компьютерного языка — тема отдельного исследования. Собственно, это единственное, что пока отделяет данную теорию от коммерческого воплощения.

***

Критика, анализ и предложения приветствуются. Теги:

habr.com

Искусственный интеллект приближается: почему мы его так ждем?

Десятилетиями мы слышали прогнозы: мир захватит искусственный интеллект. В 1957 году Герберт Саймон предсказал, что через 10 лет цифровой компьютер станет чемпионом мира по шахматам. Это произошло только в 1996 году. И несмотря на предсказания Марвина Мински в 1970 году, что «через три-восемь лет у нас будут машины с общим интеллектом среднего человека», мы по-прежнему считаем это научной фантастикой.

Пионеры искусственного интеллекта определенно не угадали со сроками, но были абсолютно правы: ИИ приближается. Он будет в наших телевизорах и в наших автомобилях; он будет нашим другом и личным помощником; возьмет на себя роль врача. За последние три года в области ИИ свершилось больше прорывов, чем за последние тридцать лет.

Даже технологические лидеры вроде Apple были застигнуты врасплох быстрым развитием машинного обучения, технологии, которая толкает ИИ вперед. На своей недавней конференции WWDC для разработчиков Apple открыла свои системы ИИ, чтобы независимые разработчики могли помочь ей создать технологии, которые смогут посоперничать с уже имеющимися технологиями Google и Amazon. Apple отстает.

В прошлом искусственный интеллект использовал метод перебора для анализа данных и представления их в удобоваримом для человека виде. Программист облекал интеллект в форму ветвей принятия решений и алгоритмов. Представьте, что вы пытаетесь создать машину, которая может играть в крестики-нолики. Вы даете ей конкретные правила того, какие ходы она может делать, и она будет им следовать. Именно так Deep Blue от IBM победил шахматного гроссмейстера Гарри Каспарова в 1997 году — он был суперкомпьютером, который мог просчитать все возможные ходы быстрее шахматиста.

Современный ИИ использует машинное обучение, в ходе которого вы даете ему примеры предыдущих игр и позволяете ему учиться на этих примерах. Компьютеру говорят, что и как изучать, и он принимает собственные решения. Более того, новейшие ИИ моделируют на основе самого человеческого сознания, используя методы, подобные нашему процессу обучения. Раньше нужны были миллионы строк компьютерного кода, чтобы обучить машину распознавать рукописный ввод. Теперь это можно сделать с помощью сотен строк. Нужно только большое число примеров, чтобы компьютер мог учить сам себя.

Новые методы программирования используют нейронные сети — которые моделируются на основе человеческого мозга, в котором информация обрабатывается послойно, а связи между этими слоями укрепляются на основе того, что стало известно. Этот процесс называется глубоким обучением, поскольку число слоев обрабатываемой информации растет вместе с увеличением скорости компьютеров. Компьютеры учатся распознавать изображения, голос, текст — и выполнять человеческую работу.

Поиск Google использовал технику под названием PageRank для вывода результатов. Используя жесткие проприетарные алгоритмы, Google анализировал текст и ссылки на веб-страницах, определяя самые релевантные и важные. Теперь Google заменяет эту технику в поисковике и большинстве других продуктов алгоритмами на основе глубокого обучения. Той же самой технологии, которая позволила обыграть лучшего в мире игрока в го. Наблюдая за этой невероятно сложной игрой, сами создатели метода не понимали, почему компьютер принимает такие решения.

У ИИ есть применение в любой области, где обрабатываются данные и необходимо принимать решения. Редактор Wired Кевин Келли сравнивает ИИ с электричеством: дешевый, надежный, промышленный цифровой разум, который работает практически везде. Он считает, что ИИ «оживит инертные объекты, подобно тому, что электричество сделало более сотни лет назад. Все, что мы когда-то электрифицировали, мы теперь «образумим». Новый утилитарный ИИ также придаст нам, отдельным людям, дополнительных возможностей (углубит нашу память, ускорит наши чувства) и коллективно, как виду. Нет ничего, во что нельзя будет влить нового, другого или интересного, используя этот дополнительный IQ. Бизнес-планы на ближайшие 10 000 лет легко угадать: возьмите А и добавьте к нему ИИ, вот и все».

Очень скоро ИИ будет везде. Предприятия вливают ИИ в своих продукты и помогают им анализировать огромные объемы данных, которые они собирают. Google, Amazon и Apple работают над голосовыми помощниками для наших домов, которые будут управлять нашим светом, заказывать нам пищу и планировать наши встречи. Роботизированные помощники вроде R2-D2 из «Звездных войн» появятся уже лет через десять.

Стоит ли нам переживать о неудержимости «общего искусственного интеллекта», который выйдет из-под контроля и захватит мир? Да — но не в ближайшие 15 или 20 лет. Есть обоснованные страхи, что ИИ начнет учиться и уметь больше, чем мы. Но крупные имена в мире технологий работают над тем, чтобы не дать ему выйти из-под контроля и попасть в руки не тех людей — такие как Элон Маск, Стивен Хокинг, Рэй Курцвейл и другие.

ИИ приближается. И ждать его определенно стоит.

hi-news.ru

История возникновения искусственного интеллекта

Искусственный интеллект как научное направление представляет собой наглядный пример интеграции различных научных областей. Специалисты в естественно-научных областях и вычислительных науках изучают свойства и функционирование живых систем, пользуясь сходными методами.

В целом, искусственный интеллект – это самостоятельная область научных исследований, которая сформировалась в результате достижений в математике и логике и основана на накопленных человечеством знаниях о живой и неживой природе.

Как таковая устойчивая область научных знаний об искусственном интеллекта сформировалась в середине XX века, однако попытки в этом направлении делались ещё и в глубокой древности, и в средние века.

Еще древние египтяне и римляне испытывали благоговейный ужас перед культовыми статуями, которые жестикулировали и изрекали пророчества. Разумеется, делалось это с непосредственной помощью жрецов.

Средневековье

В средние века в понятие искусственного интеллекта вкладывали задачи создания механической человекоподобной мыслящей машины, способной, возможно, превзойти его по интеллекту. В это время, в частности, говорили о гомункулах – маленьких искусственных человечках, способных воспринимать информацию окружающего мира.

XVIII век

В XVIII веке благодаря развитию техники и, в особенности, часовых механизмов интерес к подобным изобретениям вырос ещё сильнее. В середине 1750-х годов австрийский изобретатель Фридрих фон Кнаус, служивший при дворе Франциска I, сконструировал серию машин, умевших писать пером довольно длинные тексты.

Достижения в механике XIX века способствовали новому толчку изобретений в направлении к современному пониманию искусственного интеллекта. В 1830-х годах английский математик Чарльз Бэббидж придумал концепцию сложного цифрового калькулятора – аналитической машины, которая, как утверждал разработчик, могла бы рассчитывать ходы для игры в шахматы. А уже в 1914 году директор одного из испанских технических институтов Леонардо Торрес Кеведо изготовил электромеханическое устройство, способное разыгрывать простейшие шахматные эндшпили почти также хорошо, как и человек.

XX век

С середины 30-х годов прошлого столетия, с момента публикации работ Тьюринга, в которых обсуждались проблемы создания устройств, способных самостоятельно решать различные сложные задачи, к проблеме искусственного интеллекта стали относиться внимательно в мировом научном сообществе. Тьюринг предложил считать интеллектуальной такую машину, которую испытатель в процессе общения с ней не сможет отличить от человека.

В 1954 году американский исследователь Ньюэлл решил написать программу для игры в шахматы. К работе были привлечены аналитики корпорации RAND Corporation. В качестве теоретической основы программы был использован метод, предложенный основателем теории информации Шенноном, а его точная формализация была выполнена Тьюрингом. К работе также была привлечена группа голландских психологов под руководством Де Гроота, изучавших стили игры выдающихся шахматистов. Через два года совместной работы этим коллективом был создан язык программирования ИПЛ1 – первый символьный язык обработки списков, а вскоре была написана первая программа, которую можно отнести к достижениям в области искусственного интеллекта. Это была программа «Логик-Теоретик», предназначенная для автоматического доказательства теорем в исчислении высказываний. Собственно же программа для игры в шахматы была завершена в 1957 году. В её основе лежали так называемые эвристики – правила, позволяющие сделать выбор при отсутствии точных теоретических оснований, и описания конечных целей.

Одним из наиболее важных признаков интеллектуальности служит способность к обучению. Так, в 1961 году один из ведущих английских специалистов по искусственному интеллекту профессор Мичи, описал механизм, состоящий из 300 спичечных коробков, который мог научиться играть в «крестики-нолики». Однако делать вывод об интеллектуальности и тем более говорить об искусственном интеллекте, основываясь только на одном единственном признаке, явно недостаточно.

В 1956 году в США собрались основатели кибернетики с целью обсудить возможности реализации проекта «Искусственный интеллект». В числе участников конференции были Маккарти, Минский, Шеннон, Тьюринг и другие. Первоначально к данному понятию отнесли свойства машин брать на себя отдельные функции человека, например, перевод с одного языка на другой, распознавание объектов, принятие оптимальных решений.

В нашей стране направление «Искусственный интеллект» возникло с опозданием примерно на 10 лет и пришло на смену кибернетическому и бионическому буму первой половины 60-х годов XX века.

Практически с самого начала учёные, занимавшиеся этим новым направлением научных знаний, предположили, что к конструктивному определению и моделированию мышления полезно идти от специфики задач, вводя искусственный интеллект как механизм, необходимый для их решения. Таким образом, искусственный интеллект в современном понимании – это совокупность методов и инструментов решения различных сложных прикладных задач, использующих принципы и подходы, аналогичные размышляющему над их решением человеку или процессам, протекающим в живой или неживой природе.

Тем не менее, даже в настоящее время единого и признанного всеми определения искусственного интеллекта не существует. И это не удивительно. Достаточно вспомнить, что универсального определения человеческого интеллекта также нет.

На сегодняшний день исследования в области искусственного интеллекта ведутся по различным направлениям: представление знаний, моделирование рассуждений, приобретение знаний, машинное обучение и автоматическое порождение гипотез, интеллектуальный анализ данных и обработка образной информации, поддержка принятия решений, управление процессами и системами, динамические интеллектуальные системы, планирование и т.д.

Ниже перечислены наиболее активно развиваемые подходы и методы искусственного интеллекта:

  • искусственные нейронные сети;
  • эволюционные вычисления;
  • нечёткая логика и теория нечётких множеств;
  • экспертные системы;
  • клеточные автоматы;
  • многоагентные системы.
искусственный интеллект

neuronus.com


Смотрите также