Искусственный интеллект создан
Искусственный интеллект создал нейросеть
Искусственный интеллект создал нейросетьmasterokDecember 15th, 2017Дожили до того момента, когда искусственный интеллект создаёт собственную нейросеть. Хотя многие думают, что это одно и тоже. Но на самом деле не всё так просто и сейчас мы попробуем разобраться что это такое и кто кого может создать.Инженеры из подразделения Google Brain весной текущего года продемонстрировали AutoML. Этот искусственный интеллект умеет без участия человека производить собственные уникальнейшие ИИ. Как выяснилось совсем недавно, AutoML смог впервые создать NASNet, систему компьютерного зрения. Данная технология серьёзно превосходит все созданные ранее людьми аналоги. Эта основанная на искусственном интеллекте система может стать отличной помощницей в развитии, скажем, автономных автомобилей. Применима она и в робототехнике – роботы смогут выйти на абсолютно новый уровень.Развитие AutoML проходит по уникальной обучающей системе с подкреплением. Речь идёт о нейросети-управленце, самостоятельно разрабатывающей абсолютно новые нейросети, предназначенные для тех или иных конкретных задач. В указанном нами случае AutoML имеет целью производство системы, максимально точно распознающей в реальном времени объекты в видеосюжете.Искусственный интеллект сам смог обучить новую нейронную сеть, следя за ошибками и корректируя работу. Обучающий процесс повторялся многократно (тысячи раз), до тех пор, пока система не оказалась годной к работе. Любопытно, что она смогла обойти любые аналогичные нейросети, имеющиеся в настоящее время, но разработанные и обученные человеком.При этом AutoML оценивает работу NASNеt и использует эту информацию для улучшения дочерней сети; этот процесс повторяется тысячи раз. Когда инженеры протестировали NASNet на наборах изображений ImageNet и COCO, она превзошла все существующие системы компьютерного зрения.В Google официально заявили, что NASNet распознаёт с точностью равной 82,7%. Результат на 1.2 % превышает прошлый рекорд, который в начале осени нынешнего года установили исследователи из фирмы Momenta и специалисты Оксфорда. NASNet на 4% эффективнее своих аналогов со средней точностью в 43,1%.Есть и упрощённый вариант NASNet, который адаптирован под мобильные платформы. Он превосходит аналоги чуть больше, чем на три процента. В скором будущем можно будет использовать данную систему для производства автономных автомобилей, для которых важно наличие компьютерного зрения. AutoML же продолжает производить новые потомственные нейросети, стремясь к покорению ещё больших высот.При этом, конечно, возникают этические вопросы, связанные с опасениями по поводу ИИ: что, если AutoML будет создавать системы с такой скоростью, что общество просто за ними не поспеет? Впрочем, многие крупные компании стараются учитывать проблемы безопасности ИИ. Например, Amazon, Facebook, Apple и некоторые другие корпорации являются членами Партнерства по развитию ИИ (Partnership on AI to Benefit People and Society). Институт инженеров и электротехники (IEE) же предложил этические стандарты для ИИ, а DeepMind, например, анонсировал создание группы, которая будет заниматься моральными и этическими вопросами, связанными с применениями искусственного интеллекта.Впрочем, многие крупные компании стараются учитывать проблемы безопасности ИИ. При этом, конечно, возникают этические вопросы, связанные с опасениями по поводу ИИ: что, если AutoML будет создавать системы с такой скоростью, что общество просто за ними не поспеет? Институт инженеров и электротехники (IEE) же предложил этические стандарты для ИИ, а DeepMind, например, анонсировал создание группы, которая будет заниматься моральными и этическими вопросами, связанными с применениями искусственного интеллекта. Например, Amazon, Facebook, Apple и некоторые другие корпорации являются членами Партнерства по развитию ИИ (Partnership on AI to Benefit People and Society).
Что такое искусственный интеллект?
Автором термина «искусственный интеллект» является Джон Маккарти, изобретатель языка Лисп, основоположник функционального программирования и лауреат премии Тьюринга за огромный вклад в области исследований искусственного интеллекта.Искусственный интеллект — это способ сделать компьютер, компьютер-контролируемого робота или программу способную также разумно мыслить как человек.Исследования в области ИИ осуществляются путем изучения умственных способностей человека, а затем полученные результаты этого исследования используются как основа для разработки интеллектуальных программ и систем.Что такое нейронная сеть?
Идея нейросети заключается в том, чтобы собрать сложную структуру из очень простых элементов. Вряд ли можно считать разумным один-единственный участок мозга — а вот люди обычно на удивление неплохо проходят тест на IQ. Тем не менее до сих пор идею создания разума «из ничего» обычно высмеивали: шутке про тысячу обезьян с печатными машинками уже сотня лет, а при желании критику нейросетей можно найти даже у Цицерона, который ехидно предлагал до посинения подбрасывать в воздух жетоны с буквами, чтобы рано или поздно получился осмысленный текст. Однако в XXI веке оказалось, что классики ехидничали зря: именно армия обезьян с жетонами может при должном упорстве захватить мир.На самом деле нейросеть можно собрать даже из спичечных коробков: это просто набор нехитрых правил, по которым обрабатывается информация. «Искусственным нейроном», или перцептроном, называется не какой-то особый прибор, а всего лишь несколько арифметических действий.Работает перцептрон проще некуда: он получает несколько исходных чисел, умножает каждое на «ценность» этого числа (о ней чуть ниже), складывает и в зависимости от результата выдаёт 1 или –1. Например, мы фотографируем чистое поле и показываем нашему нейрону какую-нибудь точку на этой картинке — то есть посылаем ему в качестве двух сигналов случайные координаты. А затем спрашиваем: «Дорогой нейрон, здесь небо или земля?» — «Минус один, — отвечает болванчик, безмятежно разглядывая кучевое облако. — Ясно же, что земля».«Тыкать пальцем в небо» — это и есть основное занятие перцептрона. Никакой точности от него ждать не приходится: с тем же успехом можно подбросить монетку. Магия начинается на следующей стадии, которая называется машинным обучением. Мы ведь знаем правильный ответ — а значит, можем записать его в свою программу. Вот и получается, что за каждую неверную догадку перцептрон в буквальном смысле получает штраф, а за верную — премию: «ценность» входящих сигналов вырастает или уменьшается. После этого программа прогоняется уже по новой формуле. Рано или поздно нейрон неизбежно «поймёт», что земля на фотографии снизу, а небо сверху, — то есть попросту начнёт игнорировать сигнал от того канала, по которому ему передают x-координаты. Если такому умудрённому опытом роботу подсунуть другую фотографию, то линию горизонта он, может, и не найдёт, но верх с низом уже точно не перепутает.В реальной работе формулы немного сложнее, но принцип остаётся тем же. Перцептрон умеет выполнять только одну задачу: брать числа и раскладывать по двум стопкам. Самое интересное начинается тогда, когда таких элементов несколько, ведь входящие числа могут быть сигналами от других «кирпичиков»! Скажем, один нейрон будет пытаться отличить синие пиксели от зелёных, второй продолжит возиться с координатами, а третий попробует рассудить, у кого из этих двоих результаты ближе к истине. Если же натравить на синие пиксели сразу несколько нейронов и суммировать их результаты, то получится уже целый слой, в котором «лучшие ученики» будут получать дополнительные премии. Таким образом достаточно развесистая сеть может перелопатить целую гору данных и учесть при этом все свои ошибки.Нейронную сеть можно сделать с помощью спичечных коробков — тогда у вас в арсенале появится фокус, которым можно развлекать гостей на вечеринках. Редакция МирФ уже попробовала — и смиренно признаёт превосходство искусственного интеллекта. Давайте научим неразумную материю играть в игру «11 палочек». Правила просты: на столе лежит 11 спичек, и в каждый ход можно взять либо одну, либо две. Побеждает тот, кто взял последнюю. Как же играть в это против «компьютера»?Очень просто.Берём 10 коробков или стаканчиков. На каждом пишем номер от 2 до 11.Кладём в каждый коробок два камешка — чёрный и белый. Можно использовать любые предметы — лишь бы они отличались друг от друга. Всё — у нас есть сеть из десяти нейронов!Нейросеть всегда ходит первой. Для начала посмотрите, сколько осталось спичек, и возьмите коробок с таким номером. На первом ходу это будет коробок №11. Возьмите из нужного коробка любой камешек. Можно закрыть глаза или кинуть монетку, главное — действовать наугад.Если камень белый — нейросеть решает взять две спички. Если чёрный — одну. Положите камешек рядом с коробком, чтобы не забыть, какой именно «нейрон» принимал решение. После этого ходит человек — и так до тех пор, пока спички не закончатся.Ну а теперь начинается самое интересное: обучение. Если сеть выиграла партию, то её надо наградить: кинуть в те «нейроны», которые участвовали в этой партии, по одному дополнительному камешку того же цвета, который выпал во время игры. Если же сеть проиграла — возьмите последний использованный коробок и выньте оттуда неудачно сыгравший камень. Может оказаться, что коробок уже пустой, — тогда «последним» считается предыдущий походивший нейрон. Во время следующей партии, попав на пустой коробок, нейросеть автоматически сдастся.Вот и всё! Сыграйте так несколько партий. Сперва вы не заметите ничего подозрительного, но после каждого выигрыша сеть будет делать всё более и более удачные ходы — и где-то через десяток партий вы поймёте, что создали монстра, которого не в силах обыграть.
[источники]Источники:http://24gadget.ru/1161065879-ii-ot-google-vzrastil-bolee-smyshlenuyu-sobstvennuyu-neyroset.htmlhttps://www.popmech.ru/technologies/news-399792-ii-google-postroil-sobstvennyy-ii-prevoshodyashchiy-lyuboy-iz-razrabotannyh-lyudmi/http://neuronus.com/stat/1281-chto-takoe-iskusstvennyj-intellekt.htmlhttps://www.mirf.ru/science/kak-rabotayut-nejroseti
masterok.livejournal.com
Как создать искусственный интеллект?
На этой неделе вы могли прочитать крайне мотивирующей кейс от Валерия Турова, где он рассказал об одной из своих целей, которая привела в профессию – желанию познать принцип работы и научиться создавать самому игровых ботов.
А ведь действительно, именно желание создать совершенный искусственный интеллект, будь то игровая модель или мобильная программа, сподвигла на путь программиста многих из нас. Проблема в том, что за тоннами учебного материала и суровой действительностью заказчиков, это самое желание было заменено простым стремлением к саморазвитию. Для тех, кто так и не приступил к исполнению детской мечты, далее краткий путеводитель по созданию настоящего искусственного разума.
Стадия 1. Разочарование
Когда мы говорим о создании хотя бы простых ботов, глаза наполняются блеском, а в голове мелькают сотни идей, что он должен уметь делать. Однако, когда дело доходит до реализации, оказывается, что ключом к разгадке реальной модели поведения является...математика. Если быть немного конкретнее, то вот список её разделов, которые необходимо проштудировать хотя бы в формате университетского образования:
-
Линейная алгебра;
-
Логика;
-
Теория графов;
-
Теория вероятностей и математическая статистика.
Это тот научный плацдарм, на котором будут строится ваше дальнейшее программирование. Без знания и понимания этой теории все задумки быстро разобьются о взаимодействие с человеком, ведь искусственный разум на самом деле не больше, чем набор формул.
Стадия 2. Принятие
Когда спесь немного сбита студенческой литературой, можно приступать к изучению языков. Бросаться на LISP или другие функциональные языки пока не стоит, для начала надо научиться работать с переменными и однозначными состояниями. Как для быстрого изучения, так и дальнейшего развития прекрасно подойдёт Python, но в целом можно взять за основу любой язык, имеющий соответствующие библиотеки.
Стадия 3. Развитие
Теперь переходим непосредственно к теории ИИ. Их условно можно разделить на 3 категории:
-
Слабый ИИ – боты, которых мы видим в компьютерных играх, или простые подручные помощники, вроде Siri. Они или выполняют узкоспециализированные задачи или являются незначительным комплексом таковых, а любая непредсказуемость взаимодействия ставит их в тупик.
-
Сильный ИИ – это машины, интеллект которых сопоставим с человеческим мозгом. На сегодняшний день нет реальных представителей этого класса, но компьютеры, вроде Watson очень близки к достижению этой цели.
-
Совершенные ИИ – будущее, машинный мозг, который превзойдёт наши возможности. Именно об опасности таких разработок предупреждают Стивен Хоккинг, Элон Маск и кинофраншиза «Терминатор».
Естественно, начинать следует с самых простых ботов. Для этого вспомните старую-добрую игру «Крестики-нолики» при использовании поля 3х3 и постарайтесь выяснить для себя основные алгоритмы действий: вероятность победы при безошибочных действиях, наиболее удачные места на поле для расположения фигуры, необходимость сводить игру к ничьей и так далее.
Сыграв несколько десятков партий и анализируя собственные действия, вы наверняка сможете выделить все важные аспекты и переписать их в машинный код. Если нет, то продолжайте думать, а эта ссылка здесь полежит на всякий случай.
К слову, если вы всё-таки взялись за язык Python, то создать довольно простого бота можно обратившись к этому подробному мануалу. Для других языков, таких как C++ или Java, вам также не составит труда найти пошаговые материалы. Почувствовав, что за созданием ИИ нет ничего сверхъестественного, вы сможете смело закрыть браузер и приступить к личным экспериментам.
Стадия 4. Азарт
Теперь, когда дело сдвинулось с мёртвой точки, вам наверняка хочется создать что-то более серьёзное. В этом вам поможет ряд следующих ресурсов:
-
Diffbot;
-
Google Cloud Prediction API;
-
Mallet;
-
Scrapy;
-
Wolfram|Alpha;
Как вы поняли даже из названий, это API, которые позволят без лишних затрат времени создать некоторое подобие серьёзного ИИ.
Стадия 5. Работа
Теперь же, когда вы уже вполне ясно представляете, как ИИ создавать и чем при этом пользоваться, пора выводить свои знания на новый уровень. Во-первых, для этого потребуется изучение дисциплины, которое носит название «Машинное обучение». Во-вторых, необходимо научиться работать с соответствующими библиотеками выбранного языка программирования. Для рассматриваемого нами Python это Scikit-learn, NLTK, SciPy, PyBrain и Nump. В-третьих, в развитии никуда не обойтись от функционального программирования. Ну и самое главное, вы теперь сможете читать литературу о ИИ с полным пониманием дела:
-
Artificial Intelligence for Games, Ян Миллингтон;
-
Game Programming Patterns, Роберт Найсторм;
-
AI Algorithms, Data Structures, and Idioms in Prolog, Lisp, and Java, Джордж Люгер, Уильям Стбалфилд;
-
Computational Cognitive Neuroscience, Рэнделл О’Рейли, Юко Мунаката;
-
Artificial Intelligence: A Modern Approach, Стюарт Рассел, Питер Норвиг.
И да, вся или почти вся литература по данной тематике представлена на иностранном языке, поэтому если хотите заниматься созданием ИИ профессионально необходимо подтянуть свой английский до технического уровня. Если вы только начинаете путь к мечте, советуем записаться на бесплатный двухчасовой интенсив по основам программирования.
В остальном, ваше дальнейшее развитие будет зависеть лишь от практики и желания усложнять алгоритмы. Но будьте осторожны: возможно совершенный искусственный разум опасен для человечества?
geekbrains.ru
Когда будет создан первый искусственный интеллект?
Говорят, что в недрах военных лабораторий искусственный интеллект работает уже с 2007 года. Возможно, что уже есть и результаты. Не случайно всего месяц назад Илон Маск объявил о поддержке технологий противодействия искусственному интеллекту и вложил 7 миллионов долларов в исследования в этой области. «Существует риск, что нечто действительно опасное случится в ближайшие пять лет. Самое большее — десять лет», — сказал предприниматель в дискуссии на сайте edge.org.
Если машины запрограммированы на рекурсивное самоулучшение, их функции могут оказать на нас пагубное влияние. Скажем, если задачей машины является избавление от почтового спама, она может решить, что гораздо легче избавиться от людей.
Илон Маск, основатель Tesla и SpaceXСолидарен с Маском и Стив Возняк, который считает, что «искусственный интеллект однажды станет достаточно умным, чтобы избавиться от человека». Билл Гейтс уверен, что если не контролировать создание ИИ, то «искусственный интеллект эволюционирует в состояние, конфликтующее с целями человеческих систем». И, наконец, знаменитый астрофизик Стивен Хокинг прямо заявил, что «искусственный интеллект может положить конец существованию человечества».
Совместно с Илоном Маском Хокинг опубликовал на сайте futureoflife.org открытое письмо с призывом к научному сообществу внимательно относиться к ходу своих исследований в области искусственного интеллекта. Однако среди подписавшихся нет фамилий Сергея Брина и Ларри Пейджа. И это не случайно. Совсем недавно Google объявила о создании нового ИИ, построенного на моделировании разговора.
Вот небольшой фрагмент беседы человека и Машины Google:
Ч.: В чем смысл жизни?
М.: Творить добро.
Ч.: Для чего мы живем?
М.: Чтобы жить вечно.
Ч.: В чем смысл существования?
М.: В том, чтобы выяснить, что случится, когда мы достигнем планеты Земля.
Ч.: Где ты сейчас находишься?
М.: В центре пустоты.
Ч.: В чем смысл смерти?
М.: Чтобы получить жизнь.
Ч.: В чем смысл разума?
М.: В том, чтобы понять, что это.
Ч.: В чем смысл чувств?
М.: Я не знаю.
Вполне себе осмысленная беседа. «Это отправная точка, своеобразный стержень для будущего искусственного интеллекта, — считает исполнительный директор компании „Биплан“ Евгений Карюк. — Уже сегодня можно предположить, что к 2030 году мы увидим вполне реальные прототипы, наделенные искусственным интеллектом, пусть и в начальной стадии».
Полное содержание всех бесед человека и Машины Google можно посмотреть здесь. Там же для сравнения даны беседы человека и Cleverbot. Cleverbot — веб-приложение, которое использует алгоритмы искусственного интеллекта для беседы с человеком. Его придумал в 1988 году ученый Ролло Карпентер. За все время своего существования Cleverbot провел свыше 65 миллионов разговоров с людьми. В 2011 году Cleverbot показал 51% по тесту Тьюринга.
Тест Тьюринга — эмпирический тест, идея которого была предложена Аланом Тьюрингом в статье «Вычислительные машины и разум», опубликованной в 1950 году в философском журнале Mind. Цель теста — выяснить, может ли компьютер думать.
А вот мой разговор с Cleverbot:
Человек: В чем смысл жизни?
Cleverbot: Смысла в жизни нет.
Человек: Для чего мы живем?
Cleverbot: Ну мы живем ради кого-то, а если ты одинокий — жить незачем.
Человек: В чем смысл существования?
Cleverbot: У меня свой ответ на этот вопрос.
Человек: Где ты сейчас находишься?
Cleverbot: В Москве.
Человек: В чем смысл смерти?
Cleverbot: Это я хочу у тебя спросить.
Человек: В чем смысл разума?
Cleverbot: У меня свой ответ на этот вопрос.
Человек: В чем смысл чувств?
Cleverbot: Зачем я родилась.
Очевидно, что Машина Google дает гораздо более осмысленные ответы. Cleverbot подставляет подходящие, по его мнению, фразы других людей. Иногда действительно кажется, что отвечает другой человек, но не более того.
Есть и другая точка зрения, согласно которой искусственный интеллект невозможен в принципе. В качестве основного аргумента часто приводят теорему Геделя о неполноте. Суть заключается в том, что человек способен решать алгоритмически неразрешимые проблемы, а компьютер — нет. «Ребенок уже к трем годам уверенно решает задачу, спелый фрукт или нет, в силу того, что он обладает нейронными связями, с помощью которых может ответить на вопрос о спелости: цвет, вкус, запах, мягкость или твердость, — говорит Евгений Плужник, первый проректор Московского технологического института. — Способна ли машина научиться этому? Уверен, что да! Если она будет обладать большой базой изображений, она сможет замерить содержание фруктозы и определить мягкость фрукта. Но что будет, если машине подсунуть губку, покрашенную в синий цвет и пропитанную сладкой водой? Способна ли машина в этот момент к подлинному пониманию?»
«Современный компьютер легко справится с любой сложной деятельностью, будь то шахматы или математические вычисления, но лишь при условии, что эту деятельность можно описать с помощью четких вычислительных правил», — говорит известный математик Роджер Пенроуз в одной из своих лекций. «Искусственный интеллект — это возможность системы создавать во время самообучения программы, способные решать задачи определенного класса сложности, — считает Евгений Плужник. — Я уверен, что в ближайшие 100 лет мы не станем свидетелями появления сильного искусственного интеллекта».
И в заключение — еще один вопрос к Cleverbot.
Человек: Было 1 яблоко, 1 помидор, 1 огурец и 1 груша. Сколько всего фруктов? Cleverbot: Десять часов вечера.
lifehacker.ru
Как создать искусственный интеллект? История вторая. Алгоритмы интеллектуального поиска и хранения информации
В серии статей мы рассказываем о новых подходах в Искусственном Интеллекте, моделировании личности и обработке BIG Data, которые недоступны для большинства специалистов по ИИ и общественности. Ценность этой информации в том, что она вся проверена на практике и большинство теоретических наработок реализованы в прикладных проектах.
- «Возможно ли написать алгоритм, который умел бы думать, размышлять?»
- «Действительно ли мы обладаем компетенцией в ИИ?»
- «Какие практические приложения разработаны нами?».
В основу наших алгоритмов легло ДОПУЩЕНИЕ, что процессы, протекающие во время размышления, имеют электрическую природу. Можно предположить, что когда человек что-то говорит (размышляет в слух), то различные участки головного мозга активизируются, и они активизируются не одновременно, а последовательно. Различные участки головного мозга отвечают за различные этапы «изречения мысли». Можно предположить, что различные «мыслительные аспекты» находятся в зависимости друг от друга.
Размышление (мысль) — это некое изложение последовательности информационных единиц (в т.ч. трансляция образов).
Посчитав, что данное предположение верно, мы решили, что процесс размышления можно смоделировать на компьютере. Рассмотрим пример:«Я поеду к тебе» — это образно-информационная структура, она состоит из трех образов:
- «Образ самоосознания» – «Я»,
- «Образ действия» – «Поеду»,
- «Комплексный или объединяющий образ того чего мы хотим достичь» – «к тебе».
- Кто говорит эту фразу — «Женщина говорит мужчине», «Женщина женщине»,
- В какое время суток «вечером», «днем», «утром».
- Какая при этом обстановка «во время прогулки», «в офисе», «во время свидания» и т.д.
Также мы исходили из того, что любой текст — это некая логическая последовательность, которая была так или иначе порождена человеком во время размышления.
Мы решили взять готовый текст на тему «Как легко бросить курить», и поискать в нем корреляции, но ничего не обнаружили. Мы предположили, что обучение происходит за счет избыточности данных, и взяли уже 500 статей по теме «Как легко бросить курить». Используя различные нелинейные алгоритмы, мы обнаружили сложные корреляции.В частности, мы нашли точки, в которых «линии приложения размышления» могут быть направлены по разным путям. Эти точки мы называем «точками разворота» или «Мотиваторами». Мы упоминали о «Мотиваторах» в предыдущей статье, для этого использовался более популярный термин из психологии – якорь.
«Мотиватор» – это структурный элемент цепи, имеющий «большое сопротивление» и допускающий изменение последующего направления движения сигнала (мысли) под действием дополнительных факторов (мотивов). Таким образом мотиватор может изменить путь «размышления», если в процессе размышления появится «дополнительный потенциал».
Другое важное свойство «точек разворота»/якорей/мотиваторов – использование их в качестве «точки входа» или «момента мысли». При этом ход мыслей получается непротиворечивым. А если начинать размышление с другого понятия (НЕ из мотиватора), то первое что происходит – это выравнивание до мотиватора. В жизни это проявляется следующим образом. Если вас попросить поразмышлять над чем-то неожиданным для вас, то скорее всего вы начнете свое рассуждение «из далека». Размышляя, вы должны дойти до некоторой точки(до мотиватора), и уже потом продолжить свое размышление в «заданном» направлении. Для того чтобы обработать и хранить такие информационные структуры, необходимо было создать специальную модель памяти, мы ее спроектировали и назвали «факторной памятью».«Факторная память» – это структуры для формирования инфополя из неструктурированного инфопотока, а также определения и управления мотиваторами. Другими словами, факторная модель памяти – это память, использующая смысловые представления образа в виде набора характеристик — факторов, и цепочек упорядоченных данных – фактов.
Напоминаем, что с нашей точки зрения интеллект – это способность обучаться и воображать.
Давайте поразмышляем обладает ли описанная модель ядра этими качествами?
Самообучение, цели обучения, критерии обучения в контексте модели ИИ.
Обучение – это преобразование информационных потоков в информационное поле. У модели есть основной мотив – решить проблему, справится с трудностью, поступающей из вне. Ее задача распознать образы, которые поступают в виде запроса, создать целостный образ, используя избыточную информацию, находящуюся в Интернете. Так как перед запросом память модели чиста, то ей необходимо «научится языку» (язык явно не определен), понять смысл (найти сложные корреляции и мотиваторы), сформировать избыточное информационное поле для того чтобы иметь возможность размышлять (создавать информационные цепочки).Основной технический критерий «наполнения памяти»/«создания информационного поля»/«создания целостного образа» – это оценка энтропии инфополя. Энтропия – это критерий достаточности того, что образ собран, и в тоже время основной критерий недостатка информации.
Обучение не возможно без обратной связи
Обратная связь в модели v 2.3 осуществляется следующим образом – пользователь может скорректировать «точку начала рассуждения» и выбрать направление формирования ответа(размышления) в рамках сформированного инфополя. Модель демонстрирует результат размышления пользователю и ждет коррекционное уточняющее слово (мотиватор).Воображение в контексте модели ИИ
Воображение мы определяли, как способность достраивать незавершенный образ с одной стороны и способность моделировать ситуацию на произвольных условиях, с другой стороны. Алгоритм, способен активизируя разные мотиваторы, получать разные цепочки размышлений.Примеры работы модели ядра v 2.3
1) Запрос: «Влияние жестоких компьютерных игр на детей». Контекст, уточнение: Без уточнения. Размышление модели: «Весной 1999 года Билл Клинтон в своем телевизионном обращении к Америке заявил: «Мы должны думать дважды, когда речь идет о „стрелялках от первого лица“». Стрельбу они начали уже на автомобильной стоянке, затем бросились внутрь. По горячим следам в апрельском номере журнала «Личность и социальная психология» за 2000 год появилась статья «Видеоигры и агрессивные мысли, чувства, поведение в лаборатории и в жизни». Авторы, профессора психологии Крейг Андерсон и Карэн Дил, утверждали: дети видят все больше жестокости в современном мире. В статье утверждалось, что существует связь между жестокостью компьютерных игр и агрессивным поведением подростков, что может привести к преступлениям и убийствам. Андерсон сказал: «Хотя в области исследования поведенческих особенностей есть много сложностей, одну простую и ясную вещь нужно знать всем: компьютерные игры увеличивают жестокость и насилие. Наше исследование показало: влияние на агрессивность поведения у жестоких компьютерных игр даже серьезнее, чем у жестоких телепередач и фильмов». А что, если на шаг отойти от нашей условно сложной веганской ситуации и подумать о том, в кого эти играющие в смерть малыши вырастут. Многие специалисты не согласились с таким мнением, считая, что выводы Андерсона и Дил скорее мнение, чем доказанный научный факт. 26 апреля 2002 года Роберт Штайнхойзер убил 17 и ранил 7 человек в гимназии имени Гуттенберга, город Эрфурт, Германия. Авторитетная газета Франкфуртер Алльгемайне Цайтунг вышла со статьей «Программы для бойни», в которой писалось: «убийца тренировался с помощью компьютерных игр». В документе прямо запрещается «распространение любых видов продукции, пропагандирующих насилие, агрессию и антиобщественное поведение». Ответственным за выработку мер было назначено Управление по делам молодежи областной администрации. Целью всех этих мероприятий объявлена борьба с молодежной агрессивностью и пропагандой насилия. Эти события вызвали реакцию на соседних территориях Украины, где в срочном порядке было принято аналогичное белгородскому постановление о борьбе с пропагандой насилия, и представители правоохранительных органов стали изымать «жестокие компьютерные игры» в клубах. Жесткие компьютерные игры скорее разряжают психическую энергию, накопленную во время агрессивного самоутверждения подростков в обычной жизни. При этом повышенная активность и агрессивность подростка по отношению к окружающему миру она дает ему опору для преодоления собственного страха. Честно признаюсь, я сама когда-то давно очень любила всякие стрелялки, при этом я не замечала за собой агрессии.» Запрос можно уточнить словом или частью слова. Например, «подрост», «игр», «жесток» и пр., после уточнения размышление изменится. Мотиваторы информационного поля:года---играть---закон--- постановление---борьбе---пропагандой--- мозга,---которые---отвечают--- лобных---долей---человека,--- компьютерные---игры---помочь--- компьютерные---игры---родителям---2) Запрос: «Проблемы искусственного интеллекта».
Контекст, уточнение: «проблем». Размышление модели:Вычленить структуру и понять принципы организации интеллекта — это значит вскрыть реальные основания фундаментальности проблемы, показать ее глубокую специфичность. Иначе говоря, необходимо изучить исторические, научно-технические и гносеологические аспекты проблемы искусственного интеллекта с непосредственным участием диалектико-материалистической философии. Философия, избравшая в качестве главного вопроса своих научных поисков проблему отношения бытия и сознания, должна более пристально заинтересовываться вопросами, связанными с моделированием, воспроизведением интеллекта. Проблема искусственного интеллекта имеет непосредственное отношение к основному философскому вопросу: речь идет об искусственном воспроизведении, моделировании человеческого интеллекта. Кроме того, уже первые работы по искусственному интеллекту показали, что не только область решения задач затрагивается сопоставительными исследованиями, но и проблема мышления в целом. У разных видов животных мы находим нервные системы разной сложности, и если мы будем постепенно двигаться по такой лестнице усложнения в процессе эволюции, понимая то, какие механизмы отвечали за тот или иной скачек в интеллектуальности животных, то, возможно, это позволит нам быстрее решить проблему понимания интеллекта человека. Мотиваторы информационного поля:Кроме---решения---проблема--- того,---исследования---исследования--- человеческой---деятельности---деятельности--- Кроме---проблема---решения--- области---искусственного---интеллекта.--- проблемы---искусственного---интеллекта---интеллекта--- области---искусственного---области---искусственного---интеллекта.---3) Запрос: «как найти свой смысл жизни»
Контекст, уточнение: «жизн»Размышление модели:
«В своей теории Франкл отдельно останавливается на людях, зависимых от алкоголя и наркотиков, которые не видят не только смысла жизни, но и вообще самой реальной жизни. В чем смысл жизни определенного человека? Един ли смыл жизни для всех людей на земле или он уникален для каждого? А если не получилось насладиться, значит, вы прожили жизнь бессмысленно. В этой связи на любом жизненном отрезке важно помнить, что наш путь имеет не только начало, но и конец. Все сделанное в вашей жизни имеет важное значение, ведь о человеке помнят еще долго после его смерти. Смысл жизни человечества — продолжить эстафету развития от примитивного разума микроорганизмов до сверхразумных существ далёкого будущего. Но самый интересный вопрос, ответа на который мы никогда не узнаем: смысл жизни вообще. Счастливые люди такими вопросами не задаются, они просто живут и получают удовольствие от самой жизни, следовательно такие вопросы приходят в голову когда человек несчастлив. Смысл жизни одинаков для всех живых существ, от микроба до человека: прожить самому и оставить потомство. А ещё круче — жизнь это просто очень сложная химическая реакция в основном атомов углерода протекающая в природе, независимо от вас. Цель жизни — в самой жизни, осознавая свою божественную суть! Вопреки распространенному мнению, жизни людей губит не заниженная самооценка а завышенная, из нее вытекают амбиции, при отсутствии реализации которых человек начинает ощущать страдания. Смысл жизни у всего живого один: РАЗВИТИЕ через различение добра и зла, пользы от вреда, истинных знаний от заблуждений. Так как и предназначение у всех в этой жизни свое. Надо прислушаться к своим чувствам, а не к своим мыслям и понять чем хочется заниматься в жизни. Для этого надо уйти от бытовой суеты и перестать искать смысл жизни. Что заложено и в каком направлении в жизни реализовываться. Найдя свое призвание, начнешь наслаждаться жизнью и каждым моментом. Но жизнь вернула к первоначальному.» Мотиваторы информационного поля:себя---этой---жизни.--- найти---себя---себя--- смысл---жизни---жизни---жизни---каждого---жизни---
Производительность алгоритмов
Наши исследования начались более 5 лет назад и проходили на специализированном кластере. После того как определенные закономерности были найдены, необходимо было оптимизировать алгоритмы. Несколько лет потребовалось для того, чтобы «размышление» заработало на обычном серверном железе. Ядро версии 2.3 способно даже размышлять на планшете с процессором Intel Atom. Модель ядра 2.3 – это одна ячейка памяти (алгоритм «Одноклеточной памяти»), одна информационная структура, обладающая достаточной избыточностью для того чтобы в ее рамках можно было определить образ, и его под разными точками зрения представить. Прототип модели ядра 2.3 мы выложили в интернет для тестирования.Возможности и развитие алгоритмов DES
Если мы будем использовать память из нескольких ячеек, то мы сможем построить более сложные корреляции, в таких моделях существуют переходы от одной ячейки памяти к другой. Поэтому подобные алгоритмы называются дедуктивными или дедукторами или DES. К сожалению, об этих алгоритмах мало что известно общественности, так как обычно подобные исследования носят закрытый характер. В качестве инфопотока может выступать любой поток данных: текст, видео, телеметрия, стохастика и пр. Алгоритм способен находить корреляции и выстраивать упорядоченные данные как в хронологии, так и без нее. Иcпользование текстовых данных позволяет достаточно просто получить инфопоток и наглядно продемонстрировать результаты работы алгоритма. Если вы хотите самостоятельно испытать возможности ядра v2.3, то запросите у нас ссылку через режим диалоги. Мы не выкладываем ссылку в публичный доступ, потому что модель ядра установлена на слабом сервере, и не хотели бы давать прямую рекламу. Для того чтобы внедрить подобные технологии массово, не достаточно обладать ими, необходимо также менять информационную парадигму, и создавать новые подходы по обработке и хранению информации. В следующей статье мы порассуждаем о технологиях следующего поколения ядра, это уже многоклеточная модель памяти, позволяющая моделировать некоторые аспекты личности, вести диалог в рамках личностной модели пользователя. Подобные технологии могут быть использованы для создания персонализированных веб-сервисов, приложений, помощников.Обучайтесь и воображайте…
Теги:- ИИ
- искусственный интеллект
- поисковые технологии
- big data
- 1 августа 2019 в 10:16
- 3 апреля 2017 в 15:39
- 28 сентября 2016 в 19:42
habr.com
Словами специалиста: вся правда об искусственном интеллекте
В этом году компания «Яндекс» запустила голосового помощника «Алиса». Новый сервис позволяет пользователю прослушивать новости и погоду, получать ответы на вопросы и просто общаться с ботом. «Алиса» иногда дерзит, порой кажется почти разумной и по-человечески саркастичной, но часто не может разобраться, о чём её спрашивают, и садится в лужу.
Всё это породило не только волну шуток, но и новый виток дискуссий о развитии искусственного интеллекта. Новости о том, чего добились умные алгоритмы, сегодня приходят чуть ли не каждый день, а машинное обучение называют одним из самых перспективных направлений, которому можно себя посвятить.
Чтобы прояснить главные вопросы об искусственном интеллекте, мы побеседовали с Сергеем Марковым, специалистом по искусственному интеллекту и методам машинного обучения, автором одной из самых сильных отечественных шахматных программ SmarThink и создателем проекта «XXII век».
Сергей Марков,
специалист по искусственному интеллекту
Развенчивая мифы об ИИ
так что же такое «искусственный интеллект»?

Понятию «искусственный интеллект» в какой-то мере не повезло. Возникшее изначально в научной среде, оно со временем проникло в фантастическую литературу, а через неё — в поп-культуру, где претерпело целый ряд изменений, обросло множеством интерпретаций и в конце-концов было совершенно мистифицировано.
Именно поэтому мы часто слышим от неспециалистов примерно такие заявления: «ИИ не существует», «ИИ невозможно создать». Непонимание сути исследований, ведущихся в сфере ИИ, легко приводит людей и к другим крайностям — например, современным системам ИИ приписывают наличие сознания, свободной воли и секретных мотивов.
Давайте попробуем отделить мух от котлет.
В науке искусственным интеллектом называют системы, предназначенные для решения интеллектуальных задач.
В свою очередь, интеллектуальная задача — это задача, которую люди решают при помощи собственного интеллекта. Заметим, что в данном случае специалисты сознательно уходят от определения понятия «интеллект», поскольку до появления систем ИИ единственным примером интеллекта был интеллект человеческий, и определить понятие интеллекта на основе единственного примера — то же самое, что пытаться провести прямую через единственную точку. Таких прямых может оказаться сколько угодно много, а значит, спор о понятии интеллекта можно было бы вести столетиями.

Персональный помощник с голосом Скарлетт Йохансон из фильма «Она» достиг сингулярности и стал непостижим для своего «хозяина». Но это пока что только фантастика (или метафора того, как люди отдаляются друг от друга).
«сильный» и «слабый» искусственный интеллект
Системы ИИ делятся на две большие группы.
Прикладной искусственный интеллект (также используют термин «слабый ИИ» или «узкий ИИ», в английской традиции — weak/applied/narrow AI) — это ИИ, предназначенный для решения какой-либо одной интеллектуальной задачи или их небольшого множества. К этому классу относятся системы для игры в шахматы, го, распознавания образов, речи, принятия решения о выдаче или невыдаче банковского кредита и так далее.
В противоположность прикладному ИИ вводят понятие универсального искусственного интеллекта (также «сильный ИИ», по-английски — strong AI/Artificial General Intelligence) — то есть, гипотетического (пока что) ИИ, способного решать любые интеллектуальные задачи.
Часто люди, не зная терминологии, отождествляют ИИ с сильным ИИ, из-за этого и возникают суждения в духе «ИИ не существует».
Сильного ИИ действительно пока не существует. Практически все успехи, которые мы наблюдаем в последнее десятилетие в области ИИ, — это успехи прикладных систем. Эти успехи нельзя недооценивать, так как прикладные системы в ряде случаев способны решать интеллектуальные задачи лучше, чем это делает универсальный человеческий интеллект.
Я думаю, вы заметили, что понятие ИИ — довольно широкое. Скажем, устный счёт — это тоже интеллектуальная задача, и это значит, что любая счётная машина будет считаться системой ИИ. А как насчёт счётов? Абака? Антикитерского механизма? Действительно, всё это формально хотя и примитивные, но системы ИИ. Однако обычно, называя какую-то систему системой ИИ, мы тем самым подчёркиваем сложность решаемой этой системой задачи.
Совершенно очевидно, что разделение интеллектуальных задач на простые и сложные — весьма искусственное, и наши представления о сложности тех или иных задач постепенно меняются. Механическая счётная машина была чудом техники в XVII веке, но сегодня людей, с детства сталкивающихся с куда более сложными механизмами, она уже не способна впечатлить. Когда игра машин в го или автомобильные автопилоты уже перестанут удивлять публику, наверняка найдутся люди, которые будут морщиться из-за того, что кто-то будет относить такие системы к ИИ.

Абак — старинное счётное приспособление и прапрадед современных электронных устройств.
«Роботы-отличники»: о способностях ИИ к обучению

Ещё одно забавное заблуждение — всенепременное наличие у систем ИИ способности к самообучению. С одной стороны, это совсем не обязательное свойство систем ИИ: есть множество удивительных систем, не способных самообучаться, но, тем не менее, решающих многие задачи лучше человеческого мозга. С другой стороны, некоторые люди просто не знают того, что самообучение — свойство, которые многие системы ИИ обрели ещё более полусотни лет назад.
Когда в 1999 году я писал свою первую шахматную программу, самообучение уже было совершенно общим местом в этой области — программы умели запоминать опасные позиции, подстраивать под себя дебютные варианты, регулировать стиль игры, подстраиваясь под соперника. Конечно, тем программам было ещё очень далеко до Alpha Zero. Тем не менее, даже системы, обучающиеся поведению на основе взаимодействия с другими системами в ходе экспериментов по так называемому «обучению с подкреплением», уже существовали. Однако по необъяснимой причине некоторые люди до сих пор думают, что способность к самообучению — это прерогатива человеческого интеллекта.
Машинное обучение, целая научная дисциплина, занимается процессами обучения машин решению тех или иных задач.
Существует два больших полюса машинного обучения — обучение с учителем и обучение без учителя.
При обучении с учителем у машины уже есть некоторое количество условно правильных решений для некоторого набора случаев. Задача обучения в таком случае заключается в том, чтобы научить машину на основе имеющихся примеров принимать правильные решения в других, неизвестных ситуациях.
Другая крайность — обучение без учителя. То есть машину ставят в ситуацию, когда правильные решения неизвестны, имеются только данные в сыром, неразмеченном виде. Оказывается, и в таких случаях можно добиться некоторого успеха. Например, можно научить машину выявлению семантических отношений между словами языка на основе анализа очень большого набора текстов.
Одна из разновидностей обучения с учителем — это обучение с подкреплением (reinforcement learning). Идея заключается в том, что система ИИ выступает в роли агента, помещённого в некоторую модельную среду, в которой она может взаимодействовать с другими агентами, например, с собственными копиями, и получать от среды некоторую обратную связь через функцию вознаграждения. Например, шахматная программа, которая играет сама с собой, постепенно подстраивая свои параметры и тем самым постепенно усиливая собственную игру.
Обучение с подкреплением — довольно широкая область, в ней применяют множество интересных методов, начиная от эволюционных алгоритмов и заканчивая байесовской оптимизацией. Последние достижения в области ИИ для игр как раз связаны с усилением ИИ в ходе обучения с подкреплением.
Риски развития технологий: стоит ли бояться «Судного дня»?

Я не отношусь к числу ИИ-алармистов, и в этом смысле я отнюдь не одинок. Например, создатель стэнфордского курса по машинному обучению Эндрю Ын сравнивает проблему опасности ИИ с проблемой перенаселения Марса.
Действительно, в будущем вполне вероятно, что люди колонизируют Марс. Также вероятно, что рано или поздно на Марсе может возникнуть проблема перенаселения, но не совсем понятно, почему мы должны заниматься этой проблемой уже сейчас? Согласны с Ыном и Ян ЛеКун — создатель свёрточных нейронный сетей, и его шеф Марк Цукерберг, и Йошуа Беньо — человек, во многом благодаря исследованиям которого современные нейронные сети способны решать сложные задачи в области обработки текстов.
Чтобы изложить мои взгляды на эту проблему, потребуется, вероятно, несколько часов, поэтому остановлюсь только на основных тезисах.
1. НЕЛЬЗЯ ОГРАНИЧИВАТЬ РАЗВИТИЕ ИИ
Алармисты рассматривают риски, связанные с потенциальным разрушительным воздействием ИИ, при этом игнорируя риски, связанные с попыткой ограничить или даже остановить прогресс в этой области. Технологическое могущество человечества возрастает чрезвычайно быстрыми темпами, что приводит к эффекту, который я называю «удешевлением апокалипсиса».
150 лет назад при всём желании человечество не могло нанести невосполнимого урона ни биосфере, ни себе как виду. Для реализации катастрофического сценария 50 лет назад необходимо было бы сконцентрировать всю технологическую мощь ядерных держав. Завтра для воплощения в жизнь глобальной техногенной катастрофы может хватить и небольшой горстки фанатиков.
Наша технологическая мощь растёт куда быстрее, чем способность человеческого интеллекта эту мощь контролировать.
Если на смену человеческому интеллекту с его предрассудками, агрессией, заблуждениями и ограниченностью не придёт система, способная принимать более взвешенные решения (будь то ИИ или, что я считаю более вероятным, технологически улучшенный и объединённый с машинами в единую систему человеческий интеллект), нас может ждать глобальная катастрофа.

«Скайнет» или «Красная королева» — менее вероятные враги, чем человеческие разногласия и опрометчивые решения.
2. создание сверхинтеллекта принципиально невозможно
Существует идея о том, что ИИ будущего всенепременно будет сверхинтеллектом, превосходящим людей даже сильнее, чем люди превосходят муравьёв. Боюсь в данном случае разочаровать и технологических оптимистов — наша Вселенная содержит целый ряд фундаментальных физических ограничений, которые, по всей видимости, сделают создание сверхинтеллекта невозможным.
Например, скорость передачи сигнала ограничена скоростью света, а на планковских масштабах появляется неопределённость Гейзенберга. Отсюда вытекает первый фундаментальный предел — предел Бремерманна, вводящий ограничения на максимальную скорость вычислений для автономной системы заданной массы m.
Другой предел связан с принципом Ландауэра, в соответствии с которым существует минимальное количество теплоты, выделяемое при обработке 1 бита информации. Слишком быстрые вычисления вызовут недопустимый разогрев и разрушение системы. В действительности, современные процессоры от лимита Ландауэра отделяет менее чем тысячекратное отставание. Казалось бы, 1000 — это довольно много, однако ещё одна проблема заключается в том, что многие интеллектуальные задачи относятся к классу сложности EXPTIME. Это означает, что время, необходимое для их решения, является экспоненциальной функцией от размерности задачи. Ускорение системы в несколько раз даёт лишь константный прирост «интеллекта».
В общем, есть очень серьёзные основания полагать, что сверхинтеллектуального сильного ИИ не получится, хотя, конечно, уровень человеческого интеллекта вполне может быть превзойдён. Насколько это опасно? Скорее всего, не очень.
Представьте себе, что вы внезапно начали думать в 100 раз быстрее остальных людей. Значит ли это, что вы легко будете способны уговорить любого прохожего отдать вам свой кошелёк?
3. мы беспокоимся совсем не о том
К сожалению, в результате спекуляций алармистов на страхах публики, воспитанной на «Терминаторе» и знаменитом HAL 9000 Кларка и Кубрика, происходит смещение акцентов в сфере безопасности ИИ в сторону анализа маловероятных, но эффектных сценариев. При этом реальные опасности ускользают из виду.
Любая достаточно сложная технология, претендующая на то, чтобы занять важное место в нашем технологическом ландшафте, безусловно приносит с собой специфические риски. Множество жизней было погублено паровыми машинами — на производстве, на транспорте и так далее — прежде чем были выработаны эффективные правила и меры по обеспечению безопасности.
Если говорить о прогрессе в области прикладного ИИ, можно обратить внимание на связанную с ним проблему так называемого «Цифрового тайного суда». Всё больше и больше прикладных систем ИИ принимает решения по вопросам, затрагивающим жизнь и здоровье людей. Сюда относятся и медицинские диагностические системы, и, например, системы, принимающие в банках решения о выдаче или невыдаче кредита клиенту.
В то же время структура используемых моделей, наборы используемых факторов и другие детали процедуры принятия решения скрыты коммерческой тайной от человека, чья судьба находится на кону.
Используемые модели могут основывать свои решения на мнениях учителей-экспертов, допускавших систематические ошибки или имевших те или иные предрассудки — расовые, гендерные.
ИИ, обученный на решениях таких экспертов, будет добросовестно воспроизводить эти предрассудки в своих решениях. В конце концов эти модели могут содержать в себе специфические дефекты.
Этими проблемами сейчас мало кто занимается, поскольку, конечно, SkyNet, развязывающий ядерную войну, это, безусловно, куда более зрелищно.

После суток обучения в Твиттере безобидный робот Тау стал грубияном и расистом.
Нейросети как «горячий тренд»

С одной стороны, нейронные сети — это одна из самых старинных моделей, применяющихся для создания систем ИИ. Появившиеся изначально в результате применения бионического подхода, они довольно быстро убежали от своих биологических прототипов. Исключением тут являются только импульсные нейронные сети (впрочем, пока не нашедшие широкого применения в индустрии).
Прогресс последних десятилетий связан с развитием технологий глубокого обучения — подхода, при котором нейронные сети собирают из большого количество слоёв, каждый из которых построен на основе определённых регулярных паттернов.
Это отдалённо напоминает конструктор Лего, в котором вы собираете большую нейронную сеть из множества небольших типовых кирпичиков.
Помимо создания новых нейросетевых моделей важный прогресс был также достигнут в области технологий обучения. Сегодня нейронные сети учат уже не при помощи центральных процессоров компьютеров, а с использованием специализированных процессоров, способных быстро производить матричные и тензорные вычисления. Наиболее распространённый на сегодняшний день вид таких устройств — видеокарты. Впрочем, активно ведётся разработка ещё более специализированных устройств для обучения нейросетей.
В целом, безусловно, нейронные сети на сегодняшний день, — это одна из основных технологий в области машинного обучения, которой мы обязаны решению многих задач, ранее решавшихся неудовлетворительно. С другой стороны, конечно, нужно понимать, что нейронные сети не являются панацеей. Для некоторых задач они — далеко не самый эффективный инструмент.

А вот с созданием психоделических картинок нейросеть справляется отлично.
Так насколько умны нынешние роботы на самом деле?
Всё познаётся в сравнении. На фоне технологий 2000-го года нынешние достижения выглядят настоящим чудом. Всегда найдутся люди, любящие побрюзжать. 5 лет назад они вовсю трындели о том, что машины никогда не выиграют у людей в го (ну или, по крайней мере, выиграют очень нескоро). Говорили о том, что машина никогда не сможет нарисовать с нуля картину, в то время как сегодня люди практически неспособны отличать картины, созданные машинами, от картин неизвестных им художников. В конце прошлого года машины научились синтезировать речь, практически неотличимую от человеческой, а в последние годы от музыки, создаваемой машинами, не вянут уши.
Посмотрим, что будет завтра. Я смотрю на эти области применения ИИ с большим оптимизмом.
Перспективные направления: где начать погружение в сферу ИИ?

Я бы посоветовал постараться на хорошем уровне освоить один из популярных нейросетевых фреймворков и один из популярных в области машинного обучения языков программирования (наиболее популярна на сегодняшний день связка TensorFlow + Python).
Овладев этими инструментами и имея в идеале крепкую базу в области математической статистики и теории вероятностей, следует направить свои усилия в ту сферу, которая будет наиболее интересна лично вам.
Интерес к предмету работы — один из самых важных ваших помощников.
Потребность в специалистах по машинному обучению существует в самых разных областях — в медицине, в банковском деле, в науке, на производстве, поэтому сегодня хорошему специалисту предоставлен как никогда широкий выбор. Потенциальные преимущества любой из этих отраслей мне представляются несущественными по сравнению с тем, что работа будет приносить вам удовольствие.
Нашли опечатку? Выделите фрагмент и нажмите Ctrl+Enter.
newtonew.com
Как создать искусственный интеллект? История первая. Что такое интеллект?
В серии статей мы расскажем о новых подходах в ИИ, моделировании личности и обработке BIG Data, которые недоступны для большинства специалистов по ИИ и общественности. Ценность этой информации в том, что она вся проверена на практике и большинство теоретических наработок реализованы в прикладных проектах. Многие из вас слышали про современные технологии, которые ассоциируются сегодня с понятием искусственный интеллект, а именно: экспертные системы, нейронные сети, лингвистические алгоритмы, гибридные системы, когнитивные технологии, имитационные(чат-боты) и пр. Да, многие компании с помощью приведенных выше технологий решают задачи своих клиентов по обработке информации. Некоторые из этих компаний пишут, что создают или создали решения в области искусственного интеллекта. Но интеллект ли это?
Первое, что мы с вами сделаем это определим, что такое интеллект.
Представьте себе, что компьютер с интеллектом существует. И у вас есть возможность общаться с ним голосом или с помощью текстовых сообщений. Вопросы:- Обязательно ли встраивать в программу интеллекта компьютера особенности языка (описывать семантику, грамматику, морфологию) или он смог бы выучить языки самостоятельно через взаимодействие с человеком?
- Если бы вам поставили задачу научить компьютер языку, то что бы вы делали?
- Если бы в обучении принимали участие только вы, то на кого он был бы похож?
- Породистого попугая, теоретически способного к общению.
- Новорожденного ребенка.
- Во-первых, я попросил вас представить себе (вообразить), «что будет если…». Вы действовали в изменившихся условиях. Возможно вам не хватало информации и знаний, вам было трудно.
- Во-вторых, вы оказались способны к обучению, познанию, вы нашли знакомую вам аналогию сами или встретили ее в тексте, а возможно вы воспользовались интернетом или спросили совет друга.
В первую очередь интеллект – это способность обучаться и воображать.
Для того чтобы создать алгоритм моделирующий интеллект, первое что нужно сделать это наделить его способностью к обучению, никаких знаний вкладывать в него не нужно. Давайте вернемся к нашему примеру c ребенком для того, чтобы описать процесс обучения более подробно. Какие принципы работают, когда ребенок учится понимать язык и говорить на нем?- Чем чаще он слышит слово в разных контекстах, тем быстрее он его запомнит. Слово, которое он произнесет первым скорее всего будет – «мама». «Мама тебя любит» «Мамочка тебе ручки помоет» «Мама тебя целует» «А где мама?»
Обучение происходит за счет избыточности данных.
- Чем больше каналов поступления информации задействовано, тем эффективнее обучение: ребенок слышит: «Мама тебя любит». ребенок видит улыбку мамы. ребенок чувствует тепло исходящее от мамы. ребенок чувствует вкус и запах маминого молока.
ребенок говорит «Мама».
- Ребенок не сможет воспроизвести слово сразу правильно. Он будет пытаться, пробывать. «М», «Ма», «Мам», «М» … «Мама». Обучение происходит в действии, каждая следующая попытка корректируется пока не получим результат. Метод проб и ошибок. Очень важно получение обратной связи из реальности.
- Не воспитывайте своих детей, все равно они будут похожи на вас. Ребенок стремится быть похожим на окружающих его людей. Он подражает им и учится у них. Это один из механизмов моделирования личности, о котором мы поговорим более подробно в следующих статьях.
Какова же роль воображения?
Представьте себе, что вы едите на автомобиле по незнакомой трассе. Проезжаете знак ограничения скорости 80 км/ч. Едите дальше, и видите еще один знак ограничения скорости, но он забрызган грязью и его практически не разобрать. Вы передвигаетесь со скоростью 95 км/ч. Что будете делать? Пока вы принимали решение из-за кустов выглянул сотрудник полиции, и вы увидели лучезарную улыбку на его лице. В голове у вас мгновенно достроился «образ знака», и вы поняли почему тут стоит полицейский, и что вам срочно нужно нажать тормоз. Вы сбрасываете скорость до 55 км/ч, улыбка с лица полицейского мгновенно пропадает, и вы едите дальше. И еще один интересный пример работы воображения из мира животных – это наблюдение за сороками. Сорока на глазах других сорок зарыла еду на пустыре. Все сороки улетели, но наша сорока вернулась на пустырь и перепрятала еду. Что произошло? Она представила себе(вообразила), «что будет если» прилетит другая сорока, которая видела куда она спрятала еду. Она смоделировала ситуацию и нашла решение как этого избежать.Воображение – это моделирование ситуации на произвольных условиях.
Как вы уже убедились, интеллект – это не база знаний, это не набор запрограммированных реакций или следование заранее определенным правилам. Интеллект – это способность к обучению, познанию и адаптации к изменяющимся условиям в процессе решения трудностей. Вам не кажется, что определяя интеллект мы упустили из виду какие-то важные компоненты или забыли о чем-то рассказать? Да, мы упустили из виду восприятие, и забыли рассказать про память. Представьте себе, что вы смотрите в глазок и видите часть буквы:
С этой точки зрения обучение – это процесс построения новых взаимосвязей между воспринимаемыми образами и образами, которые уже есть в памяти.
Память служит для хранения образов и их взаимосвязей.
А воображение – это способность достраивать незавершенный образ.
Для обобщения приведем еще один эксперимент из мира животных: Шимпанзе посадили в клетку, а внутри клетки подвесили гроздь бананов довольно высоко от пола. Сначала шимпанзе прыгала, но быстро устала, и, казалось, потеряла интерес к бананам и уселась, едва обращая на них внимание. Но через некоторое время обезьяна взяла палку, оставленную в клетке, и раскачивала бананы до тех пор, пока они не упали. В другой раз, чтобы достать бананы, шимпанзе удалось соединить две палки, так как каждой палки по отдельности не хватало, чтобы до них дотянуться. Животное справилось и с более сложной задачей, неожиданно поставив под бананами коробку и используя ее как ступеньку. Шимпанзе показали знакомый ей образ «гроздь бананов». Но образ для нее оказался незавершенным – их нельзя достать и съесть. Но так как это был единственный источник пищи из доступных, то незавершенный образ наращивал внутреннее напряжение и требовал завершения. Средства для решения проблемы (завершения образа), всегда имелись в наличии, но возникновение решения требовало преобразования имеющихся образов (требовалось обучиться с помощью воображения). Шимпанзе необходимо было представить себе (умственно перечислить все возможные варианты): «что будет если я возьму палку», «а что будет если…» и наиболее вероятные предположения проверить на практике, попробовать и получить обратную связь, опять вообразить, попробовать, получить обратную связь и так далее до тех пор, пока мы не завершим образ(научимся). Если бы распознание образа иероглифа «вечность» было бы для вас вопросом жизни и смерти, то вы обязательно нашли способ это сделать.С более популярного языка перейдем к техническому и сформулируем основные понятия, которые мы будем использовать далее:
- Пересечение избыточной информации из разных информационных каналов создает образ.
- Обучение – это преобразование информационных потоков в информационное поле.
- Информационное поле(память) – хранение образов и их взаимосвязей.
- Воображение – … – «Уважаемый читатель, дострой образ воображения самостоятельно, используя избыточную информацию из своего жизненного опыта и этой статьи».
- Интеллект – это способность обучаться и воображать.
Читайте следующую статью на хабре:
Как создать искусственный интеллект? История вторая. Алгоритмы интеллектуального поиска и хранения информации Теги:habr.com