История развития искусственного интеллекта
Сущность искусственного интеллекта, сферы человеческой деятельности, в которых он распространен. История и этапы развития данного явления. Первые идеи и их воплощение. Законы робототехники. Использование искусственного интеллекта в коммерческих целях.
Рубрика | Программирование, компьютеры и кибернетика |
Вид | реферат |
Язык | русский |
Дата добавления | 17.08.2015 |
Размер файла | 40,8 K |
Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже
Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.
Размещено на http://www.allbest.ru/
Размещено на http://www.allbest.ru/
РЕФЕРАТ
История развития искусственного интеллекта
Введение
искусственный интеллект робототехника
Термин интеллект (лат. intеllеctus) означает ум, рассудок, способность мышления и рационального познания. Обычно, под этим подразумевается способность приобретать, запоминать, применять и преобразовывать знания для решения каких-то задач. Благодаря этим качествам человеческий мозг способен решать разнообразные задачи. В том числе те, для которых нет заранее известных методов решения.
Термин искусственный интеллект возник сравнительно недавно, однако уже сейчас практически невозможно представить себе мир без него. Чаще всего, люди не замечают его присутствия, но если бы, вдруг, его не стало, то это коренным образом отразилось бы на нашей жизни. Сферы, в которых используются технологии искусственного интеллекта, постоянно пополняются: когда-то это были программы для игры в шахматы, потом - роботы пылесосы, сейчас алгоритмы способны сами проводить торги на биржах.
Данное направление образовалось на базе утверждения, что интеллект человека может быть детально описан и, впоследствии, успешно имитироваться машиной. Искусственный интеллект являлся причиной огромного оптимизма, однако вскоре показал ошеломляющую сложность реализации.
Основные направления развития искусственного интеллекта включают рассуждения, знания, планирование, обучение, языковую коммуникацию, восприятие и способность двигаться и манипулировать объектами. Универсальный искусственный интеллект (или «сильный ИИ») всё ещё в планах на будущее. В настоящее время популярные подходы включают статистические методы, вычислительного интеллекта и традиционной символической ИИ. Существует огромное количество инструментов, использующих искусственный интеллект: разные версии поисковых алгоритмов, алгоритмы математической оптимизации, логики, методы, основанные на вероятности и многие другие.
В данном реферате я попытался собрать наиболее важные, с моей точки зрения, события, оказавшие влияние на развитие технологии и теории искусственного интеллекта, основные достижения и предпосылки.
1. Самые первые идеи
Идея о том, что не человек мог бы выполнять за человека трудную работу, возникла ещё в каменном веке, когда человек одомашнил собаку. Собака идеально подходила на роль сторожа и выполняла эту задачу на много лучше чем человек. Конечно, этот пример нельзя рассматривать как демонстрацию использования искусственного интеллекта, ведь собака - это живое существо: она уже наделена возможностью распознавания образов, ориентирования в пространстве, а так же предрасположена к некоторому базовому обучению в целях распознавания «свой / чужой». Тем не менее, это показывает направление мысли человека.
Другим примером является миф о Талосе. Талос, по преданию, был огромным бронзовым витязем, которого Зевс даровал Европе для защиты острова Крит[1]. Его задачей было не допускать чужаков на остров. Если они приближались, Талос закидывал их камнями, если им удавалось высадиться, Талос раскалял себя в огне и сжигал врагов в своих объятиях.
Чем же Талос так примечателен? Созданный из самого прочного на тот момент материала, способный определять кто чужак, практически неуязвимый, без необходимости отдыхать. Так представлялись древним грекам создания богов. Что в этом создании было самое ценное - это то, что мы сейчас называем искусственным интеллектом.
Другой интересный пример можно взять из иудейских преданий - это легенды о големах. Голем - глиняное существо человеческого вида. Их, по легенде, могли создавать раввины для защиты еврейского народа. В Праге возникла еврейская народная легенда о големе, который был создан главным раввином Праги для исполнения разных «чёрных» работ или просто трудных поручений[2]. Известны и другие големы, созданные по народному преданию разными авторитетными раввинами - новаторами религиозной мысли.
В этой легенде народная фантазия оправдывает сопротивление социальному злу насилием, совершённым големом. Для него легализуется идея усиленной борьбы со злом, переступающая границы религиозного закона; недаром голем по легендам может превысить свои полномочия, заявляя свою волю, противоречащую воле его создателя: голем способен делать то, что по закону преступно для человека.
И в заключение, роман «Франкенштейн или современный Прометей», написанный Мэри Шэлли. Его можно назвать родоначальником научно-фантастической литературы. В нём описывается жизнь и труды доктора Виктора Франкенштейна, который оживил существо, созданное из частей тел умерших людей. Однако, увидев, что оно оказалось безобразным и чудовищным, доктор отрекается от своего создания и покидает город, в котором жил. Безымянное существо, которое люди ненавидят за внешний вид, вскоре начинает преследовать своего создателя.
И здесь опять же поднимается вопрос об ответственности, которую человек несёт за своих созданий. В начале XIX века, роман поднял несколько вопросов касательно пары творца и творения. Насколько это было этически правильно, создавать подобное творение? Кто несет ответственность за его поступки? Вопросы, тесно связанные с идеями об искусственном интеллекте.
Подобных примеров, которые неким образом связанны с вопросами создания искусственного интеллекта, много. Это кажется людям святым граалем, способным решить многие их проблемы и освободить от любых проявлений недостатка и неравенства.
2. Три закона робототехники
Начиная с Франкенштейна, искусственный интеллект появляется в литературе постоянно. Идея о нём стала плодотворной почвой для размышлений писателей и философов. Один из них, Айзек Азимов, навсегда запомнится нам. В 1942 году, в своём романе «Хоровод», он описал три закона, которым должны следовать роботы:
1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
2. Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому и Второму Законам.
До Айзека, в рассказах о искусственном интеллекте и о роботах, сохранялся дух романа Мэри Шэлли о Франкенштейне. Как говорил сам Айзек, эта проблема стала одной из самых популярных в мире научной фантастики в 1920-1930-х годах, когда писалось множество рассказов, темой которых являлись роботы, которые восставали и уничтожали людей[3].
Но не все фантасты, конечно, следовали такому шаблону. В 1938 году, к примеру, Лестера дель Рея написал рассказ «Хелен О'Лой» - рассказ о женщине-роботе, полюбившей своего создателя и ставшей для него, в последствии, идеальной женой. Что, кстати, очень сильно напоминает историю о Пигмалионе. Пигмалион вырезал из слоновой кости статую девушки настолько красивой, что сам влюбился в неё. Тронутая такой любовью Афродита оживила статую, которая стала женой Пигмалиона[4].
По сути, возникновение Трёх Законов происходило постепенно. В двух самых первых рассказах о роботах: «Робби» (1940) и «Логика» (1941) не было явного описания законов. Но в них уже подразумевалось, что у роботов должны быть некоторые внутренние ограничения. В следующем рассказе: «Лжец» (1941) впервые прозвучал Первый Закон. А полностью все три закона появились только в «Хороводе» (1942).
Не смотря на то, что сегодня роботика развивается как никогда, исследователи из области искусственного интеллекта не придают такого большого значения законам робототехники. Ведь законы, по сути, совпадают с основными принципами человечности. Однако, чем сложнее становятся роботы, тем очевиднее необходимость в создании некоторых базовых принципов и мер безопасности для них.
Есть даже утверждения, что Законы вряд ли будут полностью реализованы во всех роботах, ведь всегда найдутся те, кто захочет использовать роботов в целях разрушения и убийства. Специалист по научной фантастике Роберт Сойер собрал эти утверждения в одно[5]:
«Развитие ИИ - это бизнес, а бизнес, как известно, не заинтересован в развитии коренных мер безопасности - особенно философских. Вот несколько примеров: табачная индустрия, автомобильная промышленность, ядерная промышленность. Ни для одной из них изначально не было сказано, что серьёзные меры безопасности необходимы, и все они препятствовали внешне налагаемым ограничениям, и ни одна из них не приняла абсолютный эдикт против причинения вреда людям.»
3. Первые научные шаги
Историю развития искусственного интеллекта как науки можно начать прослеживать с ранних философских работ, таких как: «Рассуждение о методе» (Рене Декарт, 1637), «Человеческая природа» (Томаса Гоббс, 1640). Если смотреть на развитие ещё и с технической точки зрения, то можно упомянуть про первую механическую цифровую вычислительную машину, которая появилась ещё раньше: в 1623, благодаря стараниям Вильгельма Шикарда. Однако, мне бы хотелось обратить внимание на 1950, когда Алан Тьюринг в своей статье «Вычислительные машины и разум» задался целью определить, способна ли машина мыслить. [6]
Тест Тьюринга
Человек общается с другим человеком и с компьютерной программой. Человек может задавать вопросы посредством терминала, его задача определить, где программа и где человек. Цель программы - ввести человека в заблуждение и заставить сделать неправильный выбор. По условиям, переписка должна была производиться через фиксированные промежутки времени, потому что тогда ещё компьютеры были медленными и это позволяло сразу определять где программа. Сейчас это правило необходимо, потому что компьютер может ответить на много быстрее, чем человек.
На самом деле существует несколько вариантов формулировки. В одном из них, к примеру, компьютер был должен убедить комиссию из нескольких человек, что они общаются с другим человеком. А в одном из самых первых вариантов, Тьюринг предлагает участнику эксперимента сыграть в шахматы с человеком и с компьютером, а потом определить, кто из них кто. На самом деле, к моменту написания статьи, Алан Тьюринг уже около 10 лет занимался вопросами искусственного интеллекта.
В последующей истории теста Тьринга можно выделить несколько ключевых событий. Но главное произошло в 1966 году, Джозеф Вайценбаум создал программу Элиза, которая могла пародировать разговор с психотерапевтом. Это позволяло ей в условиях неопределённости отвечать вопросом на вопрос. Вот пример того, какой разговор мог с ней получиться:
Х: Кто ваш любимый композитор?
Elisa: А вас интересует эта тема? (Отвечает вопросом на вопрос)
…
Х: У меня болит голова.
Elisa: Почему вы говорите, что у вас болит голова? (Условие неопределённости)
Х: Мой отец меня ненавидит
Elisa: Кто ещё из семьи вас ненавидит? (реагирует на ключевое слово «отец»)
Элиза навсегда останется важным этапом в развитии искусственного интеллекта. Это была первая программа, которая вышла за рамки парадигмы общения Человек / Машина и смогла создать имитацию общения Человек / Человек.
Дармутский семинар
Благодаря бурному скачку в скорости работы компьютеров исследователи стали полагать, что благодаря компьютеру создать искусственный интеллект не составит большого труда. Дело в том, что в то время существовало два направления исследований: нейрокибернетика и, чуть позднее, кибернетика «чёрного ящика».
В основу нейрокибернетики лёг принцип, что единственный объект способный мыслить - это человек, значит мыслящее устройство должно моделировать его структуру. Учёные пытались создавать элементы, которые бы работали как нейроны головного мозга. Благодаря этому, в конце 50-х годов, появились первые нейронные сети. Их создали двое американских учёных: Розен-блатт и П. Мак-Каллок. Они попытались создать систему, которая могла бы моделировать работу человеческого глаза. Своё устройство они назвали перцептрон. Оно могло распознавать рукописные буквы. Сейчас, основной областью применения нейросетей является распознавание образов.
В основу кибернетики «чёрного ящика» лёг принцип, который говорил, что неважно, как устроена внутри мыслящая машина, главное чтобы она реагировала на некий набор входных данных так же, как человек. Исследователи, работающие в этой области стали создавать собственные модели. Оказалась, что ни одна из существующих наук: психология, философия, нейрофизиология, лингвистика, не смогли пролить свет на алгоритм работы мозга.
Развитие кибернетики «чёрного ящика» началось с 1956 года, когда прошёл Дармутский семинар, одним из основных организаторов которого являлся Джон Маккарти. К тому времени стало ясно, что для реализации принципов нейрокибернетики не хватает, как теоретических знаний, так и технической базы. Но исследователи в области информатики верили, что благодаря совместным усилиям удастся развить новый подход к созданию искусственного интеллекта. Усилиями одних из самых выдающихся учёных из области информатики был организован семинар под названием: Дармутский летний проект исследования искусственного интеллекта. В нём приняли участие 10 человек, многие из-которых были, в будущем, награждены премией Тьюринга - самой почётной премией в области информатики. Далее приведено вступительное утверждение[7]:
«Мы предлагаем исследование искусственного интеллекта сроком в 2 месяца с участием 10 человек летом 1956 года в Дартмутском колледже, Гановер, Нью-Гемпшир.
Исследование основано на предположении, что всякий аспект обучения или любое другое свойство интеллекта может в принципе быть столь точно описано, что машина сможет его симулировать. Мы попытаемся понять, как обучить машины использовать естественные языки, формировать абстракции и концепции, решать задачи, сейчас подвластные только людям, и улучшать самих себя.
Мы считаем, что существенное продвижение в одной или более из этих проблем вполне возможно, если специально подобранная группа учёных будет работать над этим в течение лета.»
Это была, пожалуй, самая амбициозная грантозаявка в истории. Именно на этой конференции официально утвердилась новая область науки - «Искусственный интеллект». И может быть, ничего конкретного не было открыто или разработано, но благодаря этому мероприятию одни из самых выдающихся исследователей познакомились друг с другом и начали двигаться в одном направлении.
1956-1960: время больших надежд
В те времена, казалось, что решение уже очень близко и не смотря на все трудности, человечество вскоре сможет создать полноценный искусственный интеллект, способный приносить реальную пользу. Появлялись программы способные создавать что-то интеллектуальное. Классическим примером является программа Logic theorist.
В 1913 году Уайтхед и Бертран Рассел опубликовали свой труд «Принципы математики». Их целью было показать, что при помощи минимального набора логических средств, таких как аксиомы и правила вывода, можно воссоздать все математические истины. Эта работа считается наиболее одной из самых влиятельных из когда либо написанных книг после Organon Аристотеля.
Программа Logic Theorist смогла сама воссоздать большую часть «Principia Mathematica». Причём, кое-где даже изящнее, чем это получилось у авторов.
Logic Theorist ввела несколько идей, которые стали центральными в исследованиях искусственного интллекта:
1. Рассуждение, как способ поиска. Фактически, программа шла по дереву поиска. Корнем дерева были начальные утверждения. Возникновение каждой ветви базировалась на правилах логики. В самой верхушке дерева возникал результат-то, что программа смогла доказать. Путь от корневых утверждений к целевым назывался доказательством.
2. Эвристика. Авторы программы поняли, что дерево будет рости экспоненциально и им потребуется каким-то образом, «на глаз», его обрезать. Правила, в соответствии с которыми они избавлялись от лишних ветвей они назвали «эвристическими», используя термин введённый Дьёрдь Помйа в своей книге «Как решать задачу». Эвристика стала важной составляющей исследований искусственного интеллекта. Она остаётся важным методом решения сложных комбинаторных задач, так называемых «комбинароных взрывов» (пример: задача коммивояжера, перебор шахматных ходов).
3. Обработка структуры «Список». Чтобы реализовать программу на компьютере был создан язык программирования IPL (Information Processing Language), который использовал такую же форму списков, которую в будущем использовал Джон Маккарти при создании языка Лисп (за него он получил премию Тьюринга), который до сих пор используется исследователями искусственного интеллекта[8].
1970-е года: Системы основанные на знаниях
Системы основанные на знаниях - это компьютерные программы, которые используют базы знаний, чтобы решать сложные задачи. Сами системы подразделяются ещё на несколько классов. Объединяет их то, что все они пытаются представлять знания через такие средства, как онтологии и правила, нежели чем просто программный код. Они всегда состоят, как минимум, из одной подсистемы, а чаще, из двух сразу: базы знаний и машины вывода. База знаний содержит факты о мире. Машина вывода содержит логические правила, которые, обычно, представлены в виде правил ЕСЛИ-ТО[9]. Системы основанные на знаниях впервые были созданы исследователями искусственного интеллекта.
Первой работающей системой основанной на знаниях была программа Mycin. Это программа была создана для диагностики опасных бактерий и выбора наиболее правильного лечения для пациента. Программа оперировала 600 правил, задавала врачу множество вопросов с ответом «да/нет» и выдавала список возможных бактерий, отсортированный в зависимости от вероятности, так же предоставляла доверительный интервал и могла порекомендовать курс лечения.
В результате исследований в Стэнфорде обнаружилось, то Mycin предоставляет приемлемый курс лечения в 69% случав, что лучше чем у эспертов, которых оценивали по тем же критериям. Данное исследование часто цитируют в целях демонстрации несогласия между врачами-экспертами и системой, если не существует стандарта для «правильного» лечения.
К сожалению, Mycin не так и не была апробирована на практике. Были подняты этические и правовые вопросы, связанные с использованием подобных программ. Было не ясно, кто должен нести ответственность, если рекомендация программы оказалась неправильной. Другой проблемой стало технологическое ограничение. В те времена не было персональных компьютеров, один сеанс занимал более получаса, и это было недопустимо для занятого врача.
Основным достижением программы была то, что мир увидел мощь систем основанных на знаниях, и мощь искусственного интеллекта в целом. Позже, в 1980-х, стали появляться другие программы использующие такой же подход. Для упрощения их создания была создана оболочка E-Mycin, которая позволяла создавать новые экспертные системы с меньшими усилиями. Непредвиденной трудностью, с которой столкнулись разработчики, оказалось извлечение знаний из опыта экспертов, по вполне понятным причинам.
Важно упомянуть, что именно в это время начал советский учёный Дмитрий Александрович Поспелов начал свою работу в области искусственного интеллекта
4. Борьба на шахматной доске
Отдельно можно рассматривать историю противостояния человека и искусственного интеллекта на шахматной доске. Эта история началось очень давно: когда в 1769 году, в Вене, Вольфганг фон Кемпеленг создал шахматный автомат. Это был большой деревянный ящик, на крыше которого находилась шахматная доска, и за которым стоял восковой турок в соответствующем наряде (из-за этого машину, иногда, коротко называют «Турок»). Перед началом представления дверцы ящика открывались, и зрители могли видеть множество деталей некоего механизма. Затем дверцы закрывали, и заводили машину специальным ключом, как часы. После этого желающий поиграть подходил и делал ходы.
Данная машина имела огромный успех и успела объездить всю Европу, проиграв всего несколько партий сильным шахматистам. В действительности, внутри ящика сидел человек, который при помощи системы зеркал и механизмов мог наблюдать за состоянием партии и при помощи системы рычагов управлять рукой «Турка». И это была не последняя машина, внутри которой, на самом деле, скрывался живой шахматист. Подобные машины имели успех вплоть до начала двадцатого века.
С появлением компьютеров возможность создать искусственного шахматиста стала осязаемой. Аланом Тьюрингом была разработана первая программа способная играть в шахматы, однако из-за технических ограничений на то, чтобы сделать один ход требовалось около получаса. Сохранилась даже запись игры программы с Аликом Глени, коллегой Тьюринга, которую программа проиграла.
Идея создания подобных программ на базе компьютеров вызвала резонанс в научном мире. Задавалось множество вопросов. Прекрасным примером является статья: «Применение цифровых компьютеры для игр» (Digital Computers applied to Games) [10]. В ней поднимается 6 вопросов:
1. Можно ли создать машину, которая могла бы следовать правилам шахмат, могла бы выдавать случайный корректный ход, либо проверять, является ли ход корректным?
2. Можно ли создать машину, способную решать шахматные задачи? К примеру говорить, как поставить мат за три хода.
3. Можно ли создать машину, которая вела бы хорошую игру? Которая, к примеру, столкнувшись с некой обычной расстановкой фигур могла бы после двух-трёх минут вычислений выдать хороший корректный ход.
4. Можно ли создать машину, которая играя в шахматы учится и улучшает свою игру раз за разом?
Этот вопрос поднимает ещё два, которые, скорее всего, уже вертятся на языке у читателя:
5. Можно ли создать машину, которая способна отвечать на поставленный вопрос таким образом, чтобы нельзя было отличить её ответ, от ответа человека.
6. Можно ли создать машину, которая чувствовала как вы или я?
В статье основной упор делался на вопрос номер 3. На вопросы 1 и 2 ответ строго положительный. Ответ на вопрос 3 связан с использованием более сложные алгоритмы. По поводу вопроса 4 и 5 автор говорит, что не видит убедительных аргументов опровергающих подобную возможность. А на вопрос 6: «Я никогда не узнаю даже того, чувствуете ли вы всё так же как и я».
Пусть подобные исследования сами по себе, быть может, и не имели большого практического интереса, однако они были очень интересны теоретически, и была надежда, что решение этих задач станут толчком к решению других задач подобной природы и большего значения.
Умение играть в шахматы издавна было отнесено к стандартным тестовым задачам, демонстрирующим возможности искусственного интеллекта справляться с заданием не с позиций «грубой силы», что в данном контексте понимается как применение тотального перебора возможных ходов, а с помощью… «чего-то такого», как выразился однажды один из пионеров в области разработки шахматных программ Михаил Ботвинник. В своё время ему удалось «пробить» официальное финансирование работ над проектом «искусственного шахматного мастера» - программного комплекса «ПИОНЕР», который создавался под его руководством во Всесоюзном НИИ электроэнергетики. О возможностях применения базовых принципов «ПИОНЕРА» для решения задач оптимизации управления в народном хозяйстве Ботвинник неоднократно докладывал в президиум АН СССР.
Базовой идеей, на которой основывал свою разработку экс-чемпион мира, он сам сформулировал в одном из своих интервью 1975 года: «Уже не один десяток лет я работаю над проблемой распознавания мышления шахматного мастера: как он находит ход без полного перебора? И сейчас можно утверждать, что этот метод в основном раскрыт… Три основных этапа создания программы: машина должна уметь находить траекторию передвижения фигуры, потом она должна «научиться» формировать зону игры, зону местного боя на шахматной доске и уметь формировать совокупность этих зон. Первая часть работы выполнена давно. Сейчас закончена подпрограмма формирования зоны. В ближайшие дни начнётся её отладка. Если она пройдёт успешно, будет полная уверенность, что удастся и третий этап и машина начнёт играть».
Проект «ПИОНЕР» остался незавершённым. Ботвинник работал над ним с 1958 по 1995 год - и за это время сумел построить алгоритмическую модель шахматной игры, основанную на поиске «дерева вариантов» и последовательного достижения «неточных целей», в качестве которых выступал выигрыш материала.
В 1974 году советская компьютерная программа Каисса выиграла Первый Всемирный Компьютерный Шахматный Чемпионат[11], победив во всех четырёх партиях другие шахматные автоматы, играя, по словам шахматистов, на уровне третьего разряда. Советские учёные ввели множество новшеств для шахматных автоматов: использование дебютной книги, позволяющей избежать расчёта ходов в самом начале игры, а также особую структуру данных: битборд, которая до сих пор используется в шахматных автоматах.
Возник вопрос, а сможет ли программа обыграть человека. В 1968 году шахматист Дэвид Леви заключил пари на 1250 фунтов стерлингов, что в следующие 10 лет ни одна машина не сможет его обыграть. В 1977 году он провёл партию с Каиссой и выиграл, после чего, турнир продолжать не стали. В 1978 году он выиграл партию у Chess4.7 - лучшей шахматной программы на то время, после чего сознался, что осталось не так много времени до того момента, когда программы смогут побеждать титулованных шахматистов.
Следует отдельно отметить партии между человеком и компьютером. Самой первой стала упомянутая ранее партия Алика Глени и программы Тьюринга. Следующим этапом стало создание программы в Лос-Аламосе в 1952 году. Она играла на доске 6х6 (без слонов). Тест был проведён в два этапа. Первый этап - игра с сильным шахматистом, в результате которого, через 10 часов игры победил человек. Вторым этапом стала игра против девушки, которую незадолго до теста научили играть в шахматы. Результатом стала победа программы на 23-м ходу, что являлось несомненным достижением на тот момент.
Лишь в 1989 году программе Deep Thought удалось выиграть у международного гроссмейстера: Бента Ларсена. В том же году состоялся матч этой же программы с Гарри Каспаровым, который был легко выигран Каспаровым. После это матча он заявил[12]:
«Если компьютер сможет превзойти в шахматах лучшего из лучших, это будет означать, что ЭВМ в состоянии сочинять самую лучшую музыку, писать самые лучшие книги. Не могу в это поверить. Если будет создан компьютер с рейтингом 2800, то есть равным моему, я сам сочту своим долгом вызвать его на матч, чтобы защитить человеческую расу.»
В 1996 году компьютер Deep Blue проиграл турнир Каспарову, но впервые в истории выиграл партию у чемпиона мира. И лишь в 1997 году компьютер впервые в истории выиграл турнир у чемпиона мира со счётом 3,5:2,5.
После матчей Каспарова многие руководители FIDE неоднократно высказывали мысли о том, что проводить смешанные встречи (человек против компьютерной программы) по многим причинам нецелесообразно. Поддерживая эту позицию, Гарри Каспаров пояснял: «Да, компьютер не знает, что такое выигрыш или проигрыш. А как это для меня?. Как я буду относиться к игре после бессонной ночи, после грубых ошибок в игре? Это всё эмоции. Они ложатся огромным бременем на человека-игрока, и самое неприятное, что вы ведь понимаете: ваш оппонент не подвержен ни усталости, ни любым другим эмоциям».
И если уже сейчас в шахматной борьбе перевес на стороне компьютеров, то в таких состязаниях как игра го компьютер подходит только для игры с новичками либо с игроками среднего уровня. Причина в том, что в го затруднена оценка состояния доски: один ход может сделать из однозначно проигрышной позиции, выигрышную. Дополнительно к этому полный перебор практически не возможен, ибо без использования эвристического подхода полный перебор первых четырёх ходов (два с одной стороны и два с другой) может потребовать оценки почти 17 млд возможных вариантов расклада.
Подобный интерес может представлять игра в покер. В ней трудность заключается в том, что состояние не является полностью обозреваемым, в отличие от го и шахмат, где оба игрока видят всю доску. В покере возможна ситуация, когда противник говорит пас и не показывает свои карты, что может затруднить процесс анализа.
В любом случае, интеллектуальные игры важны для разработчиков искусственного интеллекта, как дрозофилы для генетиков. Это удобное поле для испытаний, поле для исследований, как теоретических, так и практических. Это так же показатель развития науки об искусственном интеллекте.
5. Использование искусственного интеллекта в коммерческих целях
В 80-е годы, вдохновлённые достижениями искусственного интеллекта, многие компании решили попробовать использовать новые технологии. Однако, только самые крупные компании могли позволить себе подобные экспериментальные шаги.
Одной из самых первых компаний, которые смогли адаптировать технологии искусственного интеллекта, была компания DEC (Digital Equipment Corp). Она смогла внедрить экспертную систему XSEL, которая помогала составлять конфигурацию оборудования и подбирать альтернативы для клиентов. В итоге, трёхчасовая задача сократилась до 15 минут, причём, количество ошибок сократилось с 30% до 1%. По словам представителей компании, система XSEL позволяла зарабатывать 70 миллионов долларов[13].
American Express использовали экспертную систему для принятия решения о том выдавать ли кредит клиенту или нет. Эта система на одну треть чаще предлагала выдавать кредит, чем это делали эксперты. Говорят, она зарабатывала 27 миллионов долларов в год.
Выигрыш, который давали интеллектуальные системы зачастую оказывался ошеломляющим. Он был подобен переходу от передвижения ходьбой, к передвижению на автомобиле, или от передвижения на автомобиле, к перелёту на самолёте.
Однако не всё было так просто с интеграцией искусственного интеллекта. Во-первых, не каждую задачу можно было формализовать до того уровня, на каком бы с ней смог справиться искусственный интеллект. Во-вторых, сама разработка была весьма дорогим удовольствием. В-третьих, системы были новы, люди не привыкли пользоваться компьютерами. Некоторые относились к ним скептически, а некоторые даже враждебно.
Интересным примером является компания DuPont, она смогла потратить 10000 $ и один месяц, чтобы создать маленькую вспомогательную систему. Она могла работать на персональном компьютере и позволяла получать дополнительную прибыль в 100000 $.
Не всем компаниям удалось успешно внедрить технологии искусственного интеллекта. Это показало, что использование подобных технологий требует большой теоретической базы и много ресурсов: интеллектуальных, временных и материальных. Но в случае успеха, затраты окупались с лихвой.
6. Смена парадигмы
В середине 80-х человечество увидело, что компьютеры и искусственный разум способны справляться с трудными задачами не хуже человека и, во многом, даже лучше. Под рукой были примеры успешного коммерческого использования, достижения в игровой индустрии и достижения систем поддержки принятия решений. Люди верили, что в какой-то момент компьютеры и искусственный интеллект сможет справляться с каждодневными проблемами лучше человека. Вера, которая прослеживалась с давнего времени, и, точнее, со времён создания трёх законов робототехники. Но в какой-то момент эта вера перешла на новый уровень. И в доказательство тому можно привести ещё один закон робототехники, который сам Айзек Азимов в 1986 году предпочёл назвать «нулевым»:
«0. Робот не может причинить вреда человеку, если только он не докажет, что в конечном счёте это будет полезно для всего человечества.»
Это огромный сдвиг видения места искусственного интеллекта в жизни человека. Изначально, машинам отводилось место безвольного слуги: скота нового века. Однако, увидев его перспективы и возможности, человек стал поднимать вопрос о том, не смог бы ли искусственный разум управлять жизнью людей лучше, чем сами люди. Неустанный, справедливый, бескорыстный, не подверженный зависти и желаниям, возможно он смог бы по-другому устроить жизнь людей. Идея на самом деле не новая, она появлялась в 1952 году в романе Курта Воннегута «Механическое пианино» или «Утопия 14». Но тогда она была фантастикой. Теперь же, она превратилась в возможную перспективу.
Data mining
История такого направления к Data mining началась в 1989, после семинара Григория Пятецкого-Шапиро. Он задался вопросом можно ли из длинной последовательности, с первого взгляда, ничем не примечательных данных, извлечь полезные знания. К примеру, это мог бы быть архив запросов к базе данных. В случае, если бы посмотрев на него, мы могли бы выявить некоторые закономерности, то это позволило бы ускорить работу базы данных. Пример: каждое утро с 7:50 до 8:10 инициируется ресурсозатратный запрос на создание отчёта за прошлый день, в таком случае к этому времени его можно уже сформировать в перерывах между другими запросами, таким образом база данных будет более равномерно нагружена запросами. Но представьте, что данный запрос инициирует сотрудник только после того, как вносит новую информацию. В таком случае, правило должно измениться: как только конкретный сотрудник внёс информацию, можно начинать готовить отчёт в фоновом режиме. Данный пример крайне прост, однако он показывает как пользу датамайнинга, так и трудности, связанные с ним.
Термин датамайнинг не имеет официального перевода на русский язык. Его можно переводить как «добыча данных», при чём «добыча» сродни той, которые ведутся в шахтах: имея много сырого материала, можно найти ценный объект. На самом деле подобный термин существовал ещё в 1960-х: Data Fishing или Data Dredging. Он был в ходу у статистиков, означая признанную плохой практику поиска закономерностей при отсутствии априорных гипотез. По сути, термин мог бы более корректно но называться Database mining, но это название оказалось торговой маркой. Сам, Григорий Пятецкий-Шапиро, предложил термин «Knowledge Discovery in Databases», но в бизнес среде и прессе закрепилось название «Data mining».
Идея того, что используя некую базу данных каких-то фактов, можно предсказать существование новых фактов появилась давно и постоянно развивалась в соответсвии с уровнем развитии техники: 1700-е года - теорема Байеса, 1800-е - регрессионный анализ, 1930-е - кластерный анализ, 1940-е - нейронные сети, 1950-е - генетические алгоритмы, 1960-е - деревья принятия решений. Термин Data mining объединил их не по тому принципу, как они работают, а по тому какова у них цель: имея некий набор известных данных, они могут предсказать, какие данные должны получиться дальше.
Цель датамайнинга - найти «скрытые знания». Рассмотрим подробнее, что же значат «скрытые знания». Во-первых, это должны быть новые знания. На пример, что на выходных количество проданного товара в супермаркете возрастает. Во-вторых, знания должны быть не тривиальными, не сводящиеся к нахождению математического ожидания и дисперсии. В-третьих, эти знания должны быть полезны. В-четвёртых, знания, которые можно доступно интерпретировать.
Долгое время люди верили, что компьютеры смогут предсказывать всё: котировки акций, нагрузки на сервера, необходимое количество ресурсов. Однако, оказалось, что зачастую извлечь информацию из свалки данных весьма сложно. В каждом конкретном случае требуется подстраивать алгоритм, если это не просто какая-то регрессия. Люди верили, что существует универсальный алгоритм, который, как чёрный ящик, способен поглотить какое-то большое количество данных и начать выдавать предсказания.
Несмотря на все ограничение, из года в год улучшаются инструменты облегчающие датамайнинг. А с 2007 года компания Rexer Analytics каждый год публикует результаты опроса специалистов о существующих инструментах. Опрос в 2007 году, состоял из 27 вопросов, в нём приняли участие 314 участников из 35 стран[14]. В 2013 году опрос насчитывал уже 68 вопросов, и в нём приняли участи 1259 специалистов из 75 стран мира[15].
Датамайнинг до сих пор считается перспективным направлением. И опять же, с его использованием поднимаются новые этические вопросы. Простой пример - это использование средств датамайнинга для анализа и прогнозирования преступлений. Подобные исследования проводились с 2006 года разными университетами[16]. Правозащитники выступают против, аргументируя это тем, что знания, полученные таким образом, могут привести к обыскам, причиной для которых служат не факты, а предположения.
7. Рекомендательные системы
Рекомендательные системы на сегодняшний день являются наиболее осязаемым результатом развития искусственного интеллекта. Мы можем столкнуться с ним зайдя на один из популярных интернет-магазинов. Задача рекомендательной системы - по некоторым наблюдаемым признакам определить, к примеру, список товаров просмотренных конкретным пользователем, определить, какие товары будут наиболее интересны для пользователя.
Задача поиска рекомендаций тоже сводится к задаче обучения машины, так же, как и с датамайнингом. Считается, что история развития рекомендательных систем началась с момента внедрения Дэвидом Голдбергом системы Tapestry в компании Xerox Palo Alto Research Center в 1992 году[17]. Целью системы была фильтрация корпоративной почты. Это стало своего родом прародителем рекомендательной системы.
На данный момент существует два рекомендательных систем. Дэвид Голдберг предложил систему на основе коллаборативной фильтрации. То есть, для того чтобы сделать рекомендацию система просматривает информацию о том, как оценивали некий объект другие пользователи, похожие на целевого пользователя. На основе этой информации система может предположить, насколько высоко целевой пользователь оценит конкретный объект (товар, фильм).
Другим видом рекомендательных систем являются фильтры содержимого. Необходимым условием для существования фильтра содержимого является некая база данных, которая должна хранить метрики по всем объектам. Далее, после нескольких действий пользователя, система способна определить, какого типа объекты нравятся пользователю. На основе существующих метрик система может подобрать новые объекты, которые будут неким образом похожи на уже просмотренные. Недостатком подобной системы является то, что для начала необходимо построить большую базу данных с метриками. Сам процесс построения метрики может стать проблемой.
Опять же возникает вопрос, не является ли использование подобных систем нарушением. Здесь есть два подхода. Первый - явный сбор данных представляет сбор данных исключительно в рамках, в которых работает рекомендательная система. К примеру, если это рекомендательная система для интернет-магазина, то она будет предлагать оценить какой-то товар, отсортировать товары в порядке интереса, создать список любимых товаров. С этим типом всё просто: система не получает сведений об активности пользователя вне её границ, всё что ей известно - ей сообщил сам пользователь. Второй тип - это неявный сбор данных. К нему относятся такие приёмы как использование информации с других, похожих ресурсов, ведение записи о поведении пользователя, проверка содержимого компьютера пользователя. Этот тип сбора информации для рекомендательных систем вызывает опасения.
Однако, в данном направлении использование частной информации вызывает всё меньше споров. К примеру, в 2013 году на конференции YAC (Yandex Another Conference) было анонсировано создание системы Атом. Её цель, предоставить владельцам сайтов информацию, которая может потребоваться для создания рекомендаций. Эта информация, изначально, должна собираться Yandex сервисами. То есть, в данном случае осуществляется неявный сбор данных. Пример: человек заходит в поисковый сервис чтобы узнать наиболее интересные места в Париже. Спустя какое-то время, человек заходит на сайт туристического агентства. Без использования Атома агентству пришлось бы просто показать человеку наиболее популярные туры. Атом мог бы посоветовать сайту в первую очередь показать пользователю тур в Париж и сделать персональную скидку именно на этот тур, чтобы выделить его из других. Таким образом, конфиденциальная информация не выходит за рамки сервиса Атом, сайт знает, что посоветовать клиенту, а клиент счастлив тому, что быстро нашёл то, что искал.
На сегодняшний день, рекомендательные системы являются ярчайшим примером того, чего могут добиться технологии искусственного интеллекта. Благодаря одной такой системе может выполняться работа, с которой не смогла бы справиться и целая армия аналитиков.
Заключение
Развитие искусственного интеллекта как науки и технологии создания машин началось чуть более чем века назад. И те достижения, которых удалось достичь на текущий момент - ошеломительные. Они окружают человека практически везде. У технологий искусственного интеллекта есть особенность: человек считает их чем-то интеллектуальным только первое время, затем он привыкает и они кажутся ему естественными.
Важно помнить, что наука об искусственном интеллекте находится в тесной связи с математикой, комбинаторикой, статистикой и другими науками. Но не только они оказывают на него влияние, но и развитие искусственного интеллекта позволяет по-другому взглянуть на то, что уже было создано, как это было с программой Logic Theorist.
Важную роль в развитии технологий искусственного интеллекта играет развитие компьютеров. Едва ли можно представить серьёзную программу интеллектуального анализа данных, которой бы хватило 100 килобайт оперативной памяти. Компьютеры позволяли технологиям развиваться экстенсивно, в то время как теоретические исследования служили предпосылками для интенсивного развития. Можно сказать, что развитие науки об искусственном интеллекте являлось следствием развития компьютеров.
История развития искусственного интеллекта не закончена, она пишется прямо сейчас. Постоянно совершенствуются технологии, создаются новые алгоритмы, открываются новые области применения. Время постоянно открывает перед исследователями новые возможности и новые вопросы.
В данном реферате не делается акцента на страны, в которых проводились те или иные исследования. Весь мир внёс по частичке в ту область, которую мы сейчас зовём наукой об искусственном интеллекте.
Список литературы
[1] Мифы народов мира. М., 1991-92. В 2 т. Т.2. С. 491,
[2] Idel, Moshe (1990). Golem: Jewish Magical and Mystical Traditions on the Artificial Anthropoid. Albany, New York: State University of New York Press.
[3] Азимов, Айзек. Эссе №6. Законы роботехники // Мечты роботов. - М.: Эксмо, 2004. - С. 781-784. - ISBN 5-699-00842-X
[4] См. Нонн. Деяния Диониса XXXII 212. Климент. Протрептик 57, 3 (ссылка на Филостефана).
[5] Alan Turing, 'Digital computers applied to games'. n.d. AMT's contribution to 'Faster than thought', ed. B.V. Bowden, London 1953. Published by Pitman Publishing. TS with MS corrections. R.S. 1953b
[6] Каисса - Чемпион Мира. Журнал «Наука и Жизнь», январь 1975, стр. 118-124
[7] Гик, Е. Гроссмейстер «Глубокая мысль» // Наука и жизнь. - М., 1990. - В. 5. - С. 129-130.
[8] F. Hayes-Roth, N. Jacobstein. The State of Enowledge-Based Systems. Communications of the АСМ, March, 1994, v. 37, n. 3, рр. 27-39.
[9] Karl Rexer, Paul Gearan, & Heather Allen (2007); 2007 Data Miner Survey Summary, presented at SPSS Directions Conference, Oct. 2007, and Oracle BIWA Summit, Oct. 2007.
[10] Karl Rexer, Heather Allen, & Paul Gearan (2013); 2013 Data Miner Survey Summary, presented at Predictive Analytics World, Oct. 2013.
Размещено на Allbest.ru
Подобные документы
Сущность и проблемы определения искусственного интеллекта, его основных задач и функций. Философские проблемы создания искусственного интеллекта и обеспечения безопасности человека при работе с роботом. Выбор пути создания искусственного интеллекта.
контрольная работа [27,9 K], добавлен 07.12.2009История создания и основные направления в моделировании искусственного интеллекта. Проблемы обучения зрительному восприятию и распознаванию. Разработка элементов интеллекта роботов. Исследования в области нейронных сетей. Принцип обратной связи Винера.
реферат [45,1 K], добавлен 20.11.2009Понятие искусственного интеллекта как свойства автоматических систем брать на себя отдельные функции интеллекта человека. Экспертные системы в области медицины. Различные подходы к построению систем искусственного интеллекта. Создание нейронных сетей.
презентация [3,0 M], добавлен 28.05.2015История развития искусственного интеллекта в странах дальнего зарубежья, в России и в Республике Казахстан. Разработка проекта эффективного внедрения и адаптации искусственного интеллекта в человеческом социуме. Интеграция искусственного в естественное.
научная работа [255,5 K], добавлен 23.12.2014Искусственный интеллект – научное направление, связанное с машинным моделированием человеческих интеллектуальных функций. Черты искусственного интеллекта Развитие искусственного интеллекта, перспективные направления в его исследовании и моделировании.
реферат [70,7 K], добавлен 18.11.2010Эволюция систем искусственного интеллекта. Направления развития систем искусственного интеллекта. Представление знаний - основная проблема систем искусственного интеллекта. Что такое функция принадлежности и где она используется?
реферат [49,0 K], добавлен 19.05.2006Начало современного этапа развития систем искусственного интеллекта. Особенности взаимодействия с компьютером. Цель когнитивного моделирования. Перспективы основных направлений современного развития нейрокомпьютерных технологий, моделирование интеллекта.
реферат [24,7 K], добавлен 05.01.2010Области человеческой деятельности, в которых может применяться искусственный интеллект. Решение проблем искусственного интеллекта в компьютерных науках с применением проектирования баз знаний и экспертных систем. Автоматическое доказательство теорем.
курсовая работа [41,3 K], добавлен 29.08.2013История развития искусственного интеллекта. Экспертные системы: их типы, назначение и особенности, знания и их представление. Структура идеальной и инструменты построения экспертных систем. Управление системой продукции. Семантические сети и фреймы.
реферат [85,7 K], добавлен 20.12.2011Характеристика сущности искусственного интеллекта. Проблема создания искусственного интеллекта. Базовые положения, методики и подходы построения систем ИИ (логический, структурный, эволюционный, имитационный). Проблемы создания и реализация систем ИИ.
реферат [43,1 K], добавлен 19.07.2010