суббота, 26 июня 2010 г.

Введение в предметную область ИИ

1. Становление искусственного интеллекта.

1.1 История развития искусственного интеллекта за рубежом.

Развитие искусственного интеллекта как научного направления стало возможным только после создания ЭВМ в 40-х гг. XX в. В это же время Н. Винер (1894 - 1964) опубликовал осново­полагающие работы по кибернетике. Первый прообраз будущих вычислительных машин, был реализован в США. В мае 1942 года первая в мире вычислительная машина начала действо­вать (Дж. Атанасов и К. Берри создали макет процессора). Работы были засекречены и это впоследствии привело к судебному разбирательству по вопросу о приоритете с с создателями ЭНИАКа (1943 - 1946 гг.)

С ЭНИАКом связано начало той вычислительной техники, которая породила информатику. В этой машине впервые была реализована структура, предложенная Дж. фон Нейманом. Воз­никло современное программирование. Термин искусственный интеллект (artificial intelligence) предложен в 1956 г. на семинаре с аналогичным названием в Стэндфордском университете (США). Вскоре после этого произошло разделение ИИ на два основных направления: нейрокибернетику и кибернетику «черного ящика». И только в настоящее время стали заметны тенденции к объединению.



1.1.1 Искусственные нейросети.

В 60-е годы персептроны вызвали большой оптимизм. Они научились, в частности, распозна­вать буквы алфавита. Розенблатт доказал теорему об обучаемости персептрона, согласно кото­рой персептрон может научиться всему, что он может представлять. Однако Минский строго проанализировал проблему представимости и показал, что имеются жесткие ограничения на то, что могут выполнять однослойные персептроны, и, следовательно, на то, чему они могут обучаться. Например, анализ Минского показывает, что однослойный персептрон не может воспроизвести такую простую функцию, как ИСКЛЮЧАЮЩЕЕ ИЛИ.

Снятие ограничений по памяти и быстродействию компьютеров к середине 80-х гг., а также недавнее открытие методов обучения многослойных сетей возродило интерес к нейросетям и нейрокомпьютерам. В настоящее время используются три подхода к созданию нейросетей:

аппаратный - создание специальных компьютеров (нейрокомпьютероов), плат расширения, наборов микросхем, реализующих все необходимые алгоритмы;

программный - создание программ и инструментариев, рассчитанных на высокопроизво­дительные компьютеры. Сети создаются в памяти компьютера, всю работу выполняют его собственные процессоры;

расширения (сопроцессоры), часть - программные средства.



1.1.2 Черный ящик.

В основу "черного ящика"лег принцип, согласно которому система ИИ должна реагировать на входной сигнал так, как человеческий мозг, и не имеет значения, подобна ли конструктивно эта система мозгу. В 1956 -1963 гг. велись интенсивные поиски моделей и алгоритмов челове­ческого мышления. Оказалось, что ни одна из существующих наук - философия, психология, лингвистика - не может предложить такого алгоритма. Кибернетики предложили собственные модели.

В конце 50-х гг. родилась модель лабиринтного поиска. Этот подход представляет задачу как граф пространства состояний, в котором ищется оптимальный путь от входных данных к ре­зультирующим. Конец 50-х - начало 60-х гг.-эпоха эвристического программирования (Ньюэлл, Саймон, Шоу). Эвристика - правило, теоретически не обоснованное, но позволяющее сократить количество переборов в пространстве поиска. Эвристическое программирование - разработка стратегии действий по аналогии или прецедентам. Результатами работ явились такие програм­мы как «ЛОГИК-ТЕОРЕТИК» - ЛТ (1957 г.), предназначенная для доказательства теорем в исчислении высказываний, и «ОБЩИЙ РЕШАТЕЛЬ ЗАДАЧ» (GPS). С помощью ЛТ были успешно доказаны 38 из 52 теорем главы 2 книги Уайтхеда и Рассела «Принципы математики» (модифицированный алгоритм ЛТ на более мощной ЭВМ доказал позднее все 52 теоремы). Хант пишет, что эти доказательства не произведут на математика большой глубины. Ньюэлл и его коллеги неоднократно подчеркивали, что дело не в самом доказательстве, а в том, как они были осуществлены. Например, алгоритм, названный Ньюэллом, Саймоном и Шоу алгоритмом Британского музея, гарантирует получение доказательства для любой доказуемой теоремы из заданного множества аксиом: Начиная с посылок, запишите все выводы, которые можно получить, комбинируя по-разному два или более известных истинных утверждения. Проверьте, не содержит ли полученное таким образом множество утверждений теорему или ее отрицание. Если не произошло ни то, ни другое, добавьте это новое множество утверждений к исходным посылкам и повторите процедуру. Существует такое число N, что доказательство (или опровержение) будет получено на N-шаге, но ничего нельзя сказать относительно того, каково это число.

Этот алгоритм столь же разумен, как и работа обезьян за пишущими машинками, имеющая целью переписать все книги Британского музея. Ньюэлл, Саймон и Шоу предложили эвристи­ческий подход, - термин, заимствованный у Пойя (1954 г.), который считал, что большинство математических доказательств производится на основе догадки о характере решения и после­дующей проверки ее правильности. Пойя противопоставил это алгоритмическому способу как механическому перебору всех шагов, которые в конечном итоге должны привести к ответу.

В ходе написания программ ЛТ разработчики столкнулись с задачами, которые естественно привели к разработке приема программирования, названного обработкой списков - метод организации памяти ЭВМ, при котором основными операндами являются множества (списки), а не отдельные переменные элементарных типов (real, integer, character и т.д.). И именно поэтому LISP - язык обработки списков - стал первым языком программирования систем ИИ.

История возникновения LISP - один из примеров общего правила: чем выше уровень про­блемы, чем она «системнее», «комплекснее», тем выше вероятность получения побочных нетри­виальных и полезных результатов. Не хотите, чтобы Вас опередили в процессе исследований ставьте себе задачу на пределе интуитивно понимаемых собственных возможностей.

Трактовка эвристических методов решения задач как сугубо человеческой деятельности и обусловила появление и дальнейшее распространение термина ИИ. При описании своих программ Ньюэлл и Саймон приводили в качестве доводов, подтверждающих, что их программы моделируют человеческое мышление, результаты сравнения записей доказательств теорем в виде программ с записями рассуждения «думающего вслух» человека. В начале 70-х годов они опубликовали много данных подобного рода и предложили общую методику составления программ, моделирующих мышление.

Примерно в то время, когда работы Ньюэлла и Саймона стали привлекать к себе внимание, в Массачусетском технологическом институте, Стэндфордском университете и Стэндфордском исследовательском институте также сформировались исследовательские группы в области ИИ. В противоположность ранним работам Ньюэлла и Саймона эти исследования больше относились к формальным математическим представлениям. Способы решения задач в этих исследованиях развивались на основе расширения математической и символической логики. Моделированию же человеческого мышления придавалось второстепенное значение.

Из результатов этого направления на дальнейшие исследования в области ИИ большое вли­яние оказало появление метода резолюций Робинсона, основанного на доказательстве теорем в логике предикатов и являющегося исчерпывающим методом доказательства. На основе метода резолюций в 1973 г. создается язык Пролог.

Функциональное направление исследований по ИИ сохранилось в основном до настоящего времени, хотя еще и сейчас ряд ученых, особенно психологов, пытаются оценивать результаты работ по ИИ с позиций их соответствия человеческому мышлению.

Существенный прорыв в практических приложениях искусственного интеллекта произошел в середине 70-х гг., когда на смену поискам универсального алгоритма мышления пришла идея моделировать конкретные знания специалистов-экспертов. В США появились первые коммерче­ские системы, основанные на знаниях, или экспертные системы. Пришел новый подход к реше­нию задач искусственного интеллекта - представление знаний. Созданы MYCIN и DENDRAL - ставшие уже классическими экспертные системы для медицины и химии. Обе эти системы в определенном смысле можно назвать диагностическими, поскольку в первом случае (MYCIN) по ряду симптомов (признаков патологии организма) определяется болезнь (ставится диагноз), во втором - по ряду свойств определяется химическое соединение.

Начиная с середины 80-х гг. происходит коммерциализация искусственного интеллекта. Растут ежегодные капиталовложения, создаются промышленные экспертные системы.



1.2 История развития ИИ в России.

(Излагается преимущественно по статье Д.А. Поспелова «Становление информатики в России.») Термин информатика в современном понимании получил права гражданства только в 80-х, а до этого, согласно Большой Советской энциклопедии, информатика рассматривалась как «дисциплина, изучающая структуру и общие свойства научной информации, а также за­кономерности ее создания, преобразования, передачи и использования в различных сферах человеческой деятельности». Такое определение сводило информатику к библиотековеде­нию, библиографии, методам поиска информации в массивах документов. Когда в 1952 году был создан Институт научной информации АН СССР, позже преобразованный в ВИНИТИ -Всесоюзный институт научной и технической информации, то он должен был стать головным академическим учреждением в области информатики.

В свою очередь, то что с 80-х годов называется информатикой, именовалась по-разному. Сначала объединяющим названием был термин «кибернетика», затем на роль общего названия той же области исследований стала претендовать «прикладная математика».

Одновременно с американцами в Институте электротехники АН УССР под руководством С. А. Лебедева начиналась работа по созданию вычислительной машины, использующей двоичную систему счисления, однако эти исследования прервала война. Но уже в 1951 г. в Киеве заработала первая в континентальной Европе вычислительная машина - МЭСМ, затем БЭСМ. За ними последовали машины М-1 и М-2, созданные в коллективе И. С. Брука, в 1953 году появился первый экземпляр ЭВМ «Стрела», а с 1954 года началось семейство машин «Урал», главным конструктором которого был Б. И. Рамеев. Все фундаментальные исследования и инженерные разработки в этой области были засекречены, а потому первая научная монография по теории ЭВМ и программированию имела гриф и выдавалась лишь по предъявлении документа о допуске.

Изданная в 1948 году книга американского математика Норберта Винера «Кибернетика или управление и связь в животном и машине» и попавшая на полки с секретными изданиями, открывает другую страницу истории отечественной информатики. Ее автор высказал идеи, не согласующиеся с официальной советской философией.

Винер был убежден, что социальные модели управления и модели управления в экономи­ке могут быть проанализированы на основе тех же общих положений, которые разработаны в области управления системами, созданными людьми. Поэтому место книги Винера было одно­значно определено - спецхран. В четвертом издании «Краткого философского словаря» (1954) впечатляет набор эпитетов для кибернетики: пустоцвет, лженаука, идеологическое оружие империалистической реакции, порождение лакеев империализма и т. п.

К счастью, военные того времени были профессионалами высокого класса и их больше волновала безопасность страны, чем чистота марксизма- ленинизма. Все первые книги по ки­бернетике, ЭВМ и программированию, выпущенные во второй половине 50-х годов без грифа секретности, были написаны военными. Если бы не их активная позиция, поддержанная чле­нами АН СССР, то развитие информатики было бы задержано на десятилетия. Свидетельством официального признания кибернетики стала статья «Кибернетика» в 51-м томе второго издания Большой Советской Энциклопедии, написанная А. Н. Колмогоровым. Ставится окончательная точка в споре об общих чертах процессов управления в живой и неживой природе. На по­следующее двадцатилетие приходится расцвет кибернетических исследований в нашей стране, которые во многом укладываются в парадигму ИИ. Во многих из них результаты советских специалистов или находились на мировом уровне, или опережали его. Приведем перечень об­ластей, в которых достижения были наиболее весомы.

После Джорджтаунского эксперимента по использованию вычислительной машины для межъязыкового перевода в СССР создаются первые версии программ для машинного перевода и затем мы занимаем лидирующее положение в этой области.

Активное внедрение идей кибернетики в психологию мышления привело к появлению ряда интегральных моделей организации целесообразной человеческой деятельности. Термин «пси­хоника» был придуман по аналогии с термином «бионика». Психоникой предлагалось назвать область исследований, целью которых должно было быть включение в искусственные системы моделей и процедур, аналогичных тем, которые характеризуют направленную жизнедеятель­ность высших животных и человека. Выявление их становилось задачей психологов. Другой задачей психоники было внедрение кибернетической методологии и математических моделей и методов в психологические исследования.

В Институте кибернетики АН УССР, в Киеве, аналогичные проблемы обсуждались на се­минаре Н. М. Амосова. В результате этих усилий было предложено несколько интегральных моделей мыслительной деятельности и целесообразного поведения, не потерявших свою акту­альность до настоящего времени.

В СССР работы по созданию процедур распознавания образов и программ, основанных на них, привлекали многие коллективы специалистов. Задача распознавания образов имеет два этапа. На первом этапе надо выбрать набор признаков, обеспечивающих разбиение объектов на нужные классы. На втором - найти эффективную процедуру классификации по заданным признакам. Основная трудность скрыта как раз на первом этапе их решения. Заслугой Бонгарда и его сотрудников явилось создание процедур выявления характеристических признаков на основе индуктивного обучения. Лишь через 6-7 лет после выхода указанной книги ста­ли появляться аналогичные результаты за рубежом. В Институте проблем управления были разработаны методы, по праву вошедшие в мировую копилку процедур распознавания: метод потенциальных функций, метод статистических оценок и метод разделения классов с помощью системы гиперплоскостей. Ю. И Журавлевым и его учениками впервые в мире была дана точная постановка задачи распознавания образов и возникла возможность строго оценивать эффектив­ность тех или иных алгоритмов распознавания и подбирать для конкретной задачи наиболее эффективный алгоритм. Развитая в работах В. Н. Пушкина модельная теория мышления легла в основу разработки метода ситуационного управления большими системами. Метод во многом предвосхитил технологию решения задач в системах, опирающихся на знания, развитую на западе только в середине 70-х.

В Москве, Новосибирске и Киеве работали коллективы, обеспечивавшие высокий уровень работ в области автоматизации программирования. В середине 60-х В.Ф. Турчиным разраба­тывается алгоритмический язык рекурсивных функций Рефал, предназначенный для решения практических задач в области построения компиляторов, символьных вычислений и обработки текстов. Однако РЕФАЛ постигла судьба многих отечественных разработок. За рубежом его не признали по соображениям, далеким от науки, а в нашей стране после вынужденной эми­грации его создателя он использовался лишь небольшой частью программистов и постепенно утратил свои позиции. И многие идеи (особенно в области обработки регулярных выражений) заложенные в этом языке, заново переоткрываются. Следует отметить, что сегодня пытаются осовременить язык (вышла 32 разрядная версия), однако лучшей (по моему мнению - О.Ч.), является Рефал-5, сохранивший первозданную ясность.

К сожалению, к началу разработок ЭВМ третьего поколения (60-е годы) в нашей стране не возникла парадигма программной совместимости. Талантливые разработчики ЭВМ и про­граммного обеспечения для них работали разобщено, вне рамок какой-либо государственной программы и требований стандартизации. Это привело сначала к потере темпа, потом к отста­ванию и, наконец, к роковому для отечественной информатики копированию в СССР и странах Восточной Европы разработок фирмы ИБМ («диверсия против отечественного компьютеростроения» - выражение, автором которого, если не ошибаюсь, является академик Александр Данилович Александров - О.Ч.).

Исследования в области параллельного программирования чрезвычайно важны сами по себе, но мне (О.Ч) особенно хочется подчеркнуть их значимость в контексте общей сетевой пара­дигмы, обобщающей такие направления, как теория семантических сетей и нейрокомпьютинг. Их начало относится к середине 60-х годов (Институт математики СО АН СССР (Новоси­бирск), Московский энергетический институт). Первые монографии по теории вычислительных систем и параллельных вычислений вышли в нашей стране с большим опережением анало­гичных изданий за рубежом. Впервые в мировой науке дана постановка и предложены первые решения таких задач, как сегментация алгоритмов и программ, планирование выполнения боль­ших программ на вычислительных системах, динамическое диспетчирование потока программ и сегментов программ, асинхронная организация протекания процессов.

В 1965-1980 гг. получает развитие новая наука - ситуационное управление (соответству­ет представлению знаний в западной терминологии). Основоположник этой научной школы -профессор Д.А. Поспелов.

В 1988 г. создается АИИ - Ассоциация искусственного интеллекта. Ее членами являются более 300 исследователей. Президент Ассоциации - Д.А. Поспелов. Крупнейшие центры - в Москве, Петербурге, Переславле- Залесском, Новосибирске.



2. Искусственный интеллект и информатика.

Согласно современной трактовке термина информатика, область исследований и разработок, означаемая словами «искусственный интеллект» (ИИ, AI), является частью информатики. В разделе Технические науки перечня приоритетных направлений фундаментальных исследова­ний РАН, информатика представлена следующими направлениям:

Разработка научных основ информатики, информационно- вычислительных систем и се­тей, системный анализ.

Математическое моделирование, методы вычислительной и прикладной математики и их применение к фундаментальным исследованиям в различных областях знаний.

Фундаментальные проблемы построения систем автоматизации, математические методы исследования сложных управляющих систем и процессов.

Проблемы искусственного интеллекта, распознавания образов, принятия решения и экс­пертные системы. Теория информации и управления, информационные процессы в системах и сетях, биоин­форматика. Параллельные вычисления, системы массового параллелизма, программное обеспечение.

Интегрированные информационно-телекоммуникационные системы и сети. Архитектура, системные решения и программное обеспечение информационно-вычислительных комплексов новых поколений. Нейроинформатика и оптико-нейронные системы обработки информации. Микроэлектроника, наноэлектроника и твердотельная электроника как база развития ин­форматики.

Таким образом, в 80-х годах информатика не просто оторвалась от своей прародительницы кибернетики и стала самостоятельной научной дисциплиной, а по сути, растворила кибернетику в себе. Термин «кибернетика» постепенно исчезает из обращения.

То же произошло и с искусственным интеллектом. Действительно, по определению А.П. Ершова, информатика - это название фундаментальной естественной науки, изучающей про­цессы передачи и обработки информации, наука об информационных моделях, отражающих фундаментальное философское понятие «информация». Различные направления информатики, развиваясь самостоятельно и взаимодействуя, обогащали друга новым видением мира, новы­ми моделями, соединились в систему с принципиально новым качеством - информатика стала «интеллигентной».



Заключение.

Термин «искусственный интеллект» (artificial intelligence, AI, ИИ) предложенный в 1956 г. на семинаре с аналогичным названием в Стэндфордском университете (США), утвердился. Сегодня это не только направление научных исследований, но и солидная индустрия. В центре внимания этого научного направления находятся творческие возможности человеческого разума, умение приобретать и эффективно использовать знания, находить решения новых задач.

Благодаря исследованиям в различных областях знания (психологии, нейрофизиологии и нейролингвистики, лингвистики, нейрокопьютинга, программирования) сумма знаний и тех­ тех­нологий вплотную приблизилась к критическому значению, за которым последует появление искусственных «понимателей».

Один из известных специалистов в области ИИ, профессор Н.Г. Загоруйко следующим обра­зом резюмирует сегодняшнее состояние исследований в этой области информатики: «Дискуссии на тему «Может ли машина мыслить?» уже давно сошли со страниц газет и журналов. Скептики устали ждать, когда же сбудутся обещания энтузиастов. А энтузиасты без лишних разговоров, небольшими шагами продолжают двигаться в направлении горизонта, за которым они надеются увидеть искусственного собрата по разуму.»

Комментариев нет:

Отправить комментарий