Основные проблемы искусственного интеллекта. Искусственный интеллект: проблемы и пути решения

Ребята, мы вкладываем душу в сайт. Cпасибо за то,
что открываете эту красоту. Спасибо за вдохновение и мурашки.
Присоединяйтесь к нам в Facebook и ВКонтакте

Роботы, или просто боты, - это маленькие персональные ассистенты на вашем гаджете. Они запрограммированы на многочисленные функции и невероятно полезны в самых разных сферах нашей жизни.

  • @iVideoBot - это самый простой способ, изобретенный человечеством, скачивать видео с YouTube. Нужно всего лишь отправить боту ссылку, выбрать формат и размер из предложенных вариантов. И вуаля! Аудио или видео уже на вашем гаджете.
  • @utubebot и @ytaudiobot - еще 2 способа скачать материалы из YouTube в один клик.
  • @SaveVideoBot - этот бот может скачивать видео со всех остальных платформ, включая даже - внимание! - Instagram.
  • @auddbot - бот, являющийся аналогом приложения Shazam. Он угадывает песню по отрывку. Достаточно лишь отправить ему голосовым сообщением несколько секунд мелодии - и вы получите ее заветное название.
  • @ImageSearchBot позволит найти любое изображение. Нужно лишь ввести слово или фразу и выбрать качество.
  • @joinstabot накручивает лайки в Instagram. Работает исправно, правда, слегка непонятно, зачем это нужно, но любители тщеславия должны иметь в виду, что от резкой накрутки более 1 000 лайков ваш аккаунт могут заблокировать на неопределенное время.
  • @topdf_bot - нереально нужный и крутой бот. Он конвертирует различные файлы в PDF-формат - просто отправьте файл.
  • @pollbot - с этим парнем можно легко провести опрос или голосование в любом чате. Причем вы сами прописываете варианты ответов.
  • @MyTeleCloudBot - это безграничное облако в Telegram. Вы можете хранить и распределять по категориям совершенно любые файлы. Ну не чудо ли?
  • @temp_mail_bot - этот помощник создает почтовый ящик на 10 минут, если вам вдруг нужно быстренько зарегистрироваться на каком-нибудь сайте.
  • @voicybot - идеальный бот для ленивых и уставших, которые больше не могут набирать сообщения. Достаточно лишь продиктовать сообщение вслух, и он предоставит вам его в текстовом виде.
  • @uber_promo_bot периодически присылает промокоды на такси Uber.
  • @storebot - это бот ботов. Поможет подобрать помощника на любой вкус.
  • @Chess_Bot - с этим ботом можно сыграть в шахматы.
  • @saytextbot - этот забавный бот преобразует ваше текстовое сообщение в аудиофайл. У мужского голоса озвучка как в фильмах - можно поразвлечь друзей такими сообщениями.
  • @strangerbot устраивает чат со случайно выбранным пользователем этого же бота. Кто знает, а вдруг вы встретите свою судьбу или хорошего друга? Ну или вам просто нечем заняться.
  • @PandaQuizBot - это занимательная викторина с более чем 25 тыс. вопросов. Хороший способ скоротать время в очереди.
  • @zodiac_bot - если вы верите в гороскопы, стоит обратить внимание на этого оперативного бота. Его разработчики гарантируют если не правдивость предсказаний, так уж стабильность и ежедневные оповещения точно.
  • @PokerBot - бот по игре в покер. Денег вы с ним не заработаете, но игра довольно азартная. Ваши соперники - 4 «рандомных» игрока - пользователи данного канала.

Анализ проблемы искусственного интеллекта открывает роль таких философских познавательных орудий, как категории, специфическая семиотическая система, логические структуры, ранее накопленное знание. Всё это обнаруживаются не посредством исследования физиологических или психологических механизмов познавательного процесса, но выявляется в знании, в его языковом выражении. Орудия познания, формирующиеся, в конечном счёте на основе практической деятельности, необходимы для любой системы, выполняющей функции абстрактного мышления, независимо от её конкретного материального субстрата и структуры. Поэтому, чтобы создать систему, выполняющую функции абстрактного мышления (т. е. в конечном счёте, формирующую адекватные схемы внешних действий в существенно меняющихся средах) необходимо наделить такую систему этими орудиями. Развитие систем ИИ за последние время как раз идёт по этому пути.

Степень продвижения в данном направлении в отношении каждого из указанных познавательных орудий разная, но в целом пока, увы, незначительна.

В наибольшей мере системы ИИ используют формально-логические структуры, что обусловлено их неспецифичностью для мышления и, в сущности, алгоритмическим характером. Это дает возможность относительно легкой их технической реализации. Но даже здесь кибернетике предстоит пройти большой путь. В системах искусственного интеллекта ещё слабо используются модальная, императивная, вопросная и иные логики, которые функционируют в человеческом интеллекте, и не менее необходимы для успешных познавательных процессов, чем давно освоенные логикой, а затем и кибернетикой формы выводов. Повышение «интеллектуального» уровня технических систем, безусловно, связано не только с расширением применяемых логических средств, но и с более интенсивным их использованием - проверка информации на непротиворечивость, конструирования планов вычислений и т. п.

Сложнее обстоит дело с семиотическими системами, без которых интеллект невозможен в принципе. Языки, используемые в ЭВМ, ещё далеки от семиотических структур, которыми оперирует мышление. Прежде всего, для решения ряда задач, необходимо последовательное приближение семиотических систем, которыми наделяется ЭВМ, к естественному языку, точнее, к использованию его ограниченных фрагментов. В этом плане предпринимаются попытки наделить входные языки ЭВМ универсалиями языка, например, полисемией (которая элиминируется при обработке в лингвистическом процессоре). Уже разработаны проблемно-ориентированные фрагменты естественных языков, достаточные для решения системой ряда практических задач. Наиболее важным итогом такой работы является создание семантических языков (и их формализация), в которых слова-символы имеют определенную интерпретацию.

Многие универсалии естественных языков, необходимые для выполнения ими познавательных функций, в языках ИИ пока реализованы слабо (например, открытость) или используются ограниченно (например, полисемия). Все чаще воплощение в семиотических системах универсалий естественного языка, обусловленных его познавательной функцией, выступает одной из важнейших линий совершенствования систем ИИ, особенно тех, в которых проблемная область заранее чётко не определена.

Сегодня системы искусственного интеллекта способны осуществлять перевод с одномерных языков на многомерные. В частности, они могут строить диаграммы, схемы, чертежи, графы, чертить на экране кривые и т. п. ЭВМ производят и обратный перевод (описывают графики и тому подобное с помощью символов). Такого рода перевод является существенным элементом интеллектуальной деятельности. Правда современные системы ИИ пока не способны к непосредственному (без перевода на символический язык) использованию изображений или воспринимаемых сцен для «интеллектуальных» действий. Поиск путей глобального, а не локального, оперирования информацией составляет одну из важнейших и задач теории искусственного интеллекта.

Воплощение в информационные массивы и программы систем ИИ аналогов категорий находится пока в начальной стадии. Например, в категории входят понятия «целое», «часть», «общее», «единичное». Они используются в ряде систем представления знаний, в частности в качестве «базовых отношений», в той мере, в какой это необходимо для тех или иных конкретных предметных или проблемных областей, с которыми взаимодействуют системы. В формализованном понятийном аппарате некоторых систем представления знаний предприняты отдельные попытки выражения некоторых моментов содержания и других категорий (например, «причина» и «следствие»). Однако ряд категорий (например, «сущность» и «явление») в языках систем представления знаний отсутствует. В целом, данная проблема разработчиками систем ИИ в полной мере ещё не осмыслена, и предстоит ещё большая работа философов, логиков и кибернетиков по внедрению аналогов категорий в системы представления знаний, и другие компоненты интеллектуальных систем.

Современные системы ИИ почти не имитируют сложную иерархическую структуру образа, что не позволяет им перестраивать проблемные ситуации, комбинировать локальные части сетей знаний в блоки, перестраивать эти блоки и т. п. Не является совершенным и взаимодействие вновь поступающей информации с совокупным знанием, фиксированным в системах. В семантических сетях и фреймах, использующихся при представлении знаний, пока недостаточно используются методы, благодаря которым интеллект человека легко пополняется новой информацией, находит нужные данные, перестраивает свою систему знаний и т. п.

Ещё в меньшей мере современные системы ИИ способны активно воздействовать на внешнюю среду, без чего не может; осуществляться самообучение и вообще совершенствование «интеллектуальной» деятельности.

Таким образом, хотя определенные шаги к воплощению гносеологических характеристик мышления в современных системах искусственного интеллекта сделаны, но в целом эти системы ещё далеко не владеют комплексом гносеологических орудий, которыми располагает человек и которые необходимы для выполнения совокупности функций абстрактного мышления. Чем больше характеристики систем искусственного интеллекта будут приближены к гносеологическим характеристикам мышления человека, тем ближе будет их «интеллект» к интеллекту человека, точнее, тем выше будет их способность к комбинированию знаковых конструкций, воспринимаемых и интерпретируемых человеком в качестве решения задач и вообще воплощения мыслей.

Поэтому возникает сложный вопрос. При анализе познавательного процесса гносеология абстрагируется от психофизиологических механизмов, посредством которых реализуется сам процесс. Но из этого не следует, что для построения систем искусственного интеллекта эти механизмы не имеют значения. Не исключено, что механизмы, необходимые для воплощения неотъемлемых характеристик интеллектуальной системы, не могут быть реализованы в цифровых машинах или даже в любой технической системе, включающей в себя только компоненты неорганической природы. Также не исключено, что хотя мы и можем познать все гносеологические закономерности, обеспечивающие выполнение человеком его познавательной функции, но их совокупность реализуема лишь в системе, субстратно тождественной человеку.

Подобный взгляд обосновывается X. Дрейфусом. «Телесная организация человека - пишет он - позволяет ему выполнять... функции, для которых нет машинных программ - таковые не только ещё не созданы, но даже не существуют в проекте... Эти функции включаются в общую способность человека к приобретению телесных умений и навыков. Благодаря этой фундаментальной способности наделенный телом субъект может существовать в окружающем его мире, не пытаясь решить невыполнимую задачу формализации всего и вся».

Подчеркивание значения «телесной организации» для понимания особенностей психических процессов, в частности возможности восприятия, заслуживает отдельного внимания. Качественные различия в способности конкретных систем отражать мир тесно связаны с их структурой, которая хотя и обладает относительной самостоятельностью, но не может преодолеть некоторых рамок, заданных субстратом. В процессе биологической эволюции совершенствование свойства отражения происходило на основе усложнения нервной системы, т. е. субстрата отражения. Не исключено, что различие субстратов ЭВМ и человека может обусловить фундаментальные различия в их способности к отражению, что ряд функций человеческого интеллекта в принципе недоступен машинам.

В философской литературе утверждается, что допущение возможности выполнения технической системой интеллектуальных функций человека означает сведение высшего (биологического и социального) к низшему (к системам из неорганических компонентов) и, следовательно, противоречит материалистической диалектике. Но в этом рассуждении не учитывается, что пути усложнения материи однозначно не однозначны, и не исключено, что общество имеет возможность создать из неорганических компонентов (абстрактно говоря, минуя химическую форму движения) системы не менее сложные и не менее способные к отражению, чем биологические. Созданные таким образом системы являлись бы компонентами общества, социальной формой движения. Вопрос о возможности передачи интеллектуальных функций техническим системам, и в частности о возможности наделения их рассмотренными в работе гносеологическими орудиями, не может быть решен только исходя из философских соображений. Он должен быть подвергнут анализу на базе конкретных научных исследований. X. Дрейфус подчеркивает, что ЭВМ оперирует информацией, которая не имеет значения, смысла. Для ЭВМ необходим перебор огромного числа вариантов. Телесная организация человека, его организма позволяет отличать значимое от незначимого для жизнедеятельности и вести поиск только в сфере первого. Для «не телесной» ЭВМ, утверждает Дрейфус, это недоступно. Конечно, конкретный тип организации тела позволяет человеку ограничивать пространство возможного поиска. Это происходит уже на уровне анализаторной системы. Совсем иначе обстоит дело с ЭВМ. Когда в кибернетике ставится общая задача, например распознания образов, то эта задача переводится с чувственно-наглядного уровня на абстрактный. Тем самым снимаются ограничения, не осознаваемые человеком, но содержащиеся в его «теле», в структуре органов чувств и организма в целом. Они игнорируются ЭВМ. Поэтому пространство поиска резко увеличивается. Это значит, что к «интеллекту» ЭВМ предъявляются более высокие требования (поиска в более обширном пространстве), чем к интеллекту человека, к которому приток информации ограничен физиологической структурой его тела.

Обладающие психикой системы отличаются от ЭВМ прежде всего тем, что им присущи биологические потребности, обусловленные их материальным, биохимическим субстратом. Отражение внешнего мира происходит сквозь призму этих потребностей, в чём и выражается активность психической системы. ЭВМ не имеет потребностей, органически связанных с ее субстратом, для нее как таковая информация незначима, безразлична. Значимость, генетически заданная человеку, имеет два типа последствий. Первый - круг поиска сокращается, и, тем самым, облегчается решение задачи. Второй - нестираемые из памяти фундаментальные потребности организма обусловливают односторонность психической системы. Дрейфус пишет в связи с этим: «Если бы у нас на Земле очутился марсианин, ему, наверное, пришлось бы действовать в абсолютно незнакомой обстановке; задача сортировки релевантного и нерелевантного, существенного и несущественного, которая бы перед ним возникла, оказалась бы для него столь же неразрешимой, как и для цифровой машины, если, конечно, он не сумеет принять в расчет никаких человеческих устремлений». С этим можно не согласится. Если предложенный «марсианин» имеет иную биологию, чем человек, то он имеет и иной фундаментальный слой неотъемлемых потребностей, и принять ему «человеческие устремления» значительно труднее, чем ЭВМ, которая может быть запрограммирована на любую цель.

Живое существо в принципе не может быть по отношению к этому фундаментальному слою перепрограммировано, хотя для некоторых целей оно может быть запрограммировано вновь, посредством дрессировки. В этом смысле потенциальные интеллектуальные возможности машины шире подобных возможностей животных. У человека же над фундаментальным слоем биологических потребностей надстраиваются социальные потребности, и информация для него не только биологически, но и социально значима. Человек универсален и с точки зрения потребностей, и с точки зрения возможностей их удовлетворения. Однако эта универсальность особо присуща ему как социальному существу, производящему средства целесообразной деятельности, в том числе и системы искусственного интеллекта. Следовательно, телесная организация не только даёт дополнительные возможности, но и создает дополнительные трудности. Поэтому интеллекту человека важно иметь на вооружении системы, свободные от его собственных телесных или иных потребностей. Конечно, от таких систем неразумно требовать, чтобы они самостоятельно распознавали образы, классифицировали их по признакам, по которым это делает человек. Цели для них необходимо задавать в явной форме.

Следует отметить, что технические системы могут иметь аналог телесной организации. Развитая кибернетическая система обладает рецепторными и эффекторными придатками. Начало развитию таких систем положили интегральные промышленные роботы, в которых ЭВМ в основном выполняет функцию памяти. В роботах «третьего поколения» ЭВМ выполняет и «интеллектуальные» функции. Их взаимодействие с миром призвано совершенствовать их «интеллект». Такого рода роботы имеют «телесную организацию», конструкция их рецепторов и эффекторов содержит определенные ограничения, сокращающие пространство, в котором, образно говоря, могла бы совершать поиск цифровая машина. Тем не менее, совершенствование систем искусственного интеллекта на базе цифровых машин может иметь границы, из-за которых переход к решению интеллектуальных задач более высокого порядка, требующих учёта глобального характера переработки информации и ряда других гносеологических характеристик мышления, невозможен на дискретных машинах при сколь угодно совершенной программе. Техническая, а не только биологическая, эволюция отражающих систем оказывается связанной с изменением материального субстрата и конструкции этих систем. Такая эволюция, т. е. аппаратное усовершенствование систем искусственного интеллекта, например, через более интенсивное использование аналоговых компонентов, гибридных систем, голографии и ряда других идей, будет иметь место. При этом не исключается использование физических процессов, протекающих в мозгу, и таких, которые психика в качестве своих механизмов не использует. Наряду с этим ещё далеко не исчерпаны возможности совершенствования систем ИИ путём использования в функционировании цифровых машин гносеологических характеристик мышления, о которых речь шла выше.

В последнее время при анализе проблем, связанных с ИИ, часто применяют математический аппарат нечётких множеств, идея и реализация которого принадлежит американскому математику Л.Заде. Суть подхода состоит в отказе от принципа детерминизма. Пожалуй, наиболее поразительным свойством человеческого интеллекта является способность принимать правильные решения в обстановке неполной и нечёткой информации. Построение моделей, приближенных е рассуждениям человека, и использование их в компьютерных системах будущих поколений представляет сегодня одну из важнейших проблем науки. Смещение центра исследований нечётких систем в сторону практических приложений привело к выявлению целого ряда проблем, таких, как новые архитектуры компьютеров для нечётких вычислений, элементная база нечётких компьютеров и контроллеров, инструментальные средства разработки, инженерные методы расчёта и разработки нечётких систем управления и многое другое. Математическая теория нечётких множеств, предложенная Л.Заде около тридцати лет назад, позволяет описывать нечёткие понятия и знания, оперировать этими знаниями и делать нечёткие выводы. Основанные на этой теории методы построения компьютерных нечетких систем существенно расширяют области применения компьютеров. Нечёткое управление является одной из самых активных и результативных областей исследований применения теории нечётких множеств. Нечёткое управление оказывается особенно полезным, когда технологические процессы являются слишком сложными для анализа с помощью общепринятых количественных методов, или когда доступные источники информации интерпретируются неточно или неопределенно. Экспериментально показано, что нечёткое управление дает лучшие результаты, по сравнению с получаемыми, при общепринятых алгоритмах управления. Нечеткая логика, на которой основано нечеткое управление, ближе к человеческому мышлению и естественным языкам, чем традиционные логические системы.

компьютер периферийный искусственный интеллект

Никто не может предсказать, как поведут себя системы, созданные с помощью совершенного искусственного интеллекта. Тем не менее предположений много, рассмотрим в чем же заключается проблема искусственного итнеллекта .

Философская проблема искусственного интеллекта

Основная философская проблема в области искусственного интеллекта заключается в доведении возможности и целесообразности моделирования процесса мышления человека. Существует опасность тратить время на изучение того, что невозможно создать, в частности, на современном этапе развития человечества. Примером подобного времяпрепровождения может быть занятие научным коммунизмом — наукой, что на протяжении десятилетий изучала то, чего нет, и в обозримом будущем быть не может. Рассмотрим ряд доказательств, которые подводят к положительному ответу на вопрос возможности создания .

Первое доказательство выходит из области схоластики и говорит о непротиворечия искусственного интеллекта и Библии . Об этом говорят слова священного писания: «И создал Господь Бог человека по своему образу и подобию». Исходя из этих слов, можно утверждать, что, поскольку люди по своей сути подобные Творцу, то они вполне могут искусственным путем создать несколько по собственному образу и подобию.

Второй довод вытекает из успехов человечества, достигнутых в области создания нового разума биологическим путем. В 90-х годах прошлого столетия появилась возможность клонирования млекопитающих, начиная с овечки Долли. Дальнейшие достигнутые успехи в данном направлении заключаются в создании форм искусственной жизни, не имеющие никакого естественного экземпляра, к которому бы они были похожи. Например, кролики с дополнительным геном, что создает эффект светлячка. В отличие от клонов, эти формы в полной мере представляют собой искусственную жизнь . Вместе с тем, такие существа можно считать интеллектуальными, учитывая их способности к элементарному обучению. Поэтому они могут называться системами искусственного интеллекта, хотя несотворенным на основе использования средств вычислительной техники, которые представляют наибольший интерес для человечества.

Третий довод — это доказательство возможности самовоспроизведения объектов , состоящих из неживой материи. Способность к самовоспроизводству, как признак наличия интеллекта, долгое время считалась прерогативой живых организмов. Однако некоторые явления, происходящие в неживой природе, например, рост кристаллов, синтез сложных молекул через копирования, во многом идентичны самовоспроизводству.

Исследование искусственного интеллекта

В начале 50-х годов прошлого столетия Дж. фон Нейман занялся основательным изучением самовоспроизведения и заложил основы математической теории автоматов, «самовоспроизводящихся». Он также доказал теоретическую возможность управляемой инициализации самовоспроизведению. На сегодня, существует много различных неформальных доказательств возможности самовоспроизведения объектов, но для программистов наиболее существенный довод заключается в существовании компьютерных вирусов.

Четвертое доказательство — это существование принципиальной возможности автоматизации решения интеллектуальных задач с помощью вычислительной техники. Она обеспечивается ее свойством алгоритмической универсальности. Алгоритмическая универсальность вычислительных машин означает, что на них можно программно реализовывать любые алгоритмы преобразования информации: вычислительные алгоритмы, алгоритмы управления, поиска доказательства теорем и т.д. При этом, подразумевается, что процессы, порождаемые этими алгоритмами, являются потенциально осуществимыми, то есть, что они осуществляются в результате проведения конечного количества элементарных операций.

Практическая реализация алгоритмов зависит от существующих вычислительных мощностей, которые изменяются с развитием техники. В частности, вследствие появления быстродействующих компьютеров, стало практически возможным создание программных систем, способных реализовывать такие алгоритмы, которые ранее считались лишь потенциально осуществимыми.

Для обозначения программных систем, использующих искусственный интеллект, сложился общий срокинтеллектуальная система . Целесообразность создания интеллектуальных систем заключается в необходимости решения задач, которые не решаются на достаточном уровне эффективности программными системами, созданными на жесткой алгоритмической основе. К таким задачам относятся задачи, имеющие, как правило, следующие особенности:

  • у них неизвестный алгоритм решения — такие задачи носят названия интеллектуальных задач;
  • в них используется, помимо традиционных форматов данных, информация в виде графических изображений, рисунков, звуков;
  • в них предполагается наличие свободы выбора — то есть, отсутствие единого алгоритма решения задачи обусловливает необходимость сделать выбор между вариантами действий в условиях неопределенности.

Приведенный перечень задач формирует особенности интеллектуальных систем, предназначенных для их решения. Источником такого определения особенностей фактически является известный тест Тьюринга , предложенный британским математиком и одним из первых исследователей в области компьютерных наук Аланом Тьюрингом (Alan Turing). В данном тесте экспериментатор, обмениваясь сообщениями с подопытным объектом, пытается определить, кем он является на самом деле: человеком или компьютерной программой.

Интеллектуальная система, успешно прошла такой тест, считается сильным искусственным интеллектом. Термин «сильный искусственный интеллект» пропагандируется специалистами, которые считают, что искусственный интеллект должен базироваться на строгой логической основе. В отличие от сильного, слабый искусственный интеллект, по их мнению, базируется исключительно на одном из методов решения интеллектуальных задач (искусственных нейронных сетях, генетических алгоритмах, эволюционных методах). В наши дни стало очевидным, что ни один из методов искусственного интеллекта не позволяет успешно решить приемлемое количество задач — лучше проявляет себя использование комбинации методов.

Первая программа, прошедшая тест Тьюринга, была написана в ходе проведения психологических экспериментов Стивеном Вейценбаум (Steven Weizenbaum) в 1967 году. С тех пор уровень знаний в этой области значительно возрос, а способы взаимодействия экспериментатора с объектом исследования стали гораздо совершеннее. В наши времена проводятся отдельные соревнования с призовым фондом в сотни тысяч долларов США под названием: «Соревнование за приз Лебнера», в ходе которых определяется лучшая программа.

Не следует думать, что интеллектуальные системы могут, решать любые задачи. Математиками было доказано существование таких типов задач, для которых невозможен единый алгоритм, чтобы воспроизводил их эффективные решения. В этом контексте определяется невозможность решения задач такого типа с помощью интеллектуальных систем, разработанных для вычислительных машин. Кроме того, утверждение про алгоритмическую невозможность решения некоторого класса задач является одновременно и прогнозом на будущие времена, согласно которому алгоритмы их решения не будут найдены никогда.

Этот факт способствует лучшему пониманию того, где в современном мире могут найти свое практическое . В частности, для решения задачи, не имеет универсального алгоритма решения, целесообразно ее сужение до уровня, когда она решается только для определенного подмножества начальных условий. Такие решения по силам интеллектуальным системам, а их результат способен сузить, для человека, область вариантов интуитивного выбора.

План

Введение

1. Проблема определения искусственного интеллекта

2. Проблема определения задач искусственного интеллекта

3. Проблема безопасности

4. Проблема выбора пути к созданию искусственного интеллекта

Заключение

Список использованной литературы


Введение

С Искусственным интеллектом (ИИ) сложилась странная ситуация – изучается то, чего еще нет. И если этого не будет в течение ближайших 100 лет, то очень может быть, что эпоха ИИ на этом окончится.

Исходя из сказанного выше, вытекает основная философская проблема в области ИИ – возможность или не возможность моделирования мышления человека. В случае если когда-либо будет получен отрицательный ответ на этот вопрос, то все остальные вопросы не будут иметь не малейшего смысла.

Следовательно, начиная исследование ИИ, заранее предположим положительный ответ. Привожу несколько соображений, которые подводят нас к данному ответу.

1. Первое доказательство является схоластическим, и доказывает непротиворечивость ИИ и Библии. Даже люди далекие от религии, знают слова священного писания: «И создал Господь человека по образу и подобию своему…». Исходя из этих слов, мы можем заключить, что, поскольку Господь, во-первых, создал нас, а во-вторых, мы по своей сути подобны ему, то мы вполне можем создать кого-то по образу и подобию человека.

2. Создание нового разума биологическим путем для человека дело вполне привычное. Дети большую часть знаний приобретают путем обучения, а не как заложенную в них заранее.

3. Принципиальная возможность автоматизации решения интеллектуальных задач с помощью ЭВМ обеспечивается свойством алгоритмической универсальности. Это означает, что на них можно программно реализовывать любые алгоритмы преобразования информации, – будь то вычислительные алгоритмы, алгоритмы управления, поиска доказательства теорем или композиции мелодий.

Проблема искусственного интеллекта является сейчас одной из самых злободневных. Ею занимаются ученые различных специализаций: кибернетики, лингвисты, психологи, философы, математики, инженеры. Рассматриваются вопросы: что такое интеллект вообще и чем может являться искусственный интеллект, его задачи, сложность создания и опасения. И именно сейчас, пока ИИ еще не создан, важно задать правильные вопросы и ответить на них.

В своей работе я в основном использовала электронные источники расположенные в сети интернет, потому как только там есть свежая информация о разработках в области искусственного интеллекта на русском языке.

В приложении я поместила фотографии (некоторых наиболее известных ныне существующих роботов с элементами ИИ) и философскую иллюстрацию (к сожалению не известного мне художника), а также полное описание тестов Тьюринга и Сёрля, на которые я ссылаюсь во второй главе.


1. Проблема определения искусственного интеллекта

Выразить суть интеллекта в каком-то одном определении представляется исключительно сложной, практически безнадежной задачей. Интеллект есть нечто ускользающее, не вмещающееся в установленные языком смысловые рамки. Поэтому ограничимся просто тем, что приведем ряд известных определений и высказываний об интеллекте, которые позволят представить себе «объем» этого необычного понятия.

Некоторые специалисты за интеллект принимают способность рационального, мотивированного выбора, в условиях недостатка информации; способность решать задачи на основе символьной информации; способность к обучению и самообучению.

Достаточно емкие и интересные определения интеллекта даны в английском словаре Вебстера и Большой Советской Энциклопедии. В словаре Вебстера: «интеллект – это: а) способность успешно реагировать на любую, особенно, новую ситуацию путем надлежащих корректировок поведения; б) способность понимать связи между фактами действительности для выработки действий, ведущих к достижению поставленной цели». В БСЭ: «интеллект… в широком смысле – вся познавательная деятельность человека, в узком смысле – процессы мышления, неразрывно связанные с языком как средством общения, обмена мыслями и взаимного понимания людей». Здесь интеллект прямо связывается с деятельностью и языком коммуникации.

По большому счету больших разногласий в этом вопросе нет. Интереснее другое: критерии, по которым можно однозначно определить разумный, мыслящий, интеллектуальный субъект перед нами или нет.

Известно, что в свое время А. Тьюринг предложил в качестве критерия, определяющего, может ли машина мыслить, «игру в имитацию». Согласно этому критерию, машина может быть признана мыслящей, если человек, ведя с ней диалог по достаточно широкому кругу вопросов, не сможет отличить ее ответов от ответов человека. (Более полное описание теста в Приложении )

Однако мысленный эксперимент «Китайская комната» Джона Сёрля (Описание эксперимента в Приложении ) – аргумент в пользу того, что прохождение теста Тьюринга не является критерием наличия у машины подлинного процесса мышления. Можно и дальше приводить примеры критериев, по которым «машинный мозг» можно считать способным к мыслительной деятельности и тут же находить им опровержения.

Единого ответа на вопрос чем является искусственный интеллект, не существует. Почти каждый автор, пишущий книгу об ИИ, отталкивается в ней от какого-либо определения, рассматривая в его свете достижения этой науки. Эти определения можно свести к следующим:

Искусственный интеллект – это личность на неорганическом носителе (Чекина М.Д.).

Искусственный интеллект – это область изучение разумного поведения (у людей, животных и машин) и попытки найти способы моделирования подобного поведения в любом типе искусственно созданного механизма (Блай Уитби).

Искусственный интеллект – это экспериментальная философия (В. Сергеев).

Сам же термин «искусственный интеллект» – ИИ – AI – artificial intelligence был предложен в 1956 г. на семинаре с аналогичным названием в Дартсмутском колледже (США). Семинар был посвящен разработке методов решения логических, а не вычислительных задач. В английском языке данное словосочетание не имеет той слегка фантастической антропоморфной окраски, которую оно приобрело в довольно неудачном русском переводе. Слово intelligence означает «умение рассуждать разумно», а вовсе не «интеллект», для которого есть английский аналог: intellect (Т.А. Гаврилова).

Так же существуют термины «сильный» и «слабый» искусственный интеллект.

Термин «сильный искусственный интеллект» ввел Джон Сёрль, такая программа будет не просто моделью разума; она в буквальном смысле слова сама и будет разумом, в том же смысле, в котором человеческий разум – это разум.

«Слабый искусственный интеллект» рассматривается лишь как инструмент, позволяющий решать те или иные задачи, которые не требуют полного спектра человеческих познавательных способностей.

2. Проблема определения задач искусственного интеллекта

Следующим философским вопросом ИИ является цель создания. В принципе все, что мы делаем в практической жизни, обычно направлено на то, чтобы больше ничего не делать. Однако при достаточно высоком уровне жизни человека на первые роли выступает уже не лень, а поисковые инстинкты. Допустим, что человек сумел создать интеллект, превышающий свой собственный. Что теперь будет с человечеством? Какую роль будет играть человек? Для чего он теперь нужен? И вообще, нужно ли в принципе создание ИИ?

По-видимому, самым приемлемым ответом на эти вопросы является концепция «усилителя интеллекта» (УИ). Здесь уместна аналогия с президентом государства – он не обязан знать валентности ванадия или языка программирования Java для принятия решения о развитии ванадиевой промышленности. Каждый занимается своим делом – химик описывает технологический процесс, программист пишет программу; в конце концов, экономист говорит президенту, что вложив деньги в промышленный шпионаж, страна получит 20%, а в ванадиевую промышленность – 30% годовых. При такой постановке вопроса любой человек сможет сделать правильный выбор.

В данном примере президент использует биологический УИ – группу специалистов с их белковыми мозгами. Но уже сейчас используются и неживые УИ – например мы не могли бы предсказать погоду без компьютеров, при полетах космических кораблей с самого начала использовались бортовые счетно-решающие устройства. Кроме того, человек уже давно использует усилители силы (УС) – понятие, во многом аналогичное УИ. В качестве усилителей силы ему служат автомобили, краны, электродвигатели, прессы, пушки, самолеты и многое-многое другое.

Основным отличием УИ от УС является наличие воли. Ведь мы не сможем себе представить, чтобы вдруг серийный «Запорожец» взбунтовался, и стал ездить так, как ему хочется. Не можем представить именно потому, что ему ничего не хочется, у него нет желаний. В тоже время, интеллектуальная система, вполне могла бы иметь свои желания, и поступать не так, как нам хотелось бы. Таким образом перед нами встает еще одна проблема – проблема безопасности.

3. Проблема безопасности

Философские проблемы создания искусственного интеллекта можно разделить на две группы, условно говоря, «до и после разработки ИИ». Первая группа отвечает на вопрос: «Что такое ИИ, возможно ли его создание?» На них я постаралась ответить в своей работе. И вторая группа (этика искусственного интеллекта) задаётся вопросом: «Каковы последствия создания ИИ для человечества?», которая приводит нас к проблеме безопасности.

Данная проблема будоражит умы человечества еще со времен Карела Чапека, впервые употребившего термин «робот». Большую лепту в обсуждение данной проблемы внесли и другие писатели-фантасты. Как самые известные можно упомянуть серии рассказов писателя-фантаста и ученого Айзека Азимова, а так же довольно свежее произведение – «Терминатор». Кстати именно у Айзека Азимова мы можем найти самое проработанное, и принятое большинством людей решение проблемы безопасности. Речь идет о так называемых трех законах роботехники.

  • Перевод

В прошлом году по дорогам округа Монмут, Нью-Джерси, стал колесить странный робомобиль. Это экспериментальное транспортное средство, разработанное специалистами компании Nvidia, по внешнему виду не слишком отличается от других автономных машин других производителей, таких как Google, Tesla или General Motors. Но специально для этого автомобиля разработана новая система управления. Она самообучается, и не зависит от настроек, заданных на производстве. Вместо этого робомобиль следит за действиями человека-водителя и учится у него.

Это немного необычный способ обучения робомобиля. С другой стороны, мало кто до конца представляет себе, как машина принимает решения. Информация с сенсоров, радаров и лидаров поступает в нейросеть, где эти данные обрабатываются с выделением четких правил управления рулевым колесом, тормозами и другими системами. В итоге получается, что действия робомобиля зачастую схожи с действиями водителя-человека, попавшего в ту же ситуацию на дороге. Возникает вопрос - может ли машина принять странное решение в одном из случаев - например, врезаться в дерево на полном ходу или постоять на светофоре, когда горит зеленый?

Нейросеть, обрабатывающая информацию можно сравнить с черным ящиком. Нет, конечно, специалисты представляют себе принцип обработки данных нейросетью в общих чертах. Но проблема в том, что самообучение - это не до конца предопределенный процесс, так что на выходе можно ожидать иногда абсолютно неожиданные результаты. В основе всего лежит глубокое обучение, которое уже позволило решить ряд важных проблем, включая обработку изображений, распознавание речи, перевод. Возможно, нейросети смогут диагностировать заболевания на ранней стадии, принимать правильные решения при торговле на бирже и выполнять сотни других важных для человека действий.

Но сначала нужно найти пути, которые позволят лучше понимать то, что происходит в самой нейросети при обработке данных. В противном случае сложно, если вообще возможно, предсказать возможные ошибки систем со слабой формой ИИ. А такие ошибки обязательно будут. Это одна из причин, почему автомобиль от Nvidia до сих пор находится в стадии тестирования.

Человек сейчас применяет математические модели для того, чтобы облегчить для себя задачу выбора - например, определить надежного заемщика денежных средств или найти сотрудника с необходимым опытом для какой-то работы. В целом, математические модели и процессы, которые их используют, относительно просты и понятны. Но военные, коммерческие компании, ученые сейчас используют гораздо более сложные системы, чьи «решения» основываются не на результатах работы одной-двух моделей. Глубокое обучение отличается от обычных принципов работы компьютеров. По мнению Томми Джаакола, профессора из MIT, эта проблема становится все более актуальной. «Что бы вы ни делали - принимали решение об инвестициях, пытались поставить диагноз, выбрали точку атаки на поле боя, все это не должно зависеть от метода „черного ящика“», - говорит он.

Это понимают уже не только ученые, но и чиновники. Начиная с лета следующего года Европейский Союз вводит новые правила для разработчиков и поставщиков решений автоматизированных компьютерных систем. Представители таких компаний будут обязаны объяснять пользователям, как работает система, и по какому принципу принимаются решения. Проблема в том, что это может оказаться невозможным. Да, объяснять базовые принципы работы нейросетей можно без проблем, но вот то, что там происходит во время обработки сложной информации, мало кто может точно рассказать. Даже создатели таких систем не могут объяснить все «от и до», поскольку процессы, протекающие в нейросети во время обработки информации, очень сложные.

Никогда прежде человек не строил машины, принцип работы которых не до конца понятен сами создателям и резко отличается от способа обработки информации, используемого самим человеком. Так можно ли ожидать нормального взаимодействия с машинами, работа которых непредсказуема?


Картина, подготовленная художником Адамом Ферриссом при помощи Google Deep Dream

В 2015 году исследовательская группа Mount Sinai Hospital из Нью-Йорка использовала глубокое обучение для обработки базы данных записей пациентов. База данных включала информацию о тысячах пациентов с сотнями строк информации по каждому человеку вроде результатов тестов, дате посещения врача и т.п. В результате появилась программа Deep Patient, которая обучилась на примере записей 700 тысяч человек. Результаты, которые показывала эта программа, оказались необычайно хорошими. Например, она смогла предсказывать появление некоторых болезней на ранней стадии у ряда пациентов.

Однако, результаты оказались и немного странными. Например, система начала отлично диагностировать шизофрению. Но даже для опытных психиатров диагностика шизофрении - сложная проблема. А вот компьютер справился с ней на «ура». Почему? Никто не может объяснить, даже создатели системы.

Изначально разработчики ИИ разделялись на два лагеря. Сторонники первого говорили, что машину нужно программировать так, чтобы все процессы, которые происходят в системе, можно было видеть и понимать. Второй лагерь придерживался идеи, согласно которой машина должна обучаться сама, получая данные из максимального количества источников с последующей самостоятельной обработкой таких данных. То есть, сторонники этой точки зрения, фактически, предложили, чтобы каждая нейросеть была «сама себе хозяин».

Все это оставалось чистой воды теорией до настоящего момента, когда компьютеры стали достаточно мощными для того, чтобы специалисты по искусственному интеллекту и нейросетям могли начать реализовывать свои идеи на практике. За последние десять лет было реализовано огромное количество идей, появились отличные сервисы, помогающие переводить тексты с языка на язык, распознавать речь, обрабатывать видеопоток в режиме реального времени, работать с финансовыми данными, оптимизировать процессы производства.

Но проблема в том, что практически любая технология машинного обучения не слишком прозрачна для специалистов. В случае с «ручным» программированием дело обстоит гораздо проще. Конечно, нельзя говорить о том, что будущие системы будут непонятными ни для кого. Но по своей природе глубокое обучение - это своего рода «черный ящик».

Нельзя просто посмотреть на принципы работы нейронной сети и предсказать результат, который мы получим в результате обработки какого-то массива данных. Внутри «черного ящика» - десятки и сотни «слоев нейронов», связанных между собой в достаточно сложном порядке. Причем значение для конечного результата имеет не только работа слоев, но и отдельных нейронов. Человек в большинстве случаев не может предсказать, что появится на выходе нейронной сети.

Один из примеров того, насколько работа нейросети отличается от работы мозга человека - система Deep Dream. Это проект Google, нейросеть, в которую вводили обычную фотографию и давали цель преобразовать это фото в соответствии с определенной темой. Ну, например, сделать все объекты на снимке похожими на собак. Результаты впечатлили всех. Как-то в систему ввели задачу генерировать изображение гантели. Система справилась, но во всех случаях к гантели были пририсованы руки людей - нейросеть решила, что гантель-рука - едина система, которую нельзя рассматривать, как два отдельных элемента.

Специалисты считают, что требуется лучше понимать, как работают такие системы. Это нужно по той простой причине, что нейросети начинают использовать во все более важных сферах, где ошибка может привести к печальному финалу (торговля ценными бумагами - один из примеров). «Если у вас - небольшая нейросеть, вы можете прекрасно понимать, как она работает. Но когда нейросеть вырастает, количество элементов в ней увеличивается до сотен тысяч нейронов на слой с сотнями слоев - в этом случае она становится непредсказуемой», - говорит Джааккола.

Тем не менее, нейросети нужно использовать в работе, в той же медицине. Медики недооценивают важность многих данных, человек просто не в состоянии охватить взглядом и найти связи между сотнями записей в истории болезни пациентов. А машина - может, и в этом огромная ценность нейросетей и глубинного обучения вообще.

Военные США вложили миллиарды долларов в разработку систем автоматического управления дронами, определения и идентификации различных объектов, анализа данных. Но и военные считают, что работа таких систем должна быть понятной и объяснимой. Те же солдаты, закрытые в танке с автоматическим управлением будут чувствовать себя очень некомфортно в том случае, если не будут понимать, как и что работает, почему система приняла такое решение, а не другое.

Возможно, в будущем эти системы будут пояснять свои действия. Например, Карлос Гуестрин, профессор из Вашингтонского университета, разработал компьютерную систему, которая поясняет промежуточные результаты своих вычислений. Эта система может использоваться для анализа электронных сообщений. Если какое-то из них оценено компьютером, как отправленное условным террористом, то обязательно будет дано пояснение, почему сделан именно такой вывод.

По мнению ученого, объяснения должны быть достаточно простыми и понятными. «Мы еще не достигли мечты, где ИИ просто ведет с вами беседу и может объяснять», - говорит Гуестрин. «Мы лишь в начале долгого пути по созданию прозрачного ИИ».

Понимание причин, которые привели ИИ к определенному результату важно, если мы хотим сделать ИИ частью нашей жизни, причем полезной частью. Это актуально не только в случае военных, а относится и к Siri или любым другим цифровым помощникам. Например, если запросить Siri дать выборку ближайших ресторанов, то многим хочется понять, почему показаны именно эти рестораны, а не другие. Важный критерий внедрения ИИ - доверие человека к компьютерным системам.

Наверное, все же нельзя заставить компьютер объяснять все свои действия и решения - ведь, например, поступки и решения любого человека зачастую невозможно понять. Они зависят от большого количества факторов. А чем сложнее нейросеть, тем больше таких факторов она принимает во внимание и анализирует.

Здесь возникает ряд сложных вопросов этического и социального характера. Например, в случае с теми же военными, когда речь идет о создании автоматизированных танков и других машин для убийства, важно, чтобы их решения соответствовали этическим нормам человека. Собственно, убийство само по себе может не соответствовать этическим нормам многих из нас. Но эти решения должны быть хотя бы приемлемыми для большинства. Хотя, что представляет собой это большинство? Тоже вопрос.

Дэниэлл Денетт, философ из Университета Тафтса, говорит следующее: «Я считаю, что если мы собираемся использовать эти вещи и зависеть от них, тогда нужно понимать, как и почему они действуют так, а не иначе. Если они не могут лучше нас объяснить, что они делают, то не стоит им доверять».