Почему. Почему искусственный интеллект так пугает людей

Искусственный интеллект уже в некотором роде помогает определиться вашему будущему. Когда вы ищете что-нибудь в поисковике, пользуетесь сервисом вроде Netflix или банк оценивает вашу пригодность для ипотеки. Но что будет, если искусственному интеллекту придется определять, виновны вы или нет, в суде? Как ни странно, в отдельных странах это уже, возможно, происходит. Недавно американского высокого судью Джона Робертса спросили, может ли он представить день, когда «умные машины, управляемые искусственным интеллектом, будут помогать в поиске улик или даже в принятии судебных решений». Он ответил: «Этот день уже настал, и он существенно помогает судебным органам в производстве дел».

Возможно, Робертс имел в виду недавний случай Эрика Лумиса, которого приговорили к шести годам заключения по рекомендации секретного проприетарного программного обеспечения частной компании. Лумис, который уже имел криминальную историю и был приговорен за то, что бежал из полиции на угнанной машине, теперь утверждает, что его право на процедуру было нарушено, поскольку ни он, ни его представители не смогли рассмотреть или опротестовать алгоритм рекомендации.

Отчет был подготовлен программой Compas, которая продается Notrpointe судам. Программа воплощает новую тенденцию в исследованиях ИИ: помогает судьям принять «лучшее» (или по крайней мере более ориентированное на данные) решение в суде.

Хотя конкретные подробности дела Лумиса остаются закрытыми, в нем наверняка содержатся диаграммы и числа, определяющие жизнь, поведение и вероятность рецидива Лумиса. Среди них возраст, раса, гендерная идентичность, привычки, история браузера и какие-нибудь измерения черепа. Точнее никто не знает.

Известно, что прокурор по делу сказал судье, что Лумис продемонстрировал «высокий риск рецидивизма, насилия, досудебного разбирательства». Это стандартно, когда дело касается вынесения приговора. Судья согласился и сказал Лумису, что «по оценке Compas он был определен как лицо, представляющее высокий риск для общества».

Верховный суд штата Висконсин осудил Лумиса, добавив, что отчет Compas привнес ценную информацию в его решение, но отметил, что без него он вынес такой же приговор. Проверить это наверняка, разумеется, не получится. Какими могут быть когнитивные предубеждения, когда в деле участвует всемогущая «умная» система вроде Compas, которая советует судьям, как им поступать?

Давайте будем откровенны, нет ничего «незаконного» в том, что сделал суд Висконсина - это просто пример. Другие суды могут и будут делать то же самое.

К сожалению, мы не знаем, в какой степени используются ИИ и другие алгоритмы при вынесении приговора. Есть мнение, что некоторые суды «тестируют» системы вроде Compas в закрытых исследованиях, но не могут заявлять о своем партнерстве. Есть также мнение, что несколько стартапов ИИ разрабатывают подобные умные системы.

Однако использование ИИ в законодательстве не начинается и не заканчивается вынесением приговора, оно начинается с расследования. В Великобритании уже разработана система VALCRI, которая выполняет трудоемкие аналитические работы за считанные секунды - пробирается сквозь тонны данных вроде текстов, лабораторных отчетов и полицейских документов, чтобы выделить вещи, которые могут потребовать дальнейшего расследования.

Полиция Уэст-Мидландс в Великобритании будет тестировать VALCRI в течение следующих трех лет, используя анонимные данные, содержащие больше 6,5 миллиона записей. Похожее испытание проводится полицией Антверпена в Бельгии. Однако в прошлом проекты ИИ и глубокого обучения, включающие массивные наборы данных, были проблемными.

Выгоды для немногих

Технологии обеспечили множество полезных приспособлений залам суда, от копировальных аппаратов до извлечения ДНК из отпечатков пальцев и сложных методов наблюдения. Но это не означает, что любая технология - это улучшение.

Хотя использование ИИ в расследованиях и приговорах может потенциально сэкономить время и деньги, оно породит острые проблемы. В докладе по Compas от ProPublica было четко сказано, что черных программа ошибочно считает более склонными к рецидивизму ответчиками, чем белых. Даже самые сложные системы ИИ могут унаследовать расовые и гендерные предубеждения тех, кто их создает.

Более того, какой смысл перекладывать принятие решений (по крайней мере частично) по вопросам, которые уникальны для людей, на алгоритм? В США существует определенная трудность, когда суд присяжных судит своих сверстников. Стандарты в законах никогда не были эталонными, потому эти суды присяжных считаются наиболее демократичными и эффективными системами осуждения. Мы совершаем ошибки, но со временем накапливаем знания о том, как их не совершать, уточняя систему.

Compas и подобные ей системы представляют «черный ящик» в правовой системе. Таковых быть не должно. Правовые системы зависят от непрерывности, прозрачности информации и способности к рассмотрению. Общество не хочет появления системы, которая поощряет гонку с созданием стартапов ИИ, которые делают быстрые, дешевые и эксклюзивные решения. Наспех сделанный ИИ будет ужасным.

Обновленная версия Compas с открытым исходным кодом была бы улучшением. Но сперва придется поднять стандарты системы правосудия, прежде чем мы начнем снимать ответственность в пользу алгоритмов.

Когда люди наблюдают за техникой, которая ведёт себя подобно человеку и компьютерами, которые обрабатывают титанические объёмы данных, возникает немало мыслей о будущем. Приличная их часть основана на теме порабощения человеческой расы.

Научно-фантастическая литература и кинематограф от «2001: Космическая одиссея» (1968) до «Мстители: Эра Альтрона» (2015) прогнозируют, что искусственный интеллект превзойдёт ожидания создателей и выйдет из-под контроля. Якобы его целью станет не просто конкуренция с человеком, а порабощение и истребление нашего вида.

Научная фантастика или страшное будущее?

Конфликт между людьми и искусственным интеллектом основная тема научно-фантастического сериала «Люди», третий сезон которого вышел в этом году. В новых эпизодах «синтетические» люди сталкиваются с враждебностью обычных людей, которые относятся к ним с подозрением, страхом и ненавистью. Насилие бушует. «Синты» воюют за свои основные права против тех, кто считает их нечеловечными.

Фантастика – крайность воображения. Но и в реальном мире не все желают встречать ИИ с распростёртыми объятиями. В последние годы границы воображаемых возможностей искусственного интеллекта активно раздвигаются. Люди все чаще говорят о его опасности. А предположения о том, что технологии способны обречь человечество, кажутся реальнее. Искусственный интеллект пугает нас.

Мнение об искусственном интеллекте

Илон Маск – один из самых заметных людей, которые призывают к осторожности, обсуждая ИИ. В июле прошлого года на встрече Национальной ассоциации губернаторов он сказал: «Я обладаю большим опытом работы с технологичными ИИ и думаю, что человечеству действительно необходимо об этом беспокоиться. Я продолжаю давать сигнал тревоги. Пока роботизированные машины не пойдут по улицам, уничтожая людей, мы не поймём, как на это реагировать, потому что такая перспектива воспринимается как нереальная».

В 2014 году, Маск называл искусственный интеллект «нашей самой большой экзистенциальной угрозой», а в августе 2017 заявил, что для человечества ИИ представляет больший риск, чем северокорейская идеология.

Величайший физик Стивен Хокинг также выражал беспокойство по поводу злоумышленного применения искусственного интеллекта. В 2014 году он сообщил BBC, что «развитие полноценного ИИ может стать предзнаменованием конца для человечества».

Ещё один удар нанесла команда программистов из MIT Media Lab в Кембридже, которая решила доказать, что ИИ опасен. Нейронная сеть Nightmare Machine («Машина кошмаров»), представленная в MIT в 2016 году, превратила обычные фотографии в ужасные демонические пейзажи. Искусственный интеллект под названием Shelly (так же разработан в MIT), сочинил 140 000 рассказов в жанре ужасов, которые пользователи Reddit публиковали на форуме r/nosleep.

«Нас интересует, как искусственный интеллект вызывает эмоции, конкретно в этой ситуации он спровоцировал страх» — прокомментировал эксперимент Мануэль Себриан, менеджер по исследованиям MIT Media Lab.

Почему мы боимся?

По мнению Килиана Вайнбергера, доцента кафедры информатики в Корнельском университете, негативные впечатления от искусственного интеллекта делятся на две категории:

Идея о том, что ИИ станет сознательно-независимым и попытается уничтожить нас.
Мнение, что злоумышленники будут использовать ИИ в своих целях.

«Искусственный интеллект пугает нас, потому что мы думаем, что супериндустриальный ИИ, став умнее человека, будет относиться к нему, как к низшему существу. Так же, как мы – к приматам. И это, конечно, крайне волнительно для человечества».

Однако Вайнбергер отмечает, что опасения по поводу превосходства и желания ИИ уничтожать расу базируются на неправильных представлениях об этой технологии. Искусственный интеллект впечатляет, когда мы видим его в действии. Но он имеет и массу ограничений. ИИ определяется алгоритмами. Они задают его поведение с помощью предписанных функций и не более того.

Нейронные сети выполняют сложные задачи с несколькими видами данных. Но большинство навыков, которыми человек обладает, даже не развивая их намеренно, для машинного интеллекта недоступны.

Искусственный разум может во много раз превзойти человека в выполнении специализированных работ. Например, игре в шахматы, идентификации объектов по изображению или большому анализу данных в бухгалтерии или банковском секторе.

У ИИ, который бы обладал самостоятельным сознанием, не будет такого прогресса, что он поработит человечество. И нет оснований считать, что подобный прогресс появится в скором будущем — добавляет Вайнбергер.

Но есть ещё одна тема о том, почему искусственный интеллект пугает нас – это использование возможностей ИИ людьми с плохими намерениями. Этот сценарий более реален и опасен.

Рационален ли наш страх?

В мире телесериала «Люди» человечество испытывает страх перед разумным ИИ и вступают в ожесточённую конфронтацию с ним. И, судя по популярности проекта, этот сюжет отвечает на актуальный запрос общества.

Боязнь технологий нельзя назвать необоснованной, поскольку определённый риск, безусловно, присутствует. Но опасность любого инструмента заключается в мыслях того, кто им управляет. Очевидно, именно этот вопрос необходимо решить человечеству, чтобы искусственный интеллект служил во благо.

Искусственный интеллект (ИИ) - тема, которая уже давно не сходит со страниц научно-популярных журналов и постоянно затрагивается в кино и книгах. Чем больше специалисты развивают эту область науки, тем большими мифами она покрывается.

Развитие и будущее искусственного интеллекта волнует и тех, кто стоит у руля государства. Не так давно президент РФ Владимир Путин посетил офис «Яндекса» в день 20-летия компании, где ему объяснили, когда ИИ превзойдет человеческий интеллект.

Все, кто хоть немного проникает в суть потенциала искусственного интеллекта, понимают, что оставлять без внимания эту тему нельзя. Это не только важный вопрос для обсуждения, но и, наверное, один из самых значимых в контексте будущего.

Что такое искусственный интеллект и чего на самом деле боятся люди, рассказал «Снег. TV» специалист по методам машинного обучения Сергей Марков.

Как говорил Джон Маккарти, изобретатель термина «искусственный интеллект» в 1956 году, «как только он заработал, никто больше не называет его ИИ». ИИ уже вовсю реальность: калькуляторы, Siri, самоуправляемые автомобили и т. д., а в него все равно не верят. Почему так происходит, что люди отрицают существование ИИ?

Главным образом по причине терминологической путаницы, так как разные люди вкладывают в понятие «искусственный интеллект» совершенно разный смысл.

В науке искусственным интеллектом называют систему, предназначенную для автоматизации решения интеллектуальных задач. В свою очередь, под «интеллектуальной задачей» понимают такую задачу, которую люди решают при помощи своего, естественного интеллекта.

Легко заметить, что такое определение искусственного интеллекта чрезвычайно широко - под него попадает даже обычный калькулятор, т. к. арифметические задачи по сути тоже интеллектуальные, человек решает их при помощи своего интеллекта.

Поэтому внутри понятия «искусственный интеллект» была проведена важная граница, отличающая прикладной или, как еще говорят, слабый искусственный интеллект, предназначенный для решения какой-либо одной интеллектуальной задачи или небольшого их множества, от гипотетического сильного ИИ, также называемого универсальным искусственным интеллектом (англ. - artificial general intelligence).


Такая система, когда она будет создана, будет способна решать неограниченно широкий круг интеллектуальных задач, подобно интеллекту человека. С этой точки зрения калькулятор, который способен считать куда быстрее человека, или программа, выигрывающая у человека в шахматы, - это прикладной ИИ, гипотетический же сверхразум будущего - сильный ИИ.

Когда читаешь про разные открытия и разработки в области ИИ, понимаешь, что всё в основном происходит в США или Азии. А как обстоят дела в России? Есть у нас какие-то наработки?

Область компьютерных наук в наши дни интернациональна, многие наши специалисты работают над созданием и совершенствованием различных моделей машинного обучения в составе как российских, так и международных команд. У нас традиционно сильная математическая и алгоритмическая школа, созданы исследовательские центры мирового уровня как в ведущих вузах, так и в некоторых частных компаниях.

Но давайте говорить начистоту - бюджеты, выделяемые в нашей стране на науку и образование, не идут ни в какое сравнение с научными бюджетами наиболее развитых стран. Доходы бюджета РФ в 2016 году составили около 200 миллиардов долларов США, в то время, как только на оборону США тратят сумму в три раза большую, чем весь российский бюджет.

Весь бюджет российской науки сопоставим с бюджетом одного лишь вуза из Лиги плюща. В безденежные 90-е страну покинули многие ведущие специалисты, была нарушена преемственность ряда научных школ. Также было практически утрачено собственное производство электроники.

В то время как мировые лидеры ИТ ведут гонку в создании специализированных процессоров для обучения нейронных сетей, нам остается лишь сфера разработки алгоритмов и программного обеспечения. Впрочем, и в этой области нами были достигнуты весьма впечатляющие успехи.

Например, команда под руководством Артема Оганова создала систему USPEX, способную предсказывать кристаллические структуры химических соединений, что привело к настоящей революции в современной химии.

Команда Владимира Махнычева и Виктора Захарова с ВМК МГУ при помощи созданной ими системы, а также суперкомпьютеров «Ломоносов» и IBM Blue Gene/P впервые смогла рассчитать 7-фигурные шахматные окончания.

Нейронные сети «Яндекса» распознают и синтезируют речь, генерируют музыку в стиле «Гражданской обороны» и композитора Скрябина. Сильная команда специалистов по ИИ и машинному обучению создана и в Сбербанке.

Словом, заметные успехи есть и у нас в стране.

Чем быстрее развиваются технологии искусственного интеллекта, тем сильнее людей захватывает опасение - как быстро они останутся без работы. Все действительно так плохо?



© Marcel Oosterwijk/flickr.com

И да и нет. Человечество уже несколько раз сталкивалось с возникновением технологий, революционно изменивших всю производственную сферу.

Так было с паровым двигателем в эпоху промышленной революции, практически уничтожившим многие профессии (в основном связанные с примитивным физическим трудом), так было с электронными вычислительными машинами, которые заменили человека в задачах, основанных на поточных математических расчетах.

В XV-XVIII веках, когда в Англии «овцы съели людей», социальные последствия были действительно катастрофическими. Англия потеряла, по разным оценкам, от 7 до 30% своего населения. Властная элита того времени была всерьез озабочена тем, куда девать лишних людей. Джонатан Свифт откликнулся на эти искания юмористическим памфлетом, в котором предлагал употреблять детей бедняков в пищу.

Однако в наши дни мы видим, что на смену вымершим профессиям пришли новые, и население Земли куда больше, чем в XVIII веке. В XX веке последствия автоматизации были уже не столь катастрофичны с социальной точки зрения. Однако недооценивать опасность все-таки не стоит.

«Через 30 лет роботы смогут делать практически всё, что умеют делать люди, - такой прогноз дал Моше Варди (Moshe Vardi), профессор вычислительной инженерии и директор Института информационных технологий Кена Кеннеди (Ken Kennedy Institute for Information Technology) при Университете Райса (William Marsh Rice University). - Это приведет к тому, что более 50% жителей Земли станут безработными».

Роботы забирают работы

На днях председатель комитета Госдумы по информационной политике, информационным технологиям и связи Леонид Левин заявил, что для России является важной проблема вытеснения рабочей силы искусственным интеллектом.

Рано или поздно людей заменят автоматизированной системой, и на рынок выплеснется 2% работоспособного населения страны. Именно поэтому о том, как трудоустроить тех, кто потеряет работу вследствие развития цифровых технологий, нужно думать уже сейчас, сказал Левин.

По мнению председателя, уже в скором будущем мы столкнемся с ростом безработицы. Но действительно ли роботы «отберут» наши рабочие места и стоит ли беспокоиться по этому поводу, рассказал «Снег.TV» специалист по машинному обучению Сергей Марков.

Сергей, даже сейчас уже есть «мертвые профессии», которые не требуют человеческого труда, хотя, казалось бы, лет 10 назад никто и не думал, что, например, кондуктора скоро станут ненужными. А какие еще профессии вытеснят технологии?

Мы приближаемся к тому времени, когда машины превзойдут людей почти в любом деле. Я считаю, что обществу нужно посмотреть в лицо этой проблеме до того, как она встанет во весь рост. Если машины будут способны делать почти всё, что умеют люди, что тем останется делать? – сказал Моше Варди, профессор вычислительной инженерии и директор Института информационных технологий Кена Кеннеди при Университете Райса.

Долгое время на пути автоматизации стояли технологические ограничения: машины не могли распознавать образы и речь, не могли говорить, не могли достаточно хорошо понимать смысл высказываний на естественном языке, не имели достаточно данных для того, чтобы научиться многим привычным для человека вещам.


Благодаря последним достижениям в сфере искусственного интеллекта многие из этих ограничений фактически оказались сняты. Кроме того, многие профессии сами претерпели трансформацию, что сделало их более удобными для автоматизации.

Например, современный офисный клерк ведет переписку не в бумажном, а в электронном виде, бухгалтер выполняет проводки не на бумаге, а в бухгалтерской программе, оператор станка управляет станком зачастую не при помощи рукоятей, а при помощи управляющей программы. Поэтому сейчас задача автоматизации во многих профессиях перестала быть научной и стала чисто инженерной.

Правда, пока что производственная сфера, связанная с ИИ, скорее создает рабочие места - нужны специалисты в области машинного обучения и подготовки данных, сотрудники для разметки обучающих массивов, специалисты по внедрению и т. д. Но в какой-то момент «электроовцы» определенно начнут есть людей, и о последствиях нужно позаботиться уже сейчас.

При этом важно понимать, что остановить технический прогресс нельзя, и попытка это сделать обернется куда более катастрофичными последствиями.

Мы сможем когда-нибудь полностью довериться роботам (ИИ) или все-таки в любом деле должен быть человеческий фактор?

У этого вопроса есть несколько аспектов. С одной стороны, люди в прошлом с опаской относились практически к любой технике. Первый лифт, первый автомобиль, первый поезд или самолет - всё это когда-то было непривычным и многим казалось опасным. Да во многом опасным и было - техногенные катастрофы унесли немало жизней.

И тем не менее в наши дни все эти вещи стали привычными и уже не вызывают сильного страха. В этом смысле - наши потомки будут относиться к системам ИИ более спокойно. Люди порой склонны мистифицировать вещи, которые им непонятны. Дикарь думает, что в паровозе живет злой дух, а современный обыватель думает, что наши системы ИИ обладают сознанием, хотя это далеко не так.

С другой стороны, я не думаю, что универсальные системы ИИ когда-либо станут частью нашей производственной сферы. На мой взгляд, будущее скорее за синтетическими системами - то есть за объединением человека и машины в единый организм. В этом смысле искусственным интеллектом будущего будет усовершенствованный человеческий интеллект.

Кстати говоря, человеческий интеллект тоже не совсем корректно называть естественным. Ребенок от рождения не обладает интеллектом, всему его учит общество, родители, окружающая среда. В этом смысле мы с вами все, по сути дела, «искусственные интеллекты», и наши страхи, связанные с ИИ, во многом являются страхами перед самими собой.

Последнее время многие ученые, например Стивен Хокинг, Билл Гейтс или тот же Илон Маск, начали паниковать, что ИИ обрекает человечество на гибель, а будущее они видят какой-то антиутопией. Стоит ли воспринимать такие прогнозы всерьез?

Честно говоря, я бы не спешил всерьез пугаться этих заявлений. Стивен Хокинг, безусловно, не является специалистом в области ИИ, как, в общем-то, и Илон Маск.


На другой чаше весов высказывания таких людей, как, например, Эндрю Ын - американский ученый в области информатики, доцент Стэнфордского университета, исследователь робототехники и машинного обучения, ведущий специалист лаборатории искусственного интеллекта китайской корпорации Baidu.

Ын, говоря о проблеме безопасности ИИ, сравнивает ее с проблемой перенаселения Марса - конечно, мы когда-нибудь колонизируем Марс, и тогда, возможно, в какой-то момент там возникнет проблема перенаселения. Но стоит ли заниматься ей сегодня?

Марк Цукерберг также довольно скептически отнесся к заявлениям Маска. «Искусственный интеллект сделает в будущем нашу жизнь лучше, а предсказывать конец света очень безответственно», - заявил он.

Лично я думаю, что высказывания Маска стоит рассматривать в прагматическом ключе - Маск хочет застолбить эту тему и в идеале получить от государства средства для ее разработки.

Неужели всё так безоблачно и не о чем беспокоиться?

Реальные опасности, связанные с развитием ИИ, лежат, на мой взгляд, совсем в иной плоскости, чем об этом принято думать. Главные риски связаны не с тем, что мы создадим «Скайнет», который поработит человечество. Риски от внедрения технологий ИИ и машинного обучения куда более прозаичны.

Доверяя решение важных вопросов тем или иным математическим моделям, мы можем пострадать от ошибок, допущенных при их разработке. Искусственный интеллект, воспроизводящий действия людей-экспертов, унаследует их ошибки и предубеждения. Недоработки в системах управления производством или транспортом могут привести к катастрофам.

Вмешательство злоумышленников в работу жизненно важных систем в условиях тотальной автоматизации может повлечь опасные последствия. Чем сложнее системы, тем больше в них может быть потенциальных уязвимостей, в том числе связанных со спецификой тех или иных алгоритмов искусственного интеллекта.

Безусловно, для управления этими рисками следует создавать законодательную базу, разумные регламенты безопасности, специальные методы для выявления уязвимостей. Одни системы ИИ будут использоваться для контроля других. Возможно, код жизненно важных систем будет обязателен к публикации для независимого аудита. Словом, специалистам в этой сфере предстоит еще много работы.

Искусственный интеллек (ИИ) пытается ворваться во все сферы жизни человека. Но прежде чем допускать искусственную нейросеть к новой проблеме стоит хорошо подумать.

Истерия вокруг будущего искусственного интеллекта (ИИ) захватила мир. Нет недостатка в сенсационных новостях о том, как ИИ сможет лечить болезни, ускорять инновации и улучшать творческий потенциал человека. Если читать заголовки СМИ, вы можете решить, что уже живёте в будущем, в котором ИИ проник во все аспекты общества.

И хотя нельзя отрицать, что ИИ открыл нам богатый набор многообещающих возможностей, он также привёл к появлению мышления, которое можно охарактеризовать, как веру во всемогущество ИИ. По этой философии, при наличии достаточного количества данных, алгоритмы машинного обучения смогут решить все проблемы человечества.

Но у этой идеи есть большая проблема. Она не поддерживает прогресс ИИ, а наоборот, ставит под удар ценность машинного интеллекта, пренебрегая важными принципами безопасности и настраивая людей на нереалистичные ожидания по поводу возможностей ИИ.

Вера во всемогущество ИИ

Всего за несколько лет вера во всемогущество ИИ пробралась из разговоров технологических евангелистов Кремниевой долины в умы представителей правительств и законодателей всего мира. Маятник качнулся от антиутопического представления об уничтожающем человечество ИИ к утопической вере в пришествие нашего алгоритмического спасителя.

Мы уже видим, как правительства обеспечивают поддержку национальным программам развития ИИ и соревнуются в технологической и риторической гонке вооружений, чтобы получить преимущество в бурно растущем секторе машинного обучения (МО). К примеру, британское правительство пообещало вложить £300 млн в исследования ИИ, чтобы стать лидером этой области.

Очарованный преобразовательным потенциалом ИИ, французский президент Эмманюэль Макрон решил превратить Францию в международный центр ИИ. Китайское правительство увеличивает свои возможности в области ИИ с помощью государственного плана по созданию китайской ИИ-индустрии объёмом в $150 млрд к 2030 году. Вера во всемогущество ИИ набирает обороты и не собирается сдаваться.


Нейросети – легче сказать, чем сделать

В то время как многие политические заявления расхваливают преобразующие эффекты надвигающейся "революции ИИ", они обычно недооценивают сложности внедрения передовых систем МО в реальном мире.

Одна из наиболее многообещающих разновидностей технологии ИИ – нейросети. Эта форма машинного обучения основывается на примерном подражании нейронной структуры человеческого мозга, но в гораздо меньшем масштабе. Многие продукты на основе ИИ используют нейросети, чтобы извлекать закономерности и правила из больших объёмов данных.

Но многие политики не понимают, что просто добавив к проблеме нейросеть, мы не обязательно тут же получим её решение. Так, добавив нейросеть к демократии, мы не сделаем её мгновенно менее дискриминированной, более честной или персонализованной.

Бросая вызов бюрократии данных

Системам ИИ для работы нужно огромное количество данных, но в госсекторе обычно не бывает подходящей инфраструктуры данных для поддержки передовых систем МО. Большая часть данных хранится в офлайн-архивах. Небольшое количество существующих оцифрованных источников данных тонут в бюрократии.

Данные чаще всего размазаны по различным правительственным департаментам, каждому из которых для доступа требуется особое разрешение. Кроме всего прочего, госсектору обычно не хватает талантов, оснащённых нужными техническими способностями, чтобы в полной мере пожать плоды преимуществ ИИ.

По этим причинам связанный с ИИ сенсационализм получает множество критики. Стюарт Рассел, профессор информатики в Беркли, давно уже проповедует более реалистичный подход, концентрирующийся на простейших, повседневных применениях ИИ, вместо гипотетического захвата мира сверхразумными роботами.

Сходным образом профессор робототехники из MIT, Родни Брукс, пишет, что «почти всем инновациям в робототехнике и ИИ требуется гораздо, гораздо больше времени для реального внедрения, чем это представляют себе как специалисты в этой области, так и все остальные».

Одна из множества проблем внедрения систем МО состоит в том, что ИИ чрезвычайно подвержен атакам. Это значит, что злонамеренный ИИ может атаковать другой ИИ, чтобы заставить его выдавать неправильные предсказания или действовать определённым образом.

Многие исследователи предупреждали о том, что нельзя так сразу выкатывать ИИ, не подготовив соответствующих стандартов по безопасности и защитных механизмов. Но до сих пор тема безопасности ИИ не получает должного внимания.

Машинное обучение – это не волшебство

Если мы хотим пожать плоды ИИ и минимизировать потенциальные риски, мы должны начать размышлять о том, как мы можем осмысленно применить МО к определённым областям правительства, бизнеса и общества. А это значит, что нам необходимо начать обсуждения этики ИИ и недоверия многих людей к МО.

Самое важное, нам нужно понимать ограничения ИИ и те моменты, в которые люди всё ещё должны брать управление в свои руки. Вместо того, чтобы рисовать нереалистичную картину возможностей ИИ, необходимо сделать шаг назад и отделить реальные технологические возможности ИИ от волшебства.

Долгое время Facebook считала, что проблемы типа распространения дезинформации и разжигание ненависти можно алгоритмически распознать и остановить. Но под давлением законодателей компания быстро пообещала заменить свои алгоритмы на армию из 10 000 рецензентов-людей.


В медицине тоже признают, что ИИ нельзя считать решением всех проблем. Программа "IBM Watson for Oncology" была ИИ, который должен был помочь докторам бороться с раком. И хотя она была разработана так, чтобы выдавать наилучшие рекомендации, экспертам оказывается сложно доверять машине. В результате программу закрыли в большинстве госпиталей, где проходили её пробные запуски.

Схожие проблемы возникают в законодательной области, когда алгоритмы использовались в судах США для вынесения приговоров. Алгоритмы подсчитывали значения рисков и давали судьям рекомендации по приговорам. Но обнаружилось, что система усиливает структурную расовую дискриминацию, после чего от неё отказались.

Эти примеры показывают, что решений на основе ИИ для всего не существует. Использование ИИ ради самого ИИ не всегда оказывается продуктивным или полезным. Не каждую проблему лучше всего решать с применением к ней машинного интеллекта.

Это важнейший урок для всех, кто намеревается увеличить вложения в государственные программы по развитию ИИ: у всех решений есть своя цена, и не всё, что можно автоматизировать, нужно автоматизировать. опубликовано

Если у вас возникли вопросы по этой теме, задайте их специалистам и читателям нашего проекта .

Искусственный интеллект - причина, по которой нам конец?

Что такое искусственный интеллект и чего на самом деле боятся люди?

Вконтакте

Одноклассники

Искусственный интеллект - тема, о которой каждый сформировал своё мнение.

Эксперты в этом вопросе разбились на два лагеря.
В первом считают, что искусственного интеллекта не существует, во втором - что он есть.

Кто из них прав - разбирался Rusbase.

Искусственный интеллект и негативные последствия имитации

Основная причина споров об искусственном интеллекте - понимание термина. Камнем преткновения стали само понятие интеллекта и... муравьи. Отрицающие существование ИИ люди опираются на то, что нельзя создать искусственный интеллект, потому что не изучен интеллект человеческий, а следовательно - воссоздать его подобие невозможно.

Второй аргумент, которым оперируют «неверующие», заключается в кейсе с муравьями. Основной тезис кейса - муравьи долгое время считались существами, у которых есть интеллект, но после исследований стало ясно, что они его имитировали. А имитация интеллекта не означает его наличие. Поэтому всё, что имитирует разумное поведение - интеллектом назвать нельзя.

Другая половина лагеря (утверждающая, что ИИ есть) на муравьях и природе человеческого разума не зацикливается. Вместо этого они оперируют более практическими понятиями, смысл которых заключается в том, что искусственный интеллект - свойство машин выполнять интеллектуальные функции человека. Но что считать интеллектуальными функциями?

История искусственного интеллекта и кому это пришло в голову

Джон Маккарти, автор термина «искусственный интеллект», определил интеллектуальную функцию как вычислительную составляющую способности достигать целей. Само определение искусственного интеллекта Маккарти объяснил как науку и технологию создания интеллектуальных компьютерных программ.

Определение Маккарти появилось позже, чем само научное направление. Ещё в середине прошлого века учёные пытались понять, как работает человеческий мозг. Потом появились теории вычислений, теории алгоритмов и первые в мире компьютеры, вычислительные возможности которых натолкнули светил науки на мысли о том, сможет ли машина сравниться с разумом человека.

Вишенкой на торте стало решение Алана Тьюринга, который нашёл способ проверить разумность компьютера - и создал тест Тьюринга, определяющий, может ли мыслить машина.

Так что такое искусственный интеллект и для чего он создан?

Если не брать в расчёт муравьёв и природу человеческого интеллекта, ИИ в современном контексте - свойство машин, компьютерных программ и систем выполнять интеллектуальные и творческие функции человека, самостоятельно находить способы решения задач, уметь делать выводы и принимать решения.

Рационально не воспринимать искусственный интеллект как подобие человеческого разума и разделять футурологию и науку, так как ИИ и «Скайнет».

Тем более большинство современных продуктов, созданных с помощью ИИ-технологий - не новый виток развития искусственного интеллекта, а лишь использование старых инструментов для создания новых и нужных решений.

Почему апгрейд не считается за развитие искусственного интеллекта

Но такие ли новые это идеи? Взять, к примеру, Siri, облачного помощника, оснащённого вопросно-ответной системой. Подобный проект был создан ещё в 1966 году и тоже носил женское имя - Элиза. Интерактивная программа поддерживала диалог с собеседником настолько реалистично, что люди в ней признавали живого человека.

Или промышленные роботы, которые использует Amazon на складе. Задолго до этого в 1956 году роботы Unimation работали в General Motors, перемещая тяжёлые детали и помогая в сборке автомобилей. А интегральный робот Шейки, разработанный в 1966 году и ставший первым мобильным роботом, который управлялся искусственным интеллектом? Не напоминает современную и усовершенствованную Надин?

Проблемы неестественных интеллектов. Интеллекция Григория Бакунова

И куда без последнего тренда - нейросетей? Современные стартапы на нейросетях мы знаем - вспомнить хотя бы Prisma. А искусственную нейронную сеть на основе принципа самоорганизации для распознавания образов под названием «Когнитрон», созданную в далёком в 1975 году - нет.

Интеллектуальные чат-боты тоже не стали исключением. Далёкий праотец чат-ботов - CleverBot, работающий на алгоритме искусственного интеллекта, разработанном еще в 1998 году.

Поэтому искусственный интеллект не является чем-то новым и уникальным. Пугающим перспективой порабощения человечества феноменом - тем более. Сегодня ИИ - это использование старых инструментов и идей в новых продуктах, отвечающих требованиям современного мира.

Возможности искусственного интеллекта и неоправданные ожидания

Если сравнивать искусственный интеллект с человеком, то сегодня его развитие находится на уровне ребёнка, который учится держать ложку, старается встать с четверенек на две ноги и никак не может отвыкнуть от памперсов.

Мы привыкли видеть ИИ всемогущей технологией. Даже Господа Бога в фильмах не показывают столь всесильным, как вышедшую из под контроля корпорации табличку эксель. Может ли бог отключить всё электричество в городе, парализовать работу аэропорта, слить в интернет секретные переписки глав государств и спровоцировать экономический кризис? Нет, а искусственный интеллект может, но только в кино.

Завышенные ожидания - это причина, по которой мы в жизни, ведь автоматический робот-пылесос не сравнится с роботом-дворецким Тони Старка, а домашний и милый Zenbo не устроит вам «Мир Дикого Запада».

Россия и применение искусственного интеллекта - есть кто живой?

И хотя искусственный интеллект не оправдывает ожидания большинства, в России он используется в различных сферах, начиная от государственного управления и заканчивая дейтингом.

Сегодня найти и идентифицировать объекты, проанализировав данные изображений, можно с помощью и ИИ. Выявить агрессивное поведение человека, обнаружить попытку взлома банкомата и распознать по видео личность того, кто это пытался сделать - уже можно.

Биометрические технологии тоже ушли вперёд и позволяют не только по отпечаткам пальцев, но и по голосу, ДНК или сетчатке глаза. Да, прямо как в фильмах про спецагентов, которые могли попасть в секретное место лишь после сканирования глазного яблока. Но биометрические технологии применяются не только для верификации тайных агентов. В реальном мире биометрия используется для аутентификации, проверок заявок на кредит и контроля за работой персонала.

Биометрия - не единственный пример применения. Искусственный интеллект тесно связан с другими технологиями и решает задачи ритейла, финтеха, образования, промышленности, логистики, туризма, маркетинга, медицины, строительства, спорта и экологии. Наиболее успешно в России ИИ используется для решения задач предиктивной аналитики, интеллектуального анализа данных, обработки естественного языка, речевых технологий, биометрии и компьютерного зрения.

Задачи искусственного интеллекта и почему он ничего вам не должен

Никакой миссии у искусственного интеллекта нет, а задачи перед ним ставятся с целью и сокращения ресурсов, будь это время, деньги или люди.

Как пример - интеллектуальный анализ данных, где ИИ оптимизирует закупки, логистические цепочки и другие бизнес-процессы. Или компьютерное зрение, где с помощью технологий искусственного интеллекта проводится видеоаналитика и создаётся описание содержания видео. Для решения задач речевых технологий ИИ распознаёт, анализирует и синтезирует устную речь, делая ещё один маленький шаг на пути к тому, чтобы научить компьютер понимать человека.

Понимание человека компьютером считают той самой миссией, выполнение которой приблизит нас к созданию сильного интеллекта, так как для распознавания естественного языка машине потребуются не только огромные знания о мире, но и постоянное взаимодействие с ним. Поэтому «верующие» в сильный искусственный интеллект относят понимание машиной человека к самой важной задаче ИИ.

Гуманоид Надин имеет индивидуальность и предназначен на роль социального компаньона.

В философии искусственного интеллекта даже существует гипотеза, согласно которой есть слабый и сильный искусственные интеллекты. В ней сильным интеллектом будет считаться компьютер, способный мыслить и осознавать себя. Теория слабого интеллекта такую возможность отвергает.

К сильному интеллекту и правда много требований, некоторые из которых уже выполнены. Например, обучение и принятие решений. Но сможет ли когда-нибудь макбук соответствовать таким требованиям, как сопереживание и мудрость - большой вопрос.

Возможно ли, что в будущем появятся роботы, которые смогут не только имитировать человеческое поведение, но и сочувственно кивать, слушая очередное недовольство несправедливостью человеческого бытия?

Для чего ещё нужен робот с искусственным интеллектом?

В России робототехнике с использованием искусственного интеллекта уделяется мало внимания, но надежда на то, что это временное явление есть. CEO Mail Group Дмитрий Гришин даже фонд Grishin Robotics, правда, о громких находках фонда пока не было слышно.

Из последних хороших российских примеров - робот «Емеля» от i-Free, способный понимать естественный язык и общаться с детьми. На первом этапе робот запоминает имя и возраст ребенка, подстраиваясь под его возрастную группу. Также он может понимать вопросы и отвечать на них – например, говорить о прогнозе погоды или рассказать факты из «Википедии».

В других странах роботы пользуются большей популярностью. Например, в китайской провинции Хэнань на вокзале для скоростных поездов служит настоящий , который может сканировать и распознавать лица пассажиров.