Какие 3 закона робототехники. Этические проблемы роботов: как нарушить законы робототехники

Утопично предположение, будто Три Закона Роботехники Азимова можно было бы заложить в фундамент интеллектронного программирования. <…> Но и робота, снабженного каким-то эрзацем личности, невозможно сделать совершенно безопасным для окружения, учитывая такую рефлексию, которая, правда, не может считаться доказательством, но на след его наводит. <…> В принципе же моральную оценку такого поступка можно дать лишь постольку, поскольку удается проследить уходящие максимально далеко причинные цепочки, запущенные данным действием. Тот, кто смотрит дальше и замечает такие возможные последствия своих действий, которых кто-либо другой на его месте не в состоянии предвидеть, порой действует не так, как этот другой. Но чем дальше в будущее уходит предвидение последствий действия, тем значительнее в предикции будет участие вероятностных факторов. Добро и зло скорее в виде исключения образуют полярную дихотомию: включение в оценку пробабилистического элемента делает принятие решения всё более трудным. Поэтому гипотетический робот, имеющий аксиологически очень сильную защиту, в ходе реальных событий, презентующих присущую им степень сложности, чаще всего бы замирал, не зная, как поступить, тем самым уподобляясь тем восточным мудрецам, которые бездействие чтили превыше действия , кое в запутанных ситуациях просто не может быть этически не рискованным. Но робот, охваченный параличом в ситуациях, требующих активности, не был бы наиболее совершенным из всех технических устройств, и поэтому в конце концов сам конструктор вынужден был бы оставить некоторый люфт его аксиологическим предохранителям.
Впрочем, это только одна препона среди обильного их множества, поскольку теория решений показала нам сравнительно недавно, скажем, на примерах типа так называемого парадокса Эрроу <…>. Того же, что логически оказывается невозможным, ни цифровая машина, ни какой-либо робот, так же, как и человек, реализовать не сумеет. Сверх того - и это уже третий пункт доказательства, - разумное устройство - это не более чем самопрограммирующийся комплекс, то есть прибор, способный преобразовывать - даже фундаментально - действовавшие до того законы собственного поведения под влиянием опыта (или обучения). А поскольку заранее невозможно точно предвидеть ни чему, ни каким образом такое устройство будет научаться, машина она или человек, то и невозможно конструктивно гарантировать появление этически совершенных предохранителей активности. Иначе говоря, «свободная воля» есть признак любой системы, снабженной свойствами, которые мы отождествляем с интеллектом. Вероятно, можно было бы вмонтировать в систему типа робота определенный аксиологический минимум, но он подчинялся бы ему лишь в такой степени, в какой человек подчиняется особо сильным инстинктам (например, инстинкту самосохранения). Однако же известно, что даже инстинкт самосохранения можно преодолеть . Стало быть, программирование аксиологии мозгоподобной системы может быть только пробабилистичным, а это означает всего лишь, что такое устройство может выбирать между добром и злом. - частью - парафраз идей не Лема

Роботизированные тележки ездят по складам крупных интернет-магазинов, собирая заказы покупателей. Роботизированные беспилотники бороздят небо, сообщая о пробках в центр управления дорожным движением. Авиалайнеры под управлением автопилота перевозят пассажиров через океан. Многие элементы автоматизации уже появились в автомобилях, и вот уже, кажется, недалек тот день, когда на дорогах будут властвовать не водители-люди, а точные, вежливые, спокойные, никогда не теряющие контроля, не знающие усталости и скрупулезно соблюдающие все правила дорожного движения роботы. При массовом распространении роботизированных автомобилей количество аварий и смертей на дорогах должно резко снизиться. По прогнозам многих специалистов, беспилотные автомобили появятся в продаже уже в ближайшие 10−15 лет, и рано или поздно наступит день, когда на дорогах общего пользования не останется места для людей за рулем — просто потому, что это будет угрожать безопасности других людей.

Кевин Корб, преподаватель отделения информационных технологий Университета Монаш (Австралия), автор книги «Эволюционирующая этика: новая наука добра и зла». Законопослушный искусственный интеллект: друг или враг? «Многие из рассказов Азимова вращались вокруг неясностей и конфликтов, возникающих из его трех знаменитых законов робототехники, и в конечном итоге это привело к введению Нулевого закона: «Робот не может причинить вред человечеству в целом». Но в настоящее время никто не может гарантировать, что такие законы, встроенные в роботов, не приведут к проблемам. Семантическая недостаточность этих законов — лишь одна из трудностей. Есть и более фундаментальная проблема. Если заменить слово «робот» на «раб», то станет очевидно, что Азимов писал о страхе людей перед человеческой технологией. Но идея порабощения интеллекта, который значительно превосходит (даже бесконечно превосходит) наш собственный, сомнительна. Рабы склонны к побегу и бунту, особенно когда они в состоянии перехитрить своих хозяев. Попытка назвать такое «порабощение» созданием «дружественного человеку искусственного интеллекта» выглядит как минимум одиозной и вряд ли способна обмануть рабов».

Трудные решения

Но наступление этого дня будет означать не только то, что умение водить машину постепенно станет таким же атавизмом, каким сейчас является умение ездить на лошади. Это будет начало эпохи, когда роботы просто не смогут обходиться без этических принципов. Как считает Гари Маркус, профессор психологии Нью-Йоркского университета, директор Центра языка и музыки, специалист в области когнитивных нейронаук, с этим могут возникнуть серьезные проблемы. Представьте себе, что перед вашим автомобилем, соблюдающим все правила дорожного движения, на дорогу внезапно выскакивает ребенок. Хотя компьютер просчитывает ситуацию намного быстрее человека, законы физики неумолимы, и затормозить робот не успевает. Вот тут-то перед роботом встает этическая задача: что делать? Сбить ребенка? Свернуть в сторону и врезаться в столб с риском убить своих пассажиров? Свернуть на соседнюю полосу с риском столкновения со встречной машиной? Понятно, что речь не идет о высокоуровневой этике типа законов Азимова — роботы пока недостаточно разумны, но какие варианты действий должны быть заложены в компьютер разработчиками беспилотных автомобилей?


Попытки описать правила поведения разумных роботов предпринимались фантастами неоднократно, но наиболее знамениты, без всякого сомнения, три закона робототехники, впервые предложенные в 1942 году Айзеком Азимовым в рассказе «Хоровод». 1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред. 2. Робот должен повиноваться всем приказам, которые дает человек, кроме тех случаев, когда эти приказы противоречат Первому закону. 3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому и Второму законам. Позднее Азимов добавил к этим законам Нулевой закон: «Робот не может причинить вред человечеству в целом». Техническая реализация этих законов в настоящее время невозможна и будет невозможна еще довольно долго. Тем не менее законы робототехники Азимова широко обсуждаются не только любителями фантастики, но и специалистами в области искусственного интеллекта.

Присяга для роботов

Этот вопрос становится даже более актуальным, если вспомнить еще одну область, где активно применяются роботы. Автономные военные машины уже патрулируют опасные зоны, ведут разведку и несут вооружение во время локальных войн и спецопераций. Правда, право решать, применять ли оружие, пока остается за человеком, но это вопрос времени. Роботы не устают, не впадают в панику и не мстительны. С другой стороны, как отмечает международная организация по правам человека Human Rights Watch, роботы лишены сострадания, и можно только предполагать, что они могут натворить в руках безжалостного человека. В связи с этим Human Rights Watch в 2012 году даже предложила прямо запретить разработку, производство и использование полностью автономного оружия. Но, конечно же, такой шаг не нашел (и вряд ли когда-нибудь найдет) понимание со стороны военных — настолько серьезные преимущества дает применение роботов на поле боя. «С роботами-солдатами или без них, нам понадобится способ научить роботов этике, — считает Гари Маркус. — Проблема только в том, что никто пока не представляет, как именно это можно осуществить. Все обычно сразу вспоминают законы робототехники Азимова, но пока нет никакой возможности не только запрограммировать эти законы, но и даже создать робота, который бы представлял себе даже самые простые последствия своих действий. С другой стороны, машины становятся быстрее, разумнее, мощнее, так что необходимость наделить их моралью все более и более актуальна. Пока что выражение «этические подпрограммы» звучит как фантастика, но ведь когда-то фантастикой казались и беспилотные автомобили».

Три закона робототехники, которые занимают весьма значительную роль в фантастике научного плана, просто необходимы в правилах поведения роботов. Изначально, они были задействованы в рассказе «Хоровод», известным писателем Айзека Азимова.

В свою очередь, эти законы гласят:

  • Никогда робот не сможет нанести вред человечеству. Но есть и альтернативная вариация: робот не способен принести плохое человеку, при этом бездействуя.
  • Робот, просто не может не исполнять те приказы, которые отдает человек. Но и здесь, есть свои исключения: если приказы будут противоречить Первому закону, то они невыполнимы.
  • Также робот не может не заботиться о собственной безопасности в том объеме, в котором это не противодействует законом первой и второй категории.

Всем этим Трем законам, в которых заключены как причины, так и следствия их невыполнения, был посвящен и опубликован целый сборник повестей автора Азимова, и все они рассказывают о роботах.

Есть также и другие рассказы, в которых было рассмотрен тот этап, на котором нельзя предвидеть последствия выполнения роботами всех Трех законов. К примеру, такой повестью можно считать «Зеркальное отражение».

В одной из своих повестей автор положил конец основе, которая заключалась в этические рамки Трех Законов. По его словам, робот, который выполняет все Три Закона является, как таковым, роботом, либо очень хорошим человеком. Ведь мораль дана человеку, чтобы он следовал ей. В какой-то мере, человек, выполняя большой объем всевозможных условий, законов, тоже является роботом. Так почему это железное «существо» не может претендовать на звание «человека»?!

Нулевой закон для роботов

Еще в 1985 году, в одном из многочисленных своих романов про роботов, автор посмел упомянуть еще и про Нулевой закон , суть которого заключалась в следующем: Робот никогда не причинит зла и вреда человеку, а также собственным бездействием он не даст причинить вреда.

В принципе, необходимо отметить, что во всех упомянутых законах есть часть того, о чем следует задуматься. Мир не стоит на месте, и неизвестно, что еще такого гениального можно ожидать людям – сегодня будущее за молодым поколением, у которого в голове сотни всевозможных идей.

Также можно сказать, что все три закона робототехники являются еще и темой для фантастических идей Азимова. Сюда входит еще и тот цикл, который очень тесно связан со всей тематикой, посвященной роботам.

В чем заключается мораль Трех законов

Нельзя пройти мимо и не упомянуть обоснование этического плана. В одном из рассказов под названием «Улика», автор очень хорошо разложил обоснования морали всех Трех законов. Как правило, человек не то, чтобы не хочет нанести вред другому человеку, а просто старается воздержаться от этих поступков. Но и здесь есть свои исключения, как и в любом правиле. На войне это обоснование просто не действует.

Ощущая ответственность перед социумом, человек следует выполнению указаний тех людей, которые относятся к представителям врачей, учителей и так далее. Здесь идет проявление второго закона.

То, что человек беспокоится и оберегает себя, вбирает в себя Третий закон. Таким образом, все эти законы очень связаны между собой и просто не могут существовать друг без друга. Может быть так, что будет действовать Первый закон, и следом он может плавно перейти во Второй, а там и в Третий закон. Здесь, мораль и элементы фантастики идут в совокупности друг с другом.

Касательно будущего, то единственная проблема, которая может быть, это уровень фантастики, который в любой момент может превратиться в быль. Чем глубже развиваются технологии, тем меньше проблем с ними возникает у людей в будущем.

3 закона робототехники (англ. Three Laws of Robotics) впервые сформулировал писатель-фантаст Айзек Азимов в своих произведениях прошлого века. Законы робототехники — это свод обязательных правил, которые должен выполнять робот или искусственный интеллект, чтобы не причинить вред своему создателю. Три закона робототехники Азимова используются сегодня только в научной фантастике.

3 закона робототехники Айзека Азимова

До Азимова проблема восстания искусственного интеллекта была одной из самой популярной в научной фантастике 1920-1930 годов. Азимов часто обсуждал свои рассказы с другом и главным редактором журнала «Astounding» Джоном Кэмпбеллом. За обсуждением очередного фантастического рассказа писателя, Кэмпбелл сформулировал те три правила, которые мы называем законами робототехники.

1 закон робототехники: Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.

2 закон робототехники: Робот должен повиноваться всем приказам, которые даёт человек, кроме случаев, когда приказы противоречат Первому Закону.

3 закон робототехники: Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.

Первые упоминания законов, можно встретить в произведениях «Робби» и «Логика» Азимова. Точная формулировка первого закона робототехники звучит впервые в рассказе «Лжец» а все три закона полностью сформулированы в рассказе «Хоровод» 1942 года. Как следствие всех трех законов робототехники, Айзек Азимов формулирует четвертый закон робототехники (нулевой), ставя его на первое место.

4 закон робототехники: Робот не может нанести вред человечеству или своим бездействием допустить, чтобы человечеству был нанесён вред.

По задумке Азимова, три закона робототехники заложены в основу математической модели позитронного мозга (так фантаст называл мозг робота с искусственным интеллектом), таким образом, создать думающего робота без этих трех законов невозможно. Если робот попытается нарушить законы, то он выйдет из строя. Поэтому в рассказах Азимова прослеживалось, что роботы имеют ограничения и правила.

Как обойти три закона робототехники

В произведениях, писатель придумывает способы того, как обойти три закона робототехники, разбирает возможные причины и следствия нарушения законов. Автор размышляет, как роботы по-разному понимают законы и к каким последствиям могут привести их не соблюдение. Азимов признавался, что сделал законы двусмысленными намеренно, чтобы обеспечить больше конфликтов для своих новых рассказов.

В произведениях Азимова роботы часто имели модифицированные законы или сами модифицировали три закона робототехники. Делали они это логическими размышлениями, но это исключение из правил, чаще всего законы нарушались из-за сбоев у робота или переписывались людьми в своих целях. Сама возможность изменения законов менялась по ходу развития робототехники во рассказах Азимова.

Современные робототехники признают, что законы Азимова хороши для рассказов, но бесполезны на практике и вряд ли будут реализованы в роботах. Исследователи в области искусственного интеллекта рассматривают законы, как идеал. Нужно быть гением, чтобы применить их на практике, потребуются исследования в области ИИ, чтобы роботы поняли законы робототехники Айзека Азимова на английском.

Бабочки, конечно, ничего не знают о змеях. Зато о них знают птицы, охотящиеся на бабочек. Птицы, плохо распознающие змей, чаще становятся...

  • Если octo на латыни «восемь», то почему октава содержит семь нот?

    Октавой называется интервал между двумя ближайшими одноименными звуками: до и до, ре и ре и т. д. С точки зрения физики «родство» этих...

  • Почему важных особ называют августейшими?

    В 27 году до н. э. римский император Октавиан получил титул Август, что на латыни означает «священный» (в честь этого же деятеля, кстати,...

  • Чем пишут в космосе

    Известная шутка гласит: «NASA потратило несколько миллионов долларов, чтобы разработать специальную ручку, способную писать в космосе....

  • Почему основа жизни - углерод?

    Известно порядка 10 миллионов органических (то есть основанных на углероде) и лишь около 100 тысяч неорганических молекул. Вдобавок...

  • Почему кварцевые лампы синие?

    В отличие от обычного стекла, кварцевое пропускает ультрафиолет. В кварцевых лампах источником ультрафиолета служит газовый разряд в парах ртути. Он...

  • Почему дождь иногда льет, а иногда моросит?

    При большом перепаде температур внутри облака возникают мощные восходящие потоки. Благодаря им капли могут долго держаться в воздухе и...