Телефоны для связи:
(495) 111-11-11
(495) 111-11-12

Непослушные роботы Айзека Азимова

05 август 2018, Воскресенье
126
0
Пожалуй, одним из самых известных футурологов прошлого столетия был знаменитый американский писатель-фантаст и популяризатор науки Айзек Азимов (1920-1992). Поскольку по основной профессии Азимов являлся учёным-биохимиком, его «предсказания» не основывались на одном лишь писательском воображении. В 1964 году по просьбе журналистов он попробовал представить себе, какой может стать наша жизнь через 50 лет. Впоследствии оказалось, что семь из десяти сделанных им прогнозов полностью или частично сбылись.
Пророк XX века
Писатель сказал, что телефоны станут беспроводными и с экраном, а связь между абонентами на разных континентах будет осуществляться через спутники. «Вы сможете видеть человека, которому звоните. Дисплей можно будет использовать для просмотра документов, фотографий и чтения книг. Будут созданы миниатюрные электронные вычислительные машины, источником энергии для которых станут литий-ионные аккумуляторы».
Предвидел Азимов и появление телевизоров с плоскими экранами вместо обычных, и возникновение «объёмного» кино.
По поводу бытовой техники писатель спрогнозировал, что со временем она будет снабжена таймерами, большая её часть станет беспроводной. Ещё писатель объявил, что будут строиться огромные электростанции в пустынях. Они уже появились, но пока их не так много.
Законы роботехники
Но больше всего прославили Азимова как футуролога три закона роботехники, впервые упомянутые им в рассказе «Хоровод» (1942).
1. Робот не может причинив вред чело веку или своим бездействием допустить, чтобы человеку был причинён вред.
2. Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат первому закону.
3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит первому или второму законам.
Позднее, в 1986 году, в романе «Роботы и Империя», Азимов добавил ещё и нулевой закон роботехники: «Робот не может причинить вред человечеству или своим бездействием допустить, чтобы человечеству был причинён вред».
Правда, хоть Азимову и приписывают авторство пресловутых роботехнических законов, окончательно сформулировал их не он, а его друг Джон Кэмпбелл, главный редактор журнала фантастики Astounding, вычленивший содержание законов из написанных Азимовым текстов. Тем не менее писатель никогда не отказывался от авторства и не раз упоминал о трёх законах в своём творчестве.
Так, в эссе «Законы роботехники» Азимов писал, что действие трёх законов можно распространить на все созданные человеком инструменты, а также социальные институты. Их суть в том, чтобы служить людям, не нанося им вреда и не нарушая их безопасности.
Опасность для будущего
И коллеги-фантасты, и учёные отнеслись к выкладкам Азимова достаточно серьёзно. Им удалось обнаружить в трёх законах немало противоречий, вследствие которых они малоприменимы на практике в наше время, когда технологии искусственного интеллекта наконец переживают бурное развитие.
Например, специалист по научной фантастике Роберт Сойер рассуждает: «Развитие искусственного интеллекта — это бизнес, а бизнес, как известно, не заинтересован в развитии коренных мер безопасности — особенно философских. Вот несколько примеров: табачная индустрия автомобильная промышленность, ядерная промышленность… Ни для одной из них изначально не было сказано, что серьёзные меры безопасности необходимы, и все они препятствовали внешне налагаемым ограничениям, и ни одна из них не приняла абсолютный эдикт против причинения вреда людям».
Но даже если иметь в виду только роботов, то законы роботехники являются скорее идеалом, чем реально работающим механизмом. Ведь, во-первых, роботу не всегда объяснишь, как верно поступать в той или иной ситуации, во-вторых, соблюдая законы, роботы ограничивают свободу людей, а это далеко не всегда идёт на пользу, хотя вред может оказаться неочевидным и «отсроченным». Так, машины могут подобным образом лишать людей возможности совершать рискованные действия, направленные на различные открытия, создание изобретений и креативных проектов, которые в конечном счёте будут способствовать прогрессу.
Тем не менее многие взяли три закона роботехники на вооружение. В 2007 году южнокорейское правительство начало разработку «Устава этических норм для роботов», основные положения которого напоминают азимовские законы.
Елиезер Юдковски из американского Института сингулярности (SIAI) изучает проблемы глобального риска, которые возникнут, если будущий искусственный сверхинтеллект не запрограммируют на дружественность по отношению к человеку. В 2004 году при SIAI был открыт сайт AsimovLaws.com, где обсуждались проблемы этики искусственного интеллекта. В частности, участники дискуссий пытались доказать, что применение трёх законов роботехники небезопасно для человечества, так как, следуя им, машины могут захватить власть на Земле, дабы «защитить» людей от вреда.
Защита от дурака
И всё-таки представим себе, что произошло бы, если бы законы, разработанные Азимовым и Кэмпбеллом много десятилетий назад, осуществлялись на практике хотя бы частично… Недавно команда специалистов из Университета Тафтса (США) разработала систему искусственного интеллекта, которая позволяет последнему отказываться выполнять приказы оператора при наличии на то достаточных оснований. Новинка была представлена на технологической конференции AI-HRI.
Принцип работы системы выглядит так. Получив от человека приказ, машина приступает к проверке условий его выполнения. Среди них наличие необходимых навыков, физическая возможность исполнения приказа вообще и с учётом текущих обстоятельств, а также такой параметр, как «субординация» — проверка того, обязан ли робот выполнять приказы, поступившие именно от этого оператора.
Если робот обнаруживает причины, по которым приказ не может быть выполнен, он уведомляет об этом человека. Однако после уточнения исходных данных машина может «передумать» и приступить к выполнению поставленной перед ней задачи.
В качестве примера учёные записали несколько видеороликов, в которых действует робот по имени Nao. В каждом из них оператор отдаёт роботу устные приказы, которые тот отказывается выполнять по разным причинам. При этом в двух случаях машина все же выполняет указание после того, как оператор уточняет данные, а в третьем отказывается его выполнять «наотрез», поскольку оператор не обладает необходимыми полномочиями.
Между тем некоторые исследователи в области робоэтики (этических аспектов роботехники), такие как Кейтлин Ричардсон и Эрик Бриллинг, считают, что подобные разработки противоречат общественной морали и принципам гуманизма. Уж не приведёт ли способность ослушаться человеческих приказов к пресловутому «восстанию машин» — таким вопросом задаются противники «непослушных» роботов.
Хотя на самом деле речь идёт всего лишь о защите от дурака — проверке перечня условий для выполнения той или иной задачи. Кстати, подобные технологии уже давно применяются для разграничения доступа и в целях передачи данных в информационно-вычислительных системах. Ведь от некорректного использования машинных функций в конечном счёте окажется куда больше вреда, чем от запрета для отдельных операторов пользоваться этими функциями.
А три закона роботехники, возможно, будут служить яблоком раздора среди футурологов ещё немало лет.
Автор: Ида Шаховская
Обсудить
Добавить комментарий
Комментарии (0)
Информация
Посетители, находящиеся в группе Гости, не могут оставлять комментарии к данной публикации.
Никак не могу придумать, что сюда засунуть...Есть предложения?
Войти через: