Разделы

Безопасность Стратегия безопасности Бизнес Законодательство Техника

ЕС опубликовал закон против порабощения человечества искусственным интеллектом

В Европейском Союзе подготовлен документ, регламентирующий правила разработки технологий «искусственного интеллекта». В нем содержится требование в обязательном порядке обеспечивать соблюдение ИИ и законов, и этических норм. Одно из положений Директивы в том, что искусственный интеллект должен создаваться в поддержку субъектности человека, а не наоборот.

Не навреди человеку

Европейский Союз опубликовал черновик Директивы об этичном подходе к разработке искусственного интеллекта.

В документе указывается, что ИИ должен «соблюдать закон, этические нормы и быть надежным», и все эти составляющие должны учитываться в равной степени. В случае, если какая бы то ни было из них отсутствует, общество должно немедленно добиваться исправления этого недостатка.

«Этическое измерение ИИ - это не премиальная характеристика или аддон, - отметил член Еврокомиссии Андрус Ансип (Andrus Ansip), отвечающий за направление единого цифрового рынка ЕС. - Наше общество может что-то выиграть от технологий только в случае полного к ним доверия».

В 41-страничном документе Директивы указывается, что именно сейчас существует возможность удостовериться, что системы искусственного интеллекта будут «человекоцентричными, нацеленными целиком и полностью на то, чтобы служить человечеству и общему благу и на то, чтобы способствовать совершенствованию условий человеческого существования и его свободе».

Робот для человека, не наоборот

Директива выделяет семь основных факторов этической разработки ИИ. Искусственный интеллект должен создаваться в поддержку субъектности человека, а не наоборот; он должен быть надежным, устойчивым к ошибкам и лишенным уязвимостей перед атаками; граждане, в свою очередь, должны иметь контроль над своими данными, и эти данные не должны использоваться для причинения им вреда.

Важное положение Директивы гласит, что искусственный интеллект должен создаваться в поддержку субъектности человека, а не наоборот

В документе также указывается, что общественность должна иметь полное представление о том, какие работы по созданию ИИ ведутся, и что всякая разработка искусственного интеллекта должна вестись с учетом ключевой идеи: совершенствование общества и окружающей среды. Также должны учитываться справедливость и многообразие; плюс к этому должны создаваться механизмы, обеспечивающие «ответственность ИИ-систем» за результаты их работы.

Нынешняя версия директивных указаний носит сугубо черновой характер; сейчас их будут изучать представители индустрии, и по итогам консультаций с ними предлагаемые правила могут существенно поменяться. В конечном счете, ЕС планирует выработать набор конкретных правил, обязательных для исполнения всеми игроками рынка.

«Искусственный интеллект, который действует без учета этической составляющей и, в конечном счете, превращается из помощника в угрозу для человечества, - это очень распространенный и очень старый мотив в научной фантастике, - отмечает Роман Малышев, директор по маркетингу группы компаний «Программный Продукт». - Но сейчас человечество вплотную приблизилось к созданию такого искусственного интеллекта, и риск превращения полезного инструмента в источник угрозы действительно реален как никогда прежде. Так что идея обязать разработчиков ИИ внедрять этический компонент выглядит безусловно правильной. Мы как технологическая компания, в последнее время все чаще работаем над проектами, в которых задействованы элементы ИИ и машинного обучения и данный аспект является для нас очень актуальным. По сути, наш основной принцип сейчас должен быть тот же, что и у врачей: «Не навреди». Единственная проблема состоит в том, что в разных национальных культурах даже базовые представления и об этике, и о границах применимости ИИ могут более чем существенно разниться, так что единства представлений в этой области ожидать в обозримом будущем не приходится, но это не значит, что над этой проблемой не стоит работать уже сейчас».

Черновой текст Директивы доступен по ссылке.

Роман Георгиев