Разделы

Бизнес Законодательство Интеграция ИТ в госсекторе Техника

ИИ cделают для людей последней инстанцией. Призвать человека к перепроверке его решения будет нельзя

Власти Великобритании предлагают отказаться от положения, согласно которому люди имеют право оспорить любое решение, принятое искусственным интеллектом, и запросить его проверку человеком. Эксперты при правительстве, однако, решительно возражают.

Все не пересмотреть

Власти Великобритании рассматривают возможность отмены важного положения, которое позволяет людям оспаривать решения, принятые системами искусственного интеллекта (ИИ) и требовать их пересмотра людьми. Эксперты из технологической сферы выступают резко против.

Министерство цифровой экономики, культуры, СМИ и спорта Великобритании (DMCS) опубликовало новые предложения об изменении режима защиты данных в этой стране и пригласило сторонних экспертов высказать свое мнение по данным предложениям.

Среди предлагаемых нововведений — отмена положения, согласно которому граждане страны могут требовать отмены решений, принятых полностью автоматизированными системами, и пересмотра их людьми.

Британские власти хотят предельно снизить уровень контроля над ИИ

Инициаторы данной поправки указывают, что это правило будет «непрактичным и несоразмерным», учитывая стремительное распространение технологий ИИ в повседневности, что обеспечить возможность пересмотра каждого решения машины людьми нереалистично, и что для бизнеса предусматривать возможность «ручного отката» для каждого решения машины — лишняя нагрузка.

Защита должна сохраняться

Однако специалисты Британского компьютерного общества (BCS), сертифицированной экспертной организации, занимающейся вопросами информационных технологий, выступили решительно против этой инициативы.

«Это правило призвано обеспечить уровень прозрачности для технологии и защиты людей в процессе принятия решений автоматизированными системами, которые могут нанести им существенный вред, — отметил Сэм Де Силва (SamDeSilva), председатель юридической группы внутри BCS. — Необходимо сохранить какую бы то ни было защиту, нежели целиком полагаться на «черный ящик».

Положение о контроле над всеми решениями ИИ прописано в статье 22 Общего регламента по защите данных Евросоюза, который Великобритания полностью ратифицировала пока входила в ЕС. Теперь власти страны хотят установить собственные правила, которые, по мнению их авторов, должны будут снять некоторые ограничения и «подхлестнуть развитие технологий, внедрение инноваций и рост конкурентного потенциала», — это аргументы, которые приводит DMCS.

Речь не идет о полной отмене возможности пересмотреть решения ИИ. В особо рискованных сферах ее предлагается сохранить, но в целом министерство считает, что рост автоматизации принятия решений в разных отраслях будет только расти в ближайшие годы, поэтому нужно определить, где именно необходимо сохранять возможность «ручного» пересмотра.

Ранее специальная группа по инновациям экономическому росту и реформе законодательства при правительстве Великобритании также выступила с предложением отказаться от положения об обязательной проверяемости людьми решений, принимаемых ИИ. Предлог тот же: снять ограничения инноваций.

Однако Де Силва и его соратники полагают, что риск дерегулирования технологии на данный момент слишком велик. Бесконтрольная автоматизация решений в таких областях как финансы или трудоустройство могут очень значительно, и далеко не положительным образом сказаться на жизнях людей, и отсутствие сдерживающих факторов может иметь угрожающие последствия.

Эксперты в целом согласны, что у статьи 22 есть свои недостатки. Она не достаточно внятно прописана, оставляет пространство для разночтений и произвольных трактовок. Однако полный отказ от нее — наименее предпочтительный вариант, считает Де Силва.

«Очень многое упирается в то, насколько значительно решения ИИ влияют на жизнь человека, и как это определять, — считает Дмитрий Кирюхин, эксперт по информационной безопасности компании SEQ. — Многие риски могут быть на первый взгляд неочевидными. Если, однако, бизнес готов полагаться на полную автоматизацию решений, не слишком оглядываясь на возможные негативные последствия, то, конечно, человеческий контроль будет рассматриваться как “сдерживание инноваций”. Однако утверждать, что технологии ИИ настолько зрелы и безопасны, что ими можно пользоваться бесконтрольно, — во всех смыслах опрометчиво».

Роман Георгиев

Подписаться на новости Короткая ссылка