Разделы

Безопасность Новости поставщиков Стратегия безопасности Бизнес Законодательство Техника

ИИ хотят использовать для усиленного надзора за сотрудниками. Противники возражают: слежка - это никуда не годится

Системы усиленного видеонаблюдения активно применяются на опасных производствах для слежки за соблюдением правил безопасности. Но законодатели и академические круги считают, что законодательство должно установить для них более жёсткие рамки.

Обезвреженные лица, защищённые глаза

Австралийские власти заявили, что получают растущее количество запросов и жалоб на использование ИИ для перманентного видеонаблюдения над работниками коммерческих компаний. Поставщики соответствующих решений и их клиенты, в свою очередь, утверждают, что это делается в интересах работников, и что личные данные последних не нарушаются.

Компания Intenseye, которая как раз поставляет средства наблюдения, усиленные ИИ, заявляет, что в Австралии у неё множество клиентов, включая крупную горнодобывающую компанию. Решения нацелены на предотвращение нарушений техники безопасности: например, если работник на опасном участке не надел каску или защитные перчатки - и тем самым подверг свои жизнь и здоровье риску, - система поднимет тревогу и пошлёт работнику уведомление о том, что носить защитные средства необходимо.

ИИ, который лежит в основе всей системы, можно натренировать на то, чтобы он автоматически обнаруживал самые разные нарушения и ошибки и принимал меры к их профилактике.

intenseye600.jpg
Законодатели и ученые считают, что нужно установить жёсткие рамки для интеллектуального видеонаблюдения

В Intenseye утверждают, что система по умолчанию размывает лица работников при обработке видеопотоков с камер наблюдения, так что им можно не опасаться давления со стороны руководства или компрометации их личных данных.

Один из менеджеров Intenseye Дэвид Лимон (David Lemon) признал, что компания иногда получает со стороны клиентов просьбы снять маскировку лиц или сделать данные работников более уязвимыми, но защитные механизмы решений Intenseye не позволяют этого сделать. В новых версиях изображение человека на видео и вовсе подменяется цифровым «скелетом», так чтобы опознать работника было невозможно.

В целом, утверждает Лимон, компания соблюдает все нормативы по защите персональных данных и её разработка прошла аудит со стороны американской Лаборатории по этике ИИ (AI Ethics Lab).

Они следят за нами

Между тем, технология видеонаблюдения на базе ИИ подвергается жёсткой критике со стороны академических кругов. Как заявил профессор Николас Дэвис (Nicholas Davis), специалист по развивающимся технологиям при Технологическом университете Сиднея, встаёт вопрос о «расползании» средств слежения.

«В то время как этот маленький пример [использование технологий Intenseye на опасных производствах] может быть оправдан - теоретически оправдан - соображениями защиты здоровья и безопасности, существует миллион других сценариев, где использование этих технологий тоже можно оправдать. А кумулятивным результатом всех этих незначительных изменений оказывается заметное изменение нашего поведения, потому что мы осознаём, что камеры постоянно следят за нами и оценивают нас».

Дэвис считает, что даже в тех случаях, когда коммерческие компании принимают меры по этичному применению ИИ, законы Австралии о слежке и наблюдении не отвечают текущей ситуации и не могут эффективно регулировать применение этих новых технологий.

«Законодательство не может предвидеть такие вещи, как, например, прорыв в машинном обучении», - говорит Дэвис.

Закон на догоняющей позиции

Сейчас в Австралии производится пересмотр и переоценка Закона о защите личных данных 1988 года, - как раз в связи с тотальным распространением технологий ИИ. В существующей версии закона ничего не говорится о постоянном наблюдении за рабочими местами, хотя работодатели и обязаны уведомлять работников о сборе их личных данных.

Дэвис - один из соавторов новой версии законопроекта о приватности, в которой, среди прочего, будет регулироваться использование технологий распознавания лиц.

«Существует понимание, что нам необходимы более гибкие, динамичные и адаптивные способы регулирования таких технологий, - говорит он. - Я считаю, что работники должны проявлять всё больше твёрдости и скептичности в отношении технологий, которые им рекламируют, и задавать наибольшее количество вопросов их производителям, если не до конца понятно, как они работают.»

Также по мнению Дэвиса, в итоге советы директоров компаний будут нести ответственность за ошибки, совершённые автоматизированными системами при использовании машинного обучения и других форм ИИ.

Австралийское Министерство промышленности, науки и ресурсов разработало документ, определяющий принципы этического использования ИИ в коммерческих средах (Artificial Intelligence Ethics Framework), в основе которого содержится ряд основополагающих этических принципов.

Однако директор Центра будущего трудоустройства при Институте Австралии Джим Стэнфорд (Jim Stanford) считает, что пробелы в законодательстве открывают широкие возможности для злоупотребления, и что сознание постоянной слежки может очень дорого обходиться работником в плане здоровья.

Стэнфорд признаёт, что не против камер на рабочем месте, тем более, что они уже так распространились, что никуда не денутся. Главный вопрос в том, как они используются и как работники защищены от злоупотреблений. Законодательство Австралии уже очень, очень сильно отстаёт от объективной технологической действительности, - говорит он.

«Степень инвазивности систем видеонаблюдения, усиленных ИИ, зависит не только от законов, точнее сказать, сами законы - скорее вторичный фактор, - говорит Алексей Водясов, технический директор компании SEQ. - Сегодня приходится исходить из того, что распространение этих технологий в ближайшие годы будет носить тотальный характер - сегодня вряд ли уже существует хотя бы один крупный город, в котором не была бы развёрнута система тотального видеонаблюдения. Но это верхний уровень. А насколько ниже может спуститься использование таких систем, насколько повысится их инвазивность на персональном уровне, зависит, в первую очередь, от моральных ценностей общества, где они используются. И от отношения к приватности и защите личной информации. Единой парадигмы приватности в мире, к сожалению, не существует. Но во многих странах применение систем усиленного видеонаблюдения уже становится предметом жёстких юридических ограничений, а поставщики таких решений - в особенности, систем распознавания лиц в реальном времени, попадаются под серьёзные санкции».

Действительно, Евросоюз пытается ограничить применение технологии распознавания лиц, вплоть до полного запрета их использования в публичных местах. В США в нескольких городах муниципальным властям и правоохранительным органам законодательно запрещено использовать технологии распознавания лиц.

В апреле также было объявлено, что в ЕС разрабатывается акт об искусственном интеллекте (ИИ), который может наделить регулирующие органы правом ликвидировать или переобучать модели ИИ, если установлено, что их использование сопровождается высоким риском. Это касается и систем распознавания лиц, и любых других.

Роман Георгиев