10 минуты чтения

Поделиться этой статьей

Rate this Post

Запрещенные практики в рамках Закона о ИИ: обзор ограничений

Аня Берич

Адвокат

24/12/2024
EU AI Act Forbidden Practices

После ознакомления с основными принципами Закона о ИИ, следующим важным шагом является понимание того, какие практики, связанные с использованием ИИ, являются допустимыми, а какие считаются рискованными и, следовательно, запрещены. Важность правильного понимания и предотвращения недопустимых практик особенно подчеркивается тем, что статья 5 Закона о ИИ, регулирующая запрещенные практики, вступает в силу значительно раньше других частей Закона – а именно, 5 февраля 2025 года.

С приближением этой даты настала пора приступить к детальному анализу запрещенных практик, чтобы лучше понять способы, которыми ИИ не должен использоваться.

Все запреты касаются ИИ-систем, использующих определенные методы или нацеленных на цели, которые не считаются оправданными, безопасными или законными. В частности, такие системы могут привести к:

 

1. Манипулятивные или обманчивые методы, влияющие на принятие решений

 

Первый запрет в рамках Закона о ИИ направлен на предотвращение негативного воздействия на человека с помощью обманчивых, манипулятивных или других подсознательных техник, реализованных в ИИ-системе. Описанные методы приводят к тому, что человек принимает решение, которое он или она в противном случае не принял бы, что наносит или может нанести вред этому человеку, другому человеку или группе.

В частности, этот запрет запрещает:

  • вывод на рынок,
  • ввод в эксплуатацию или
  • использование любой такой ИИ-системы.

 

Эти методы незаконны, потому что они нарушают способность человека принимать осознанные решения по конкретному вопросу. Проще говоря, это ограничение касается методов, которые влияют на сознание человека и, как следствие, вызывают действия или бездействие, не соответствующие свободной воле человека.

Типичный пример такой практики включает использование ИИ-системы на онлайн-платформе для сбора информации о привычках пользователя и его предыдущих покупках. На основе собранных данных ИИ-система может научиться предсказывать моменты, когда пользователь, скорее всего, совершит импульсивную покупку, не нуждаясь в этом товаре. Такие ИИ-системы будут признаны манипулятивными, если они будут использовать такие моменты для отображения ограниченных предложений, например, «Осталось всего 5 минут для скидки 50%!», так как такие сообщения могут побудить пользователя действовать на основе, вероятно, ложной информации.

 

2. Искажение поведения человека с использованием уязвимости

 

Граждане ЕС не должны запускать, предоставлять или использовать ИИ-системы, которые используют конкретную уязвимость человека для воздействия на его поведение таким образом, который может причинить вред ему или другому человеку.

Например, уязвимость может проявляться в следующем:

  • наличие какого-либо типа инвалидности,
  • определенный возраст,
  • социальная или экономическая ситуация,

представляет собой уязвимость, которую не следует эксплуатировать в соответствии с этим запретом.

В практике этот запрет часто проявляется в виде маркетинговых практик, направленных на чувствительные категории людей с целью побудить их к действиям из-за их уязвимости. Например, ИИ-система, анализируя привычки пользователей, может определить, что пользователь находится в сложной финансовой ситуации, так как он искал вакансии или использовал слова вроде «дешево» или «низкая стоимость». Если такая система начнет показывать рекламный контент, рекламирующий нелегальные способы заработка или рискованное поведение, например, азартные игры, то такая система будет признана недопустимой согласно Закону о ИИ.

 

3. Социальный рейтинг, который может привести к неблагоприятным последствиям

 

Следующая запрещенная практика заключается в использовании ИИ-систем для классификации людей на основе их поведения или характеристик, что может привести к негативному социальному рейтингу.

Что это означает на практике?

«Негативный» социальный рейтинг может привести к одному или обоим следующим последствиям:

  • неблагоприятное отношение к человеку или группе в социальном контексте, не связанном с первоначальной целью сбора данных о человеке, или
  • несправедливое или непропорциональное неблагоприятное отношение к человеку или группе.

 

Причина, по которой использование таких ИИ-систем запрещено, заключается в том, что оно может легко привести к нарушению некоторых фундаментальных прав и ценностей, таких как достоинство, справедливость или равенство.

Примером практики, которая будет противоречить критериям Закона о ИИ, является внедрение ИИ-инструмента в систему оплаты и анализ финансовых привычек людей (например, склонности к расходованию или накоплению средств). На основе таких данных ИИ-система может присваивать социальный рейтинг людям, что приведет к неблагоприятному отношению, например, в виде отказа в кредите в банке. Использование ИИ в этом случае приведет к дискриминации и нарушению базовых прав человека, что делает такую практику запрещенной.

 

4. Оценка склонности человека к преступной деятельности на основе профилирования

 

Еще одной запрещенной практикой является использование ИИ для оценки того, может ли человек совершить преступление, исходя из его личности. Такая система использует машинное обучение для анализа социальных взаимодействий, типа личности или других характеристик, чтобы предсказать возможные действия без связи с реальными криминальными доказательствами.

Как работает такая система? Например, ИИ может использовать результаты анализа личности для вывода о том, что человек может стать преступником в будущем. Такой вывод будет, очевидно, не основан на проверяемых и объективных фактах, а на субъективных критериях, что может привести к неточностям и дискриминации, а также к вопросам нарушения приватности.

Однако этот запрет не является абсолютным, поскольку он не применяется к системам ИИ, которые используются только для поддержки человеческой оценки вовлеченности индивида в правонарушения. Причина такого исключения заключается в том, что такая оценка предполагается уже основанной на фактах, которые являются объективными, доказуемыми и напрямую связанными с реальной преступной деятельностью.

Таким образом, использование ИИ в правоохранительной деятельности не обязательно должно быть запрещено; его можно перенаправить и ограничить до соответствующего уровня.

 

5. Распознавание лиц на основе нецеленаправленного сбора данных

 

Использование ИИ-систем для массового сбора изображений и записей людей с целью создания баз данных без предварительного согласия является недопустимым в рамках Закона о ИИ. Другими словами, нецеленаправленный сбор данных для создания систем распознавания лиц запрещен.

Сбор данных для этих целей уже давно является спорным с юридической точки зрения, и принятие Закона о ИИ, похоже, не успокаивает дебаты по этому поводу, а наоборот, лишь усиливает их.

Этот запрет распространяется как на общедоступные данные, так и на ограниченно доступные, такие как данные, собранные с помощью систем видеонаблюдения, обычно используемых для соблюдения частной жизни (например, для мониторинга территории).

Основной целью этого ограничения является защита от несанкционированной обработки данных, а также защита права на частную жизнь и персональные данные. По сути, этот запрет одновременно охватывает как объекты Закона о ИИ, так и GDPR.

 

6. Выводы об эмоциях сотрудников или студентов

 

ИИ-технологии, которые направлены на определение эмоций сотрудников или студентов, также не допускаются в соответствии с положениями Закона о ИИ. Особенно это касается технологий, анализирующих эмоции человека и делающих выводы на основе собранной информации.

Например, ИИ-система, визуально записывающая сотрудников и распознающая их эмоции во время видеоконференций, может подпадать под этот запрет.

Почему такие инструменты запрещены? Потому что они могут привести к предвзятости или другому несправедливому обращению с людьми или нарушению их прав. Это ограничение также особенно важно в контексте рабочих или учебных ситуаций, где существует дисбаланс сил между участниками (работодатель или образовательные учреждения имеют власть над сотрудниками и студентами).

Тем не менее, не все системы для выявления эмоций с помощью ИИ рассматриваются как неприемлемые. Исключение составляют те, которые используются в медицинских или безопасностных целях, так как они могут быть полезными и служить положительным целям.

 

7. Потенциально дискриминационное использование биометрических систем категоризации

 

Следующий запрет в рамках Закона о ИИ касается использования ИИ-систем для категоризации биометрических данных на дискриминационных основаниях.

Запрещается использование биометрических данных для категоризации людей по таким потенциально дискриминационным основаниям, как:  

  • раса,
  • политические убеждения,
  • членство в профсоюзе,
  • религиозные убеждения,
  • философские взгляды,
  • сексуальная жизнь или сексуальная ориентация.

 

Например, этот запрет запрещает использование систем распознавания голоса или изображений, которые могут определить расу, цвет кожи или этническую принадлежность человека.

С другой стороны, законное использование биометрических систем, таких как те, что используются правоохранительными органами, не подпадает под запрет. Следовательно, использование собранных биометрических данных для законных и контролируемых целей, таких как идентификация преступника или выполнение других законных действий для пресечения преступлений, остается разрешенным.

 

8. Системы удаленной биометрической идентификации в реальном времени для целей правоохранительных органов

 

Однако не все цели правоохранительных органов разрешены в рамках Закона о ИИ. Последний запрет касается использования систем удаленной биометрической идентификации в реальном времени органами власти. Причина этого запрета заключается в предотвращении нарушения прав и свобод человека, а также в обеспечении неприкосновенности частной жизни граждан.

Хорошим примером недопустимого поведения является использование технологии распознавания лиц на массовых мероприятиях (например, на крупных музыкальных концертах или политических демонстрациях) для идентификации людей, а затем сопоставление собранных данных с криминальными базами данных или использование их для других юридически необоснованных целей.

Исключительно, существуют некоторые оправданные случаи, когда такие действия будут соответствовать Закону о ИИ:

  • в ходе целенаправленного поиска жертв торговли людьми или похищений,
  • предотвращение высоко вероятного риска для безопасности, такого как террористический акт,
  • локализация лица, подозреваемого в совершении тяжкого преступления, за которое может быть назначено тюремное заключение сроком не менее четырех лет.

 

Тем не менее, даже если эти системы могут быть использованы в рамках некоторых исключений, все равно существуют требования, установленные Законом о ИИ, которые должны быть выполнены для минимизации рисков использования систем удаленной биометрической идентификации в реальном времени. А именно, Закон о ИИ утверждает, что такие системы могут использоваться только для подтверждения личности человека при соблюдении следующих условий:

  • необходимо учитывать тяжесть, вероятность и степень возможного ущерба, который может возникнуть, если система не будет использована,
  • необходимо провести оценку воздействия на основные права человека, чтобы проанализировать последствия использования системы,
  • система должна быть зарегистрирована в базе данных ЕС высокорисковых ИИ-систем,
  • использование такой системы должно быть одобрено национальными властями государства, в котором система используется, при этом одобрение должно основываться на объективных доказательствах или явных указаниях, что использование системы необходимо и пропорционально для достижения цели, оправданной Законом о ИИ,
  • как орган рыночного надзора, так и орган защиты данных соответствующего государства-члена ЕС должны быть уведомлены о системе. После уведомления эти органы должны подавать ежегодные отчеты в Европейскую комиссию о применении этих систем.

 

Если государство-член ЕС решит в целом разрешить использование такого типа систем в публичных местах, оно может принять национальное регулирование в этом отношении, при условии, что такой закон соответствует описанным ограничениям, установленным Законом о ИИ.

Можно заметить, что все запреты в рамках Закона о ИИ определены довольно широко, чтобы ограничить возможные угрозы, возникающие при использовании ИИ. Мы надеемся, что эти ограничения обеспечат баланс между полезным использованием искусственного интеллекта с одной стороны и предотвращением его негативных последствий с другой. Однако в ближайшие месяцы после вступления в силу этого положения Закона о ИИ мы будем наблюдать, станут ли установленные ограничения эффективным механизмом защиты или же препятствием для индустрии ИИ. В любом случае, для каждой компании важно тщательно проанализировать все ИИ-системы до февраля 2025 года.

Похожие статьи

Последние статьи

Вы не уверены, с чего начать?

Если вы не уверены, с чего начать, запишитесь на консультацию с одним из наших специал

techlawafficiendo

privacywhisperer

cryptobuddy

evegreen

Не просто еще одна рассылка

Забудьте скучный юридический анализ. Получайте своевременные обновления,
новости и напоминания, которые действительно могут помочь вашему бизнесу.