Видеонаблюдение

Что такое биометрия сегодня - и почему весь мир спорит о том, что камера имеет право видеть

Ещё каких-то двадцать лет назад слово «биометрия» звучало так же экзотично, как «нанороботы» или «домашний 3D-принтер». Им интересовались производители паспортных сканеров, пару технологических стартапов да футурологи, которые уверяли, что в 2025 году мы будем проходить границу по отпечатку мысли. Остальной мир жил спокойно, не подозревая, что камеры однажды начнут замечать слишком много — возраст, эмоции, походку, стиль одежды, причёску, цвет волос, очки, татуировки, а иногда и то, что человек предпочёл бы скрыть даже от себя.
Технологии рвутся предсказать, кто мы такие и что чувствуем. Законы — наоборот, пытаются удержать эти амбиции в узких рамках того, что общество готово терпеть. И самое смешное: рамки эти в каждой стране свои. Одна и та же система в Москве будет считаться «обычной аналитикой», в Брюсселе — опасным вмешательством в частную жизнь, в Иллинойсе — поводом для многомиллионного иска, а в Сингапуре — просто удобной функцией CCTV.
Сегодня в центре всех этих юридических штормов стоит странно простое слово: биометрия. Оно звучит футуристично, но в правовом мире означает всего лишь данные, по которым человека можно уникально идентифицировать — и которые используются для этого.
Однако попытайтесь провести чёткую линию между «идентификацией» и «аналитикой» — и вы быстро окажетесь в болоте из нюансов, исключений и логических парадоксов. Если алгоритм определяет эмоции — это биометрия или нет? А если возраст? А цвет волос? А «расовое происхождение» — которому, по идее, камеры вообще не должны учиться, но который машинное зрение всё равно часто пытается угадать? А если система находит похожие лица, не называя конкретного человека — это идентификация или просто поиск совпадений?
Законодатели по всему миру спорят об этом как о философской дилемме: что важнее — цель обработки, сам процесс или потенциальная возможность причинить вред?

Европа: правовой лабиринт, где эмоции — уже на грани преступления

В Европе биометрия — это почти священное слово. GDPR не считает лицо биометрией само по себе: только если лицо обрабатывается с целью уникальной идентификации, начинается режим «особой категории данных».
Проблемы начались, когда технологии научились смотреть глубже — в эмоции, поведение, микровыражения. Европейские регуляторы вдруг обнаружили, что их прежние определения беспомощны перед алгоритмами, которые анализируют настроение студента на экзамене, уровень стресса сотрудника или «подозрительные» поведенческие паттерны в аэропорту.
Новый AI Act, вступающий в силу в 2025 году, выделил распознавание эмоций в отдельную зону повышенного риска. Это не биометрия, но и не обычная аналитика — что-то вроде «цифровой полиграфии», которую в школах и на работе решили фактически запретить. Европа считает, что камеры, анализирующие эмоции, нарушают фундаментальный баланс власти: человек должен быть не объектом надзора, а субъектом выбора.
Отдельная мина замедленного действия — попытка алгоритмов определять расу или этническое происхождение.
GDPR даже не оставляет поля для обсуждения: данные о расовом происхождении — всегда чувствительная категория, и любая попытка машины предсказать их из изображения считается недопустимой. Тем не менее сами алгоритмы нередко тайно пытаются это делать, потому что нейросетям так проще кластеризовать лица. В Европе это вызывает особую ярость: даже непреднамеренные попытки модели угадать расу считаются потенциальной дискриминацией.

США: юридическая рулетка, где выигрышем считается просто “не быть засуженным”

Если Европа — это правовой собор, то США — это пустыня, где каждый штат строит свою дюну.
Единого федерального закона нет. Государство предпочитает смотреть со стороны, а всё регулирование происходит на уровне отдельных территорий.
Главный монстр американской юриспруденции — BIPA, закон штата Иллинойс. Он превратил биометрию в самое дорогое сырьё США. Под действие BIPA подпадает почти всё: сравнение лиц, шаблоны, фингерпринты, анализ уникальных черт.
Facebook, Google и сотни компаний меньше проигрывали многомиллионные иски.
Но по ту сторону границы, в соседнем штате?
Всё это может быть прекрасно законным.
Результат — абсолютная юридическая рулетка. Один и тот же сервис в США может быть:
  • запрещён в Иллинойсе,
  • ограничен в Техасе,
  • абсолютно легален в Калифорнии,
  • и вообще не регулироваться во многих других штатах.
Для бизнеса это настоящий аттракцион на выживание: вы никогда не знаете, какой штат подаст коллективный иск за то, что ваш алгоритм когда-то сравнил два лица.

Китай: когда лицо — это всегда чувствительная информация

Китайский подход не оставляет сомнений и не тратит время на философию.
Здесь лицо — всегда чувствительный персональный идентификатор.
Эмоции — чувствительные.
Поведение — чувствительное.
Анализ походки — чувствительный.
Даже смутное определение возраста или признаков внешности — чувствительное.
Коммерческое использование подобных данных возможно только под жёстким контролем, а попытки использовать распознавание эмоций без явного, недвусмысленного согласия считаются нарушением.
Китайская философия проста: если технология может повлиять на поведение граждан — она должна находиться под надзором государства. Никаких попыток «подумать потом».
Если Европа боится эмоциональных манипуляций, а Америка — исков, то Китай боится одного: неконтролируемой информации о человеке.

Россия: здравый смысл с поправкой на идентификацию

На этом фоне российский подход выглядит почти старомодно прагматичным. Здесь закон не пытается превратить в биометрию весь видеопоток мира.
Не идентифицирует человека — не биометрия. И точка.
В России биометрией НЕ являются:
  • эмоции,
  • возраст,
  • цвет волос,
  • очки,
  • борода,
  • одежда,
  • походка (пока она не используется для идентификации),
  • определение пола,
  • любые поведенческие признаки, пока они НЕ ведут к установлению личности.
Даже анализ «похожих людей» не считается биометрией до тех пор, пока система явно не говорит: «Это Иванов».
Ключевой критерий — цель обработки.
Не способность алгоритма, а намерение оператора.
Если камера просто сообщает:
«Человек улыбается» — это аналитика.
Если она говорит:
«Иванов улыбается» — это биометрия.
И сразу включается режим строгого регулирования: 152-ФЗ, 572-ФЗ и весь сопутствующий набор обязанностей.
Россия проводит чёткую логическую черту: идентификация = биометрия; отсутствие идентификации = обычная аналитика.
Это оставляет огромный простор для развития умного видеонаблюдения, не превращая каждую камеру в юридическую мину.

И да, животные тоже попали в игру — но им повезло больше

Особенно забавно всё это выглядит на фоне сельского хозяйства.
Современный агробизнес активно использует:
  • идентификацию коров по морде,
  • анализ поведения свиней,
  • контроль состояния курицы по позе,
  • мониторинг стресса у лошадей.
Но поскольку животные не являются субъектами персональных данных ни в одной стране, никакое распознавание коровьих физиономий не считается биометрией.
Единственный риск — нечаянно распознать стоящего рядом фермера.

Отдельная тема: определение расы — запретное искусство, которое алгоритмы всё равно практикуют

Определение расы — едва ли не самая политически опасная зона.
Большинство стран вообще не желают, чтобы алгоритмы занимались этим:
  • Европа считает попытку определить расу из изображения категорически недопустимой — независимо от цели.
  • США официально не запрещают, но такие системы почти гарантированно станут причиной судебных исков.
  • Китай называет это чувствительными данными, требующими максимального надзора.
  • Россия вообще не оперирует этим термином в биометрическом смысле: цвет кожи, черты лица, этнические признаки — не биометрия, пока не используются для идентификации личности.
Однако проблема в том, что сами модели машинного зрения часто пытаются угадывать расовые категории «под капотом», потому что так им проще группировать данные. Это вызывает яростные споры о дискриминации, необъективности и возможных злоупотреблениях.

Единого мира биометрии не существует

И это, пожалуй, главный итог. Европа боится манипуляций. Америка — исков. Китай — неконтролируемого использования данных. Россия — лишь установления личности без должного основания.
В итоге одна и та же камера будет юридически разной в зависимости от того, где она висит. А если отбросить тонкости законов, остаётся куда более важный вопрос — философский, почти вечный: Где проходит граница между наблюдением и властью над человеком?
Сегодня её рисуют юристы, завтра — инженеры, а послезавтра, возможно, сами алгоритмы. И пока камеры учатся видеть больше, чем человеку иногда хотелось бы, общество вынуждено решать: какую часть цифрового зрения мы готовы оставить себе — а какую обязаны ограничить, чтобы не проснуться однажды в мире, где алгоритм знает о нас больше, чем мы сами.
В фокусе Новости видеонаблюдения