Новые протоколы реальности: что меняется, когда тексты, фото и видео перестают быть доказательством
Ещё недавно фотография, видеозапись или документ служили почти неоспоримым «пруфом» произошедшего. Фраза «лучше один раз увидеть, чем сто раз услышать» отражала прежний протокол доверия: медиа-контент воспринимался как доказательство. Однако с появлением генеративного ИИ — когда тексты, изображения и даже голоса могут быть синтезированы компьютером — «увидеть» больше не означает «поверить». Мы вступаем в эпоху, когда доверять приходится не самому контенту, а его проверяемости. На наших глазах складываются новые стандарты и инфраструктуры верификации, а в обществе формируется культура скепсиса по отношению к любым непроверенным данным.
Когда медиа были доказательством — и почему всё рушится
Ещё в конце XX века фото- и видеосъёмка считались объективной фиксацией реальности. Суды, СМИ и общество доверяли снимкам и записям: камера «не врёт». Письменный документ с подписью или аудиозапись голоса тоже имели вес доказательства. Но этот протокол доверия к медиа стремительно разрушается. Цифровой монтаж сначала усложнил жизнь — в эпоху Photoshop мы узнали, что фото можно отредактировать. Теперь же генеративные нейросети выводят это на новый уровень: они сами способны создавать правдоподобные тексты, изображения и видео, которые никогда не существовали в реальности.
Дипфейки (deepfakes) наглядно демонстрируют эту проблему. Специальные алгоритмы могут заставить человека на видео говорить или делать то, чего он никогда не делал, — с поразительной реалистичностью.
Как метко отметил исследователь Джон Вильясеньор, реалистичные дипфейки эксплуатируют наше врождённое доверие к тому, что мы видим собственными глазами, «превращая вымысел в кажущийся факт ». Одновременно знание о существовании таких фальшивок подтачивает доверие и к подлинным записям - правда становится неуловимой, ведь мы больше не уверены, что реально, а что нет. Иначе говоря, любое медиа теперь подозрительно. Фото знаменитости в необычном месте? Возможно, это ИИ-сгенерированный фейк (вспомним вирусное изображение Папы Римского в модном пуховике, которое обмануло тысячи пользователей). Резонансное видео с политиком? Легко может оказаться дипфейком. Письмо от «гендиректора»? Его мог написать ChatGPT. В результате мы сталкиваемся с кризисом доверия: если раньше по умолчанию верили визуальным и текстовым свидетельствам, то теперь по умолчанию приходится сомневаться.
Подписи, метки и провенанс: технологии проверки подлинности
Провенанс (от англ. provenance — происхождение) — это подтверждённая история происхождения и изменений цифрового контента, включающая информацию о том, кто создал файл, когда, на каком устройстве и какие правки в него вносились. В контексте верификации медиа провенанс реализуется через криптографические подписи и метаданные, которые позволяют проверить подлинность и отследить все модификации изображения, видео или документа.
Разрушение старых механизмов доверия побудило появление новых технических решений, призванных вернуть уверенность в контенте. Крупнейшие технологические компании, медиахолдинги и даже государства сейчас работают над инфраструктурой верификации — своего рода «протоколами реальности», где важна не сама картинка или текст, а их подтверждённое происхождение.
Цифровые подписи и провенанс. Один из подходов - встроить в медиафайл несмываемую метку о том, кто и когда его создал и как изменял. Например, в 2019 году Adobe инициировала проект Content Authenticity Initiative, позже объединённый с коалицией C2PA (Coalition for Content Provenance and Authenticity), чтобы разработать открытый стандарт подтверждения подлинности. Результатом стала технология Content Credentials - своего рода «паспорт» для фото или видео. При экспорте изображения из фоторедактора или при съёмке камерой к файлу прикрепляется криптографическая подпись и подробный манифест с данными: кто автор, откуда файл, какие правки делались. Любое изменение (обрезка, коррекция цвета и т.п.) записывается в этом манифесте. Проверяющий может затем открыть сведения и убедиться, что, скажем, незаметному монтажу — а если подвергался, то какие изменения были внесены. Поскольку подпись основана на криптографии с открытым ключом, любое постороннее вмешательство в файл делает подделку заметной.
Внедрением такой системы уже занялись сотни участников по всему миру. Более 500 компаний — от производителей камер до новостных агентств — поддерживают экосистему Content Credentials, стремясь сделать проверяемый контент новым стандартом. Широкая коалиция — Adobe, Microsoft, BBC, Nikon, The New York Times и многие другие — сигнализирует, что индустрия медиа едина во мнении: доверие к контенту критически важно в эпоху ИИ.
Водяные знаки для ИИ-контента. Другой подход - отмечать синтезированный (генеративный) контент специальными метками. Например, правительства обсуждают обязательную маркировку материалов, созданных ИИ. В США выпущен указ, поручающий разработать стандарты водяных знаков для ИИ-изображений, аудио и видео, чтобы получатели сразу видели: это сгенерировано машиной. Идея в том, что каждая нейросеть будет незаметно «помечать» свои творения - будь то текст или картинка - определённым скрытым кодом. Тогда детектор сможет по этому коду узнать источник. Однако такая мера работает только если все добросовестные разработчики будут соблюдать стандарт, а злоумышленники не научатся этот знак убирать или имитировать. Это скорее вспомогательный* уровень защиты, и он тоже требует массового принятия.
Реестр оригиналов. Похожая мысль — зарегистрировать у источника подлинник контента. К примеру, камера при съёмке могла бы сразу отправлять хеш-fingerprint снимка в блокчейн или в базу данных. Если возникли сомнения, всегда можно сверить кадр с оригинальным отпечатком: сходится — значит не изменён. Такие решения предлагают компании в сфере фотоаутентификации; некоторые модели профессиональных камер уже экспериментально поддерживают подписывание кадров на уровне железа.
Все эти меры — подписи, метаданные о провенансе, водяные знаки — формируют новый уровень доверия: доверие к источнику, а не к самому изображению или ролику.
Пример из практики: после побега из тюрьмы на Гаити сети заполонили драматичные видео перестрелок. BBC, являясь одним из ранних адептов Content Credentials, проверила одно вирусное видео с места событий. Выяснилось: картинка реальная, а вот наложенный звук стрельбы - чужеродный фейк. Журналисты BBC прикрепили к видео content credential (верифицированную подпись) с пометкой, что визуальный ряд подлинный, а звук добавлен и вводит в заблуждение. Каждый, кто позже просматривал это видео, видел метку BBC и понимал, а части доверенные, а какие нет. Таким образом, фактчек превратился из кулуарной экспертизы в публичный ярлык на самом контенте - зритель сразу получает информацию о достоверности источника.
Ограничения технологий. Технические решения внушают надежду, но у них есть и ограничения.
Во-первых, ни один алгоритм распознавания дипфейков не даёт 100% гарантии. Автоматические детекторы постоянно разрабатываются (ИИ противостоит ИИ), однако эксперты признают: выявление подделок - гонка вооружений, где фальсификаторы неизбежно придумывают новые уловки. Лучшие системы определения дипфейков всё равно могут отставать от самых продвинутых методов создания фейков. Например, Facebook проводил в 2020 году конкурс на алгоритм поиска дипфейков - и даже победитель различал фальшивки лишь примерно в 65% случаев. Кроме того, детектор бесполезен, если его не применяют* — а в открытом интернете далеко не каждое видео проходит проверку.
Во-вторых, системы провенанса работают только при массовом внедрении. Если 90% честных создателей контента начнут подписывать свои материалы, а площадки - помечать непроверенные., тогда отсутствие метки сразу вызовет подозрение. Но пока это не так. Мы в точке «курицы и яйца»: издатели спрашивают, зачем внедрять проверки, если аудитория их не требует, а потребители не ищут метки, потому что их мало где встретишь. К тому же возникает вопрос доверия к самому эмитенту* метки: кто именно подтвердил подлинность, можно ли верить этому источнику? Злоумышленник тоже может подписать фейк своей «подписью» — если аудитория не знакома с этим издателем, метка мало что даст.
Тем не менее, работа над стандартами продолжается. Контент как на ладони — таков идеал новой системы. Если раньше мы смотрели на фото и пытались сами судить, правда или монтаж, то в будущем предполагается, что рядом с каждым изображением в интернете появится значок проверки, по нажатию на который можно увидеть происхождение файла. Инициаторы Content Credentials даже предлагают сделать специальный значок доверия таким же привычным, как значок © авторского права, чтобы через несколько лет и создатели, и зрители автоматически ожидали увидеть возле картинки индикатор подлинности. Конечно, достичь этого непросто — нужен консенсус индустрии и усилия по стандартизации. Но тенденция ясна: вместо слепого доверия содержимому мы переходим к проверке «цифровой печати» контента.
Репутационная экономика под угрозой: цена фейков и «дивиденд лжеца»
Эрозия доверия в медиа-пространстве тянет за собой эффекты на уровне репутации и общественных отношений. Когда любое фото- или видеодоказательство можно сфальсифицировать, возрастает ценность репутационного капитала и новых механизмов его защиты — и одновременно растёт цена ошибки или обмана.
Во-первых, появляется возможность наносить колоссальный ущерб репутации с помощью фейков. То, что раньше послужило бы решающим доказательством вины или позора, теперь может быть изготовлено «на заказ». Например, недоброжелатели способны сделать дипфейк-видео с публичной персоной в компрометирующей ситуации и запустить его в сеть. В глазах обывателей это неотличимо от реальности, а опровержениям могут уже не поверить. Известны случаи, когда люди (особенно женщины) страдали от порнографических дипфейков с их изображением — карьерные и психологические последствия такого «цифрового насилия» очень серьёзны. Фейки могут бить и по компаниям: достаточно смонтировать ролик с «заявлением» CEO о банкротстве или скандале, чтобы акции компании пошатнулись.
В мае 2023 года в Twitter распространилось поддельное фото взрыва у Пентагона - его сделали нейросетью. Новость подхватили даже крупные аккаунты, что вызвало кратковременную панику и просадку фондового рынка (индексы мгновенно ушли вниз), пока официальные лица не опровергли «взрыв». Одно фейковое изображение за считанные минуты задела целую экономику.
Во-вторых, с другой стороны возникает феномен, который исследователи называют «дивиденд лжеца» (liar's dividend). Это обратный удар по репутационной системе: настоящий проступок или компромат теперь легче отрицать, называя его подделкой. Проще говоря, мошенники и правонарушители получают фору - всегда можно заявить: «доказательство недействительно, на видео не я, это дипфейк». Если раньше видеозапись преступления практически гарантировала изобличение, то сегодня обвиняемый может посеять достаточно сомнений одним словом «фейк». Так лжецы пожинают дивиденды: дипфейки позволяют им уйти от ответственности. Возникает опасная ситуация двойного недоверия, когда общество не может до конца верить даже реальным свидетельствам, но и автоматически отвергать их тоже рискованно. Исследователи называют это «двойной тупик: ни полная вера, ни полное неверие не могут быть обоснованы». В результате страдает сам фундамент общественной истины.
Стоимость ошибки в таком мире резко возросла. Ложное обвинение, подкреплённое фабрикованным медиа, может разрушить чью-то жизнь, бизнес или карьеру - и очень трудно будет реабилитироваться, ведь всегда останется тень сомнения. Одновременно подлинное обвинение (настоящее разоблачающее видео) тоже может «не сработать» по назначению: публика запутается, а виновник избежать наказания, сославшись на дипфейк. Таким образом, доверие и репутация превращаются в хрупкий ресурс. Возникает новая экономика доверия, где ценятся верифицируемые факты и безупречная репутация источника, а непроверенная информация быстро обесценивается.
Организации и общественные институты уже бьют тревогу. В докладах отмечается, что дипфейки угрожают подорвать базовые механизмы доверия в самых разных сферах — от медицины (фальшивые медицинские заключения) до финансов (аферисты, выдающие себя за директоров компаний). Один из сценариев — фейковое сообщение от имени топ-менеджера может обвалить биржевой курс, что ставит под удар экономику доверия на рынках. Страховые компании опасаются, что им начнут предъявлять сфабрикованные видео и фото в качестве доказательств вымышленных страховых случаев. Цена таких фальсификаций измеряется миллионами.
Наконец, нельзя не учитывать и человеческий фактор скепсиса. Постоянное ощущение, что тебя могут обмануть фейком, порождает атмосферу сомнения и теорий заговора. Где подделка может быть любой скандал, там легко распространится и убеждение, что «ничему верить нельзя». Это питательная среда для конспирологий и утраты доверия к институциям в целом. Если ничего не изменить, мы рискуем прийти к цинизму и информационному параличу: каждый будет верить только тому, во что хочется верить, отвергая все неудобные факты как «нарисованные».
«Доверяй, но проверяй»: как верификация станет новой нормой
В ответ на описанные угрозы складывается новая культура проверки. Там, где раньше было достаточно одного контента, теперь будут требоваться подтверждения и факты о его происхождении. И для профессионалов, и для обычных людей навыки верификации стремительно становятся частью базовой грамотности.
Новые привычки у людей. Рядовые пользователи начинают относиться к медиа с бóльшим сомнением. Появляется правило: если новость шокирует или вызывает сильные эмоции — проверь её. Уже сейчас в обиход входят простые методы: например, делать реверс-поиск картинки (через Google Images или TinEye) при виде подозрительного фото, искать оригинальный источник видео, сопоставлять даты, геолокации, детали на изображении. Популяризируются советы, как распознать подделку: обращать внимание на нереалистичные детали (например, искажённые пальцы или тени на ИИ-сгенерированных фото), проверять наличие независимых свидетельств события (если нигде больше не пишут о «взрыве возле Пентагона», скорее всего, это фейк). В образовательных программах по медиаграмотности уже учат школьников и студентов не доверять контенту слепо, а искать признаки манипуляций и проверять источники.
Кроме того, сами пользователи вырабатывают социальные практики против новых обманов. Простой пример: мошенники научились клонировать голос близкого человека по короткому образцу — и затем звонят от его имени с просьбой о деньгах («Мама, я попал в беду, вышли денег»). Чтобы обезопаситься, семьи придумывают кодовые фразы: вы договариваетесь с родственником, что при настоящей критической ситуации он упомянет условное слово, известное только вам. Если же звонящий его не знает — значит, перед вами подделка. Другая тактика — «докажи, что ты real-time» для видеозвонков: предложить собеседнику по видеосвязи сделать странное резкое движение (например, быстро повернуть голову или показать определённый жест). Настоящий человек выполнит просьбу, а вот текущие технологии дипфейка часто дают сбой при резких непредусмотренных движениях. Такие нехитрые приёмы могут войти в обиход, став обычной предосторожностью наподобие проверки документов. По сути, люди учатся активно проверять реальность вокруг, а не пассивно доверять увиденному.
Верификация в организациях. Для компаний, медиа и госструктур новая норма - проверять источники. до того, как действовать на её основе. Новостные редакции уже создают отделы фактчекинга и верификации пользовательского контента. Журналисты внедряют в рабочий процесс инструменты вроде InVID (для анализа видео) или Project Origin, позволяющие быстро отсеивать фальшивки. Каждый важный материал теперь требует подтверждения из нескольких независимых источников.В корпоративной сфере служба безопасности должна проверять подозрительные приказы и письма: например, получив голосовое распоряжение перевести деньги, обязательно перезвонить по официальному номеру руководителя. В судах эксперты начинают анализировать медиа-доказательства на предмет возможной генерации ИИ, и вероятно, вскоре судебные протоколы изменятся, требуя от сторон предоставлять метаданные аутентичности для фото или видео «улик».
Организации также начинают маркировать собственный контент, чтобы аудитория могла проверить его происхождение. Пресс-службы могут прикреплять цифровые подписи к официальным заявлениям, чтобы в сети можно было отличить их от фейковых вбросов. Крупные медиа договорились помечать фотографии и видео с помощью Content Credentials — ожидается, что вскоре значок подлинности рядом с изображением станет привычным делом. Социальные платформы внедряют политику борьбы с синтетическими медиа: например, Twitter, Facebook и другие помечают контент, распознанный как искусственно изменённый, ярлыком «манипулированное медиа». Возможно, появятся и системы приоритезации правды — например, поисковики и новостные ленты будут повышать в выдаче проверенные материалы и занижать непроверенные.
Новая скептическая культура. В итоге формируется своего рода культура здорового скептицизма. Она не означает тотального недоверия ко всему, но предполагает постоянное наличие верифицирующего слоя в нашем восприятии информации. Если XX век воспитал культ визуального свидетельства («фото или не было»), то XXI век, видимо, привьёт нам рефлекс: «нет проверки - нет доверия». Мы начнём автоматически искать подтверждающие маркеры - аналогично тому, как сейчас уже смотрим на замочек SSL в браузере или на галочку верификации аккаунта. Возможно, через несколько лет отсутствие значка подлинности под фото новости будет настораживать так же, чем сейчас сайт без HTTPS. Конечно, абсолютно всё проверить невозможно, и вряд ли каждый пользователь станет экспертом-криминалистом. Но базовый уровень критического мышления и умения пользоваться инструментами проверки станет массовым.
Практическая рефлексия: как жить и работать в постдоказательственную эпоху
Продюсерам, предпринимателям и медиаспециалистам уже сейчас стоит адаптироваться к новым реалиям. Вот несколько рекомендаций, которые вы можете учесть в своей практике:
- Внедряйте проверку контента в процессы. Любой пользовательский контент, поступающий в ваш проект (фото очевидцев, скриншоты переписок и пр.), подвергайте проверке: ищите оригинальный источник, запрашивайте исходники в максимальном качестве, анализируйте метаданные. Заведение простого чек-листа верификации от публикации убережёт от распространения фейка.
- Используйте инструменты аутентификации. Ознакомьтесь с технологиями Content Credentials и аналогичными — возможно, уже сейчас ваши инструменты создания медиа позволяют встраивать метки провенанса. Если вы выпускаете оригинальный фото- или видеоконтент, подумайте о его цифровой подписи. Это повысит доверие аудитории и защитит ваш материал от подделок. Также проверяйте наличие таких меток у входящего контента — например, фото с пометкой подлинности от уважаемого агентства заслуживает большего доверия.
- Обучайте команду и аудиторию. Повышайте осведомлённость сотрудников о рисках дипфейков. Проведите тренинги: покажите примеры подделок, научите базовым приёмам разоблачения (поиск визуальных артефактов, обратный поиск изображений и т.д.). Разработайте внутри компании протокол проверки неожиданных сообщений (особенно финансовых запросов) - например, правило всегда подтверждать голосом по известному номеру или личной встречей прежде, чем выполнять электронные указания. Коммуницируйте с вашей аудиторией: объясняйте, как вы проверяете информацию. призывайте читателей тоже быть бдительными.
- Готовьтесь к кризисам репутации. Продумайте план действий на случай, если про вас или вашу организацию вбросят фейк. Кто будет официально опровергать, на каких площадках? Как быстро сможете доказать, что видео — подделка?Возможно, стоит завести каналы экстренной связи с аудиторией, где заранее подтверждённая информация от вас (например, подписанный канал в мессенджере) будет источником правды в случае информационной атаки.
- Следите за стандартами. Политика в сфере ИИ-фейков развивается стремительно. Появляются новые законы (например, об обязательной маркировке синтетического контента), индустриальные стандарты (C2PA и др.), сервисы для проверки медиа. Чтобы не остаться позади, мониторьте новости в этой области. Участие в профессиональных сообществах, посвящённых информационной безопасности и медиаграмотности, поможет держать руку на пульсе. Возможно, в ближайшем будущем сертификация достоверности контента станет таким же обычным требованием, как кибербезопасность.
Привыкайте мыслить категориями «доверяй, но проверяй». Новая реальность усложняет коммуникацию, зато мотивирует нас всех стать более продуманными и ответственными потребителями и создателями информации.
Вывод
Генеративные медиа радикально меняют социальный протокол доказательства. Когда тексты, фото и видео больше не гарантируют правдивости, доверие смещается на уровень систем подтверждения подлинности. Мы видим зарождение целой инфраструктуры для борьбы с фейками: от криптографических подписей в файлах до законодательных инициатив и образовательных программ. Конечно, ни одна технология не является волшебной пилюлей — во многом эта гонка будет продолжаться, и у обманщиков найдутся новые трюки. Однако комбинация технических средств и культурной адаптации способна заложить новый фундамент доверия.
Главное изменение — культура скептицизма и проверки. Общество учится тому, что любое медиа — лишь повод для расследования, а не истина в последней инстанции. Это непривычно и даже неудобно, но одновременно и полезно: возрастёт ценность прозрачности, честных источников и верифицированных данных. Возможно, через несколько лет значки и сертификаты подлинности будут такой же обыденностью, как отметки о безопасности сайтов или «галочки» в соцсетях, а массовая аудитория выработает иммунитет к большинству грубых фейков.
В эпоху, когда ИИ может сымитировать почти всё, у нас нет выбора — придётся выстроить новые протоколы реальности, где истинность подтверждается. Слова seeing is believing («увидел — значит поверил») сменяются принципом verified is believing — «поверю, когда проверю».
Источники:
- Villasenor, J. Artificial intelligence, deepfakes, and the uncertain future of truth. Brookings (2019).
- Cooke, A. Media Embrace Content Credentials to Fight Deepfakes. Fstoppers (2025).
- UNESCO. Deepfakes and the crisis of knowing (2025).
- Sophos. Scammers deepfake CEO’s voice to talk underling into $243,000 transfer (2019).
- Euronews. Deepfake Zelenskyy surrender video… (2022).
- Haddad, M. Fake Pentagon explosion photo goes viral… Al Jazeera (2023).