Гонка за лучший способ обозначить ИИ
Интернет-протокол C2PA использует криптографию для маркировки изображений, видео и аудио.
Эта статья взята из The Technocrat, еженедельного информационного бюллетеня MIT Technology Review о власти, политике и Кремниевой долине. Чтобы получать его на свой почтовый ящик каждую пятницу, зарегистрируйтесь здесь.
Недавно я написал небольшой рассказ о проекте, поддержанном некоторыми крупными технологическими и медиа-компаниями, который пытается помочь идентифицировать контент, созданный или измененный ИИ.
В условиях бума текста, изображений и видео, генерируемых искусственным интеллектом, как законодатели, так и обычные пользователи Интернета призывают к большей прозрачности. Хотя просьба просто добавить метку может показаться очень разумной (и так оно и есть), на самом деле это непростая задача, и существующие решения, такие как обнаружение на основе искусственного интеллекта и нанесение водяных знаков, имеют некоторые серьезные недостатки.
Как написала моя коллега Мелисса Хейккиля, большинство нынешних технических решений «не имеют шансов противостоять последнему поколению языковых моделей искусственного интеллекта». Тем не менее, гонка за маркировкой и обнаружением контента, созданного ИИ, продолжается.
Вот здесь-то и пригодится этот протокол. Созданный в 2021 году протокол C2PA (названный в честь создавшей его группы, Коалиции за происхождение и подлинность контента) представляет собой набор новых технических стандартов и свободно доступного кода, который надежно маркирует контент информацией, поясняющей, откуда он поступил. от.
Это означает, что изображение, например, помечается информацией устройством, с которого оно создано (например, камерой телефона), любыми инструментами редактирования (такими как Photoshop) и, в конечном итоге, платформой социальной сети, в которую оно загружается. Со временем эта информация создает своего рода историю, вся которая протоколируется.
Сама технология – и то, как C2PA более безопасен, чем другие альтернативы маркировки AI – довольно крутая, хотя и немного сложная. В своей статье я подробно рассказываю об этом, но, пожалуй, проще всего думать об этом как об этикетке с пищевой ценностью (это предпочтительная аналогия большинства людей, с которыми я разговаривал). Здесь вы можете увидеть пример дипфейкового видео с меткой, созданной Truepic, одним из основателей C2PA, с помощью Revel AI.
«Идея происхождения заключается в том, чтобы маркировать контент совместимым и защищенным от несанкционированного доступа способом, чтобы он мог путешествовать по Интернету с такой прозрачностью и с такой маркировкой пищевой ценности», — говорит Мунир Ибрагим, вице-президент по связям с общественностью Truepic.
Когда C2PA впервые был запущен, его поддержали несколько известных компаний, включая Adobe и Microsoft, но за последние шесть месяцев число его членов увеличилось на 56%. Буквально на этой неделе крупная медиаплатформа Shutterstock объявила, что будет использовать C2PA для маркировки всех своих медиа-материалов, созданных с помощью искусственного интеллекта.
Он основан на добровольном подходе, поэтому группы, которые хотят проверить и раскрыть происхождение контента, например газета или рекламодатель, предпочтут добавить учетные данные к медиафайлу.
Один из руководителей проекта, Энди Парсонс, работающий в Adobe, объясняет новый интерес и актуальность C2PA распространением генеративного искусственного интеллекта и ожиданием принятия законодательства как в США, так и в ЕС, которое потребует нового уровня прозрачности. .
Замысел грандиозный: вовлеченные в него люди признались мне, что настоящий успех здесь зависит от широкого, если не всеобщего, принятия. Они заявили, что надеются, что все крупные контент-компании примут этот стандарт.
Для этого, говорит Ибрагим, ключевое значение имеет удобство использования: «Вы хотите быть уверены, что независимо от того, где он находится в Интернете, он будет прочитан и принят таким же образом, как и SSL-шифрование. Так вы сможете масштабировать более прозрачную онлайн-экосистему».
Это может стать критически важным событием, поскольку мы вступаем в сезон выборов в США, когда все будут следить за дезинформацией, генерируемой ИИ. Исследователи проекта говорят, что они стремятся выпустить новые функции и привлечь больше платформ социальных сетей до ожидаемого натиска.
В настоящее время C2PA работает в основном с изображениями и видео, хотя участники говорят, что работают над способами обработки текстового контента. В этой статье я коснусь некоторых других недостатков протокола, но что действительно важно понять, так это то, что даже когда использование ИИ будет раскрыто, это может не предотвратить вреда от дезинформации, генерируемой машинами. Платформам социальных сетей по-прежнему придется решать, хранить ли эту информацию на своих сайтах, а пользователям придется самим решать, доверять ли контенту и делиться им.