GPT AIDER - Новости нейросетей
GPT AIDER - Новости нейросетей AI / GPT / ML / LLM / StableDiffusion

Борьба с AI-сгенерированным контентом: Новые меры от технологических гигантов

В последнее время технологические компании активизировали усилия по обнаружению и маркировке контента, созданного с помощью искусственного интеллекта. Это стало ответом на ряд скандальных ситуаций, таких как распространение порнографии с использованием технологии дипфейк и политических дипфейков, включая AI-сгенерированные автоответчики, имитирующие голос Президента Байдена с призывами остаться дома в день выборов.

Метки и водяные знаки для AI-контента
Компания Meta объявила о внедрении label AI-generated images, созданных с использованием их AI-инструментов на платформах Facebook, Instagram и Threads. Каждое изображение будет снабжено не только визуальной маркировкой, но и невидимыми водяными знаками и метаданными, что соответствует лучшим практикам, рекомендованным организацией Partnership on AI.

Стандарт C2PA: "Пищевая этикетка" для цифрового контента
Промышленные гиганты также поддерживают разработку стандарта C2PA, который предлагает криптографически кодировать информацию о происхождении контента. Этот подход сравнивают с пищевой этикеткой, указывающей на источник и создателя контента.

Google и другие компании присоединяются к инициативе
Google объявил о своем участии в комитете C2PA вместе с Microsoft и Adobe, а также о внедрении водяных знаков SynthID в изображения, созданные с помощью их новых инструментов Gemini. OpenAI также добавит водяные знаки в метаданные изображений, созданных при помощи ChatGPT и DALL-E 3, сигнализируя о том, что контент сгенерирован AI.

Проблемы и надежды на будущее
Несмотря на обещания, эти методы не являются абсолютно надежными. Водяные знаки и метки могут быть обойдены, например, с помощью скриншотов. Однако, невидимые водяные знаки, такие как SynthID от Google, представляют собой более сложную задачу для обхода благодаря тонким изменениям в пикселях изображения.

Не только технические решения
Помимо технических мер, существуют и нетехнические подходы, например, запрет на использование сервисов для создания неприемлемого контента, такого как неконсенсуальные дипфейк-порнография. Также обсуждается введение обязательных маркировок для всего AI-генерированного контента.

Законодательные меры
Появление добровольных мер сопровождается разработкой законодательных актов, таких как EU’s AI Act и Digital Services Act в ЕС, требующих раскрытия информации о AI-генерированном контенте. В США также возрастает интерес к законодательному регулированию в сфере дипфейков.

Заключение
Несмотря на скептицизм по поводу добровольных ограничений, последние анонсы от технологических компаний воспринимаются с оптимизмом. Они представляют собой значительное улучшение по сравнению с текущим положением дел и служат шагом вперед в борьбе с распространением вредоносного AI-контента.
Open AI Google Meta C2PA SynthID