Проблему дипфейков обсудили на форуме в МГТУ им.
Российские цифровые платформы такой подход не приветствуют. Представители соцсетей и видеохостингов переживают за пользовательский опыт, ведь проверка контента даже с помощью самых продвинутых систем детекции будет занимать время. Обязанность платформ выявлять дипфейки фактически переведет их в режим тотальной премодерации – с учетом того, сколько единиц контента загружают пользователи каждую минуту, и ежедневно растущего присутствия в нем ИИ-генераций.
Поэтому предложил коллегам подумать над идеей, о которой уже здесь рассказывал: маркировать не ИИ-контент, а те ролики и изображения, которые были полностью созданы человеком, без использования нейрогенерации. Считаю, что наши платформы должны дать возможность авторам такого контента ставить специальный значок. И, возможно, лишь в этом случае проводить премодерацию и проверку на ИИ. В таком случае весь остальной, немаркированный контент будет считаться небезопасным по умолчанию.
А что думаете вы? Пишите в обратную связь.