Вы уже наверняка слышали про дипфейки, которые создают с помощью ИИ. Это большая проблема, которую исследователи сейчас пытаются решить.
Раньше думали, что достаточно добавлять водяной знак на те пикчи, которые создает ИИ.
Но сейчас китайские ученые доказали, что знак на сгенерированном ИИ изображении легко удалить/заменить. Заменой водяного знака можно заставить людей поверить, что реальная картина создана ИИ или картина от ИИ создана человеком.
Один из ученых, Ли Гуаньлинь, считает, что теперь мошенникам будет проще распространять поддельный контент и выдавать его за настоящий.
Нет водяных знаков — нет доказательств.
Одним из эффективных способов различить генерацию ИИ от работ, созданных человеком, является анализ контекста и контента. Обратите внимание на детали, стиль и характеристики работы - это часто может указывать на ее происхождение.
Раньше думали, что достаточно добавлять водяной знак на те пикчи, которые создает ИИ.
Но сейчас китайские ученые доказали, что знак на сгенерированном ИИ изображении легко удалить/заменить. Заменой водяного знака можно заставить людей поверить, что реальная картина создана ИИ или картина от ИИ создана человеком.
Один из ученых, Ли Гуаньлинь, считает, что теперь мошенникам будет проще распространять поддельный контент и выдавать его за настоящий.
Нет водяных знаков — нет доказательств.
Одним из эффективных способов различить генерацию ИИ от работ, созданных человеком, является анализ контекста и контента. Обратите внимание на детали, стиль и характеристики работы - это часто может указывать на ее происхождение.