У результаті ШІ не може розпізнати, який об’єкт перед ним. Це досягається завдяки методу «кодуючої» атаки, під час якого і вводяться «перешкоди». Вони включають складну математику, що описує колір і положення кожного пікселя в рамках картинки.
PhotoGuard включає й інший, складніший метод обману штучного інтелекту. Він називається «дифузія» і маскує вихідне зображення під інше в очах ШІ. Завдяки внесеним «правкам» картинка оптимізується і створюється ілюзія, схожа на оригінал. Коли ШІ спробує внести зміни в зображення, то вони будуть застосовані до підробки, а не оригіналу. Через це алгоритми штучного інтелекту видадуть нереалістичний результат.
«Атака кодувальника змушує модель [ШІ] думати, що вхідне зображення (яке підлягає редагуванню) — це якесь інше зображення (наприклад, сіре). У той час як дифузійна атака змушує дифузійну модель вносити зміни в деяке цільове зображення (яке також може бути сірим або випадковим). Ця техніка не є надійною: зловмисники можуть спробувати переробити захищене зображення, додавши до нього цифровий шум, обрізавши або перевернувши картинку», — розповів у коментарі Engadget докторант MIT і провідний автор статті Хаді Салман.
Нагадаємо, раніше NV Техно писав про цікаве дослідження на тему ChatGPT. Вчені з’ясували, що в нових версіях чат-бот став працювати гірше.