Університет Чикаго: Glaze і Nightshade – захист для художників від штучного інтелекту
Поспішаєте? Ось основні факти!
- Glaze та Nightshade захищають твори митців від недозволеного використання в тренуванні штучного інтелекту.
- Glaze маскує зображення, щоб запобігти копіюванню стилю художника штучним інтелектом.
- Nightshade збиває штучний інтелект з пантелику, додаючи “отруєні” пікселі, які корумпують тренувальні дані.
Художники протистоять експлуатуючим моделям ШІ за допомогою Glaze та Nightshade, двох інструментів, розроблених Беном Жао та його командою в лабораторії SAND Університету Чикаго, про що сьогодні повідомляє MIT Technology Review.
Мета цих інструментів – захистити твори художників від використання без їхньої згоди для навчання моделей ШІ, практику, яку багато творців вважають крадіжкою. Glaze, який було завантажено понад 4 мільйони разів з моменту його випуску у березні 2023 року, маскує зображення, додаючи тонкі зміни, які перешкоджають ШІ вивчити стиль художника, говорить MIT.
Нічна тінь, яку можна вважати “агресивною” противагою, ще більше збиває з пантелику моделі штучного інтелекту, вводячи невидимі зміни, які можуть спотворити процес навчання AI, якщо їх використовувати під час тренування, – зазначає MIT.
Ці інструменти були натхнені стурбованістю художників через стрімке поширення генеративного AI, який часто використовує зображення з Інтернету для створення нових творів. MIT повідомляє, що фентезійна ілюстраторка Карла Ортіс та інші творці висловили страхи про втрату свого джерела заробітку, оскільки моделі AI відтворюють їх виразні стилі без дозволу або оплати.
Для художників публікація в інтернеті є важливою для визнаваності та доходів, проте багато хто розглядає можливість видалення своїх робіт, щоб уникнути їх використання для тренування AI, що, як відзначено в MIT, може завадити їх кар’єрі.
Nightshade, запущений через рік після Glaze, пропонує більш агресивну захист, повідомляє MIT. Додавши “отруйні” пікселі до зображень, він порушує тренування AI, змушуючи моделі виробляти спотворені результати, якщо ці зображення будуть використані.
Символічний ефект рослини “нічна тінь” знайшов відгук серед митців, які бачать в цьому поетичну справедливість: якщо їх творчість крадуть для навчання AI, це може пошкодити самі системи, які її експлуатують.
MIT стверджує, що інструменти зіткнулися з певним скептицизмом, оскільки митці спочатку турбувалися про конфіденційність даних. Щоб вирішити цю проблему, SAND Lab випустив версію Glaze, яка працює офлайн, гарантуючи відсутність передачі даних і побудову довіри з митцями, що остерігаються експлуатації.
Лабораторія нещодавно розширила доступ, уклавши партнерство з Cara, новою соціальною платформою, яка забороняє контент, створений штучним інтелектом, як зазначено в MIT.
Цзао та його команда прагнуть змінити відносини між окремими творцями та компаніями, що розробляють штучний інтелект.
Надаючи інструменти, які захищають творчість від великих корпорацій, Чжао сподівається надати можливість художникам зберігати контроль над своїми роботами та переглянути етичні норми щодо штучного інтелекту та інтелектуальної власності, як зазначає Массачусетський технологічний інститут (MIT).
Ця спроба набирає обертів, але деякі експерти попереджають, що ці інструменти можуть не надавати бездоганного захисту, оскільки хакери та розробники штучного інтелекту шукають способи обійти ці захисні механізми, як відзначає MIT.
З тим, як Glaze та Nightshade стали доступними безкоштовно, Лабораторія SAND під керівництвом Жао продовжує очолювати боротьбу за захист художньої цілісності проти зростаючого впливу створення контенту за допомогою штучного інтелекту.
Лишити коментар
Скасувати