Чітка межа між реальними та відео, створеними штучним інтелектом, може зникнути в 2025 році

Photo by ActionVance on Unsplash

Чітка межа між реальними та відео, створеними штучним інтелектом, може зникнути в 2025 році

Час читання: 6 хв.

Штучно створений контент прийшов, щоб залишитися. Він стає все кращим і кращим, і ми спостерігаємо значне вдосконалення технологій AI у 2024 році. Чи зможемо ми визначити, що є реальним, а що ні, у 2025 році?

Нещодавно я запитала сама себе, “Це реальна жінка?” — прищурившись трохи — після перегляду допису на Instagram. “Ні, це, напевно, згенеровано AI,” я вирішила через мить. Потім мене одразу ж накрило: Чи зможемо ми визначити різницю за кілька секунд наступного року? Всі ознаки вказують на те, що ні, особливо в соціальних мережах, як це свідчать значні недавні розробки в технології AI.

Кілька днів тому голова Instagram, Адам Моссері, поділився повідомленням на цю тему на Threads. “Генеративний ШІ створює контент, який важко відрізнити від записів реальності, і швидко вдосконалюється,” – написав він. Моссері публічно визнав, що вони зіткнулися з проблемами при маркуванні контенту, створеного ШІ, а також контролю та моніторингу масивних потоків медіа, які постійно діляться на їхніх соціальних медіа платформах.

Моссері відмив руки Meta від відповідальності і попередив користувачів, що лише вони можуть визначити, чи був допис реальним чи ні. “Все більше і більше важливо, щоб глядач, або читач, мали критичне ставлення до контенту, який висувається як звіт або запис реальності,” – додав він.

Лише через кілька днів OpenAI випустила Sora Turbo, свій потужний генератор відео на базі штучного інтелекту, що дозволяє користувачам Pro та Plus генерувати реалістичні відео за текстовими запитами. Буквально за кілька хвилин користувачі почали створювати захоплюючі реалістичні відео та почали ділитися ними у соціальних мережах.

Саме тоді, коли все здалося досягати нового рівня виробництва відео, Google оголосила про свій останній відеоінструмент на базі ШІ, Veo 2, з більш високою роздільною здатністю та довшими кліпами, ніж у Sora. Звичайно, результати, які поділилися ті, хто мав доступ до передової технології, були ще більш вражаючими.

“Ніхто не може сказати, що це штучний інтелект,” – написала одна користувачка.

Це вже відбувається

Протягом 2024 року ми спостерігали, як контент, що генерується штучним інтелектом, впливав на населення, вибори та користувачів соціальних медіа.

У січні жителі Нью-Гемпширу отримали дзвінок “від Джо Байдена”, в якому їм казали не голосувати на попередніх виборах. Політичний консультант Стів Крамер стояв за цією аферою та був оштрафований на 6 мільйонів доларів за рободзвінки з використанням AI-глибокого підроблення. Уряди починають розуміти вплив, який може мати AI, та такі країни, як Сінгапур, розробляють закони та стратегії, щоб допомогти населенню виявляти контент, створений за допомогою глибокого підроблення.

У Венесуелі, відео, створені за допомогою AI, поширюють дезінформацію—але також допомагають журналістам інформувати за допомогою AI-аватарів, щоб обійти цензуру.

Людям стає все важче відрізнити, що є реальним, а що – ні, і це не їх вина: контент, створений за допомогою штучного інтелекту, стає все кращим і кращим.

Високоякісний контент, створений за допомогою штучного інтелекту, активно розвивається в усіх своїх формах; текст, аудіо та відео. Багато творців OnlyFans вже використовують чат-ботів для спілкування зі своїми шанувальниками, роботу, яка раніше призначалася працівникам за гіг-контрактами у країнах з низькими доходами. Нові моделі штучного інтелекту, спеціалізовані на флірті, навіть заробили $1,000 на чайових від своїх шанувальників.

У квітні стартап Synthesia, що отримала підтримку від Nvidia, запустив AI аватарів, які можуть виражати людські емоції та говорити 130 мовами. TikTok дозволяє компаніям створювати рекламу, згенеровану AI, використовуючи контент Getty Images, а тепер творці контенту на YouTube можуть використовувати нову функцію автоматичного дублювання AI для перекладу свого контенту на 9 мов. У майбутніх оновленнях буде відтворено оригінальний голос.

Zoom працює над створенням AI аватарів, які виглядають як користувачі, щоб допомогти їм записувати повідомлення і навіть брати участь у зустрічах. Цей інструмент буде запущений наступного року, але люди вже тестують кілька інструментів, і компанії вже можуть створювати фотореалістичні AI клони.

Ви впевнені, що під час останнього зв’язку через Zoom ви спілкувалися з реальною людиною?

Як пояснити, що це було створено штучним інтелектом? Наразі

Ми живемо в заплутані часи цієї цифрової ери. Фільтри можуть зробити будь-кого схожим на модель з бездоганною шкірою, а корекції, варте Photoshop, доступні всього за один клік на Instagram або Snapchat – скільки людей хотіли б поділитися своїм “натуральним” зображенням, з усіма недоліками, коли його можна покращити за кілька секунд? Ми все більше і більше бачимо рекламу з фотореалістичними зображеннями, створеними штучним інтелектом, яка поступово переконує наші очі у їхній знайомості й “нормальності”. І кожного дня дивні події по всьому світу змушують нас запитувати: що є реальним, а що вже ні?

Великі компанії, що працюють у сфері ШІ, працюють над створенням водяних знаків, щоб визначати свій контент, створений за допомогою штучного інтелекту, та легко його розпізнавати. Google DeepMind запустила свою відкриту систему водяних знаків у жовтні, щоб маркувати відео, текст та аудіо, створені за допомогою ШІ, а Meta також включила один до свого інструменту для створення відео на основі ШІ.

Але його ефективність є сумнівною, починаючи з того, що Meta просто визнала, що вони не можуть маркувати весь контент, створений за допомогою ШІ. Зловмисники все ще можуть знайти способи видалення водяних знаків, тому потрібні більше законодавчих актів, партнерств та угод між соціальними медіа компаніями та урядами, щоб досягти більш успішної системи.

Наразі, окрім того, що ми довіряємо своїй інтуїції, ми можемо поставити собі кілька питань перед тим, як ділитися чимось у соціальних мережах або вірити в те, що ми бачимо:

  • Так, як рекомендував Моссері, врахуйте наступне: Хто ділиться цією інформацією? Чи є це надійним джерелом?
  • Чи видається вираз обличчя або рухи персони роботизованими? Хоча AI аватари можуть бути досить реалістичними, все ще можливо помітити дивну жорсткість або відсутність емоцій – хоча варто зазначити, що деякі компанії, як-от Synthesia, вже працюють над вдосконаленням цього.
  • Чи створено вміст таким чином, аби викликати сильну емоційну реакцію? Зловмисники знають, наскільки легко ми ділимося негативними новинами та взаємодіємо з емоційно насиченим матеріалом у соціальних мережах, і дослідження це підтверджують. Перед тим, як поділитися контентом, який змусив вас кипіти з гніву, аби обурити інших так само, як ви, подумайте, чи створено це для того, щоб розпалювати суперечки, чи це насправді реальні новини чи реальна подія.
  • Чи можете ви перевірити вміст за допомогою інших джерел? Подвійна перевірка з надійними джерелами ніколи не буде зайвою.

І нарешті, чи задавали ви собі питання – або вашому улюбленому чат-боту – як покращити ваше критичне мислення? Розвиток критичного мислення обов’язково повинен бути серед різдвяних рішень кожного.

Сподобалася стаття? Оцініть її!
Жахлива Мені не сподобалася Непогана Досить хороша! Чудова!

Ми дуже раді, що вам сподобалась наша робота!

Чи не могли б ви, як цінний читач, залишити свій відгук про нас на Trustpilot? Це швидко, але дуже важливо для нас. Дякуємо, ви — неймовірні!

Оцініть нас на Trustpilot
0 Проголосувало 0 користувачів
Назва
Залишити коментар
Дякуємо за ваш зворотній зв'язок
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Лишити коментар

Loader
Loader Показати більше...