Дезінформація з використанням штучного інтелекту не вплинула на результати Європейських виборів 2024 року, з’ясувалося з доповіді

Image by Vikasss, from Pixabay

Дезінформація з використанням штучного інтелекту не вплинула на результати Європейських виборів 2024 року, з’ясувалося з доповіді

Час читання: 3 хв.

  • Кіара Фаббрі

    Написано: Кіара Фаббрі мультимедійна журналістка

  • Команда з локалізації та перекладу

    Переклад Команда з локалізації та перекладу Послуги локалізації та перекладу

Поспішаєте? Ось основні факти!

  • Штучний інтелект не вплинув на результати європейських виборів.
  • Дезінформація від штучного інтелекту посилила існуючі політичні переконання.
  • Дезінформація та збентеженість підірвали довіру до джерел інформації.

Згідно з новим звітом Центру технологій та безпеки виборів (CETaS), дезінформація, створена штучним інтелектом, та дипфейки не вплинули на результати виборів 2024 року в Великобританії, Європейському Союзі (ЄС) та Франції.

Незважаючи на поширені стурбованість щодо маніпуляцій з використанням штучного інтелекту, дослідження виявило, що більшість дезінформації, підсилена штучним інтелектом, лише підкріплювала існуючі політичні переконання, а не впливала на нерішучих виборців.

Проте, звіт викликає тривогу щодо більш широких наслідків використання ШІ, особливо щодо етичних викликів, які він створює в демократичних процесах.

Звіт виявив 16 випадків поширення вірусної дезінформації за допомогою ШІ під час виборів у Великобританії, та 11 випадків під час виборів у ЄС та Франції. Більшість з цих випадків, як стверджує дослідження, лише посилювали вже існуючі політичні погляди.

Однак, наслідки цих інцидентів з ШІ виявили схему дезінформації. Багато людей також були заплутаними щодо того, чи є контент, створений з використанням ШІ, реальним, що підривало довіру до онлайн-джерел.

У звіті зазначається, що деякі політики використовували ШІ в рекламних кампаніях без належного позначення, спонукаючи до недобросовісних виборчих практик.

У ще одному висновку, звіт вказує, що поширення сатири, генерованої штучним інтелектом, яку часто помилково приймають за реальний контент, додатково вводило в оману виборців, виявляючи новий тип ризику для цілісності виборів.

Звіт акцентував увагу на ролі як внутрішніх акторів, так і зовнішнього втручання у поширенні дезінформації, згенерованої за допомогою штучного інтелекту. Однак він підкреслив, що традиційні методи, такі як штучне формування громадської думки за допомогою ботів (astroturfing) та поширення дезінформації людськими інфлюенсерами, мали набагато більший вплив на виборців, ніж контент, створений штучним інтелектом.

Хоч вплив штучного інтелекту на результати виборів був незначним, CETaS попереджає про зростаючі ризики, оскільки технологія штучного інтелекту стає все більш доступною.

Звіт закликає правові та регулюючі органи вирішити ці виклики, пропонуючи необхідність збалансувати свободу слова з боротьбою проти дезінформації, що підтримується штучним інтелектом. Він також наголошує на важливості чіткого маркування політичного контенту, створеного штучним інтелектом, щоб запобігти неетичним практикам агітації.

Остаточний звіт від CETaS, який має з’явитися в листопаді 2024 року, буде фокусуватися на ролі ШІ в американських виборах та пропонувати довготривалі рекомендації щодо захисту демократичних процесів від загроз, пов’язаних зі ШІ.

У брифінгу підсумовується, визнаючи потенційні позитивні можливості ШІ. У звіті зазначається, що ШІ надала платформу для зміцнення зв’язку між виборцями та політичними кандидатами через синтетичні онлайн-персони.

Окрім того, генеративний штучний інтелект допомагав фактчекерам у визначенні пріоритетів щодо оманливих тверджень, які висунули кандидати, допомагаючи їм вирішити, яким з них потрібна невідкладна увага.

Сподобалася стаття? Оцініть її!
Жахлива Мені не сподобалася Непогана Досить хороша! Чудова!
0 Проголосувало 0 користувачів
Назва
Залишити коментар
Дякуємо за ваш зворотній зв'язок
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Лишити коментар

Показати більше...