Думка: Шахрайства з використанням глибокої підробки використовують любов та довіру як ніколи раніше

Image generated with DALL·E through ChatGPT

Думка: Шахрайства з використанням глибокої підробки використовують любов та довіру як ніколи раніше

Час читання: 6 хв.

Шахрайства, що використовують штучний інтелект, стають все більш поширеними, а кіберзлочинці використовують технологію дипфейк для створення переконливих відео та зображень, які маніпулюють жертвами. Від француженки, яка вважала, що допомагає Бреду Пітту, до жертви, яку обманули за допомогою високоякісного дипфейку, межі між реальністю та обманом стираються. І як розвиваються інструменти ШІ, так само розвиваються і ризики.

Багато з нас бачили це в новинах у січні: француженка втратила понад 850 000 доларів шахраям, оскільки вона вірила, що передає гроші Бреду Пітту – чоловікові, з яким, на її думку, вона була у відносинах протягом більше року.

Шахраї використали передову генеративну штучну інтелектуальність, щоб створити “селфі” та вигадати докази, переконуючи свою жертву, Енн – 53-річну дизайнерку, яка переживає розлучення – у трагічну історію про нереального Пітта з терміновими медичними потребами. Вони заявили, що його кошти були заморожені через його розлучення з Анджеліною Джолі.

Енн зробила відважне – і ризиковане – рішення розказати про свою історію публічно, зіткнувшись з мільйонами насмішок, образ і віртуальних атак. “Як дурень, я платила… Кожен раз, коли я сумнівалася в ньому, він вмів розсіяти мої сумніви”, – сказала вона в одному з французьких шоу на Youtube, як повідомляє BBC. “Мене просто обіграли, я це визнаю, і саме тому я вийшла з цим, тому що я не єдина”.

Вона ним є. Кілька місяців потому іспанська поліція арештувала 5 осіб, які обдурили двох інших жінок, виступаючи під виглядом Пітта. Кілька днів тому, чоловіка з Китаю також обманули, змусивши його повірити, що його віртуальна подруга потребує грошей на медичні процедури та фінансування свого бізнесу.

Жертви отримували персоналізовані відео та фотографії — зображення, яких не можна було знайти в інтернеті — що ще більше переконувало їх у складних брехнях своїх обманщиків.

Нещодавній звіт від Entrust свідчить, що спроби Deepfake відбуваються кожні 5 хвилин. Кожен день з’являються нові випадки людей, яких обманули за допомогою генеративного AI – це стурбовує, особливо враховуючи тисячі, а то й мільйони людей, які занурені в борги та сором і не наважуються повідомити про це владі, не кажучи вже про те, щоб розголосити це.

Зростання шахрайства за допомогою DeepFake

Багато досліджень і звітів викликали тривогу щодо збільшення шахрайства та кібератак, підсилених AI. Нещодавні дані з Трендів та огляду шахрайства 2025 року від TrustPair показали зростання шахрайства, здійсненого за допомогою AI, на 118% за рік, як повідомляє CFO.

Привіт, недавно американська компанія Hiya, яка спеціалізується на рішеннях для безпеки голосового зв’язку та його ефективності, опублікувала результати опитування, згідно якого 31% клієнтів з шести країн отримали у 2024 році телефонні дзвінки з використанням технології deepfake, а 45% з них стали жертвами шахраїв – 34% з цієї групи втратили гроші, а у 32% була вкрадена особиста інформація. В середньому, кожна жертва телефонного шахрайства втрачає понад $500.

Декілька днів тому The Guardian повідомив, що організована мережа в Грузії – в Східній Європі – використовувала фальшиві реклами на Facebook та Google для шахрайства понад 6,000 людей по всій Європі, Канаді та Великобританії, отримавши через свої операції $35 мільйонів.

Близько 85 добре оплачуваних грузинських шахраїв використовували публічних осіб, таких як англійський журналіст Мартін Льюїс, письменник та авантюрист Бен Фогл, та Ілон Маск для своїх шахрайств. Шахраї рекламували фальшиві криптовалюти та інші інвестиційні схеми, змушуючи жертв переказувати гроші через цифрові банки, такі як Revolut, який щойно отримав банківську ліцензію у Великобританії.

Передовий ШІ, більш розгорнуті шахрайства

Кіберзлочинці вже кілька років використовують генеративний штучний інтелект, використовуючи інструменти, такі як ChatGPT, для створення та перекладу цікавих електронних листів та генерування переконливого текстового контенту. Зараз, з розвитком інструментів ШІ, використання зображень та відео, створених за допомогою ШІ, збільшилося.

Декілька тижнів тому, ByteDance представила свій останній AI відео-інструмент, OmniHuman-1, здатний створювати одні з найреалістичніших deepfake’ів на ринку. Тим часом, все більше AI компаній розробляють схожі технології. Схоже, це лише питання часу, коли ці інструменти також будуть використані для шахрайства.

Хоча ці технології можуть використовуватись “з добрими намірами” і навіть для боротьби зі зростанням шахрайства – як, наприклад, AI ‘Бабуся’ Daisy від O2, створена для залучення шахраїв у реальні телефонні дзвінки і відволікання їх від реальних жертв – наслідки їх шкідливого використання здаються неоціненними.

У Wizcase ми недавно опублікували інформацію про збільшення на 614% атак типу “Обман самого себе”, зазначаючи, як хакери використовують технології глибокого навчання для того, щоб зробити штучний контент “більш реалістичним”, а також як соціальні мережі, такі як Meta, змушені втручатися в схеми обману, пов’язані з різанням свиней, оскільки багато зловмисників використовують ці платформи. У дослідженні Meta зазначено, що багато обманів починаються в додатках для знайомств, що підтверджує, наскільки романтичне кохання є одним з найпоширеніших приманок – як зараз, так і історично.

Кохання: Могутня приманка

Кіберзлочинці не просто добре розуміють і використовують передові технології штучного інтелекту – вони також глибоко розуміють людський інтелект. Зловмисники знають, як виявити вразливості, набудувати довіру і зробити свої пропозиції в самий підходящий момент.

Дослідження Чи ти любиш мене? Психологічні характеристики жертв романтичних шахрайств, опубліковане у 2018 році доктором філософії Монікою Т. Вітті, пояснює, як міжнародні кримінальні групи вже багато років проводять шахрайства у сфері знайомств—навіть до появи Інтернету—, і як жінки середнього віку з хорошою освітою схильні піддаватися цьому виду шахрайства—так само, як Анна.

Чого ми можемо очікувати зараз, вісім років після цього дослідження, з технологіями, які нагадують наукову фантастику? Мабуть, ми всі більш вразливі, ніж думаємо.

“Часто жертвами цього виду шахрайства стають люди, які шукають сенс життя, емоційно вразливі,” – написала Енні Лекомпт, доцент Університету Квебека в Монреалі (UQAM), в недавній статті, опублікованій в The Conversation. “Хоча це часто викликає сміх або незрозуміння, шахрайство в сфері романтичних відносин базується на складних психологічних механізмах, які використовують довіру, емоції та вразливість жертв.”

Зламане серце, порожній гаманець

Лю – прізвище китайця, який нещодавно втратив 200 000 юанів, близько 28 000 доларів, в шахрайстві на базі штучного інтелекту – дійсно вірив, що його віртуальна дівчина – реальна, оскільки він бачив персоналізовані фотографії та навіть відео. Він встановлював все сильніші емоційні зв’язки… зі своїми шахраями.

Хоча він не надав більше подробиць контексту в звітах, це зробила інша жертва, 77-річна жінка Ніккі МакЛеод. Вона також вважала, що знаходиться в справжніх відносинах з віртуальною дівчиною-роботом і відправила їй 17 000 фунтів – близько 22 000 доларів – через банківські перекази, PayPal та подарункові картки.

“Я не дурна, але вона змогла переконати мене, що є справжньою людиною і ми збираємося провести разом все життя”, – сказала МакЛеод BBC.

Маклеод відчувала себе самотньою та сумною, коли в груповому чаті познайомилася з Аллою Морган. Після деякого часу Маклеод запросила відео в режимі реального часу, але Морган відповіла, що це неможливо, оскільки вона працює на нафтовій свердловині. Коли Маклеод почала підозрювати, Морган почала надсилати реалістичні відео. “Вона надіслала мені відео з повідомленням ‘Привіт, Ніккі, я не шахраїка, я на своїй нафтовій свердловині’, і я повністю в це повірила,” – пояснила Маклеод. Цей контент доступний на веб-сайті BBC, і легко зрозуміти, чому Маклеод вважала, що це реально – це високоякісний глибокий підроблений матеріал.

BBC попросила експерта з кібербезпеки та взаємодії людей з комп’ютерами в Абертейському університеті, доктора Лінсі Шеперд, проаналізувати фотографії та відео, які отримала Маклеод. “На перший погляд це виглядає законним, якщо ви не знаєте, на що дивитися, але якщо ви дивитесь на очі – рухи очей не зовсім правильні,” – сказала доктор Шеперд.

“Документи виглядали справжніми, відео виглядало справжнім, банк виглядав справжнім,” – сказала МакЛеод. “З введенням штучного інтелекту, кожна єдина річ може бути підробленою.”

Сподобалася стаття? Оцініть її!
Жахлива Мені не сподобалася Непогана Досить хороша! Чудова!

Ми дуже раді, що вам сподобалась наша робота!

Чи не могли б ви, як цінний читач, залишити свій відгук про нас на Trustpilot? Це швидко, але дуже важливо для нас. Дякуємо, ви — неймовірні!

Оцініть нас на Trustpilot
0 Проголосувало 0 користувачів
Назва
Залишити коментар
Дякуємо за ваш зворотній зв'язок
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Лишити коментар

Loader
Loader Показати більше...