Думка: Епідемія галюцинацій ШІ, криза, на яку ми не готові

Image generated with DALL·E through ChatGPT

Думка: Епідемія галюцинацій ШІ, криза, на яку ми не готові

Час читання: 7 хв.

Незважаючи на постійні обіцянки зменшити галюцинації AI, основні інструменти AI – від ChatGPT до Perplexity, до Gemini, і Apple Intelligence – продовжують генерувати неправдиву інформацію, часто з тривожними наслідками. Експерти, включаючи тих, хто попереджає про ризики AI, потрапили на вигаданий контент, і навіть такі передові інструменти як Deep Research вигадують звіти. Правда, здається, залишається в людських руках

Чат-боти ставали кращими протягом років – набагато кращими. Однак є одне питання, яке ще не було вирішено і відоме як “галюцинації”.

Наші улюблені чат-боти дають геніальні відповіді на наші запитання з рішучістю та авторитетом науково-фантастичного Йоди, навіть коли вони жахливо помиляються. І ми їм віримо. Іноді навіть сліпо.

Багато вчених, експертів, а також розробників чат-ботів вже роками попереджають про галюцинації. Проте, хоча впровадження швидко поширюється – OpenAI повідомила про 400 мільйонів активних користувачів щотижня лише кілька днів тому – рівень обізнаності в області штучного інтелекту не встигає за ним.

Нещодавні дослідження, судові процеси та драматичні події продовжують показувати, що дезінформація навіть небезпечніша, ніж ми уявляли.

Це гірше, ніж ми думали

Спочатку, виявлення великих помилок, згенерованих штучним інтелектом, було досить смішним – як от незграбні огляди, створені AI Gemini, які радили користувачам додати “нетоксичний клей до соусу” для рецепту піци або рекомендували їсти “одне маленьке каміння на день” минулого року. Але, починаючи знову довіряти AI, ситуація загострилась, ставши все більш занепокоюючою.

У грудні ми бачили, як інструмент AI від Apple створював заголовки “резюмуючи” новини та генерував фальшиву та оманливу інформацію, наприклад, неправдиво заявляючи, що BBC оголосила, що Луїджі Мангіоне застрелив себе. Після цього інциденту, редакція подала скаргу на Apple і почала досліджувати точність генеративного AI при аналізі новинного контенту.

Висновки BBC, опубліковані лише кілька днів тому, виявили тривожні статистичні дані: 51% відповідей, наданих популярними AI Чатботами, містили серйозні проблеми, 13% цитат, наданих моделями, були повністю вигаданими, а 19% даних були невірними.

Підлітки належать до найбільш вразливих груп населення, оскільки вони часто мають труднощі з розрізненням фейкових новин від реальних, і їх можна легко вплинути контентом, створеним за допомогою штучного інтелекту. Дослідження, опубліковане у січні, показало, що 35% підлітків були введені в оману фейковим контентом, створеним моделями штучного інтелекту, а 22% поширили цю фальшиву інформацію.

Але не лише підлітки та розсіяні люди піддаються цим галюцинаціям. І це не лише про Gemini або Apple Intelligence.

Жодна модель штучного інтелекту не застрахована, жодна галузь не в безпеці

Дослідження, проведене BBC, підтверджує інший проблемний аспект: всі моделі штучного інтелекту “галюцинують”. Експерти розглянули найпопулярніші моделі, такі як ChatGPT, Gemini, Perplexity та Copilot. Жодна модель штучного інтелекту не застрахована від помилок. Компанія Anthropic має сторінку, на якій розглядає цю проблему, пропонуючи ідеї щодо зменшення “галюцинацій”.

“Навіть найпередовіші моделі мови, такі як Claude, іноді можуть генерувати текст, який є фактично неточним або невідповідним даному контексту”, – говориться в документі. Інші компанії, що працюють у сфері штучного інтелекту, поділилися схожими сторінками з порадами та хитрощами щодо уникнення фальшивого контенту, але це не так просто, і ця проблема залишається нерозв’язаною вже досить довго.

У 2023 році OpenAI оголосила, що працює над новими інноваційними способами позбавлення від галюцинацій. Спойлер: це все ще велика проблема сьогодні.

У січні 2024 року — більше року тому — генеральний директор Аравінд Срінівас заявив, що галюцинації Perplexity в основному виникали в безкоштовних акаунтах. “Більшість скарг надходять від безкоштовної версії продукту,” пояснив Срінівас, додавши, що вони вже збільшували кількість графічних процесорів, щоб вирішити цю проблему. Однак до жовтня New York Post і Dow Jones подали позов проти Perplexity — оскільки їхня модель продовжувала приписувати їхнім виданням фейкові новини —, а інструмент штучного інтелекту, розроблений стартапом для виборів в США, був перевірений експертами, які виявили невідповідності, неточні резюме та галюцинації.

Проблема галюцинацій досягає наукових та академічних рівнів

Одним з найбільших стурбованих питань зараз є те, що навіть експерти, включаючи тих, хто попереджає про ризики та небезпеки AI, стали піддаватися цим інструментам, схильним до галюцинацій.

У грудні, професор Стенфорду та експерт з технологій та дезінформації Джеф Генкок був обвинувачений в тому, що він використав AI для формулювання судового заяви. Генкок подав 12-сторінкову декларацію на захист закону штату 2023 року, який криміналізує використання глибоких фальсифікацій, включаючи 15 цитат. Однак дві з цих цитат ніде не можна було знайти, оскільки ChatGPT, бажаний інструмент AI експерта з дезінформації, просто їх вигадав.

Генкок, що цього року має викладати курс “Правда, довіра та технології”, пояснив, що він використовував чат-бот OpenAI для організації своїх цитат, що призвело до галюцинацій. Дослідник вибачився — і залишився на своїй позиції щодо основних тез своєї декларації —, і навчив нас всіх цінного уроку, що навіть експерти та найбільш освічені люди у сфері штучного інтелекту не застраховані від його впливу.

Професор Генкок, звичайно, не єдиний, хто подавав документи з вигадками, створеними штучним інтелектом, у суді. Інший випадок, пов’язаний з позовом проти Walmart, недавно став вірусним, оскільки адвокати використовували фейкові випадки, створені AI, для підтримки своїх аргументів. Насправді, питання стало таким поширеним у судах США, що юридична фірма Morgan & Morgan недавно надіслала листи своїм понад 1 000 адвокатам, попереджаючи їх про ризики використання цитат, створених штучним інтелектом, а Американська адвокатська асоціація нагадала своїм 400 000 членам про правила етики адвокатів — включаючи інформацію, створену AI.

Глибокі дослідження теж

Одним з найпопулярніших інструментів ШІ зараз є “Deep Research”, розроблений для експертів та науковців, які шукають більш складні результати у своїх дослідженнях. Галюцинації також не відсутні в цьому інструменті, хоча початкова версія від OpenAI вимагала $200 Pro підписки для доступу.

Користувачі на Reddit висловили своє стурбованість цим питанням, повідомляючи, що всі популярні моделі з інструментами глибокого дослідження – Perplexity, ChatGPT та DeepSeek – мали галюцинації. Дослідники та експерти в галузі ШІ також поділилися тривожними результатами на інших соціальних медіа-платформах, таких як X.

“Інструмент створив прекрасно написаний та аргументований звіт,” написала одна користувачка, яка використовувала інструмент Deep Research від OpenAI для вивчення математики, яку роблять молоді люди. “Єдина проблема в тому, що все це вигадано.”

“Deep Research вигадав купу статистики та аналізів, претендуючи на компіляцію бази даних з тисяч статей, і, нібито, збираючи інформацію про рік народження кожного автора з авторитетних джерел,” поділилася інша. “Нічого з цього не є правдою.”

Правда Залишається в Людських Руках

Чи коли-небудь чат-боти припинят вигадувати? Слабка сторона штучного інтелекту була очевидною протягом багатьох років – ми бачили це в подкастах, як-от Planet Money, коли вони тестували епізоди, створені штучним інтелектом у 2023 році, і ми продовжуємо бачити це у найбільш передових моделях, навіть тих, які розроблені для ексклюзивного використання експертами та технічно обізнаними спільнотами.

Можливо, настав час прийняти те, що це залишиться проблемою, і зрозуміти, що ми повинні брати на себе відповідальність за те, що створюємо та ділимося за допомогою інструментів штучного інтелекту.

Той факт, що, хоча це здається відомою проблемою, але експерти з ризиків штучного інтелекту і самі піддаються переконливому та впевненому письму AI, безумовно, є тривожним. Ситуація стає ще складнішою, оскільки прийняття продовжує прискорюватися повною швидкістю, обганяючи цифрову грамотність, в той час як непослідовності та вигадані цитати помножуються.

Випадки, коли було виявлено галюцинації штучного інтелекту, зазвичай стосуються ситуацій, коли важлива перевірка фактів – чого варто нагадати Зукербергу, оскільки він ліквідував свій відділ перевірки фактів. Це особливо помітно в судових залах, де адвокати та судді працюють над перевіркою фактів і справ, а також в новинах, де важливі точність і перевірка джерел.

Але що стосовно випадків, коли ніхто не звертає уваги на ці деталі? Що відбувається в повсякденних, більш особистих контекстах? Зараз мільйони студентів запам’ятовують відповіді, згенеровані штучним інтелектом, для своїх навчальних цілей, користувачі слідують за інструкціями від штучного інтелекту для лікування хвороб, а інші дізнаються про нові теми, повністю довіряючи технології.

Наслідки цієї нової реальності, з якою ми стикаємося, є невимірюваними та непередбачуваними, а правда — наразі — у руках тих, хто знаходить час поставити питання та перевірити.

Сподобалася стаття? Оцініть її!
Жахлива Мені не сподобалася Непогана Досить хороша! Чудова!

Ми дуже раді, що вам сподобалась наша робота!

Чи не могли б ви, як цінний читач, залишити свій відгук про нас на Trustpilot? Це швидко, але дуже важливо для нас. Дякуємо, ви — неймовірні!

Оцініть нас на Trustpilot
0 Проголосувало 0 користувачів
Назва
Залишити коментар
Дякуємо за ваш зворотній зв'язок
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Лишити коментар

Loader
Loader Показати більше...