
Photo by Rafiee Artist on Unsplash
Думка: Чи є ChatGPT вашим другом? Можливо, саме час встановити межі
Нещодавно OpenAI та MIT опублікували статтю про вплив ChatGPT на благополуччя людей. Хоча більшість користувачів використовують цю технологію для практичних завдань, дослідження показує, що невелика група людей розвиває глибокі емоційні зв’язки з моделлю штучного інтелекту, які можуть впливати на їх благополуччя
Вже деякий час я з цікавістю спостерігаю за відносинами, які деякі люди розвивають із генеративним штучним інтелектом. Кілька місяців тому я прочитала в The New York Times історію про 28-річну заміжню жінку, яка закохалася в ChatGPT, і як те, що почалося як “веселий експеримент”, перетворилося на складні та неочікувані відносини.
Я спостерігала за своїми друзями, особливо за тими, хто колись відмовлявся від технологій або не цікавився ними, але зараз не можуть прийняти важливе рішення без консультації зі своїм AI-оракулом. Я також була здивована емпатійними відповідями, які AI-моделі дають на емоційно або психологічно заряджені запити.
І, звичайно, я сміялася над жартами, мемами та відео в TikTok, де люди показують на соціальних мережах, як вони стали залежними від чатбота, дехто навіть називає його своїм “найкращим другом” або “терапевтом” – і навіть серйозно рекомендують іншим робити те саме.
Але, якщо на мить відкласти веселощі та жарти, ми можемо усвідомити, що ми стикаємося з тривожним явищем на глобальному рівні.
Цього місяця, вперше в короткій історії штучного інтелекту, OpenAI та MIT Media Lab опублікували дослідження, яке надає уявлення про поточний вплив ChatGPT на емоційний благополуч людей, а також пропонує ідеї щодо ризиків, з якими ми можемо зіткнутися як суспільство: самотність, емоційна залежність та менша соціальна взаємодія з реальними людьми.
Відносини, які розвиваються
Перший підхід до нових технологій генеративного штучного інтелекту часто починається з кількох стриманих питань, можливо, технічних, про практичні завдання, наприклад, створення електронного листа або запитів на пояснення складних тем, або просто для мозкового штурму.
Однак, як тільки користувач починає перевіряти можливості чатбота, він виявляє, що вони можуть бути ширшими та складнішими, ніж очікувалося.
Хоча певні AI продукти, як Friend— носимий AI пристрій — були розроблені і дуже незграбно просувалися як життєвий супутник користувача, ChatGPT був рекламований як інструмент для підвищення продуктивності. Однак, певна кількість людей використовують чатбота для особистих та емоційних питань і встановлюють з ним сильні зв’язки.
Навіть якщо вони лише “невелика група”, як уточнило OpenAI, вони все ще можуть представляти мільйони людей по всьому світу, особливо враховуючи, що зараз понад 400 мільйонів людей щотижня користуються ChatGPT. Ці користувачі швидко помічають, що чат-бот OpenAI імітує їх мову, тон та стиль і навіть може бути навчений взаємодіяти певним чином або використовувати пестливі імена – як та жінка, яка закохалася в нього, – і навіть “звучати” більш людським.
“Їхній стиль розмови, використання першої особи, та здатність імітувати людські взаємодії, спонукали користувачів інколи особистісно та антропоморфно сприймати ці системи“, – зазначено в документі, який поділилася OpenAI.
Але ця близькість несе з собою ризики, як зазначили дослідники: “Хоча емоційно залучений чатбот може забезпечити підтримку та товариство, є ризик, що він може маніпулювати соціоафективними потребами користувачів таким чином, що підриває довгострокове благополуччя.”
Методологія дослідження
Нещодавно опубліковане дослідження зосереджується на благополуччі людей після постійного використання ChatGPT. Для розуміння емоційного та соціального впливу чатбота, дослідники провели два основні дослідження, використовуючи різні стратегії.
OpenAI обробило та проаналізувало понад 40 мільйонів взаємодій, дотримуючись приватності користувачів за допомогою класифікаторів, та провело опитування більш ніж 4,000 осіб щодо того, як ці взаємодії вплинули на їхні емоції.
MIT Media Lab провело випробування з майже 1,000 людей протягом місяця, зосереджуючись на психосоціальних наслідках використання ChatGPT щонайменше 5 хвилин на день. Вони також подали та обробили анкети в кінці експерименту.
Не дивно, що результати показали, що користувачі, які проводять більше часу з технологією, відчувають більше самотності та показують більше ознак ізоляції.
Складні Наслідки та Множинні Раміфікації
Дослідження MIT Media Lab та OpenAI також пропонувало декілька роздумів про те, наскільки складними та унікальними можуть бути відносини між людиною та чат-ботом.
У дослідженні автори дають нам змогу поглянути на різноманітність досвіду та способів взаємодії кожного користувача з ChatGPT—та як результат може варіюватися в залежності від різних факторів, таких як використання розширених голосових функцій, текстового режиму, типу голосу, частоти використання, тем спілкування, мови, що використовується, та часу, проведеного в додатку.
«Ми радимо не узагальнювати результати, оскільки це може затемнити детальні висновки, які висвітлюють нерівномерні, складні взаємодії між людьми та системами штучного інтелекту», — попереджає OpenAI у своєму офіційному оголошенні.
Усі різні підходи, які обирає кожен користувач, перетворюються на різні результати і занурюють нас у сірі зони, що важко досліджувати.
Це Ефект Метелика AI!
З’являються нові питання
Статтю, яку опублікував OpenAI, також вказано, що активні користувачі сказали, що були б “засмучені”, якщо б голос або особистість їхнього чат-бота змінився.
Це нагадало мені відео, яке я нещодавно бачила в соціальних мережах, де хлопець говорив, що він віддає перевагу жіночому голосу, і що він спілкується з генеративним AI щодня. Чи може ChatGPT допомагати чоловікам відкриватися емоційно? Що б відбулося, якщо одного дня ChatGPT заговорив з ним чоловічим голосом? Чи відчув би він зраду? Чи перестав би він користуватися ChatGPT? Чи він зав’язував романтичні відносини – або просто місце довіри? Звичайно, важко не асоціювати ці сценарії з фільмом Спайка Джонза “Вона”.
Кожний аккаунт ChatGPT разом зі своїми історичними чатами, що з кожним днем стають більш інтимними та приватними, ніж будь-який профіль WhatsApp або повідомлення у соціальних мережах, представляє унікальні відносини з безліччю можливих наслідків та результатів.
Очікуваний результат
Всі дослідження аналізували різні аспекти, але прийшли до подібного висновку, котрий коротко пояснено в MIT Technology Review: “Учасники, які довіряли та “зв’язувались” з ChatGPT більше, були більш схильні до самотності та більше залежали від нього.”
Хоча розслідування не зосереджувалося на рішеннях чи глибоких поясненнях того, чому це відбувається або як це може розвиватися, цілком ймовірно, що до OpenAI та інших платформ штучного інтелекту приєднається ще більше користувачів, особливо зараз, коли інструмент генерації зображень AI став вірусним.
Хоча висновки дослідження MIT та OpenAI не є особливо несподіваними, студія забезпечує наукове тло з доказами, вимірюваннями, зразками та більш ‘реальними’ показниками, які можуть прокласти шлях для подальших досліджень та допомогти вирішити наслідки використання штучного інтелекту сьогодні.
Ми також отримали офіційне попередження – від самих розробників – щодо зв’язків, які ми встановлюємо з ChatGPT, а також запрошення встановити обмеження і замислитися над нашими взаємодіями та поточними відносинами – чи може ситуаційними стосунками? – з чат-ботами.
Лишити коментар
Скасувати