Генеративний AI викликає тривогу в науковому середовищі, оскільки фальшиві дані загрожують вірогідності
Поспішаєте? Ось основні факти!
- Генеративний AI дозволяє швидко створювати реалістичні, але водночас вигадані наукові дані та зображення.
- Дослідникам важко виявити зображення, створені за допомогою AI, через відсутність очевидних ознак маніпуляцій.
- Фігури, створені за допомогою AI, можуть вже бути в наукових журналах.
Зображення, створені штучним інтелектом, викликають великі занепокоєння серед дослідників та видавців, оскільки нові генеративні інструменти AI роблять створення фальшивих наукових даних та зображень дивовижно легким, як зазначено в прес-релізі Nature.
Цей прогрес загрожує авторитету наукової літератури, експерти бояться зростання кількості вигаданих досліджень, підтримуваних AI, які можуть бути важкими для виявлення.
Джана Кристофер, аналітик із забезпечення цілісності зображень у FEBS Press в Німеччині, наголошує, що швидке розвиток генеративного ШІ викликає зростання стурбованості щодо його потенційного зловживання в науці.
“Люди, які працюють у моїй сфері — забезпечення цілісності зображень та етики публікацій — все більше стурбовані можливостями, які він пропонує”, – сказала Джейн, як повідомляє Nature.
Вона зазначає, що хоча деякі журнали можуть приймати текст, створений AI, за певними критеріями, зображення та дані, створені AI, розглядаються як перетинання межі, яке може глибоко вплинути на наукову чесність, як зазначено в Nature.
Виявлення цих зображень, створених AI, стало основним викликом, каже Nature. На відміну від попередніх цифрових маніпуляцій, зображення, створені AI, часто не мають звичайних ознак підробки, що ускладнює доказування будь-якого обману.
Спеціалістка з аналізу зображень Елізабет Бік та інші дослідники висувають припущення, що фігури, створені за допомогою штучного інтелекту, особливо в молекулярній та клітинній біології, можуть вже бути представлені в опублікованій літературі, як повідомляє Nature.
Такі інструменти, як ChatGPT, тепер регулярно використовуються для написання статей, які можна визначити за типовими фразами чатбота, що залишилися без редагування, але зображення, створені штучним інтелектом, набагато важче виявити. Реагуючи на ці виклики, технологічні компанії та науково-дослідні установи розробляють інструменти для виявлення, зазначає Nature.
Інструменти на базі штучного інтелекту, такі як Imagetwin та Proofig, очолюють цей процес, навчаючи свої алгоритми визначати контент, створений генеративним AI. Співзасновник Proofig Дрор Колодкін-Гал повідомляє, що їх інструмент успішно виявляє зображення AI 98% часу, але він зауважує, що людська перевірка залишається вирішальною для підтвердження результатів, як зазначено в Nature.
У видавничій сфері журнали, такі як Science, використовують Proofig для початкового сканування матеріалів, які надійшли, а видавничий гігант Springer Nature розробляє власні інструменти, Geppetto та SnapShot, для виявлення нерегулярностей в тексті та зображеннях, про що повідомляє Nature.
Інші організації, такі як Міжнародна асоціація наукових, технічних та медичних видавців, також запускають ініціативи для боротьби з “фабриками статей” та забезпечення наукової чесності, як повідомила Nature.
Однак, експерти попереджають, що видавцям потрібно діяти швидко. Кевін Патрік, експерт у галузі наукових зображень, стурбований тим, що, якщо дії будуть відкладені, контент, створений штучним інтелектом, може стати ще однією нерозв’язаною проблемою в науковій літературі, як повідомила Nature.
Незважаючи на ці стурбованості, багато хто все ще сподівається, що майбутня технологія розвинеться до рівня виявлення сучасних обманів, створених штучним інтелектом, пропонуючи довготривале рішення для захисту інтегритету академічних досліджень.
Лишити коментар
Скасувати