
Photo by Saúl Bucio on Unsplash
Помилки, створені штучним інтелектом, в судових документах призводять до юридичних проблем для адвокатів
Звіт, опублікований вчора на сайті Reuters, показує, що галюцинації штучного інтелекту – помилки та вигадана інформація, створена генеративними моделями штучного інтелекту – створюють юридичні проблеми в судах Сполучених Штатів.
Вам терміново? Ось основні факти!
- Morgan & Morgan відправили електронний лист 1,000 адвокатам, попереджаючи про ризики штучного інтелекту.
- Нещодавній випадок, коли адвокати Walmart визнали, що використовують штучний інтелект для своїх справ, викликав тривогу в юридичній спільноті.
- Використання галюцинацій чат-ботів у судових заявах стало повторюваною проблемою останніми роками.
Цього місяця юридична фірма Morgan & Morgan відправила електронного листа з попередженням більше ніж 1,000 адвокатам про ризики використання чат-ботів та фальшивих справ, сгенерованих штучним інтелектом.
Кілька днів тому двоє адвокатів у Вайомінгу визнали, що вони включили відомості про фальшиві справи, створені штучним інтелектом, до юридичних документів для подання позову проти Walmart, і федеральний суддя загрожував їм санкціями.
У грудні професор Стенфорду та експерт з дезінформації Джефф Хенкок був звинувачений у використанні ШІ для фабрикації цитат судових заяв у якості частини свого висловлювання на захист закону штату 2023 року, який криміналізує використання глибоких фейків для впливу на вибори.
Протягом останніх років багато таких випадків викликало юридичні суперечки і додало клопоту для суддів та сторон у судових процесах. Morgan & Morgan та Walmart відмовилися коментувати це питання.
Генеративний AI допомагає скорочувати час на дослідження для юристів, але його галюцинації можуть призвести до значних витрат. Минулого року дослідження Thomson Reuters показало, що 63% юристів використовували AI для роботи, а 12% робили це регулярно.
Минулого року Американська адвокатська асоціація нагадала своїм 400 000 членам про правила етики адвокатів, які включають в себе обов’язок адвокатів підтримувати всю інформацію у судових поданнях, і зазначила, що це стосується інформації, створеної штучним інтелектом, навіть якщо це було випадковим – як у випадку з Генкоком.
“Коли адвокати виявляються зловживаючими ChatGPT або будь-яким іншим інструментом генеративного штучного інтелекту для створення цитат без перевірки, це некомпетентність, просто чиста та проста,” сказав Ендрю Перлман, декан юридичного факультету Університету Саффолк в інтерв’ю Reuters.
Кілька днів тому BBC також поділилися звітом, що попереджає про фейкові цитати, генеровані AI і проблеми з використанням AI-інструментів у журналістиці.
Лишити коментар
Скасувати