Модель штучного інтелекту Google піддається європейському розслідуванню
Комісія з захисту даних (DPC) оголосила сьогодні про розслідування Google, щоб визначити, чи дотримувалася компанія законів ЄС про захист даних під час розробки своєї AI моделі, Pathways Language Model 2 (PaLM 2).
PaLM2 – це велика мовна модель, яка використовується в різних AI сервісах, включаючи скорочення електронних листів. Google заявив, що співпрацюватиме з розслідуванням, як зазначено в AP.
Розслідування оцінить, чи мала Google провести Оцінку впливу на захист даних (DPIA) для визначення потенційних ризиків для прав і свобод осіб від її технологій штучного інтелекту.
Це розслідування є частиною ширших зусиль DPC щодо забезпечення відповідності правилам захисту даних в секторі штучного інтелекту по всій Європі. Особливу увагу приділяється транскордонній обробці, яка включає обробку даних в кількох країнах ЄС або впливає на осіб в декількох націях.
Інструменти Generative AI, відомі своєю здатністю виробляти переконливу, але неправдиву інформацію та отримувати доступ до персональних даних, створюють значні юридичні ризики, як відзначили у TechCrunch. DPC, який відповідає за дотримання Google положень Загального регламенту про захист даних (GDPR).
З цією метою DPC може накладати штрафи до 4% від глобального щорічного доходу материнської компанії Google – Alphabet за порушення, як повідомляє TechCrunch.
Google розробила ряд генеративних AI-інструментів, включаючи свою серію Gemini великих моделей мови (раніше Bard), які використовуються для різних застосувань, включаючи покращення веб-пошуку за допомогою AI-чатботів, зазначає TechCrunch.
Центральне місце в цих інструментах займає PaLM2 від Google, базова модель LLM, яка була запущена на минулорічній конференції розробників I/O, повідомляє TechCrunch.
Минулого місяця X Елона Маска також потрапила під нагляд європейських регуляторів через використання даних користувачів для навчання штучного інтелекту. ДКЗ (Державна комісія з захисту даних) розпочала розслідування після отримання скарг на те, що X використовує дані користувачів у своїй технології штучного інтелекту Grok без належного отримання згоди. Хоча X погодилося обмежити обробку своїх даних, жодних санкцій проти них не застосовано.
Це розслідування є частиною більших зусиль ДКЗ щодо регулювання використання особистих даних у розробці штучного інтелекту в межах Європейського Союзу. Недавнє прийняття ЄС Закону про штучний інтелект є значним кроком у створенні регулятивного середовища для технологій штучного інтелекту в межах блоку.
Лишити коментар
Скасувати