Модель штучного інтелекту Google піддається європейському розслідуванню

Image from Trustedreviews

Модель штучного інтелекту Google піддається європейському розслідуванню

Час читання: 2 хв.

  • Кіара Фаббрі

    Написано: Кіара Фаббрі мультимедійна журналістка

  • Команда з локалізації та перекладу

    Переклад Команда з локалізації та перекладу Послуги локалізації та перекладу

Комісія з захисту даних (DPC) оголосила сьогодні про розслідування Google, щоб визначити, чи дотримувалася компанія законів ЄС про захист даних під час розробки своєї AI моделі, Pathways Language Model 2 (PaLM 2).

PaLM2 – це велика мовна модель, яка використовується в різних AI сервісах, включаючи скорочення електронних листів. Google заявив, що співпрацюватиме з розслідуванням, як зазначено в AP.

Розслідування оцінить, чи мала Google провести Оцінку впливу на захист даних (DPIA) для визначення потенційних ризиків для прав і свобод осіб від її технологій штучного інтелекту.

Це розслідування є частиною ширших зусиль DPC щодо забезпечення відповідності правилам захисту даних в секторі штучного інтелекту по всій Європі. Особливу увагу приділяється транскордонній обробці, яка включає обробку даних в кількох країнах ЄС або впливає на осіб в декількох націях.

Інструменти Generative AI, відомі своєю здатністю виробляти переконливу, але неправдиву інформацію та отримувати доступ до персональних даних, створюють значні юридичні ризики, як відзначили у TechCrunch. DPC, який відповідає за дотримання Google положень Загального регламенту про захист даних (GDPR).

З цією метою DPC може накладати штрафи до 4% від глобального щорічного доходу материнської компанії Google – Alphabet за порушення, як повідомляє TechCrunch.

Google розробила ряд генеративних AI-інструментів, включаючи свою серію Gemini великих моделей мови (раніше Bard), які використовуються для різних застосувань, включаючи покращення веб-пошуку за допомогою AI-чатботів, зазначає TechCrunch.

Центральне місце в цих інструментах займає PaLM2 від Google, базова модель LLM, яка була запущена на минулорічній конференції розробників I/O, повідомляє TechCrunch.

Минулого місяця X Елона Маска також потрапила під нагляд європейських регуляторів через використання даних користувачів для навчання штучного інтелекту. ДКЗ (Державна комісія з захисту даних) розпочала розслідування після отримання скарг на те, що X використовує дані користувачів у своїй технології штучного інтелекту Grok без належного отримання згоди. Хоча X погодилося обмежити обробку своїх даних, жодних санкцій проти них не застосовано.

Це розслідування є частиною більших зусиль ДКЗ щодо регулювання використання особистих даних у розробці штучного інтелекту в межах Європейського Союзу. Недавнє прийняття ЄС Закону про штучний інтелект є значним кроком у створенні регулятивного середовища для технологій штучного інтелекту в межах блоку.

Сподобалася стаття? Оцініть її!
Жахлива Мені не сподобалася Непогана Досить хороша! Чудова!
0 Проголосувало 0 користувачів
Назва
Залишити коментар
Дякуємо за ваш зворотній зв'язок
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Лишити коментар

Показати більше...