Європейська Комісія оприлюднила офіційну позицію щодо регулювання штучного інтелекту. На відміну від оприлюдненого роком раніше концептуального погляду, тепер вже йдеться про регуляторні акти. Значення цих актів може бути співставним із GDPR. Принаймні сам Європейський Союз налаштований не лише повторити, а й перевершити успіх GDPR.
Разом із новими правилами для машин та оновленого координаційного плану щодо штучного інтелекту для держав-членів ЄС, центральне місце у регуляторному пакеті відведене загальним правовим вимогам до штучного інтелекту. Це акт у формі так званого регламенту, який матиме пряму дію. На кшталт того, як діє GDPR.
Центральна ідея — забезпечення довіри до систем з використанням технологій штучного інтелекту із зменшенням потенційного негативного впливу.
Основний підхід полягає у диверсифікації вимог в залежності від ступеню ризику — в якій сфері, для чого та як саме застосовуватиметься та чи інша система.
Чим вищі ризики, тим суворіші вимоги. Виходячи з цього, системи штучного інтелекту розподіляються на чотири категорії:
- з мінімальним ризиком
- з обмеженим ризиком
- з високим ризиком
- з неприйнятним ризиком
Що передбачено для систем з мінімальним ризиком
Це переважна більшість застосувань технологій штучного інтелекту. Коли ризик є мінімальним або відсутній зовсім. Йдеться про фільтри небажаної пошти, відеоігри, чи ж то використання у промислових виробництвах для оптимізації ресурсів.
Тут передбачається відсутність регуляторного втручання та вільне використання без будь-яких обмежень на додаток до тих вимог, що вже існують щодо захисту споживачів.
Що передбачено для систем з обмеженим ризиком
Це системи, від яких вимагається певний рівень прозорості. Зокрема йдеться про чат-ботів, системи придбання квитків, пошуку готелів, допомоги під час замовлення товарів або послуг тощо.
Ці системи також дозволені, але за умови додержання вимоги із забезпечення повного розуміння для користувача, що він взаємодіє із машиною аби він мав можливість поінформованого рішення — продовжувати таку взаємодію чи ні.
Що передбачено для систем з високим ризиком
Це системи, які перебувають у центрі уваги, аже вони проникають у важливі аспекти життя людини. Про що саме йдеться:
- критична інфраструктура, як от транспорт, що може загрожувати життю й здоров’ю, наприклад автономні автомобілі й медичні прилади
- освітня сфера, в частині доступу до освіти й професійної підготовки, наприклад в частині оцінювання іспитів
- безпекові компоненти продуктів, наприклад у випадку хірургічної операції із використанням роботизованих систем
- працевлаштування й робота з кадрами, наприклад в частині відбору резюме під час найму
- життєво важливі послуги й публічні послуги, наприклад в частині кредитних рейтингів із можливими наслідками у вигляді відмови в наданні позики або призначення субсидії
- правозастосування й правоохоронна діяльність поєднані із можливістю втручання в частині фундаментальних прав людини, наприклад оцінка прийнятності доказів
- міграційні питання й контроль за кордоном, наприклад перевірка справжності документів подорожуючих
- правосуддя й демократичні процеси, наприклад застосування права до тих чи інших обставин й фактів
Ці системи можуть використовуватися за умови попереднього додержання наступних суворих вимог:
- забезпечення належного рівня поводження із ризиками та їх мінімізації
- висока якість використовуваних системою наборів даних, що позбавлені упередженості й мають забезпечувати мінімізацію ризиків та дискримінаційних результатів
- фіксація процесу використання системи задля забезпечення відслідковування результатів та нагляду з боку людини в цілому
- деталізована документація щодо того, як система працює та її здатності забезпечити надання всієї необхідної інформації про саму систему та її цілі, під час перевірки відповідності вимогам з боку уповноважених органів
- чітка й адекватна інформація для користувачів для забезпечення розуміння й використання системи
- високий рівень стійкості роботи системи, безпеки й кібербезпеки, точності й релевантності результатів
Так, всі системи віддаленої біометричної ідентифікації розглядаються як системи із високим ризиком та мають відповідати суворим вимогам. Їх застосування у реальному часі у публічних місцях з боку правоохоронних органів є забороненим у принципі, із вузькими виключеннями за вичерпним переліком, належним чином врегульованими, лише за дозволом суду або іншого незалежного органу та із обмеженнями у критеріях пошуку, у часі й географічно.
Що передбачено для систем з неприйнятним ризиком
Це системи, які розглядаються як поєднані із прямою загрозою безпеці, середовищу існування й правам людини. Вони включають системи з використанням технологій з маніпулювання поведінкою людини й викривлення вільного волевиявлення користувача, як от такі, що культивують небезпечну поведінку з боку неповнолітніх, а також системи призначені до впровадження так званих соціальних рейтингів з боку держав, а також інші системи на кшталт, що є несумісними із фундаментальними правами й цінностями.
Ці системи розглядаються як неприйнятні й підлягають забороні.
Як збираються досягати бажаних результатів з регулювання
На національному рівні нагляд за додержанням правил здійснюватимуть спеціально уповноважені органи держав-членів. А на рівні ЄС діятиме створена для цього Європейська Рада зі Штучного Інтелекту, що забезпечуватиме імплементацію цих правил й розробку стандартів для штучного інтелекту.
Передбачається можливість впровадження добровільних кодексів поведінки для систем із невисоким ризиком, а також створення так званих регуляторних пісочниць для забезпечення відповідальної інноваційної діяльності.
За певних обставин, побудований на системі штучного інтелекту продукт може бути виведений з ринку.
Провайдери систем штучного інтелекту, які не додержуються заборон використання штучного інтелекту можуть бути піддані штафам до 6% від глобальної річної виручки.
Як це будудть імплементовувати
Проект регуляторного акту підлягає розгляду Європейським Парламентом та державами-членами у межах звичайної законотворчої процедури.
Згідно із текстом самого проекту, передбачається набрання чинності актом через 20 днів після офіційної публікації. А застосування акту передбачається через 2 роки після набрання чинності. А це так само, як було з GDPR.
Значення для України
В України схвалена концепція розвитку штучного інтелекту. Оприлюднений ЄС підхід у відношенні штучного інтелекту свідчить тепер, що наведені у національній концепції позиції з цих питань кардинально відхиляються від курсу ЄС.
Якщо Україна все ще має євроінтеграційні прагнення й дійсно шукає глибшої інтеграції до Єдиного цифрового ринку ЄС, може саме зараз той момент, коли слід було б переглянути національну концепцію. Тим більш, що план заходів щодо її реалізації ще не затверджений та у нас є достатньо часу аби не робити це поспіхом. Адже навіть за умови стрімкого прийняття ЄС профільного регуляторного акту й стрімкого набрання ним чинності, до початку його застосування буде 2 роки.