Лабораторія цифрової безпеки оприлюднила стратегію реалізації Закону про штучний інтелект в Україні.
Експерти підкреслюють необхідність врахування специфіки України, а не лише механічного запозичення європейських стандартів.
17 грудня відбулася онлайн-презентація Лабораторії цифрової безпеки "План дій щодо імплементації Акту про штучний інтелект в Україні", організована за підтримки International Media Support (IMS).
На заході спеціалісти розглянули основні труднощі та пріоритетні напрямки впровадження європейських норм у сфері регулювання штучного інтелекту.
Голова "Лабораторії цифрової безпеки" Віта Володовська наголосила, що, важливо, щоб процес євроінтеграції відбувався з урахуванням національних інтересів та українського контексту.
Програмна менеджерка International Media Support в Україні, Гоар Ходжаян, акцентувала увагу на важливості спостереження за реальними кроками України у реалізації європейських стандартів у сфері цифрових прав. Вона вважає, що AI Act має стратегічне значення для України, як у процесі євроінтеграції, так і в рамках національної цифрової трансформації.
"Ми розглядаємо цей план як основу для узгодження дій між законодавчою владою, урядовими структурами, експертами, бізнес-середовищем, медіа та представниками громадянського суспільства. Це необхідний крок для реалізації конкретних рішень і розвитку інституційної спроможності," - зазначила Гоар Ходжаян.
Старша юристка "Лабораторії цифрової безпеки" Тетяна Авдєєва повідомила, що презентоване дослідження було виконано у форматі мепінгу зобов'язань України відповідно до Європейського акту про штучний інтелект. У рамках цього дослідження були детально проаналізовані існуючі прогреси, проблемні питання та потенційні напрямки, в яких Україні слід рухатися, враховуючи, що реалізація AI Act значною мірою залежить від діяльності європейських інституцій.
Юристка з "Лабораторії цифрової безпеки" Анна Людва представила ключові моменти. Вона зазначила, що Закон про штучний інтелект набрав чинності в серпні 2024 року, проте процес його впровадження залишається непростим, і не всі країни ЄС змогли дотриматися встановлених термінів.
Вона акцентувала на важливих аспектах, зокрема на пункті 5, що стосується заборонених практик у галузі штучного інтелекту. Як зазначила, в Україні ще не існує законодавчих механізмів, які б стримували маніпулятивні, оманливі або надто інвазивні системи, що може загрожувати правам людини.
"З теоретичної точки зору, це відкриває можливості для впровадження в Україні системи, яка може виявитися вразливою і небезпечною для прав людини в будь-який момент. Така ситуація має суттєвий негативний вплив на українські практики, особливо в контексті євроінтеграції, адже заборона подібних практик є ключовим пріоритетом на цьому шляху," – зазначила юрист.
Серед важливих завдань Анна Людва відзначила необхідність регулювання систем штучного інтелекту з високим рівнем ризику, впровадження підходу, орієнтованого на оцінку ризиків, у рамках спеціального законодавства, обов'язкову оцінку впливу на права людини, а також маркування контенту, створеного за допомогою ШІ.
"Необхідність оцінки впливу на права людини має бути закріплена в законодавстві. Це пов'язано з вимогами щодо управління ризиками, пов'язаними із системами штучного інтелекту, які можуть торкатися прав людини. Методи та техніки, а також рекомендації для проведення таких оцінок, слід розробити на підзаконному рівні. Однак, зобов'язання розробників виконувати такі оцінки впливу повинно бути чітко прописане в законодавстві," - зазначила юристка.
Одночасно вона підкреслила прогресивні ініціативи, зокрема реалізацію регуляторних пісочниць відповідно до статті 57 AI Act та старт першої пілотної пісочниці для штучного інтелекту та блокчейн-технологій.
"Єдине, чого нам наразі не вистачає на законодавчому плані -- це передбачення терміну регуляторної пісочниці для узгодження цього терміну з іншими підзаконними актами і побічними законами, які у нас або виникатимуть, або уже є чинними. Тому статтю щодо регуляторних пісочниць можна вважати частково імплементованою, як на горизонтальному, так і на вертикальному плані", -- сказала Анна Людва.
Під час презентації окремо обговорювалося питання визначення компетентних органів у сфері штучного інтелекту. Анна Людва зазначила, що в Україні наразі відсутня усталена практика у цій галузі, і одним із можливих рішень могло б бути делегування повноважень вже існуючим організаціям, таким як Національне агентство з акредитації України, Національна комісія з цінних паперів та фондового ринку або Національна рада з питань телебачення і радіомовлення. Однак для реалізації цих ідей необхідно внести зміни до законодавства та провести оцінку навантаження на відповідні інституції.
Юристка підкреслила, що, незважаючи на існування розвиненого "м'якого права" та рекомендацій, відсутність чіткої правової бази в галузі штучного інтелекту вже викликає практичні труднощі та може ускладнити процес європейської інтеграції України. За її словами, саме зараз важливо зайнятися розробкою планів дій і законодавчих стратегій для подолання існуючих викликів.
Нагадаємо, у серпні 2025 року в Європейському Союзі почали діяти нові правила для постачальників штучного інтелекту загального призначення (General Purpose AI, GPAI), спрямовані на підвищення прозорості, безпеки й відповідальності.
Ці нові ініціативи становлять початковий етап реалізації європейського законодавства щодо штучного інтелекту (AI Act). Хоча весь регламент стане обов'язковим до 2026 року, перші вимоги щодо прозорості вже запроваджені і повинні дотримуватися компанії, які займаються розробкою або впровадженням ШІ в Європейському Союзі.