З набранням чинності EU AI Act, європейське законодавство встановлює нові стандарти для розробки та використання систем штучного інтелекту, що має безпосередній вплив на українські компанії, які прагнуть експортувати свої SaaS-рішення до Європейського Союзу. Цей регуляторний акт є першим у своєму роді, що базується на ризик-орієнтованому підході, класифікуючи AI-системи за ступенем потенційної шкоди для прав і безпеки людини. Для українських розробників програмного забезпечення, які активно інтегрують штучний інтелект у свої продукти, розуміння та адаптація до цих вимог є не просто питанням комплаєнсу, а критичною умовою для збереження конкурентоспроможності та доступу до одного з найбільших світових ринків. Ігнорування цих змін може призвести до значних штрафів, блокування продуктів та репутаційних втрат. Український IT-сектор, відомий своєю інноваційністю, тепер стоїть перед завданням інкорпорувати ці норми у свої процеси розробки та бізнес-моделі.
Класифікація ризиків EU AI Act: що це означає для українських компаній?
EU AI Act впроваджує чітку систему класифікації систем штучного інтелекту за чотирма категоріями ризику: неприйнятний, високий, обмежений та мінімальний. Кожна категорія передбачає різний рівень регуляторного нагляду та зобов’язань для розробників. Наприклад, системи з неприйнятним ризиком, такі як системи соціального скорингу або маніпулятивні AI-інструменти, що використовують вразливості людей, будуть повністю заборонені в ЄС. Це прямий сигнал українським розробникам уникати створення подібних рішень, якщо вони мають намір працювати з європейськими клієнтами.
Системи високого ризику становлять найбільший інтерес для українських SaaS-компаній, оскільки вони охоплюють широкий спектр застосувань, від біометричної ідентифікації та управління критичною інфраструктурою до систем, що використовуються в освіті, працевлаштуванні або для оцінки кредитоспроможності. Ці системи вимагатимуть суворого дотримання вимог, включаючи оцінку відповідності перед виходом на ринок. На відміну від них, системи з обмеженим ризиком, такі як чат-боти або системи глибоких фейків, вимагають лише прозорості, щоб користувачі знали, що взаємодіють зі штучним інтелектом. Системи мінімального ризику, наприклад, спам-фільтри або рекомендаційні системи, підпадають під найменше регулювання, хоча заохочується добровільне дотримання кодексів поведінки.
Для українських розробників критично важливо провести ретельну самооцінку своїх AI-рішень, щоб правильно визначити їхню категорію ризику. Це дозволить заздалегідь спланувати необхідні зміни в архітектурі, процесах розробки та документації. Неправильна оцінка може призвести до значних затримок у виході на ринок ЄС або навіть до повного блокування продукту. Понад 60% компаній, що вже працюють з AI в ЄС, зазначають, що процес класифікації ризиків є одним із найскладніших етапів адаптації до нового акту.
Вимоги до high-risk AI: фокус на українські SaaS-рішення
Системи штучного інтелекту, класифіковані як високий ризик, підпадають під найсуворіші вимоги EU AI Act, що означає значні виклики для українських SaaS-компаній. Ці вимоги охоплюють вісім ключових аспектів: якість даних, технічна документація, ведення записів, прозорість та надання інформації користувачам, людський нагляд, точність, надійність та кібербезпека. Наприклад, AI-системи, що використовуються в медичних пристроях для діагностики або в системах управління водопостачанням, повинні забезпечувати виняткову надійність та безпеку, а дані, на яких вони навчалися, мають бути високоякісними, релевантними та недискримінаційними.
Перед виходом на ринок ЄС, high-risk AI-системи вимагають обов’язкової оцінки відповідності (conformity assessment), яка може бути проведена внутрішньо або за участю зовнішніх нотифікованих органів. Це передбачає створення детальної технічної документації, що демонструє відповідність усім вимогам акту, включаючи управління ризиками, тестування та валідацію. Українські розробники повинні інвестувати у розробку внутрішніх процесів, які гарантують прозорість роботи AI, можливість людського втручання та високий рівень кібербезпеки, щоб захистити системи від несанкціонованого доступу та маніпуляцій. Важливо також забезпечити зрозуміле пояснення функціонування AI для кінцевих користувачів, особливо у випадках, коли рішення, прийняті системою, мають значний вплив на їхнє життя.
Для українських SaaS-компаній, що розробляють такі системи, це означає необхідність значних інвестицій у комплаєнс-команди, навчання персоналу, оновлення технологічної інфраструктури та, можливо, залучення зовнішніх консультантів та аудиторів. Невиконання цих вимог не лише загрожує штрафами, що можуть сягати до 7% від річного глобального обігу компанії або 35 мільйонів євро (залежно від того, що більше), але й призведе до втрати доступу до ринку ЄС. У 2024 році експерти прогнозують зростання попиту на послуги з AI-комплаєнсу на 34% саме через запровадження EU AI Act.

EU AI Act — це не просто чергова регуляторна перешкода, а фундаментальна зміна парадигми для всього IT-сектору, особливо для експортно-орієнтованих українських компаній. Нам необхідно інтегрувати принципи відповідального ШІ у саму ДНК наших продуктів та процесів. Це створює унікальну можливість для українського бізнесу позиціонувати себе як надійних розробників, які дотримуються найвищих світових стандартів, що стане ключовою конкурентною перевагою на європейському ринку.
Терміни впровадження EU AI Act та адаптація для експорту українських компаній
Набуття чинності EU AI Act відбуватиметься поетапно, що надає українським компаніям певне вікно можливостей для адаптації, але й вимагає чіткого планування. Акт був офіційно опублікований у травні 2024 року, і різні його положення вступатимуть в дію поступово. Першими, вже через 6 місяців після публікації, набудуть чинності заборони на AI-системи з неприйнятним ризиком. Це означає, що до кінця 2024 року будь-яка компанія, що розробляє або постачає такі системи в ЄС, зіткнеться з негайними наслідками.
Через 9 місяців, тобто на початку 2025 року, набудуть чинності положення щодо кодексів практики для AI, а також правила, що стосуються систем загального призначення (GPAI), до яких належать великі мовні моделі. Це вимагатиме від розробників таких систем, включаючи багато українських стартапів, які використовують або створюють генеративні AI, дотримуватися вимог щодо прозорості, управління даними та оцінки ризиків. Найбільш значущі положення, що стосуються high-risk AI-систем та більшості інших вимог, набудуть чинності через 24 місяці після публікації акту, тобто до середини 2026 року.
Для українських експортерів це означає, що зволікати з розробкою дорожньої карти впровадження не можна. Компанії повинні вже зараз ідентифікувати свої продукти, які підпадають під визначення high-risk, і почати роботу над адаптацією. Це включає перегляд процесів розробки, інвестування в навчання персоналу та впровадження нових інструментів для забезпечення відповідності. Затримки можуть призвести до блокування експорту, втрати вже існуючих контрактів та значних штрафів, тоді як проактивна адаптація може стати конкурентною перевагою на ринку ЄС.
Стратегічні виклики та можливості для українського IT-сектору
Адаптація до EU AI Act вимагає від українського IT-сектору не лише технічних, а й значних організаційних та стратегічних змін. Це виходить за рамки простого оновлення коду; мова йде про впровадження нової культури відповідального розвитку штучного інтелекту. Компанії повинні переглянути свої підходи до корпоративного управління (AI Governance), розробити внутрішні етичні політики щодо ШІ та впровадити нові ролі, такі як AI Ethics Officer або AI Compliance Manager, які відповідатимуть за дотримання регуляторних вимог.
Технічні команди зіткнуться з необхідністю впровадження підходів MLOps, які акцентують увагу на пояснюваності (explainability) та справедливості (fairness) AI-моделей. Це означає розробку інструментів для моніторингу упередженості даних, інтерпретації рішень AI та забезпечення аудитоздатності систем. Наприклад, якщо AI використовується для прийняття рішень про працевлаштування, компанія повинна мати можливість пояснити, чому конкретний кандидат був обраний або відхилений, та довести відсутність дискримінації. За даними одного з галузевих опитувань, лише 20% українських IT-компаній наразі мають сформовану внутрішню політику щодо етики ШІ.
Адаптація до EU AI Act несе й значні можливості. Українські компанії, які першими впровадять ці стандарти, можуть позиціонувати себе як надійних та етичних розробників AI-рішень на глобальному ринку. Це може стати потужною конкурентною перевагою, особливо при роботі з європейськими клієнтами, для яких комплаєнс та довіра є ключовими факторами. Крім того, зростає ніша для надання консалтингових послуг з AI-комплаєнсу, аудиту AI-систем та розробки спеціалізованого програмного забезпечення для управління ризиками ШІ. Це може відкрити нові потоки доходу та можливості для розширення бізнесу в Україні та за її межами.
За словами Антона Марреро, члена наглядової ради та правління Intecracy Ventures, “Українські компанії, які зараз проактивно інвестують у відповідність до EU AI Act, не лише убезпечують свій доступ до європейського ринку, а й будують довгострокову довіру з партнерами та клієнтами. Це інвестиція у майбутнє, яка дозволить їм стати лідерами у розробці відповідальних та етичних AI-рішень у світі, де довіра до технологій стає все більш цінною валютою.”
Часті запитання
Що таке EU AI Act?
EU AI Act – це перший у світі всеосяжний закон про штучний інтелект, розроблений Європейським Союзом. Він встановлює регуляторну рамку для розробки, розгортання та використання систем ШІ, базуючись на рівні ризику, який вони становлять.
Як EU AI Act вплине на українські компанії, що експортують до ЄС?
Українські компанії, чиї AI-продукти або послуги використовуються на ринку ЄС, повинні будуть відповідати вимогам цього акту. Це стосується класифікації ризиків, прозорості, документації та кібербезпеки, особливо для систем високого ризику.
Які основні категорії ризиків визначено в EU AI Act?
Акт виділяє чотири категорії: неприйнятний ризик (заборонені системи), високий ризик (суворі вимоги), обмежений ризик (вимоги до прозорості) та мінімальний ризик (мінімальне регулювання).
Коли EU AI Act повністю набуде чинності?
Акт набуває чинності поетапно. Основні положення для систем високого ризику та загального призначення будуть застосовуватися через 12-24 місяці після його офіційної публікації в Журналі ЄС, яка відбулася 18 червня 2024 року.
Чи потрібно українським компаніям вже зараз готуватися до EU AI Act?
Так, компаніям, що мають або планують мати присутність на ринку ЄС, варто розпочати аудит своїх AI-систем, оцінити ризики та розробити стратегію відповідності. Це дозволить уникнути штрафів та зберегти конкурентоспроможність.