В края на миналата години бе постигнато съгласие за Закона на изкуствения интелект (ИИ) в ЕС. Така Европа стана първият континент, който ще регулира ИИ със законодателство. Новите правила на ЕС ще разгледат рисковете, свързани с прилагането на изкуствения интелект, но и съответните задължения при употребата му. Законът за ИИ също има за цел да насърчи инвестициите и иновациите в сектора. Какво трябва да знаем… Пред ФАКТИ темата коментират адв. Гинка Христова и Слави Танкеин.
- Адвокат Христова, г-н Танкеин в края на миналата година Европейският съюз и Европейският парламент постигнаха споразумение за правилата, регулиращи използването на изкуствения интелект. Разяснете какво означава това?
- Гинка Христова: Темата за ИИ е изключително актуална в последно време. Това не е случайно и не само заради ChatGPT, но главно заради използването на технологии, базирани на ИИ във все повече сфери от ежедневието ни, дори без ние да го осъзнаваме. Изкуствен интелект може и се използва за осъществяване на контрол по границите, подбор на персонала, преценка при отпускане на кредити, даже и в сферите на медицината и образованието. Това е и причината европейските институции да решат, че е време да предприемат мерки и да въведат регулация по този въпрос.
Важно е да се отбележи, че въпросният Законодателен Акт за Изкуствен Интелект [1], както го превеждат при нас, който стана толкова популярен в последно време, представлява първата цялостна регулаторна рамка на световно ниво в тази сфера. В края на миналата година, на 9 декември, Европейският парламент и Съветът постигнаха временно споразумение относно текста на регламента [2], но това е резултат на години обсъждания и преговори, а всичко започва още през 2021 г. като една от инициативите от Дигиталната Стратегия на ЕС. Основната цел е да се категоризират различните употреби на ИИ според нивата на риск и да се ограничи използването на ИИ за дейности, които могат да доведат до сериозна заплаха и до ограничаване правата на гражданите. Такива са например случаите на когнитивна поведенческа манипулация на хора или специфични уязвими групи, например играчки с гласово активиране, които насърчават опасно поведение при деца или социалното оценяване т.н. “social scoring”, което днес се прилага практически в Китай.
Слави Танкиен: В акта за ИИ се казва, че има системи с „неприемлив риск“ и забранява използването им, освен в някои определени случаи, които, ако искате, може да коментираме отделно. Този подход, базиран на риска, включва различни нива - от ниско до високо, като определя специфични правила и протоколи за всяка категория. Това гарантира, че високорисковите приложения, като публично разпознаване на лица, са обект на по-строг контрол. Както казахме, има употреби на ИИ, които са класифицирани като такива с неприемливо високо ниво на риск и са забранени, но има и такива, които ще се считат за нискорискови, съответно и изискванията към тях ще са доста по-занижени.
- Споразумението касае въвеждането на по-строги правила основно използването на изкуствен интелект в ЕС в бъдеще. Създаваме нещо и го слагаме в „рамки“. Защо?
- Г.Х.: Това е резонен въпрос. Много от заинтересованите страни в хода на обсъжданията изразиха загрижеността си, че строга регулация на ИИ ще доведе до блокиране на технологичния прогрес в Европа, развитието на технологиите като цяло и ще постави Европейския съюз в много неконкурентноспособна позиция спрямо други юрисдикции, където няма подобни ограничения. Това, от своя страна, би довело и до отлив както на кадри, така и на свежи инвестиции в сектора. Дори бизнеси извън Европа биха могли да се откажат от това да работят на територията на ЕС и да блокират предоставяните услуги, за да се предпазят от евентуално налагане на глоби по Акта за ИИ, а те са доста сериозни. Неспазването на правилата може да доведе до глоби, вариращи от 7,5 милиона евро или 1,5% от световния оборот до 35 милиона евро или 7% от оборота, разбира се, в зависимост от нарушението и размера на компанията. Тази опасност не е нова, вече имаме наблюдения от други правни рамки на ЕС, а именно Акта за цифровите пазари и Акта за цифровите услуги, след приемането на които се наблюдава определено колебание от страна на чуждестранни компании да извършват бизнес без предварителна, задълбочена проверка за съответствие в региона.
С.Т.: Това е и причината процесите по преговори и обсъждания по повод на регламента да продължат близо три години. Но да се върнем на въпроса защо трябват „рамки“, както казвате. Ситуацията с ИИ е подобна на тази с Интернет в началните години, когато всичко беше достъпно и възможностите бяха неограничени, но постепенно всички осъзнахме колко опасности може да крие една подобна, изцяло нерегулирана паралелна вселена. Както всяка една нова технология, така и ИИ може да се използва за благото на обществото и да допринесе за развитието на редица сфери, но може да причини и не по-малко вреди. Едно от широко обсъжданите приложения на ИИ е профилирането на лицата според политическите им пристрастия и таргетирането им с определено политически-ориентирано съдържание чрез социалните мрежи с цел промяна на възгледите им. От такъв тип употреба на ИИ съм склонен да се съглася, че обществото трябва да бъде предпазено, а единственият начин е чрез въвеждане на регулация.
- Германия, Франция и Италия неотдавна призоваха за някои специфични разпоредби, като основен момент се оказа дали следва да с регулират само приложенията, използващи изкуствен интелект, или самата базисна технология. Това какво значи?
- Г.Х.: През ноември миналата година трите държави излязоха с обща позиция по някои въпроси, които блокираха процеса по приемане на регламента [3]. На кратко, основното в тази позиция е, че следва да бъде регулирано как се използва на практика ИИ, приложенията на ИИ, но не и технологията, която се използва за създаването на тези приложения и привеждането им в употреба. По същият начин, по който научните изследвания на ядрените технологии и енергия не се стопират и ограничават, но те следва да се използват само за мирни цели. Аналогията, която правя може би е стресираща, но ми се струва, че ще помогне на аудиторията да разбере принципа. Друг основен момент, който се засяга в тази обща позиция, е подкрепата за „задължително саморегулиране чрез кодекси за поведение“ по повод на така наречените „основни модели на ИИ“, които са предназначени да произвеждат широк спектър от резултати. Тук важната дума е „саморегулиране“. Идеята е, че с това се търси по-мек подход, а именно чрез саморегулиране, вместо регулиране, което предполага най-малкото санкционни мерки. Компаниите ще трябва да изработят свои кодекси на поведение, етични правила и други, към които да се придържат, като поне в началото, както се казва в позицията на трите държави, спазването на тези правила няма да е скрепено със санкция за нарушаването им. Това с прости думи значи, че ще се започне с едни добри пожелания и намерения, към които всички трябва да се присъединят, но дали ще ги спазват ще остане въпрос след време. Разбира се, това не е съвсем безцелна стъпка, тъй като за големите технологични гиганти, които обикновено са и лидерите в развитието на технологиите с ИИ, репутацията и публичният имидж са не по-малко важни от налагането на санкции.
- Планираните в законодателството правила за лицево разпознаване, при което да се използва изкуствен интелект за цели на националната сигурност, също породиха полемика по време на преговорите…
- С.Т.: Истина е, че това е една от най-чувствителните теми. С новия регламент се създават правила и ограничения, но от тях се правят и доста изключения, що се отнася до използването на ИИ от органите на реда и службите за сигурност. Наистина е обезпокоителен фактът, че се отваря тази врата и се дава възможност за използването на биометрични данни от страна на правоприлагащите органи. Подобен вид системи не могат да работят избирателно, пък и ефектът от тях не би бил задоволителен, ако работят по подобен начин. От това следва, че примерно системи с ИИ за лицево разпознаване ще бъдат постоянно активни на публични места, които органите сметнат за подходящи. Въпреки изкарването на преден план на мотива за правата на човека и защитата на неприкосновеността на личността, от страна на европейските институции подобно „отваряне на вратички“ кара много хора да си задават въпроса до колко всъщност защитата на тези права е истинският приоритет на европейските институции.
- Споразумението забранява манипулиране на когнитивното поведение, нецелевото събиране на лицеви изображения от интернет или от охранителни камери. Ограничаваме „Биг Брадър“ – така ли излиза?
- Г.Х.: Както коментирах по-рано, когнитивна поведенческа манипулация и системите за биометрична идентификация в реално време и от разстояние, като лицево разпознаване, се считат от новия европейски регламент за такива с неприемлив риск и са забранени по принцип, но както във всяко правило и в това има изключения. Тези изключения са за целите на правоприлагането. На първо място се прави разлика между системите за дистанционна биометрична идентификация „в реално време“ и такива, които ще извършват идентификацията „в последствие“. Първите, ще бъдат разрешени в ограничен брой случаи, а за вторите даже се предвижда да е необходимо предварително одобрение от съда. Ще ви разочаровам, казвайки че „Биг Брадър“ няма да спре, но поне записите ще могат да се използват само в определени случаи, най-вече във връзка с разкриване на престъпления и превенция на тероризъм.
- Групата за защита на правото на неприкосновеност на личния живота "Юръпиън диджитал райтс" е критична към новия нормативен акт. Според организацията в новото законодателство се предприемат стъпки за легализиране за първи път в ЕС на публичното лицево разпознаване на живо?
- С.Т.: През юни миналата година Европейският парламент щеше за малко да влезе в историята, когато гласува в подкрепа на пълната забрана на лицевото разпознаване на живо в публични пространства, което беше широко приветствано от всички организации, работещи в защита на човешките права, като цитираните от Вас. За съжаление, политическата реалност надделя и към днешна дата текстът на предложения регламент е изменен, като са добавени изключенията, за които говорихме по-горе. Някои от правозащитните организации стигат до там, че да твърдят, че подобни текстове, закрепени в закон, превръщат хората в „ходещи баркодове“ [4], но тук наистина има един сериозен въпрос, на който всяко общество следва да потърси отговор, а именно: до каква степен може и трябва да се ограничават правата на гражданите в името на общото благо? За съжаление, унифицирано законодателство, като европейския регламент, който следва да се прилага еднаква от всичките двадесет и седем държави-членове на ЕС, не дава това право на преценка на всяка държава по отделно. Въпреки това не пречи и при нас на национално ниво да има дебат по въпроса.
- Законодателството предвижда и създаването на Европейско бюро за изкуствения интелект, което ще е в рамките на ЕК. То ще налага финансови глоби в случай на нарушение. Как ще се налагат санкциите…
- Г.Х.: В регламента е предвидено създаването на Съвет по ИИ, който се състои от националните надзорни органи от различните държави и от Европейския надзорен орган по защита на данните, но миналия месец (24 януари 2024 ) Европейската комисия стартира пакет от мерки за подкрепа на европейски стартиращи фирми в разработването на надежден изкуствен интелект (ИИ), а една от мерките е именно създаване на Служба за ИИ в рамките на Комисията, която ще гарантира разработването и координацията на политиката за ИИ на европейско ниво, както и ще контролира прилагането на предстоящия регламент за ИИ. Създаването на поредната европейска институция поражда редица дебати, особено поради факта, че бюджетът за създаването и издръжката ѝ най-вероятно ще бъде за сметка на проекти и финансиране, първоначално предвидени за малкия и средния бизнес в тази сфера.
С.Т.: Интересно е да се проследи каква ще е позицията на България в тази тема, като цяло. Положителен момент е, че у нас вече се сформира тематична работна група по повод на разработване на общи стандарти при използването на изкуствения интелект в процеса на дигитализация към Министерство на електронното управление. Това е индикация за работа от страна на българските институции в правилната посока. Лично аз мисля, че темата за ИИ е прекрасна възможност за България да излезе на преден план и да вземе водеща позиция в този сектор на европейско ниво, стига да успеем достатъчно бързо да отреагираме и да бъдем представлявани от подходящ и компетентен екип от специалисти.
----------------------------------
[1] https://eur-lex.europa.eu/legal-content/EN-BG/TXT/?from=EN&uri=CELEX%3A52021PC0206
[2] https://www.europarl.europa.eu/news/en/press-room/20231206IPR15699/artificial-intelligence-act-deal-on-comprehensive-rules-for-trustworthy-ai
[3] https://www.reuters.com/technology/germany-france-italy-reach-agreement-future-ai-regulation-2023-11-18/
[4] https://www.euronews.com/2023/11/16/the-eu-wants-to-make-facial-recognition-history-but-it-must-be-done-for-the-right-reasons#:~:text=In%20June%202023%2C%20the%20European,us%20all%20as%20walking%20barcodes.
Напиши коментар:
КОМЕНТАРИ КЪМ СТАТИЯТА
1 Последния Софиянец
13:25 20.02.2024
2 Германистан на три минарета
13:25 20.02.2024
3 ТаУмВзе
13:27 20.02.2024
4 Верно
13:32 20.02.2024
5 Трол
13:32 20.02.2024
6 Авеее
13:32 20.02.2024
7 22222
Коментиран от #11
13:52 20.02.2024
8 Много шум за нищо
13:58 20.02.2024
9 Айнщайн
15:43 20.02.2024
10 Запознат
15:46 20.02.2024
11 Преподавател
До коментар #7 от "22222":
"Тези специалисти какво ще правят,учили са години а сега ги замества машина"Явно не са учили или не са такива специалисти - в крайна сметка изкуствения интелект е програма направена от човек на която им е заложено да се самообучава но тя прави това което им е заложено и нищо ново - тя не може измисли нищо ново нечувано до сега.
Коментиран от #12
15:50 20.02.2024
12 22222
До коментар #11 от "Преподавател":
Така е но цял важен отдел беше закрит в международна фирма,и не само в една.А що се отнася до уволнените специалисти,не сте прав,не всеки може да попадне във такива фирми.Много пъти сме пробвали този ии.дори правихме опит да пишем разказ.16:58 20.02.2024
13 Този коментар е премахнат от модератор.
14 ДБил
19:18 20.02.2024