12 Юли, 2023 14:42 1 923 10

ЕС И AI: Проектът за регламент за хармонизирани правила относно изкуствения интелект бе приет на първо четене

  • изкуствен интелект-
  • ес-
  • регламент

Регламентът въвежда система за квалификация на риска

Технологиите, базирани на изкуствен интелект, се усъвършенстват с изключително бързи темпове, а правото не е в състояние да ги настигне. За това свидетелства и поетия от председателя на Европейската комисия (ЕК) Урсула фон дер Лайен преди повече от две години политически ангажимент, че Комисията ще предложи законодателство за координиран европейски подход към човешките и етични аспекти на изкуствения интелект. В резултат ЕК внесе пред Парламента и Съвета на ЕС предложение за Регламент за определяне на хармонизирани правила относно изкуствения интелект (т.нар. Законодателен акт за изкуствения интелект). На 14 юни 2023г. Европейският парламент прие с голямо мнозинство текста на Регламента на първо четене. Окончателното му приемане се очаква най-рано към края на годината. Това се посочва в публикация на Консултантска къща "Велинов и партньори".

В свое обръщение Сам Алтман, главният изпълнителен директор на OpenAI /създателят на ChatGPT/, призова за изграждане на правна рамка, която да регулира използването на изкуствения интелект, но също така обърна внимание, че предложението на Европейския съюз може да бъде непосилно трудно за спазване.

С Регламента относно изкуствения интелект (накратко „ИИ“) Европейският съюз прави първи опит да постави основата на глобална правна рамка за сигурен, надежден и етичен изкуствен интелект, който защитава основните човешки права и свободи на хората, както и тяхното здраве и безопасност. Предизвикателството в това начинание е необходимостта от гарантиране на баланс между технологичното развитие и въвеждане на правни механизми, които да не го ограничават или блокират, но в същото време да осигуряват нужните предпазни мерки, така че технологиите да се използват по безопасен и съответстващ на закона начин.

Според Регламента* „система с изкуствен интелект“ (система с ИИ) означава базирана на машина система, която е проектирана да работи с различни нива на автономност и която може, за изрични или имплицитни цели, да генерира резултати като прогнози, препоръки или решения, които влияят на физическата или виртуалната среда. Тази абстрактна дефиниция е претърпяла съществени промени спрямо първоначално предложения от комисията текст, за да може да обхване максимално широк кръг системи, които използват изкуствен интелект под определени форма и начин.

  1. Принципи на системите с ИИ

Регламентът въвежда набор от основни принципи, които регулират системите с изкуствен интелект, и с които разработчиците и лицата, използващи такива системи, следва да се съобразяват, а именно:

  • човешко управление и надзор„, т.е. системи, които се разработват и използват като инструмент, който служи за хората, може да бъде контролиран от тях, и зачита човешкото достойнство и личната автономия;
  • техническа надеждност и безопасност„, т.е. че системите се разработват и използват по начин, който свежда до минимум възможните вреди, вкл. са устойчиви срещу неправомерно използване;
  • управление на неприкосновеността на личния живот и данните“ означава, че системите се разработват и използват в съответствие със съществуващите правила за неприкосновеност на личния живот и защита на данните;
  • прозрачност“ означава, че системите се разработват и използват по начин, който позволява проследяване и създава яснота относно естеството на системата и нейните възможности и ограничения;
  • многообразие, недискриминация и справедливост“ означава, че системите се разработват и използват по начин, който включва различни участници и насърчава равния достъп, равенството между половете и културното многообразие;
  • социално и екологично благополучие“ означава, че системите за ИИ се разработват и използват по устойчив и екологосъобразен начин.
  1. Задължения за прозрачност на някои системи с оглед взаимодействието им с физически лица

Системите с изкуствен интелект, предназначени да взаимодействат с физически лица, следва да бъдат проектирани и разработени по такъв начин, че физическото лице, изложено на система с ИИ, да бъде информирано, че взаимодейства със система с ИИ по навременен, ясен и разбираем начин, освен ако това не е очевидно от обстоятелствата и контекста на използване. Когато е уместно, информацията следва да включва кои функции са активирани с ИИ, дали има човешки надзор и кой е отговорен за процеса на вземане на решения, както и съществуващите права и процеси, които съгласно приложимото право позволяват на физическите лица или техни представители да възразяват срещу прилагането на такива системи към тях и да търсят съдебна защита срещу решения, взети от или причинени от системи с ИИ.

Предвидено е изрично, че системи с ИИ, които създават или манипулират текст, аудио или визуално съдържание, трябва да оповестяват по подходящ начин, по ясен начин, в подходящ срок, че съдържанието е създадено/манипулирано чрез ИИ, вкл. когато е възможно – лицето, което го е създало/манипулирало, ако едновременно:

  • съдържанието фалшиво би изглеждало автентично или достоверно и
  • то включва изобразяване на хора, които казват или правят неща, които не са казали или направили в реалността (т.нар. deep fake).

Предвидени са и други хипотези, в които е налице специфично задължение за прозрачност, вкл. и по отношение на високорисковите системи с ИИ.

  1. Класификация на риска. Високорисковите системи с ИИ

За да може да предложи гъвкавост, Регламентът въвежда система за квалификация на риска, въз основа на която се определя нивото му при прилагане на система с ИИ. Предвидени са четири категории риск – недопустим, висок, ограничен и минимален.

  1. Една система се приема за високорискова, когато са изпълнени следните две условия:
  2. Системата с ИИ е предназначена да се използва като защитен елемент от продукт или самата тя е продукт, попадащ в обхвата на законодателството на Съюза за хармонизация, посочено в приложение II (напр. законодателството, касаещо машините, детските играчки, лични предпазни средства и др.);
  3. продуктът, чийто защитен елемент е системата с ИИ, или самата система с ИИ като продукт трябва да премине оценяване на съответствието от трета страна, свързано с рискове за здравето и сигурността с оглед на пускането на пазара или въвеждането в експлоатация на посочения продукт в съответствие със законодателството на Съюза за хармонизация, посочено в приложение II.

В тази категория попадат най-общо системите с изкуствен интелект, които се използват в продуктите в обхвата на Директива 2001/95/ЕО на Европейския парламент и на Съвета от 3 декември 2001 година относно общата безопасност на продуктите.

  1. В допълнение на горното, всяка система с ИИ, която попада в една от критичните области и случаи на употреба, споменати в Приложение III, ще се счита за високорискова, ако предпоставя значителен риск от увреждане за здравето, безопасността или основните права на физически лица. Сред посочените в Приложение III области са биометричната идентификация и категоризация на физически лица, управление и експлоатация на критична инфраструктура, образование и професионално обучение, заетост, правоприлагане и др.

Всички системи с ИИ с висок риск следва да бъдат оценени преди да бъдат пуснати на пазара, както и през целия им жизнен цикъл.

  1. Забранени практики в сферата на ИИ

Регламентът изрично забранява следните практики в сферата на изкуствения интелект, които се квалифицират като недопустими:

  • пускането в експлоатация или на пазара/използването на система, която си служи с подсъзнателни техники извън съзнанието на лицето или целенасочено манипулативни или измамни техники, с цел или в резултат на които съществено се нарушава поведението на дадено лице или група лица, като значително се намалява способността на лицето да взема информирано решение, като по този начин лицето взема решение, което иначе не би взело, по начин, който причинява или може да причини на това лице, друго лице или група лица значителна вреда;

Тази забрана не се прилага за системи, които са предназначени за одобрени терапевтични цели въз основа на информирано съгласие на съответния субект или негов законен представител.

  • пускането на пазара, въвеждането в експлоатация или използването на система с ИИ, която използва което и да е от уязвимите места на конкретно лице или група лица, вкл. характеристики на известни или прогнозирани личностни черти на това лице (или група от лица) или социално/икономическо положение, възраст, физическа или умствена способност, чиято цел или ефект води до съществено изкривяване на поведението на това лице (самостоятелно или като част от съответната група) по начин, който причинява или има вероятност да причини значителна вреда;
  • пускането на пазара, въвеждането в експлоатация или използването на системи за биометрична категоризация, които категоризират физически лица според чувствителни или защитени атрибути или характеристики или въз основа на извод за тези атрибути или характеристики. Тази забрана не се прилага за системите за ИИ, предназначени да бъдат използвани за одобрени терапевтични цели въз основа на конкретно информирано съгласие на физическите лица, които са изложени на въздействието им, или, когато е приложимо, на техния законен настойник.
  • пускането на пазара, въвеждането в експлоатация или използването на система с ИИ с цел оценка или класифициране на надеждността на физически лица в течение на определен срок на база на тяхното социално поведение или известни или прогнозирани лични или личностни характеристики, като социалният ранкинг води до едното или и двете от следните:
  • увреждащо или неблагоприятно третиране на определени физически лица или на цели групи от такива лица в социални контексти, които нямат връзка с контекстите, в които първоначално са били генерирани или събрани данните;
  • увреждащо или неблагоприятно третиране на определени физически лица или на цели групи от такива лица, което е неоправдано или непропорционално на тяхното социално поведение или на тежестта, която му се отдава;
  • използването на системи за дистанционна биометрична идентификация в реално време в обществено достъпни места.
  1. Създаване на специализиран орган на ниво ЕС

Предложено е създаването на Европейска служба за изкуствен интелект (Служба по ИИ), съставена от представители на държавите членки и на Комисията. Съветът по ИИ ще улеснява гладкото, ефективно и хармонизирано прилагане на Регламента, като допринася за ефективното сътрудничество между националните надзорни органи и Комисията и предоставя съвети и експертен опит на Комисията.

На национално равнище държавите членки ще трябва да определят един или повече национални компетентни органи и, измежду тях, националния надзорен орган за целите на надзора върху прилагането и изпълнението на Регламента.

  1. Санкции

Всяка държава-членка разполага с оперативна самостоятелност да определи правила относно санкциите (вкл. административните глоби) при нарушения на Регламента. Максималните размери на административните глоби са, както следва:

  • 40 млн. евро или до 6% от общия годишен световен оборот за предходната финансова година (която сума е по-висока) при неспазване на забраната на практиките в сферата на изкуствения интелект;
  • 20 млн. евро или 4% от общия годишен световен оборот за предходната финансова година (която сума е по-висока) при несъответствие на системите с ИИ с изискванията по чл. 10 и 13 от Регламента, които въвеждат изисквания по отношение на пускането на пазара и въвеждането в експлоатация на високорискови системи;
  • 10 млн. евро или 2% от общия годишен световен оборот за предходната финансова година (която сума е по-висока) – за други несъответствия с изисквания или задължения по Регламента;
  • 5 млн. евро или до 1 % от общия годишен световен оборот за предходната финансова година (която сума е по-висока) – за предоставянето на неправилна, непълна или подвеждаща информация в отговор на искане от съответните органи.

*В настоящата статия са разгледани разпоредбите във вида, в който са приети от Европейския Парламент на първо четене.

Автор: адв. Златка Коцалова


Поставете оценка:
Оценка 5 от 5 гласа.


Свързани новини


Напиши коментар:

ФAКТИ.БГ нe тoлeрирa oбидни кoмeнтaри и cпaм. Нeкoрeктни кoмeнтaри щe бъдaт изтривaни. Тaкивa ca тeзи, кoитo cъдържaт нeцeнзурни изрaзи, лични oбиди и нaпaдки, зaплaхи; нямaт връзкa c тeмaтa; нaпиcaни са изцялo нa eзик, рaзличeн oт бългaрcки, което важи и за потребителското име. Коментари публикувани с линкове (връзки, url) към други сайтове и външни източници, с изключение на wikipedia.org, mobile.bg, imot.bg, zaplata.bg, auto.bg, bazar.bg ще бъдат премахнати.

КОМЕНТАРИ КЪМ СТАТИЯТА

  • 1 Последния Софиянец

    4 1 Отговор
    Изкуствения Интелект в Рамщайн хич не жали укрите.
  • 2 честен ционист

    3 0 Отговор
    Цифровата Мара ще ви прибере поросенките.
  • 3 СМЯХ

    4 1 Отговор
    ИЗКУСТВЕНИЯ ИНТЕЛЕКТ НЯМА НИКАКЪВ ШАНС КОГАТО СЕ СБЛЪСКА С ЕСТЕСТВЕНАТА ГЛУПОСТ !

    Коментиран от #6

  • 4 Механик

    7 0 Отговор
    Помните ли когато клонираха овцата Доли?
    А помните ли първите ГМО растения?
    Помните ли, че приеха правила тия експерименти да се провеждат само с научни цели и никога да не се разпространяват масово?
    Толкова не се разпространиха, че сега в рекламите на храните, гордо се пъчи надписът, че въпросния продукт е "без ГМО".
    п.п.
    Кой разбрал, разбрал.
  • 5 Този коментар е премахнат от модератор.

  • 6 Плашимир

    2 0 Отговор

    До коментар #3 от "СМЯХ":

    Това е чистата истина.
  • 7 Джон

    1 1 Отговор
    Какъв е тоя джаваскрипт на картинката??
  • 8 опаа

    2 0 Отговор
    Учете хакерство против ИИ за да си траете, а правилата и забранените практики са във политическа полза на ЕС и виждам на каде бие
  • 9 незнайко

    0 0 Отговор
    Препоръки, забрани, санкции и прочие ще са БЕЗСМИСЛЕНИ ако ИИ навлезе в човешката дейност ! ЧОВЕЦИТЕ ще са ИЗЛИШНИ ! Това е част от МАТРИЦАТА която беше пусната като филм ! Сега ще стане действителност ако не се СПРЕМ !!!
  • 10 Манол

    0 0 Отговор
    Надявам се ИИ да се погаври със създателите си.