Last news in Fakti

8 Август, 2022 11:14 7 677 12

Рисковете, породени от Изкуствения интелект, вече са реални

  • изкуствен интелект-
  • банки-
  • кредитиране-
  • ес-
  • закони

ЕС се опитва да победи алгоритмите, които съсипват животи

Рисковете, породени от Изкуствения интелект, вече са реални - 1

"Войната" започна с един-единствен туит през ноември 2019 г. в който Дейвид Хайнемайер Хансон, известен технологичен предприемач, нападна наскоро пуснатата кредитна карта на Apple, наричайки я „сексистка“ , защото предлага на жена му кредитен лимит 20 пъти по-нисък от неговия.

Твърденията се разпространиха като горски пожар, като Хансън подчерта, че изкуственият интелект – сега широко използван за вземане на решения за отпускане на заеми – е виновен . „Няма значение какви са намеренията на отделните представители на Apple, важно е какво прави АЛГОРИТЪМЪТ, на който са се доверили напълно. А това, което прави, е дискриминация.”

Въпреки че миналата година Apple и нейните застрахователи Goldman Sachs бяха окончателно оправдани от американските регулатори за нарушаване на правилата за справедливо кредитиране, това отново възобнови по-широк дебат около използването на AI в публичните и частните индустрии.

Политиците в Европейския съюз сега планират да въведат първия всеобхватен глобален закон за регулиране на Изкуствения интелект, тъй като институциите все повече автоматизират рутинните задачи в опит да повишат ефективността и в крайна сметка да намалят разходите.

Това законодателство, известно като Закона за изкуствения интелект, ще има последици отвъд границите на ЕС и подобно на Общия регламент за защита на данните на ЕС, ще се прилага за всяка институция, включително банките в Обединеното кралство, които обслужват клиенти от ЕС.

Рисковете, породени от Изкуствения интелект, вече са реални

В зависимост от окончателния списък на ЕС с „високорискови“ употреби, ще бъдат въведни строги правила за това как AI се използва за филтриране на кандидатури за работа, университет или социални помощи или – в случай на кредитори – оценка на кредитоспособността на потенциалните кредитополучатели.

Служители на ЕС се надяват, че с допълнителен надзор и ограничения върху моделите, базирани на Изкуствен интелект, които могат да се използват, правилата ще ограничат своеобразната дискриминация, базирана на машини, която може да повлияе на решения, променящи живота, като например дали можете да си позволите жилищен или студентски заем .

„ИИ може да се използва за анализ на цялото ви финансово състояние, включително разходи, спестявания, други дългове, за да се стигне до по-цялостна картина“, казва Сара Коциански, независим консултант по финансови технологии пред Guardian. „Ако са проектирани правилно, такива системи могат да осигурят по-широк достъп до достъпни кредити.“

Но една от най-големите опасности е неволното пристрастие, при което алгоритмите в крайна сметка отказват заеми или сметки на определени групи, включително жени, мигранти или цветнокожи. Част от проблема е, че повечето AI модели могат да се учат само от исторически данни, които са им били подавани, което означава, че те ще научат на кой вид клиенти са били давани заеми преди това и кои клиенти са били маркирани като ненадеждни.

„Има опасност те да бъдат предубедени по отношение на това как изглежда „добрият“ кредитополучател“, казва още Коциански. „ Трябва да отбележим, че често се установява, че полът и етническата принадлежност играят роля в процесите на вземане на решения от ИИ въз основа на данните с които разполага "машината".

Рисковете, породени от Изкуствения интелект, вече са реални

Някои модели са проектирани така, че да не отчитат така наречените защитени характеристики, което означава, че не са предназначени да отчитат влиянието на пол, раса, етническа принадлежност или увреждане. Но тези AI модели могат да дискриминират в резултат на анализ на други данни, като пощенски кодове, които могат да корелират с исторически необлагодетелствани групи, които никога преди това не са кандидатствали, обезпечавали или изплащали заеми или ипотеки.

Така, когато даден алгоритъм вземе решение, за човек е трудно да разбере как е стигнал до това заключение, което води до това, което обикновено се нарича синдром на „черната кутия“. Това означава, че банките, например, може да се затруднят да обяснят какво е можел да направи кандидатът по различен начин, за да отговаря на изискванията за заем или кредитна карта, или дали промяната на пола на кандидата от мъжки на женски може да доведе до различен резултат.

Законът за AI, който може да влезе в сила в края на 2024 г., ще бъде от полза за технологичните компании, които успеят да разработят "по-надеждни AI“ модели, които са съвместими с новите правила на ЕС. Дарко Матовски, главен изпълнителен директор и съосновател на базираната в Лондон стартираща компания за изкуствен интелект causaLens, вярва, че неговата фирма е сред тях.

Стартъпът, който стартира публично през януари 2021 г., вече е лицензирал технологията си за лицево разпознаване и редица банки са в процес на подписване на сделки с фирмата, още преди правилата на ЕС да влязат в сила. Предприемачът казва, че causaLens предлага по-усъвършенствана форма на AI, която избягва потенциални пристрастия чрез отчитане и контролиране на дискриминационни корелации в данните.

Рисковете, породени от Изкуствения интелект, вече са реални

Той вярва, че разпространението на така наречените каузални AI модели като неговия собствен ще доведе до по-добри резултати за маргинализирани групи, които може да са пропуснали образователни и финансови възможности. Матовски твърди, че единственият начин за защита срещу потенциална дискриминация е да се използват защитени характеристики като увреждане, пол или раса като вход, но гарантира, че независимо от тези специфични входове, решението няма да се променя.

Въпреки че новите правила на ЕС вероятно ще бъдат голяма стъпка в ограничаването на пристрастията, базирани на машини, някои експерти, включително тези от института Ada Lovelace, настояват потребителите да имат правото да се оплакват и да търсят обезщетение, ако смятат, че са били поставени в неравностойно положение.

„Регламентът за изкуствен интелект трябва да гарантира, че хората ще бъдат подходящо защитени от вреда чрез одобряване или неодобряване на употребата на изкуствен интелект и, че ще има налични средства за правна защита, когато одобрените системи за изкуствен интелект работят неизправно или водят до вреда. Не можем да се преструваме, че одобрените AI системи винаги ще функционират перфектно", завършва експертът.


Поставете оценка:
Оценка 4.4 от 23 гласа.


Свързани новини


Напиши коментар:

ФAКТИ.БГ нe тoлeрирa oбидни кoмeнтaри и cпaм. Нeкoрeктни кoмeнтaри щe бъдaт изтривaни. Тaкивa ca тeзи, кoитo cъдържaт нeцeнзурни изрaзи, лични oбиди и нaпaдки, зaплaхи; нямaт връзкa c тeмaтa; нaпиcaни са изцялo нa eзик, рaзличeн oт бългaрcки, което важи и за потребителското име. Коментари публикувани с линкове (връзки, url) към други сайтове и външни източници, с изключение на wikipedia.org, mobile.bg, imot.bg, zaplata.bg, auto.bg, bazar.bg ще бъдат премахнати.

КОМЕНТАРИ КЪМ СТАТИЯТА

  • 1 кънчо

    23 3 Отговор
    майката си е ебло ееей, тия кампютри ши изядат на ората ляба

    Коментиран от #5

  • 2 🇧🇬 Б А Й Х @ Й ‼️

    20 2 Отговор
    Компютърен сексизъм и расизъм ‼️‼️‼️🤔🤔🤔
  • 3 Ром Бакарди

    16 3 Отговор
    Ха...ти да видиш. Чи то тоз алгуритъм можи да иска и да из.плю.щи нечия жина, не само да й отпуска кредит. Прав е тоз хансон ли е какав е- човек убезателну требе да скива и разбира ко прай тоз..."ултрон" щот после кой ша носи утговортост за малките алгуритъмчета.
  • 4 Соваж

    5 5 Отговор
    Хората са прости и за това им трябва Изкуствен интелект ... да ги вкара в правия път.
  • 5 Духът на вожда

    8 4 Отговор

    До коментар #1 от "кънчо":

    В момента когато ИИ започне да действа сам без намесата на човек с Биологичния вид е свършено. Тогава човек не е нужен интелекта ще решава сам кое е добре и кое не. Явно това което е писал Азимов и хиляди други Научни фантасти се сбъдва. Щом интелекта задава и отговаря на въпроси без намеса на човек ние не сме нужни на тая планета. А може би галактика или вселена. И ще докаже една от теориите на квантовата физика, че Вселената е детерменентна и следва своя път с начало и край. Започва с Големия Взрив и завършва с Големия Срив.
  • 6 Този коментар е премахнат от модератор.

  • 7 Ади де Гъдьо

    8 0 Отговор
    А последиците от естествения "интелект" отдавна са от планетарен мащаб
  • 8 Този коментар е премахнат от модератор.

  • 9 Супер

    0 0 Отговор
    Вместо да използват най-високите технологии за здраве или образование, култура... то за кредити. Аман! Ушите им плюят от пари и са ненаситни тези кърлежи човешки.
  • 10 Бай Ганьо

    0 0 Отговор
    От изкуствен интелект са не плаши тъй че не бой са народе.Яж чесън против вампири,върколаци и най вече изкуствен и телект.Светената вода не помага.
  • 11 Високопарни глупости

    1 1 Отговор
    Значи "изкуствения интелект", който се базира само на корелации, щял да игнорира пол, раса, и заболеваемост, но щял да ги има в предвид? Значи някои корелации били правилни, а други "неправилни". Намирисва на пропаганда и цензура!
  • 12 купчина оборски тор

    1 0 Отговор
    Малко ни беше естественият интелект, сега и изкуствен. Ненаядни