AI законът на ЕС ще изправи институциите на нокти

Преди броени дни депутатите в две комисии на Европейския парламент гласуваха с голямо мнозинство за редица изменения в Закона за изкуствения интелект (AIA), включително редица забрани за „натрапчиви и дискриминационни“ системи. И все пак все още са налице тревоги относно оставащите „вратички“ и потенциала за превишаване на правата.

Списъкът на забранените системи, за които се счита, че представляват „неприемливо високо ниво на риск за безопасността на хората“, сега вече включва използване на лицево разпознаване на живо в обществено достъпни пространства; системи за биометрична категоризация, използващи чувствителни характеристики; разпознаване на емоции в правоприлагането, управлението на границите, на работното място и в образователните институции.

Строги мерки

Членовете на комисиите за вътрешен пазар и защита на потребителите и за граждански свободи, правосъдие и вътрешни работи взеха решение за пълна забрана на предиктивните полицейски системи. Под огъня попадна и безразборното „чегъртане“ на биометрични данни от социални медии или видеозаписи с цел създаване на бази данни за разпознаване на лица.

Заедно със забраните евродепутатите гласуваха и за разширяване на определението за „висок риск“. Сега вече то включи системи с AI, които вредят на здравето, безопасността, основните човешки права на хората или околната среда.

Депутатите гласуваха и мерки за повишаване на отчетността и прозрачността при фирмите-внедрители на системи с AI. Ще има задължение за извършване на оценки на въздействието върху основните човешки права преди внедряването на системи с „висок риск“, които публичните органи ще трябва да публикуват. Предвидено е разширяване на обхвата на публично достъпната база данни на AIA за системите с „висок риск“, така че да включва и тези, внедрени от публични органи.

Бяха въведени и изцяло нови мерки около „фундаменталните“ модели и генеративните AI системи. Техните създатели ще бъдат задължени да оценят набор от рискове, свързани с въпросните разработки. В центъра на вниманието ще са потенциалът за екологични щети и въпросът дали AI системите гарантират защита на основните права. За целта разработчиците ще са принудени да разкрият „достатъчно подробно резюме на използването на данни за обучение, защитени“ от законите за авторското право.

Измененията обаче представляват само „проект… за преговори“ за Европейския парламент. Те ще бъдат подложени на пленарно гласуване от целия парламент в средата на юни 2023 г. След това гласуване ще започнат тристранни преговори при закрити врата между Европейският парламент, Европейският съвет и Европейската комисия – всички те имат различни позиции.

Външните наблюдатели са категорични, че предстоящият дебат е непредвидим. Всяка от институциите има различни позиции и изхожда от различни приоритети. Затова никак не е ясно дали изобщо има позиция, от която „някой няма да мръдне”, казват наблюдателите.

Реакции

В отговор на гласуванията Асоциацията на компютърната и комуникационната индустрия CCIA Europe – чиито членове включват Meta, Google, Amazon, BT, Uber, Red Hat и Intel, сред много други технологични фирми – каза, че макар да има някои „ полезни подобрения“, промените „отбелязват ясно отклонение от действителната цел на Закона за AI, която насърчава усвояването на AI в Европа”. ИТ секторът се бои, че „полезните AI приложения“ ще бъдат спънати от прекомерно строги изисквания „или дори може да бъдат забранени“.

Като цяло ИТ общността застана зад твърдението, че „Европейският парламент се отказа от амбицията да подкрепя иновациите в AI“.

На другия полюс са групите на гражданското общество. Те приветстваха редица от новите изменения, но предупредиха, че все още има редица проблеми, особено около самооценката на индустрията и изключенията за националната сигурност или правоприлагането. Най-голямо задоволство бе изказано относно забраната за предиктивно използване на Aiв полицията. Активистите нарекоха това „забележителен резултат“, който ще защити хората от „невероятно вредна, несправедлива и дискриминационна“ практика.

„Видяхме как използването на тези системи многократно криминализира хора, дори цели общности, етикетирайки ги като престъпници въз основа на техния произход. Тези системи автоматизират несправедливостта. Те изострят и засилват расизма и дискриминацията в полицията и наказателноправната система и подхранват системното неравенство в обществото“, каза Гриф Ферис, старши правен и политически служител в неправителствената организация Fair Trials.

Високорискови системи

Тема на раздор остава член 6 от закона, който касае високорисковите AI системи. Притеснението тук идва от идеята доставчиците на AI да си правят самооценка от гледна точка на степента на риск на дадена система. Едва ли някой доставчик ще има куража да сложи своя разработка в категорията на високорисковите системи, смятат анализатори и юристи.

„За съжаление Парламентът предлага някои много тревожни промени, свързани с това, което се счита за „високорисков“ AI“, каза Сара Чандър, старши политически съветник в EDRi. „С промените в текста разработчиците ще могат сами да решат дали тяхната система е достатъчно „значима“, за да се счита за високорискова“.

Източник: technews

Facebook коментари

Коментари в сайта

Трябва да сте регистриран потребител за да можете да коментирате. Правилата - тук.

Случаен виц

Последни новини