Алгоритми, въведени в изкуствения интелект (ИИ), дискриминират много източноевропейци, като прогнозират, че шансът те да бъдат престъпници е по-голям, отколкото при западноевропейците.

Това заяви пред Клуб Z българският евродепутат социалист Петър Витанов.

В резултат много жители на Източна Европа, пребиваващи на Запад, трудно си намират там работа или жилища под наем.

Витанов представи пред Европейския парламент в Страсбург доклада си за изкуствения интелект в наказателното право и използването му от полицията и съдебните органи по наказателно-правни въпроси. Той бе одобрен от ЕП с 377 гласа "за", 248 "против" и 62 "въздържал се".

Дискриминацията става най-вече в приложенията с ИИ в прогнозирането в полицейската област, се казва в доклада. Като пример Петър Витанов посочи скандала в Нидерландия, довел до оставката на правителството на Марк Рюте в началото на тази година. Причина бяха разкритията, че над 800 българи получили незаконно детски надбавки и помощ за наеми в размер на общо 4 милиона евро за периода 2007-2013 г. В действителност те пребивавали в страната съвсем за кратко и изобщо не полагали никакъв труд.

Поради всичко това на много други българи в Нидерландия неправомерно са отказани помощи, каза Витанов.

Но не само източноевропейци страдат от грешни изчисления на приложения с изкуствен интелект, допълни евродепутатът. Потърпевши са също по-бедните хора, тези с чужди имена, имигрантите, цветнокожи и други уязвими общности.

В някои алгоритми имената на източноевропейците например са зададени като чужди, уточни Витанов в отговор на въпрос на Клуб Z. Предположението е, че чужденците са по-склонни към извършването на определен тип престъпления или злоупотреби.

„Тези, които задават алгоритмите, често използват подходи, които бих нарекъл неблагонадеждни. Но те вероятно изхождат от данните, с които разполагат. Има вероятност наистина чужденците да извършват повече престъпления на глава на населението. Но в крайна сметка има презумпция за невинност. Това, че си чужденец, не те прави автоматично престъпник“, уточни българският евродепутат.

Неговата и на колегите му от ЕП цел не е да спрат техническия и технологичния прогрес, а да гарантират неговата употреба, по-специално в сферата на правоприлагането, по начин, който да спазва и зачита основните човешки права.

„Опитахме се да ограничим ползването му, особено тогава, когато няма достатъчно данни за положително въздействие и когато има достатъчно данни за наличие на вредни въздействие върху тези права“, продългжи Витанов.

Леви срещу десни и за ИИ

На дебата се обособили две групи.

Представителите на първата, в която са социалистите и повечето леви евродепутати, смятат, че основните права могат да бъдат спазвани и гарантирани, когато не се позволява използване на приложения с ИИ в правоприлагавето, свързани с лицевото разпознаване на публични места или с  прогнозирането в полицейската област.

От другата група искали тези предложения да се използват при определени условия, за да бъдат гарантирани правата. В тази група влизат Европейската народна партия (ЕНП) и другите десни формации. Депутати от ЕНП дори бяха внесли три изменения в доклада в тази насока. Сред тях бяха българите Радан Кънев („Демократична България“) и Ева Майдел и Андрей Новаков от ГЕРБ. И трите предложения обаче бяха отхвърлени.

В крайна сметка Кънев подкрепи доклада, сочат резултатите от поименното гласуване. Останалите шестиа български представители в ЕНП бяха „против“. „За“ гласуваха петимата ни евродепутати социалисти и тримата либерали. Двамата ни „консерватори“ се въздържаха.

„Не се страхуваме да поискаме ограничаване, забрана или мораториум  за използването на приложения с ИИ по различни причини. Лицевото разпознаване, идентификацията по всякакви биометримни данни данни като лицевите характеристики са предпоставки за нарушаване на основните човешки  права“, каза Витанов.

Като пример той изтъкна, че изкуственият интелект се използва както в недемократични държави като Китай срещу уйгурското малцинство, така и в развити демокрации като САЩ. Оказало се, че  при лицево разпознаване най-вече на цветнокщожи в Америка има огромен процент грешки. Това се твърди в доклад на Американския съюз за граждански свободи (АСГС). И това също е дискриминация.

Като във филма "Специален доклад"

Петър Витанов направи асоциация с филма „Специален доклад“ с участието на Том Круз. В него специализиран полицейски отдел хмаща убийци, преди те да са извършили престъплението.

„Ако при лицевото разпознаване и невъзможността на останеш анонимен се нарушава правото на сдружаване и неприкосновеност, в случая с потенциалния бъдещ престъпник дискриминацията е ужасяваща. Нарушава се  презумпцията за невинност. Как да обясните на една майка, която гледа сама детето си, работи по 12 часа и не може да излезе от гетото, че синът й е потенциален престъпник само защото алгоритъмът на ИИ казва така?“, попита социалистът.

Той и повечето му съпартийци от групата на Прогресивния алианс на социалистите и демократите (СиД) смятат, че личната свобода и неприкосновеността са по-ценни и от сигурността, и от технологичния процес. Затова те се опитват да ограничат използването на ИИ в сферите, в които има нарушение на основните права и свободи.

Действително не искаме да отречем ползите от използ на ИИ в правоприлагането. Може да е полезен от глед точмка на обрал данни, на разкр престъпления. Обработва данните за секунди, десетократно по-бързо от чов мозък. Има своето приложение. Грешкине, обаче, които възникват, особено при лицеевото разпознаване, въздействат върху свободата на събирания и т.н.

И главният проблем не е дали приложенията за ИИ се използват от демократични или недемократични правителства. А е в това, че изкривяват резултатите.

Витанов даде още един пример:

„Според ИИ вероятността жител на квартал с мексиканци в САЩ само заради това, че е отгледан от един родител, че живее в беден квартал, че е чужденец, да стане потенциален престъпник е 3-4 пъти по-голяма. Това предизвиква редица проверки от полицейските власти. После човекът опитва да си намери работа. Евентуалният работотодател обаче вижда, че срещу него има 40-50 проверки, и си казва, че нещо не е наред и няма да го вземе. Така той няма никакъв или има по-затруднен достъп до работа. Така изкривените данни на ИИ въздействат върху съдбите на много хора.“

Въпреки това в ЕП има хора, които искат безконтролно използване на лицево разпознаване или прогнозирането в полицейската област. Някои представители на десницата обаче се съгласили с вижданията на левицата, твърди Витанов. Но според него те погрешно смятат, че системата може да бъде по-достоверна в бъдеще.

„Няма как обаче машината да замести човешкия разум и да ти каже кой може да е престъпник. Като идеш в едно гето, полицейският служител познава по-добре хората, семействата. И той има обективен поглед, който не може да бъде заменен от машината. Честно казано, малко ме притеснява да живеем по Оруел или в някакъв кафез, който отнема личните ни свободи и възможността да останем неприкосновени“, продължи българският представител.

Клуб Z го попита как би се противопоставил на аргументи от рода на тези, че причина за масовото следене е заплахата от тероризъм.

„Сред основните аргументи на опонентите ни бяха развитието на технологиите и сигурността. Само че каква сигурност можем да имаме, когато не зачитаме човешките права и свободи? Според мен трябва да извлечем ползите от ИИ. Но много внимателно да ограничим възможностите за използване на онези приложения, които представляват заплаха. Винаги човешката свобода е на първо място“, отговори Витанов.

Той е убеден, че в Европа трябва да има общ стандарт за използването на ИИ, който след това да бъде разширен и извън нея.

Докъде стигнаха китайците

Същевременно Петър Витанов е ужасен от ставащото в Китай. Там от началото на годината действа Социалната кредитна система. Това е високотегнологична програма за наблюдение, оценка и разделение на населението на страната. Властите в Пекин твърдят, че така коригират поведението на гражданите.

„Едно от нещата, които искаме да ограничим, е използването на бази данни от социалните мрежи. Има технологии като „ИИ Клиър Вю“, които използват и обработват данните, снимките, информацията на милиарди граждани и ги продават на съответните агенции, свързани с националната сигурност. Това противоречи на разбиранията ни и на редица права и свободи на гражданите“, обобщи Витанов.

Еврокомисарят по вътрешните работи Илва Йохансон сякаш споделяше мнението на сънародника ни.

„Няма място за масов контрол и наблюдение в ЕС. Имаме обаче много защити. В предложението на Комисията за новия закон за ИИ има допълнителна защита, а именно, че обработването на биометрични данни няма да се разрешава, освен ако не са дадени някои много специални условия. Ще защитим основните човешки права“, увери тя.

Йохансон допълни, че законът забранява на правоприлагащите органи да обработват биометрични данни в реално време.

Тя посочи качествата на приложенията с ИИ. По думите й повечето от тях се използват главно за административни и преводачески услуги и не застрашават личното пространство. Профилирането например се използва за идентифициране от разстояние на лице, представляващо висок риск за обществото. Лицевото разпознаване служи за установяване и на престъплението, и на извършителя. Такива системи са вече действащи и спасяват човешки животи.

„Всеки потенциал на дадена система обаче трябва да бъде одобрен от експерти, преди тя да бъде използвана. Нека бъда ясна – няма да се вземат решения за нарушаване на личното пространство. ИИ ще се използва само за вземане на временни решения. Трябва да има съответни превантивни клаузи“, завърши Йохансон.