Европейският законодателен акт за изкуствения интелект (ИИ) е в сила от днес, съобщи Европейската комисия.
Това е първият в света всеобхватен регламент за ИИ. Актът има за цел да гарантира, че ИИ, разработен и използван в ЕС, е надежден, с гаранции за защита на основните права на хората.
С него се въвежда далновидно определение за ИИ, основано на безопасността на продуктите и основан на риска подход в ЕС:
• Минимален риск. В тази категория попадат повечето системи с ИИ като например системите за препоръчване с ИИ и нежеланите филтри. Те нямат задължения съгласно Законодателния акт за минималния риск за правата и безопасността на гражданите. Дружествата могат доброволно да приемат допълнителни кодекси за поведение;
• Специфичен риск за прозрачността. Системите с ИИ като чатботове трябва ясно да разкриват на ползвателите, че взаимодействат с машина. Определено съдържание, генерирано от ИИ, включително дълбинни фалшификати, трябва да бъде обозначено като такова и потребителите трябва да бъдат информирани, когато се използват системи за биометрична категоризация или разпознаване на емоции. Освен това доставчиците ще трябва да проектират системите така, че съдържанието под формата на синтетично аудио, видео, текст и изображения да е маркирано в машинно читаем формат и да е отбелязано като изкуствено създадено или манипулирано;
• Висок риск. От определените като високорискови системи с ИИ ще се изисква да отговарят на строги изисквания, включително системи за намаляване на риска, високо качество на наборите от данни, регистриране на дейността, подробна документация, ясна информация за ползвателите, човешки надзор и високо равнище на надеждност, точност и киберсигурност. Такива са например системите с ИИ, използвани за набиране на персонал или за оценка дали някой има право да получи заем или да управлява автономни роботи;
• Неприемлив риск. Ще бъдат забранени системите с ИИ, считани за несъмнена заплаха за основните човешки права. Това включва системи или приложения с ИИ, които манипулират човешкото поведение с цел заобикаляне на свободната воля на ползвателите. Такива са например играчки, използващи гласова помощ, насърчаващи опасно поведение на малолетни и непълнолетни лица, системи, които позволяват „социално оценяване“ от правителства или дружества, и определени приложения на прогнозната полицейска дейност. Ще бъдат забранени и някои видове използване на биометрични системи – например тези за разпознаване на емоции, използвани на работното място, и някои системи за категоризиране на хора или отдалечена биометрична идентификация в реално време за целите на правоприлагането на обществено достъпни места (с малки изключения).
Въвеждат се и правила за т.нар. модели на ИИ с общо предназначение. Законодателният акт ще гарантира прозрачност по веригата за създаване на стойност и ще обърне внимание на възможните системни рискове на най-подходящите модели.
Страните членки на ЕС разполагат със срок до 2 август 2025 г. да определят национални компетентни органи, които ще наблюдават прилагането на правилата за системите с ИИ и ще извършват дейности по надзор на пазара. Службатаза ИИ на Европейската комисия ще бъде основният изпълнителен орган за Акта на ниво ЕС.
По-голямата част от правилата на Законодателния акт за ИИ ще започнат да се прилагат на 2 август 2026 г.
На дружествата, които не спазват правилата, ще бъдат налагани глоби. Наказанията могат да достигнат до 7% от световния годишен оборот за нарушения на забранени приложения с ИИ, до 3% за нарушения на други задължения и до 1,5% за предоставяне на невярна информация за изкуствения интелект.
Още по темата
Подкрепете ни
Уважаеми читатели, вие сте тук и днес, за да научите новините от България и света, и да прочетете актуални анализи и коментари от „Клуб Z“. Ние се обръщаме към вас с молба – имаме нужда от вашата подкрепа, за да продължим. Вече години вие, читателите ни в 97 държави на всички континенти по света, отваряте всеки ден страницата ни в интернет в търсене на истинска, независима и качествена журналистика. Вие можете да допринесете за нашия стремеж към истината, неприкривана от финансови зависимости. Можете да помогнете единственият поръчител на съдържание да сте вие – читателите.
Подкрепете ни