Изкуствен интелект: как ЕС регламентира технологията

Европейският съюз е наложил правила за използването на технологии с изкуствен интелект, които са първите в света по рода си. Научете как те Ви защитават.

Мъж се е изправил пред компютърно генерирана фигура с програмен език на заден фон
Тази илюстрация е създадена от изкуствен интелект

Част от стратегията на ЕС за развитие на цифровата икономика е стремежът за регулиране на изкуствения интелект. Целта е едновременно да се създадат подходящи условия за развитие на технологията и да се защитят потребителите.

Изкуственият интелект може да донесе много ползи – по-добро медицинско обслужване, по-безопасен и по-чист транспорт, по-ефективно производство, по-устойчиво потребление на енергия.

Първа правна рамка за изкуствения интелект


През април 2021 г. Европейската комисия предложи първата регулативна рамка за изкуствения интелект. Тя позволява да се направи оценка и да се класифицират системите, използващи технологията, в групи според риска, на който са изложени потребителите. Системите с по-висок риск са подложени на по-строги изисквания.

Защо Европейският парламент прие законодателството


Приоритетът на Парламента беше системите с изкуствен интелект в ЕС да бъдат безопасни, с ясни правила и ясен произход, да не дискриминират срещу някои групи хора и да не вредят на околната среда. Технологията трябва да подлежи на контрол от хора, а не от автоматични системи.

Парламентът също така настояваше да бъде установено единно определение за изкуствен интелект, което не е свързано с конкретна технология и може да се прилага и към бъдещи системи.

Различни изисквания в зависимост от риска


Законодателният акт за изкуствения интелект налага изисквания към доставчиците и потребителите на системи с изкуствен интелект в зависимост от риска, свързан с конкретните системи. Всички приложения трябва да бъдат оценени, за да се определи подходът към тях.

Неприемлив риск


Законодателството забранява системи, които се смятат за заплаха за хората. Такива могат да бъдат:

  • системи, които манипулират познанията или поведенията на групи от хора: например, играчки с активирани гласови функции, които насърчават опасно поведение на децата;
  • системи, които оценяват и класифицират хората въз основа на поведение, социално-икономически статус или лични характеристики;
  • системи за биометрична идентификация и категоризация на хора;
  • системи за биометрична идентификация на публични места в реално време и от разстояние, например за лицево разпознаване.


Някои изключения могат да бъдат допуснати за нуждите на правоприлагането. Системи за дистанционна биометрична идентификация в реално време ще бъдат разрешени в ограничен брой сериозни случаи, докато системи за последваща биометрична идентификация (която не се извършва в реално време) могат да бъдат допуснати при разследването на тежки престъпления, въз основа на съдебно решение.

Висок риск


Системи, които имат отрицателно влияние върху основни права, ще бъдат смятани за високорискови. Те ще преминават през оценяване преди допускането им на пазара и през целия цикъл на използването им. Потребителите ще имат право да подават жалби срещу системи с изкуствен интелект към съответните държавни органи.

Като високорискови са определени:

- системи, които се използват в продукти, обхванати от (например, играчки, самолети, автомобили, медицински апарати и асансьори);

- системи за управление на критично важна инфраструктура;

- системи за обучение и практически стажове;

- системи за назначаване на хора и управление на човешките ресурси;

- системи за достъп до основни услуги, предоставяни от частния сектор, и до обществени и социални услуги;

- системи за правораздаване;

- системи за управление на миграцията, предоставянето на убежище и контрола на границите;

- системи за оказване на правна помощ и консултации.

Генеративен изкуствен интелект

Генеративният изкуствен интелект като ChatGPT е способен да създава различни видове съдържание (текст, изображения, видеоклипове). Той няма да се класифицира като високорисков, но ще трябва да спазва изисквания за прозрачност и да спазва правилата на ЕС в областта на авторското право.

Когато такъв вид системи се използват, ще трябва да бъде ясно оповестявано, че съдържанието (текст, изображения, видеоклипове) е създадено с помощта на изкуствен интелект, за да бъде това ясно на потребителите.

По-усъвършенствани модели на изкуствен интелект като GPT-4 биха могли да представляват системен риск. Затова те ще трябва да се подлагат на задълбочени оценки, а сериозни инциденти ще трябва да бъдат докладвани на Европейската комисия.

Подкрепа на иновациите


Законът има за цел да предложи на малките фирми и стартиращи предприятия възможности да разработват и обучават модели на изкуствен интелект преди тяхното пускане на пазара.

Поради тази причина има изискване към националните органи да осигурят на предприятията подходяща тестова среда, която симулира условия, близки до реалния свят.

Надзор върху прилагането на правилата


Европейският парламент е създал работна група, за да следи прилагането на практика на законодателния акт за изкуствения интелект. Депутатите искат да се уверят, че приетата правна рамка допринася за развитието на цифровия сектор в Европа.

Групата си сътрудничи със службата за изкуствения интелект в Европейската комисия, която е основана, за да изясни ключови положения в законодателството.

Кога влизат изискванията в сила


Европейският съюз прие правилата за изкуствения интелект през юни 2024 г. Актът ще бъде напълно приложим 24 месеца след влизането му в сила, но прилагането на определени части ще стане възможно преди това:

  • Забраната на системите на изкуствения интелект, които представляват неприемлив риск, се прилага от 2 февруари 2025 г.;
  • Кодексите за добри практики ще бъдат приложими девет месеца след влизането на закона в сила;
  • Правилата за модели на изкуствен интелект, които трябва да спазват изискванията за прозрачност, ще бъдат приложими 12 месеца след влизането на закона в сила.


Високорисковите системи ще имат повече време, за да отговорят на изискванията - те ще разполагат с 36 месеца след влизането на закона в сила.

Научете повече за мерките на ЕС в цифровата област: