Законодателен акт за изкуствения интелект

Правните системи по целия свят, включително няколко щата на САЩ, започват да определят нови правни и регулаторни насоки за използването и развитието на системите с изкуствен интелект (ИИ). Въпреки това, Европейският съюз поема водеща роля със Закон за изкуствения интелект на ЕС ( Регламент за определяне на хармонизирани правила относно изкуствения интелект (Законодателен акт за изкуствения интелект), 21 май 2024 г.) , считан за първата в света цялостна правна рамка за ИИ. Официално приет от Европейския парламент на 13 март 2024 г. и одобрен от Съвета на ЕС на 21 май 2024 г.,

Ключовата  характеристика  за определяне на една система, като система с ИИ  е нейната способност да прави изводи. Тази способност да се правят изводи се отнася до процеса на получаване на резултати, например прогнози, съдържание, препоръки или решения, които могат да повлияят на физическата и виртуалната среда, както и до способността на системите с ИИ да извличат модели или алгоритми, или и двете, от входяща информация или данни. Техниките, даващи възможност да се правят изводи при изграждането на системи с ИИ, включват подходи за машинно обучение, при които те се учат от данните как да постигнат определени цели, както и основани на логика и знания подходи, при които достигат до изводи от кодирани знания или символично представяне на задачата, която трябва да бъде решена.

Способността на дадена система с ИИ да прави изводи надхвърля основната обработка на данни, като дава възможност за обучение, разсъждение или моделиране.

Дефиниция на  риска

 Законът за изкуствения интелект, приет от Европейския съюз, регулира системите за изкуствен интелект на база нивото на риск, което те представляват. Той класифицира ИИ системите в различни категории на риск, като за всяка се прилагат съответните регулаторни мерки.

  1. Неприемлив риск:
    • ИИ системите, които са категоризирани като представляващи неприемлив риск, са напълно забранени поради сериозните потенциални вреди, които могат да причинят. Следните практики са забранени:
      • Социално оценяване: ИИ системи, използвани за оценяване на поведението и характеристиките на индивидите (подобно на концепцията за социалния кредит в Китай).
      • Манипулативни или измамни техники: ИИ, предназначен да манипулира или заблуждава хората по начин, който може да навреди на тяхната автономност.
      • Експлоатация на уязвими групи: ИИ, използван за експлоатиране на индивиди като деца, възрастни хора или хора с увреждания.
      • Създаване на база данни за лицево разпознаване: Изграждане на бази данни с помощта на ИИ чрез събиране на данни от интернет без съгласие.
      • Прогностична полиция: ИИ инструменти, използвани за предвиждане на потенциално престъпно поведение въз основа на събрани данни.
      • Разпознаване на емоции: ИИ системи, използвани за откриване или анализиране на емоции в работни или образователни среди.
      • Определени биометрични идентификационни и категоризационни дейности: Използване на ИИ за някои форми на биометрична идентификация (например лицево разпознаване) и категоризиране на хора въз основа на лични характеристики като раса или пол без съответните правни гаранции.

2. Висок риск

Системите за изкуствен интелект (ИИ), които са класифицирани като висок риск, не са забранени, но следва да покриват допълнителни критерии за съответствие с действащото законодателство. Някои примери за категории с висок риск, които са изрично посочени в Закона за ИИ, включват системи, използвани като компонент за безопасност в продукти като машини, играчки, медицински устройства и автомобили; както и системи, използвани в чувствителни индустриални сектори, като биометрия, критична инфраструктура, образование и заетост.

Доставчиците и внедрителите на ИИ системи с висок риск могат, в зависимост от обстоятелствата, да бъдат подложени на редица допълнителни изисквания, които могат да включват:

  • извършване на оценка на въздействието върху основните права
  • регистрация в публична база данни на ЕС
  • внедряване на системи за управление на риска и качеството
  • използване на висококачествени данни за намаляване на пристрастията
  • осигуряване на прозрачност
  • логиране на автоматизирани дейности
  • докладване на инциденти
  • поддържане на човешки надзор
  • назначаване на представител в ЕС
  • гарантиране на точността, стабилността и сигурността на системата

3 .Ограничен или минимален риск

ИИ системите, които не достигат нивото на неприемлив или висок риск, могат да бъдат категоризирани като системи с ограничен или минимален риск и ще подлежат на по-малко регулаторни изисквания. Въпреки това, нивото на риск при такива системи може да варира в зависимост от приложението, за което се използват.

Що се отнася до моделите за генеративен изкуствен интелект (GPAI), Законът за ИИ прави разграничение между модели със „системен риск“ и без такъв, като системният риск е налице при модели с висока изчислителна мощност. Всички доставчици на GPAI модели трябва да назначат представител в ЕС и да поддържат подробна техническа документация и друга информация за модела, както и да спазват законите за авторското право в ЕС. Моделите със системен риск трябва също така да провеждат разширени оценки, да управляват рисковете, да докладват инциденти и да гарантират надеждна киберсигурност. Тези мерки целят да осигурят безопасното и отговорно внедряване на мощни ИИ системи.

Предвижда се също така създаване на  Европейски съвет по изкуствен интелект  „Съветът по ИИ“