Терористите все по-често използват онлайн пространството за пропаганда и набиране на членове. Един от методите за противодействие на това явление е използването на инструменти, базирани на изкуствен интелект (ИИ), но от гледна точка на правата на човека следва да се създаде рамка, която да направлява използването им и същевременно да зачита основните права. Във връзка с новоприетия Акт за изкуствения интелект тази публикация в блога разглежда балансът между използването на ИИ за обществена сигурност и защитата на основните права, с акцент върху новата правна рамка в ЕС. В нея се подчертава необходимостта от подход, ориентиран към потребностите на човека, при разработването и използването на системи с ИИ, особено на тези, класифицирани като високорискови.
На първо място, нека уточним кои системи ще бъдат класифицирани като високорискови - тази класификация зависи от потенциалното въздействие на съответната система с ИИ върху безопасността и основните права. Например система с ИИ, която осигурява отдалечена биометрична идентификация, системи с ИИ, които се използват за филтриране на кандидати за работа или за вземане на решения за повишаване и понижаване на служители, системи с ИИ, които определят достъпа на гражданите до обществени услуги. Що се отнася до нашата тема - системите с ИИ в областта на правоохранителните органи, най-вече системите с ИИ, на които е възложено да следят за терористично поведение онлайн, биха попаднали в тази категория на „висок риск“ съгласно Приложение III, стр. 6, буква д) от Акта за изкуствения интелект.
Такива високорискови системи с ИИ подлежат на строги изисквания, за да се гарантира тяхната безопасност, прозрачност и отчетност, което е все по-важно в контекста на борбата с тероризма. Някои от тези изисквания включват:
- Първоначална оценка на риска: Доставчиците следва да извършат първоначална оценка на риска, за да определят дали системата с ИИ се квалифицира като високорискова. Това включва оценка на предназначението на системата, потенциални злоупотреби и въздействието ѝ върху безопасността и основните права.
- Оценка на съответствието от трета страна: Високорисковите системи с ИИ следва да бъдат подложени на оценка на съответствието от трета страна, преди да могат да бъдат пуснати в експлоатация. С тази оценка се проверява дали системата за ИИ отговаря на изискванията на Акта за ИИ на ЕС.
- Текущо наблюдение и докладване на инциденти: Доставчиците следва да въведат системи за текущо наблюдение и докладване на инциденти. Това гарантира, че всички проблеми или рискове, които възникват по време на експлоатацията на системата с ИИ, се решават своевременно.
- Система за управление на качеството: Доставчиците трябва да създадат система за управление на качеството, която да включва процедури за проектиране, разработване, тестване и поддръжка на системата за ИИ. Тази система помага да се гарантира надеждността и безопасността на системата за ИИ.
- Документиране и водене на регистър: Изисква се изчерпателна документация и водене на регистри. Това включва поддържане на регистри за проектирането, разработването, процесите за управление на риска и оперативните данни на системата за ИИ.
- Прозрачност и информация за потребителите: Доставчиците трябва да осигурят прозрачност, като предоставят на потребителите ясна информация за възможностите на системата с ИИ, ограниченията и данните, които тя обработва. Това помага на потребителите да разберат как да използват системата с ИИ безопасно и ефективно.
В допълнение към тези изисквания, произтичащи директно от закона, един от начините за подобряване на съответствието между основните права и Закона за ИИ е да се приложат етични принципи. Етичните насоки за надежден ИИ, разработени от експертната група на високо равнище по изкуствен интелект към Европейската комисия, предлагат такава рамка за инструменти, базирани на ИИ, които имат за цел да се борят с тероризма. В насоките се посочват три основни елемента за надежден ИИ:
- Законосъобразност, което означава, че трябва да отговаря на съответното законодателство,
- Етичност, което означава, че трябва да се спазват етичните ценности и принципи, и
- Надеждност, което означава, че ИИ следва да е проектиран и внедрен по начин, който свежда до минимум потенциалните вреди от техническа и обществена гледна точка.
В борбата срещу тероризма разбирането, че технологиите носят ползи за обществото, е жизненоважно. И все пак трябва да признаем някои сериозни отрицателни последици, които могат да възникнат в резултат на непоследователни или неправилни резултати, засягащи както отделни хора, така и цели общности. Такова нежелано въздействие може да се изразява в:
- Предразсъдъци и дискриминация: Системите с ИИ, като например алгоритми за идентифициране на терористично съдържание, могат да затвърдят съществуващите предразсъдъци, ако са обучени върху необективни данни.
- Нарушения на неприкосновеността на личния живот: Системите с ИИ, използвани за наблюдение на съдържанието онлайн и трафика, като поведенчески анализ, могат да нарушат неприкосновеността на личния живот на лицата. Непрекъснатото наблюдение и събиране на данни може да доведе до загуба на анонимност и засилено следене на обичайни действия.
- Фалшиви положителни и отрицателни резултати: Системите с ИИ могат да допуснат грешки, които да доведат до фалшиви положителни резултати (неправилно идентифициране на някого като заподозрян) или фалшиви отрицателни резултати (неуспешно идентифициране на действителен заподозрян). Тези грешки могат да доведат до неправомерни арести или пропуснати възможности за предотвратяване на престъпление.
- Липса на отчетност: Решенията, взети от системите с ИИ, могат да бъдат непрозрачни, което затруднява разбирането на начина, по който дадено решение е взето. Подобна липса на прозрачност може да попречи на отчетността и да затрудни оспорването или обжалването на решенията.
- Нарушаване на правата на човека: Използването на ИИ в правоохранителната система може да доведе до нарушаване на правата на човека, като например неправомерно ограничаване на свободата на изразяване.
За да ограничат до минимум тези рискове, разработчиците на инструменти с ИИ могат да предприемат подходящи и балансирани действия, включително:
- използване на изчерпателни набори от данни по време на етапите на проектиране, тестване и оценка, за да се предотврати възпроизвеждането на пристрастия или дискриминационни модели;
- наемане на разнообразен екип за проектиране и изграждане на съответната система с ИИ;
- осигуряване на човешкото участие не само в надзорна роля, но и като отговорни за вземането на решения;
- стриктно записване на всички операции, извършвани от хора и ИИ, за по-голяма прозрачност;
- осигуряване на първоначално и текущо обучение за тълкуване на резултатите, генерирани от ИИ, и за разпознаване на ограниченията на системата;
- формиране на критична чувствителност спрямо потенциалните вредни последици от погрешни решения и т.н.
Гарантирането, че дадена система с изкуствен интелект включва етични принципи, които могат да бъдат показани по всяко време, е от решаващо значение, за да се потвърди, че тя се използва отговорно. Нещо повече, това кратко изложение подчертава, че използването на инструменти с ИИ за борба с тероризма изисква добросъвестно разработване и постоянно внимание след пускането им на пазара. Освен това, тъй като законодателството и етиката в тази област се развиват постоянно, проактивният подход е от съществено значение. Както разработчиците, така и потребителите трябва да насърчават и поддържат задълбочена осведоменост сред ръководството и персонала, за да се постигне подходящ баланс между правата на човека и обществената сигурност.
Изготвянето на тази публикация в блога е финансирано от Европейския съюз. Изразените възгледи и мнения принадлежат единствено на автора(ите) и не отразяват непременно тези на Европейския съюз или на Европейската комисия. Нито Европейският съюз, нито финансиращият орган могат да носят отговорност за тях.