Изкуственият интелект може да изчислява вероятности за милисекунди. Той може да анализира хиляди предишни случаи, да изготвя договорни клаузи, да препоръчва суми за споразумения и дори да прогнозира изхода от съдебни дела. И все пак остава един съществен въпрос: може ли да разбере справедливостта, отговорността или човешкото достойнство?

Изкуственият интелект все по-често навлиза в области, които традиционно запазени за човешка преценка. Платформи за преговори предлагат споразумения, алгоритми за оценка на риска информират решенията на наказателното правосъдие, а автоматизирани системи подпомагат адвокати, застрахователи и прокурори при определянето на предложения. Тези инструменти обещават ефективност и последователност. Но правото никога не е било само въпрос на ефективност. То е въпрос на преценка. А преценката остава дълбоко човешка. Поради тази причина, дори когато изкуственият интелект участва в процесите на преговори, в крайна сметка хората трябва да вземат решенията.

Когато изкуственият интелект навлиза в преговорите

Когато казваме, че изкуственият интелект „преговаря“, нямаме предвид, че машините напълно заменят преговорите между хора. По-скоро системите с изкуствен интелект все по-често участват в преговорните процеси или ги подпомагат, като съдействат на участващите в тях хора.

Днес инструментите с изкуствен интелект могат да:

  • анализират големи масиви от данни, за да предвидят вероятните резултати от преговорите
  • препоръчват суми за споразумения или стратегии за преговори
  • изготвят договорни клаузи или правни документи
  • провеждат автоматизирано онлайн разрешаване на спорове
  • подпомагат застрахователи, прокурори или адвокати при определянето на предложения

Подобни примери вече съществуват в различни правни системи. Застрахователните компании използват алгоритмични инструменти за оценка на стойността на обезщетения при искове за телесни повреди. Онлайн платформи за разрешаване на спорове помагат за решаването на потребителски конфликти чрез автоматизирани преговорни процеси. В някои юрисдикции алгоритмични системи анализират данни за присъди, за да предложат споразумения с прокуратурата.

Накратко, изкуственият интелект участва в преговори в случаи, в които оказва влияние върху условията, стратегията или потенциалните резултати от процесите на договаряне, които традиционно се извършват от хора.

Какво представлява човешкият надзор?

Човешкият надзор се отнася до изискването квалифициран човек, вземащ решения, да остава активно ангажиран при използването на системи с изкуствен интелект в рамките на конкретен процес на вземане на решения. Това означава, че човек трябва да преглежда препоръките, генерирани от изкуствения интелект, да разбира в разумна степен логиката или методологията зад тях и да запазва правомощията си да променя, отхвърля или отменя предложенията на системата.

Най-важното е, крайното решение да бъде взето от човек, който носи правна отговорност за резултата. Този принцип е отразен в Закона за изкуствения интелект на Европейския съюз, който изисква високорисковите системи с изкуствен интелект да бъдат проектирани по начин, който позволява значима човешка намеса. Системите, използвани в правен контекст, особено тези, които засягат основни права, попадат именно в тази категория. По същество човешкият надзор гарантира, че изкуственият интелект функционира като инструмент за подпомагане на вземането на решения, а не като автономен орган.

Защо човешкият надзор е важен

Съществуват няколко правни причини, поради които смисленият човешки надзор остава незаменим, когато системи с изкуствен интелект участват в процеси на преговори. Тези причини са основани на фундаменталните принципи на отговорност, справедливост и равенство.

1. Отговорността не може да бъде делегирана на алгоритми

Правните системи се основават на отговорност. Всяко решение, което засяга правата на дадено лице, в крайна сметка трябва да бъде приписано на лице или институция, които могат да бъдат държани отговорни. Изкуственият интелект не може да изпълнява тази роля. Алгоритмите не могат да бъдат съдени, санкционирани или морално обвинявани. Когато система с изкуствен интелект създаде погрешна препоръка, особено такава, която води до несправедливо третиране, веднага възниква въпросът: кой носи отговорност?

Тази дилема стана е в основата на американското дело State v. Loomis, при което съдилищата използват алгоритъма за оценка на риска COMPAS при определяне на наказанието. Подсъдимият твърди, че непрозрачността на алгоритъма нарушава правото му на справедлив процес, тъй като нито той, нито съдът могат да проверят как е изчислена оценката за риск.

Въпреки че съдът в крайна сметка допуска използването на инструмента, той признава сериозните опасения относно прозрачността и справедливостта. Делото илюстрира централен проблем: когато алгоритмични инструменти влияят върху правни резултати, отчетността става неясна. Ако съдия се основава в голяма степен на препоръка, генерирана от изкуствен интелект, която по-късно се окаже пристрастна или погрешна, отговорността не може просто да бъде прехвърлена върху софтуера. Човешкият надзор запазва отговорността и гарантира, че конституционните гаранции не се възлагат на математически модели.

2. Правото на справедлив процес може да бъде нарушено

Правните системи не целят само резултати - те гарантират и справедливи процедури. Член 6 от Европейската конвенция за правата на човека защитава правото на справедлив процес. Това включва прозрачност, равнопоставеност на страните и обосновано вземане на решения. Хората трябва да могат да разбират и оспорват решенията, които ги засягат. Автоматизираното вземане на решения може да застраши тези гаранции, когато системите функционират без смислено обяснение или контрол.

Показателен пример е скандалът с детските надбавки в Нидерландия. В опит да открият измами със социални помощи, нидерландските данъчни власти използват автоматизирани системи за профилиране на риска, които маркират кандидатите като „високорискови“. Много от отбелязаните лица автоматично са били задължени да възстановят големи суми пари, често без индивидуална оценка или ясно обяснение. В резултат на това хиляди семейства са били неправомерно обвинени в измама. Много от тях са преживели сериозни финансови затруднения, преди грешките в системата в крайна сметка да бъдат признати.

Проблемът не е бил просто в съществуването на алгоритъм. Проблемът е бил липсата на смислен човешки надзор. Решенията са били прилагани механично, а засегнатите лица трудно са могли да оспорят резултати, които нито разбират, нито могат да проверят. Изводът е ясен: справедливостта изисква повече от формална процедура по обжалване. Тя изисква решенията, засягащи правата, да останат разбираеми, подлежащи на преразглеждане и в крайна сметка контролирани от отговорни човешки органи.

3. Недискриминацията и равенството са уязвими

Системите с изкуствен интелект се учат от исторически данни. Но историческите данни често отразяват исторически неравенства. Ако миналите решения съдържат модели на дискриминация, свързани с раса, пол или социално-икономически статус, изкуствен интелект, обучен върху тези данни, може да възпроизведе тези модели. Или в още по-лош случай, той може да ги мащабира в хиляди други решения.

Например, алгоритъм, който препоръчва по-ниски суми за споразумения за определени демографски групи, може просто да отразява предубежденията, присъстващи в историческите данни за искове. Опасността рядко произтича от злонамерено намерение. По-скоро става дума за структурна предубеденост, заложена в данните и усилвана чрез автоматизация.

Човешкият надзор въвежда ниво на критична преценка, което алгоритмите нямат. Адвокати, съдии и регулатори могат да поставят под въпрос дали препоръките са справедливи, контекстуални и съответстват на правните принципи. Без такъв надзор дискриминацията рискува да стане невидима, автоматизирана и трудна за оспорване.

4. Ефективността не може да замени преценката

Изкуственият интелект несъмнено ще продължи да оформя правните преговори. Неговата способност да анализира огромни масиви от данни и да открива закономерности предлага реални ползи за правната практика. Използван отговорно, той може да подобри ефективността, да намали разходите и да помогне на професионалистите да вземат по-информирани решения.

Но ефективността сама по себе си не може да определя справедливостта. Правните системи не са чисто аналитични системи. Те са нормативни институции, които се занимават със справедливост, права и човешко достойнство. Определянето на това кое е справедливо често изисква тълкуване, емпатия и морални разсъждения - качества, които не могат да бъдат сведени до статистическа оптимизация. Поради тази причина бъдещето на изкуствения интелект в правото не трябва да се представя като избор между човешката преценка и машинния интелект.

Принципът остава прост: изкуственият интелект може да преговаря или да предлага. Хората трябва да вземат решенията.