Емил Радев, евродепутат от ГЕРБ/ЕНП, пред „Труд news”: Трябва човешки контрол върху системите с Изкуствен интелект

Притеснения буди амбицията на Китай да повиши износа на собствените си технологии за наблюдение, базирани на Изкуствен интелект

Евродепутатът Емил Радев работи по проектодоклада на ЕП относно създаването на новия европейски орган за борба с изпирането на пари и финансирането на тероризма, който предвижда надзор върху доставчиците на услуги с криптоактиви. Наред с това от няколко години акцентира върху правната основа, върху която трябва да стъпят нововъведенията с Изкуствен интелект. Успява ли Брюксел да работи със скоростта на новите технологии за изработването на регулаторна рамка и какво следва в близките месеци?

- Господин Радев, с Вас сме говорили още преди COVID-19 за активната роля, която Европейският парламент трябваше да изиграе при формирането на правилата за дигиталното бъдеще, но защо с пускането на ChatGPT Брюксел, а и въобще страните от ЕС се оказаха някак извън борда на готовността за регулации на Изкуствения интелект?

- COVID-пандемията действително много ускори процесите в технологичната сфера, част от които е и появата на ChatGPT. Видно е, че по отношение на правната рамка не успяваме да следваме темпа на фундаменталните технологични промени, които прекалено бързо навлизат в живота ни, но не бих казал, че единствено страните от ЕС нямат готовност за регулация на Изкуствения интелект (ИИ). Все пак с амбицията Европа да играе водеща роля през 2021 г. ЕК предложи първата по рода си правна рамка за ИИ, която поставя фокус върху рисковете, свързани с употребата на тези технологии. По принцип всеки опит да се въведат ясни и приложими правила отнема време, но в случая сме изправени пред предизвикателството да установяваме някакъв ред в непрекъснато променяща се среда. Изключително трудно е да се предвидят всички ефекти, особено в дългосрочен план. Нещо повече – говорим за технологии със стратегическо значение, които имат потенциал интензивно да трансформират основни сектори на индустрията, услугите, а и обществото като цяло. И разбира се, не на последно място, освен правни, възникват и въпроси от етичен характер.

Уви, давам си сметка, че правилата, с които се опитваме да запълним „белите петна” в законодателството, ще се окажат остарели преди да сме ги въвели. Няма друга толкова динамична сфера, така че дори не мисля, че е възможно да наваксаме достатъчно изоставането. Това обаче не трябва да ни спира, защото от приспособяването ни зависи постигането на истински напредък, на напредък с минимум риск. 

- Което не е забранено, е разрешено – как ЕС, но в частност и България ще навакса със законодателството, което ще даде сигурност на гражданите в дигиталния сектор? Например, все повече IT експерти и финансисти описват блокчейн и въобще различните видове криптовалути като една финансова измама, пирамида и средство за изпиране на пари.

- От икономическа гледна точка високотехнологичната индустрия дава уникални възможности за растеж и конкурентоспособност, за социални ползи, за развитие на иновациите. Това е златен шанс за страни като България. Налага се обаче да осигурим лостове за контрол над ИИ и безопасност за потребителите, без същевременно да ограничаваме прекомерно бизнеса. Нуждаем се от ясни правила относно разработването, внедряването и използването на ИИ, роботиката, и свързаните с тях технологии, които не признават граници. И точно защото рисковете са глобални, трябва да работим за синхронизиран регулаторен отговор в ЕС. Иначе може да се стигне до фрагментиране на вътрешния пазар. Знаете, че Европейската комисия предложи през 2021 г. регламент, който имаше за цел да забрани някои приложения на ИИ, свързани със социално оценяване, манипулиране и разпознаване на лица. Специфични употреби на ИИ бяха определени като „високорискови“, което налага разработчиците да спазват по-строги изисквания за прозрачност, безопасност и човешки надзор. Навлизането на ChatGPT в ежедневието ни вече накара институциите на ЕС да пренапишат проектоплановете си. Съветът одобри своята версия на проектозакона за ИИ още през декември. Сега основният товар пада върху ЕК, която е ангажирана с установяването на изисквания за киберсигурност, прозрачност и управление на риска за ИИ с общо предназначение. На ход, разбира се, е и парламентът. През миналия месец докладчиците по Закона за Изкуствения интелект предложиха системите, генериращи сложни текстове без човешки контрол, да бъдат част от списъка с „висок риск“. Това на практика бе опит да се попречи на ChatGPT да разпространява дезинформация в големи мащаби, но идеята срещна доста критики, тъй като в списъка може да попаднат и много дейности, които по принцип не са рискови. Предвижда се затягане на изискванията към разработчиците и потребителите на подобни на ChatGPT модели. Обсъждат се и по-строги ограничения за големите доставчици на услуги, като същевременно се запазва по-лек режим за ежедневните потребители на технологията. Очаква се тристранните преговори между институциите да започнат идния месец, но и най-доброто законодателство едва ли ще успее да догони развитието в сектора предвид голямата динамика в него. Що се отнася до криптоактивите, то европейските финансови регулатори отдавна предупреждават, че много от тях са високорискови и дори спекулативни, но това не спира инвеститорите, които търсят бърза печалба. За да се преодолеят рисковете, ЕК предложи Регламент относно пазарите на криптоактиви (MiCA), а в средата на миналата година бе постигнато и съгласие от съзаконодателите от ЕП и Съвета на ЕС. Целта е да се предостави правна сигурност за криптоактиви, които не са обхванати от съществуващото еврозаконодателство за финансови услуги. Тук е мястото да спомена, че работя по проектодоклада на ЕП относно създаването на новия европейски орган за борба с изпирането на пари и финансирането на тероризма, който също предвижда надзор върху доставчиците на услуги с криптоактиви.

- Кои са по-важните етични предизвикателства, свързани с развитието на Изкуствения интелект и какви са мерките, които трябва да бъдат взети, за да се гарантира безопасността и справедливостта в използването му?

- В исторически план всяка индустриална революция е предизвиквала сериозни сътресения, но от дистанцията на времето можем да кажем, че ни е давала повече, отколкото ни е отнемала. И ако Четвъртата индустриална революция се фокусира върху използването на ИИ, Големи данни, Интернет на нещата, то пандемията вероятно постави началото на Пета индустриална революция, която ни води към нов модел на сътрудничество и взаимодействие между човека и машините. С други думи, вместо хората да се конкурират с роботи за работните места, както се опасяваха с настъпването на Индустрия 4.0, сега се предвижда да си сътрудничат с тях. Дали и как ще се постигне този баланс зависи от способността ни да се адаптираме и да гарантираме контрол и безопасност. Изначалната идея за ИИ е да служи на човечеството, така че в центъра на бъдещата регулаторна рамка трябва да са нуждите на хората и ефективната защита на техните права. Ако не се намери решение на етичните въпроси, свързани с прозрачност, защита на личните данни, отговорност, безопасност и пр., липсата на доверие ще доведе до правна несигурност и ще обезсмисли и най-добрите резултати от приложението на системите с ИИ. Ако те безпрепятствено извличат личните ни данни, ако алгоритмите допускат дискриминация или изключват човешкото участие при вземането на решения, значи не сме направили достатъчно, за да има сигурност и справедливост в обществото ни.

Нормално е съвременният технологичен бум да ни плаши, но развитието на технологиите с ИИ е необратим процес. Важното е да не допускаме необратимост по отношение на рисковете, на евентуалните вреди. 

- Да Ви призная – предходният въпрос Ви зададох с ChatGPT. Доста логично звучеше, нали? Бихте ли доразвил етичните стандарти, както каза наскоро пред „Труд news” един от българските ни софтуерни специалисти Доброслав Димитров, а съвсем практически, спешни и съотносими към всички хора?

- Установяването на стандарти в сектора няма как да се постигне без активното участие на професионалистите, които имат практически опит и задълбочени наблюдения върху процесите и тенденциите. Мнението на специалистите трябва да се взима под внимание. Проблемите от етично естество, свързани с ИИ, от една страна, се дължат на сложността на самите системи, от друга, на автономността, която набира сила, а също и на непрозрачността – т.нар. ефект на „черната кутия”. ИИ например стои зад повечето действия на социалните мрежи и ни залива с конкретен избор на публикации, така че да прекарваме максимално време в приложенията. За специалистите обаче не е лесно да установят начина, по който ИИ взима тези решения. В много от държавите членки на ЕС действащите национални правила за отговорност не са пригодени за разглеждане на искове за вреди, причинени от ИИ. В повечето случаи съществуващото законодателство цели да докаже вина на отговорното лице, причинило вредата, така че липсата на прозрачност по отношение на решенията, взети от ИИ, усложнява достъпа до правосъдие, като изправя потърпевшите пред допълнителни бариери. Вместо всяка държава членка да действа сама за себе си, в края на септември 2022 г. ЕК излезе с предложение за директива за адаптиране на правилата за извъндоговорна гражданска отговорност към изкуствения интелект. В момента се работи по законодателството, което трябва да доведе именно до онези съвсем практически, спешни и съотносими стандарти, за които питате. 

- В целия процес на формиране на правила за безопасност, как ЕС може да убеди САЩ, Китай, Русия в необходимостта от някаква международна регулация? В крайна сметка разбираме, че няма как да сложим бариера на технологиите, както Шенген?

- Европа може и да изостава в изследователската дейност и иновациите, но по отношение на регулаторната рамка, по която се работи на ниво ЕС, сме доста напред. Създавайки своята правна рамка за използването на ИИ, ЕС на практика установява стандарти за останалия свят. Не мислете, че този извод е твърде смел – все пак всички големи компании, които са двигатели на промените в тази сфера, работят или са базирани в ЕС, защото искат да се възползват от предимствата на единния европейски пазар. Иначе стъпки към съвместна робота вече са направени със САЩ под формата на административно споразумение относно ИИ за обществено благо. В края на януари ЕС и САЩ одобриха съвместен план за общ подход за справяне с критични аспекти на тази непрекъснато развиваща се технология. Залага се на показатели за измерване на надеждността и методи за управление на риска. Въз основа на общи ценности и интереси изследователи ще разработват полезни обществени приложения на ИИ, привличайки и други международни партньори с цел постигане на глобален ефект. На фона на опасенията относно нарастващите технологични способности на Китай това сътрудничество вероятно има своята роля в съревнованието за геополитическо надмощие. Според доклади, цитирани и в резолюции на ЕП, притеснения буди амбицията на Китай да повиши износа на собствените си технологии за наблюдение, базирани на ИИ.

- Изкуственият интелект вече управлява инвестиционни фондове, впрочем, наблюдатели на работата му в този сектор коментираха, че малко преди началото на войната в Украйна, е станал доста предпазлив в действията си. В кои сфери можем бързо да се доверим на Изкуствения интелект и къде според Вас като юрист е необходима по-голяма прецизност в прилагането?

- Прилагането на ИИ винаги трябва да бъде базирано на предварителна оценка на риска. В крайна сметка машината не мисли дали ще ти причини добро или зло, а изпълнява задачи. Независимо в коя обществена сфера, независимо дали прави изчисления или прецизира набор от данни, не можем да разчитаме на благоразположение, съзнателност, професионализъм или обещания – все фактори, които са част от представите ни за доверие. Разбира се, различните системи с ИИ попадат в различни категории по отношение на риска. Дали той е минимален, ограничен, висок или неприемлив е въпрос на специфични характеристики, които влияят върху безопасността на потребителите и основните им права. Сами разбирате, че рискът от видео игра, която симулира участие в рали състезание, не може да се сравни с риска да пътуваш в автономен автомобил. Като докладчик относно правните аспекти на използването на ИИ за граждански и военни цели и в сферата на държавната власт, винаги съм изказвал позицията, че системите с ИИ трябва да бъдат обект на човешки контрол. Нeдопустимо е например въпросите на живот и смърт да се решават от машини. Затова смятам, че ЕС трябва спешно да инициира международни преговори за забрана на напълно автономните оръжейни системи. Не знам доколко е постижимо, докато продължава руската военна агресия срещу Украйна, но съм сигурен, че трябва да се опита възможно най-скоро. Като юрист апелирам човешкият фактор да не се изключва и при вземането на съдебни решения. Приложението на ИИ в правосъдието трябва да бъде под надзора на квалифицирани специалисти и при ясни правила за професионална етика.

Нашият гост

Емил Радев е роден на 26 май 1971 г. във Варна. Юрист по образование. Владее немски, руски и английски езици. Бил е депутат от ГЕРБ в 41-ото и 42-ото Народно събрание. Евродепутат от ГЕРБ/ЕНП, зам.-председател на комисията по граждански свободи, правосъдие и вътрешни работи в Европарламента (LIBE), член на комисиите по петиции и по правни въпроси в ЕП.

Следете Trud News вече и в Telegram

Коментари

Регистрирай се, за да коментираш

Още от Интервюта