Трябва ли да рискуваме да изгубим контрола над нашата цивилизация?

Европа постави важна основа, с която да постави човека, а не машината в центъра

Могат ли хората да бъдат оценявани като банков продукт?

Европейският парламент гласува миналата седмица първите по рода си регулации за осигуряване на безопасно развитие на технологиите с изкуствен интелект. Евродепутатът Петър Витанов, който е част от Групата на социалистите и демократите в ЕП, е съдокладчик по темата в Комисията LIBE и взе активно участие в изработването на законодателството.

Всички вече говорят за ChatGPT. Имате да пишете курсова работа - приложете ChatGPT. Трябва ви реч за откриването на парламентарната сесия, а сте от жълтопаветна дясна партия - чукнете в ChatGPT. Приложението, базирано на изкуствен интелект, което анализира данни, прави прогнози, създава текстове, генерира компютърен код и изображения, пише музика и сценарии, стана модерно не за месеци, а за дни и часове и демонстрира силата на изкуствения интелект. То може да преведе книга, да измисли стихотворение, да ви даде решение на всяка интелектуална задача, и то за броени минути. То става пред очите ни толкова мощно, че започва да буди основателни страхове. Не само защото може да направи труда ни излишен, но и защото не знаем къде ще ни отведе.

Идеята за технологичен свят, в който машините управляват хората, е любима тема от научно-фантастичните романи от миналия век. През 2023 г. реалността вече надминава дори най-смелите фантазии. Днес животът ни до такава степен е зависим от технологиите, че трудно можем да си представим как сме се оправяли преди да имаме джаджите си. През 2023 г. 64,4% от хората в света използват интернет, а 59,4% са потребители на социалните мрежи. Съвременният човек отключва смартфона си повече от сто пъти на ден и прекарва повече време в интернет отколкото в сън. Ползите и предимствата, които технологиите предоставят са неоспорими.

Никой вече не помни. Защото може да го „чекне в Google“. Чувам, че напоследък търсачката се използва дори при назначаване на министри. Но встрани от шегата, това има своите сериозни негативи. Разчитайки за всичко на умните технологии, забравяме да тренираме собствения си ум, лишаваме се от физическа активност и губим базови социални умения. Новото поколение деца растат със смартфони и таблет и все повече страдат от поведенчески разстройства и дефицити в общуването, в способността да учат, да възприемат и обработват информация. Пристрастяването към технологии е една от болестите на 21-и век, срещу която никой не е имунизиран и която често води до чисто физически симптоми.

Рисковете, които крие технологичният прогрес, далеч не свършват дотук. Онлайн престъпленията, злоупотребата с лични данни, дезинформацията, пропагандата и влиянието върху общественото мнение са другата страна на монетата. Това важи особено за приложенията, работещи на базата на изкуствен интелект - колкото повече се развиват и колкото по-широко се използват, толкова повече растат възможностите за злоупотреба.

И сега, след като прочетете тази статия в „Труд“ и отново влезете във фейсбук, вероятно ще забележите колко са радикализирани мненията по важни обществени въпроси и как смисленият дебат често изглежда невъзможен. Алгоритмите на мрежата, които имат за цел да ви предоставят персонализирано съдържание на базата на онова, което харесвате (най-вече с цел рекламодателите да достигнат до точната аудитория), всъщност съдействат за тази радикализация. Принципът е елементарен - ако задържите вниманието си на дадена публикация, или натиснете бутона „like“ приложението ще продължи да ви предлага подобно съдържание и никога няма да ви даде другата гледна точка. И така ако вярвате, че земята е плоска, ще получавате публикации, в които няма вариант тя да е кръгла.

Едно от сериозните опасения, е че интелигентният софтуер може да измести хората в много професии, включително творческите, генерирайки съдържание на добро ниво. Основателни ли са опасенията и може ли софтуерът да замени човека, неговия талант и творчески импулс? Способна ли е публиката да отличи истинското авторско съдържание от имитацията? Ще станат ли излишни журналистите, ако изкуственият интелект може да произвежда новини и коментари.

Доколко генерираните от изкуствен интелект произведения могат да се определят като „творчество“ е само един от проблемите, които същността на технологията предполага. Неточността и рискът от разпространяване на невярна информация също не са за пренебрегване.

Добрата новина е, че Европа лидира в идеята за законодателство, което да регламентира начина, по който ще работи изкуственият интелект. В даването на дефиниции и поставянето на ограничения и правила. Опълчва ли се Европа срещу прогреса - категорично не. Но поставя човека пред машината. Целта на европейския законодател е да регулира практики, които имат потенциал да причинят значителни вреди на гражданите - било то икономически, физически, емоционални или обществени.

Една от най-големите победи на европейските законодатели е забраната на т. нар. „social scoring“ - наблюдение, оценка, категоризиране на хората, с цел да получат рейтинг, подобен на кредитния, система, която, за съжаление, вече функционира в Китай. Ние обаче вярваме, че хората са нещо повече от куп числа и рискът от дискриминация е изключително висок. Не знам дали си давате сметка, че и днес, когато кандидатствате за работа в голяма компания, първо изкуствен интелект чете вашето CV. И ако сте майка на две деца, а практиката на фирмата показва, че служителите с такъв профил отсъстват често от работа, софтуерът вероятно автоматично ще ви изключи от списъка с подходящите кандидати.

Законодателният акт за изкуствения интелект налага изисквания към доставчиците и потребителите на системи с изкуствен интелект в зависимост от риска, свързан с конкретните системи. Предвид бързината, с която се разработват приложенията на изкуствения интелект по света, не е възможно да се състави изчерпателен списък на приложенията. Но Европа постави важна основа, с която да постави човека, а не машината в центъра.

Така, според гласуваните от ЕП правила, трябва да бъдат забранени всички системи, които представляват заплаха за хората. Такива могат да бъдат системи, които манипулират познанията или поведенията на групи от хора, като играчки с активирани гласови функции, които насърчават опасно поведение на децата; системи, които оценяват и класифицират хората въз основа на поведение, социално-икономически статус или лични характеристики; системи за биометрична идентификация в реално време и от разстояние, например за лицево разпознаване. В групата на високорисковите системи попадат тези за биометрична идентификация и категоризация на хора; системи за управление на критично важна инфраструктура; за обучение и практически стажове; за назначаване на хора и управление на човешките ресурси; за достъп до основни услуги, системи за правораздаване, системи за оказване на правна помощ и консултации.

Не на последно място потребителите ще трябва да бъдат информирани, че влизат в контакт с изкуствен интелект и на тях ще им бъде предоставян избор дали искат да продължат да използват услугата.

След като бъде одобрен, законът ще се прилага за всеки, който разработва и внедрява системи за изкуствен интелект както в ЕС, така и извън него. Степента на регулиране зависи от рисковете, създадени от конкретно приложение, от минимални до „неприемливи“.

Участието в забранени практики на изкуствен интелект може да доведе до глоба до 40 милиона евро (43 милиона долара) или сума, равна на до 7% от световния годишен оборот на компанията.

Това законодателство надхвърля по обем европейския закон за поверителността на данните, както и Общия регламент за защита на данните, при който Meta беше санкционирана с глоба от 1,2 милиарда евро миналия месец. На този етап гигантските глоби са апел към високотехнологичните компании, инструмент да попитаме - Трябва ли да развиваме нечовешки умове, които в крайна сметка могат да ни надминат, да ни надхитрят, да ни направят излишни? Трябва ли да рискуваме да изгубим контрола над нашата цивилизация?

Следете Trud News вече и в Telegram

Коментари

Регистрирай се, за да коментираш

Още от Анализи