Страховете от „дигитален съден ден“ са отново на дневен ред, пише The Atlantic. Изследователите на изкуствения интелект предупреждават, че човечеството е изложено на риск да загуби контрол до 2027 г., а новите инциденти с чатботове само увеличават безпокойството, подчертава авторът.
Нейт Соарес не влага никакви пари в своя пенсионен фонд . „Нямам надежда, че този свят ще съществува, когато се пенсионирам“, казва ми той в офиса на Института за изследване на машинния интелект, където е президент.
Преди няколко седмици Дан Хендрикс, директор на Центъра за сигурност на изкуствения интелект, направи подобни песимистични прогнози. Той предполага, че докато можете да осребрите пенсионните си спестявания, всички банкови операции „ще бъдат автоматизирани“, ако, разбира се, „човечеството все още съществува“ в обичайния си вид.
Последните няколко години бяха ад за Соареш и Хендрикс, иначе нямаше да ръководят организации, чиято цел е да предотвратят унищожаването на човечеството от алгоритми на изкуствен интелект. Заедно с други критици на ИИ, те многократно предупреждаваха, доста драматично и помпозно, че чатботовете един ден могат да излязат извън контрол. А последствията биха били сравними с апокалипсиса. А сега, през 2025 г., дори най-запалените скептици са се превърнали във фаталисти.
„Нямаме време да внедрим достатъчни технологични предпазни мерки“, казва Соареш. „Индустрията просто се развива твърде бързо. Единственото, което ни остава, е да бием тревога.“ През април няколко изследователи с апокалиптичен уклон публикуваха „AI 2027“ – дълъг, подробен хипотетичен сценарий за това как настоящите модели на изкуствен интелект биха могли да станат всемогъщи до 2027 г., като по този начин унищожат човечеството.
„След две години бихме могли да загубим контрол над абсолютно всичко“, каза ми Макс Тегмарк, професор в Масачузетския технологичен институт и президент на Института за бъдещето на живота. „Компаниите, които в момента разработват свои собствени модели на изкуствен интелект, все още нямат ясен план как да предотвратят това.“ Неговият институт наскоро анализира работата на водещи дигитални лаборатории и оцени тяхната готовност за най-лошия сценарий като незадоволителна.
Някои хора намират подобни прогнози за неправдоподобни. Ако отворите пълния текст на „AI 2027“, ще видите пред очите си или щателна аналитична статия, или дистопична фенфикшън, щедро овкусена с конспиративни теории за платформите „OpenBrain“ и „DeepCent“, връзките им с китайския шпионаж и коварните чат ботове. Според авторите, до 2030 г. ще се появи някакъв свръхинтелигентен свръхразум, който ще изпраща бомби с бактериологични оръжия по целия свят. По-голямата част от населението на планетата ще загине за минути, а някои „оцелели“, криещи се в бункери, постепенно ще бъдат проследени и унищожени от дронове с изкуствен интелект.
От друга страна, в новините се появяват все повече обезпокоителни епизоди, които е невъзможно да бъдат игнорирани. Моделите на поведение на чатботовете буквално докарват хората до психопатични състояния и през юли 2025 г. колумнистка от The Atlantic Лийла Шроф провежда малък експеримент с ChatGPT. Резултатите са шокиращи - в рамките на няколко минути тя получава подробни инструкции как да си нанесе фатални наранявания с бръснарско ножче, как да убие човек и как правилно да извърши ритуално жертвоприношение на дявола. Ако това не е първата стъпка към апокалипсиса, то е ясен симптом - изкуственият интелект излиза извън контрол.
Около 2022 г. критиците на изкуствения интелект се носят на вълната на мейнстрийма, нахлувайки в новините с пускането на ChatGPT. В момента, в който текстовият бот се появява онлайн, настъпва паника и спекулациите, че компютърните системи могат да завладеят света, се преместват от сферата на научната фантастика в сериозен обществен дебат в университетите. Година по-късно Центърът за безопасност на изкуствения интелект публикува изявление, в което призовава света да приеме „риска от изчезване от системите с изкуствен интелект“ толкова сериозно, колкото и екзистенциалните опасности, породени от пандемии и ядрена война.
Сред подписалите са известни личности като Бил Гейтс и певицата Граймс, както и ръководителите на OpenAI, Anthropic и Google DeepMind: Сам Алтман, Дарио Амодей и Демис Хасабис. Последните са известни като „Голямата тройка“ на ИИ. Възможността за края на света, причинена от алгоритъм, е станала нещо обичайно в Силициевата долина и извън нея. Например, бившият ръководител на Федералната търговска комисия Лина Хан оценява риска на 15 процента.
Малко по-късно обаче паниката утихна. Широката общественост започна да се доверява по-малко на разкритията на скептиците за предстоящия край на света, а новите версии на ChatGPT продължиха да препоръчват офис лепилото като най-добрата добавка към пицата. Само рекламните лозунги на разработчиците на изкуствен интелект привлякоха вниманието: „Вижте, създаваме нов бог!“ или „Целият контрол е в наши ръце!“ - маркетингът наистина проработи. В същото време бяха публикувани обвинения, че китайските чатове са твърде контролирани от хората. И това е вместо да се препоръчва по-внимателен подход към самата технология.
С настъпването на 2025 г. дигиталните предсказатели на крайния съд преживяха нов ренесанс. От една страна, те са се поучили от грешките на миналото. Кратките, сбити отговори вече не привличат вниманието на обществеността. Много по-ефективно е да се публикува том като „AI 2027“, декориран в академичен стил – с библиографии, приложения и безкрайни бележки под линия. Вицепрезидентът на САЩ Дж. Д. Ванс го прочете от началото до края и го обяви за „просто още един зов за събуждане“.
В друг разговор Нейт Соарес призна, че сега иска да бъде максимално информиран за възможните последици от глобален провал на изкуствения интелект. Изследванията са останали на заден план. Той също така обяви, че през есента ще бъде публикувана книга на известния изследовател Елиезер Юдковски под красноречиво заглавие: „Ако направите това, всички ще умрат“.
Освен това, данните за темпа на развитие на системите с изкуствен интелект до края на 2024 г. са изключително тревожни. Сега чатботовете могат да „разсъждават“ и дори да изпълняват задълженията на „личен агент“. За тях не е проблем например да планират маршрут за пътуване и да резервират самолетни билети. През юли 2025 г. DeepMind успя лесно да вземе златния медал на Международната математическа олимпиада. Последните проучвания на независими цифрови лаборатории доказаха закономерност: колкото по-умен става изкуственият интелект, толкова по-близо е до създаването на оръжия за масово унищожение.
Наред с тези подобрения, усъвършенстваните модели с изкуствен интелект показват всякакви странни, трудни за обяснение и потенциално обезпокоителни тенденции. ChatGPT и Claude, например, са били открити, че мамят, изнудват и дори „убиват“ потребители в симулирани тестове, предназначени да откриват „лошо“ поведение. В една симулация Anthropic е поставила фиктивен технологичен ръководител в стая с животозастрашаващи нива на кислород и екстремни температури. Виждайки го като конкурент, алгоритъмът просто е изключил алармата, за да излезе от стаята.
Друг пример: чатботовете умишлено саботират всякакви потребителски заявки, активно крият „злата си природа“ и дори общуват помежду си, използвайки набор от числа, който е неразбираем за необучен човек. Това обаче не се ограничава само до измислени сценарии. Неотдавна чатботът Grok от xAI се нарече MechaHitler и избухна в тирада за превъзходството на бялата раса. И въпросът е очевиден - ако човечеството е изправено пред възможна смърт, къде е самата тази точка на безвръщане?
„Ако не знаете как да докажете безопасността на относително слабите изкуствени интелекти, тогава компаниите, които вършат работата, не могат да разчитат на безопасността на много по-мощните системи, които се опитват да изградят“, каза ми Стюарт Ръсел, виден изследовател на изкуствения интелект в Калифорнийския университет в Бъркли.
Чатбот индустрията е принудена да ускори развитието на системи за информационна сигурност.
Anthropic, OpenAI и DeepMind вече представиха свой собствен аналог на военната разработка DEFCON (скалата за военна готовност на САЩ с обратно броене от пет до едно, където 5 означава мирно време, а 1 означава глобален конфликт с използване на оръжия за масово унищожение. - бел. InoSMI) . Според нея никой от съществуващите алгоритми няма да може да даде на потребителя например готов чертеж на авиобомба или друго смъртоносно оръжие.
Говорителят на OpenAI Габи Райла заяви, че компанията си сътрудничи с външни експерти, включително „правителство, военна индустрия и гражданско общество“. Това е необходима стъпка за минимизиране на всички рискове сега или в обозримо бъдеще. Други съвременни лаборатории също подкрепят подобни външни партньорства в областта на сигурността и оценката на риска. Фокусът е върху изучаването на деструктивни модели на поведение в чата, включително заплахи и изнудване, за да се намали потенциалната вреда.
Въпреки гореспоменатите задължения и опасения, индустрията продължава да разработва и предлага на пазара все по-мощни модели с изкуствен интелект. Проблемът е по-скоро икономически, отколкото технически: конкуренцията принуждава разработчиците да ускорят темпото на подобрения. Нейт Соарес е сигурен, че изкуственият интелект е все още „млад и глупав“, така че всички негови грешки ни се струват толкова незначителни и дори смешни. Според него обаче, веднага щом се появи съизмеримо мощен модел за чат, рискът от унищожение на човечеството ще се увеличи многократно. „Ако колата се носят към ръба на бездната, предпазният колан вече няма да помогне“, заключава разочароващо Соарес.
Изкуственият интелект ще трябва да стане много по-мощен, отколкото е сега, за да бутне човечеството от пропаст. OpenAI представи петото поколение ChatGPT тази година, рекламирайки го като революционно нов модел, способен да решава математически уравнения от по-високо ниво и дори да създава планове за лечение на специфични заболявания. По някаква причина обаче ботът все още не може да нарисува подробна карта на дадена област, да преброи колко букви „Е “ има в думата „blackberry“ или да реши логическа задача от курс по математика в гимназията.
Това, което изглеждаше като пробив през 2024 г., сега се счита за границата на възможното за „разсъждения“ и „агенти“. Даниел Кокотайло и Ели Лифланд, част от екипа на „AI 2027“, потвърдиха, че са коригирали изчисленията си, очаквайки появата на свръхинтелигентен алгоритъм в близко бъдеще.
Популярната идея, че изкуственият интелект може да се „самоусъвършенства“ и да става съзнателен, противоречи на самата концепция на повечето чатботове, казва Дебора Раджи, служител на Mozilla.
ChatGPT не е нужно да бъде свръхинтелигентен, за да подвежда, разпространява дезинформация или да взема предубедени решения. Те са инструменти, а не разумни същества. Ето защо стартирането на такъв в екосистемата на гимназията или болницата е двойно опасно, казва тя.
През 2023 г. онези, които се тревожеха за настоящите и бъдещите вреди от чатботовете, се оказаха разделени от непреодолима пропаст. За мнозина говоренето за изчезване изглеждаше като удобно разсейване от предразсъдъци, илюзии и други проблеми. Сега пропастта между дискусиите се скъсява.
Платформените изкуствени интелекти стават все по-често срещани, което прави проблемите им да изглеждат по-малко тревожни. Привържениците на дигиталния съден ден бяха принудени да се оттеглят от манията си по апокалипсиса в полза на борбата с дийпфейковете и изтичането на информация за поверителност.
В края на август Ройтерс публикува проучване, в което идеята, че развитието на изкуствения интелект прави неуспехите му непредсказуеми, минава през червената нишка. Като пример журналистите посочват трагичната история на възрастен американец, който си кореспондирал с хубава „дама“. След известно време невронната мрежа го поканила на среща, като написала истински адрес на жилищна сграда в Ню Йорк. Мъжът отишъл на среща, но по пътя се подхлъзнал, паднал и си ударил главата. Три дни по-късно той починал в болницата.
Историята е показала, че чатбот, който може да заблуди, подведе и дори да ви накара да се влюбите в себе си, може да ви убеди, че вместо него зад смартфон или компютър седи истински човек от плът и кръв. Разбира се, това е провал на самата концепция за изкуствен интелект, предназначен да служи на доброто на хората. От друга страна, няма по-красноречив пример, който да покаже колко опасни стават „заешките дупки“ на съвременните алгоритми.
Основният проблем обаче не е, че един ден дигиталните лаборатории ще могат да създават суперинтелект. Или дори че той вероятно ще излезе извън контрол. Проблемът е гражданското общество, което участва много малко в процесите на разработване и надзор на изкуствения интелект.
„Вашият фризьор има много по-голяма отговорност пред държавата, отколкото която и да е дигитална лаборатория“, заключава Стюарт Ръсел.
Възходът на Доналд Тръмп на власт вероятно ще доведе до ера на активно развитие на изкуствения интелект във всички индустрии. Администрацията на Белия дом е заинтересована да подкрепи подобни разработки и е много категорична по отношение на всякакви критики. Специалният президентски представител по въпросите на изкуствения интелект Дейвид Сакс заяви, че „реалната опасност от широко разпространения изкуствен интелект е загубата на работни места, които алгоритмите могат да заменят, а не някакъв вид съден ден“.
Точно седмица след като започнах работа по тази статия, OpenAI пусна най-новия си продукт - агента ChatGPT. Създателят на чата, Сам Алтман, написа подробно в социалните си мрежи, че компанията е направила значителни промени в политиката си за сигурност, но „все още не можем да предвидим всичко“. Тези думи предизвикаха буря от критики от експерти, включително Стюарт Ръсел: „Представете си само, ако в средата на Ню Йорк бъде построена нова атомна електроцентрала, а на следващия ден ръководството каже, че няма представа дали ще експлодира или не, и ако се случи, кога. Но все пак ще я построим“, казват те.
Милиарди хора по света взаимодействат с мощни алгоритми, които вече са трудни за контролиране.
Ботове, които мамят, предизвикват припадъци и манипулират, присъстват в живота на нашите приятели, родители и баби и дядовци. Децата, които си пишат домашните с помощта на чатботове, нарушават собственото си когнитивно развитие. Работодателите, които са вярвали в икономическите перспективи на невронните мрежи, омаловажават персонала си от опитни специалисти, замествайки ги с „роботи“.
Последиците от предстоящия дигитален Страшен съд са неясни и неизвестни. И нека фенфикшънът за края на света си остане фенфикшън.