Изкуствен свръхинтелект: заплаха за човечеството?

Учените все още не са сигурни как би изглеждало това и какви са последиците

Ще има огромни последици за бъдещето

Бързият напредък в областта на изкуствения интелект (ИИ) подтиква хората да се замислят какви са фундаменталните граници на технологията. Все по-често една тема, някога приписвана на научната фантастика - идеята за свръхинтелигентен ИИ - сега се разглежда сериозно както от учени, така и от експерти.

Идеята, че машините един ден биха могли да достигнат или дори да надминат човешкия интелект, има дълга история. Но темпът на напредък в областта на изкуствения интелект през последните десетилетия придаде нова актуалност на темата, особено след пускането на мощни модели на големи езици от компании като OpenAI, Google и Anthropic, наред с други.

Експертите имат коренно различни мнения за това колко осъществима е идеята за „изкуствен суперинтелект“ (ИСИ) и кога може да се появи, но някои предполагат, че подобни свръхспособни машини може да има съвсем скоро. Сигурното е, че ако и когато ИСИ се появи, това ще има огромни последици за бъдещето на човечеството.

„Вярвам, че ще навлезем в нова ера на автоматизирани научни открития, значително ускорен икономически растеж, дълголетие и нови развлекателни преживявания“, каза пред Live Science Тим Роктешел , професор по изкуствен интелект в University College London и главен учен в Google DeepMind, предоставяйки лично мнение, а не официална позиция на Google DeepMind. Той обаче предупреди: „Както при всяка значима технология в историята, има потенциален риск.“

Традиционно, изследванията в областта на изкуствения интелект са се фокусирали върху възпроизвеждането на специфични способности, които интелигентните същества проявяват. Те включват неща като способността за визуален анализ на сцена, синтактичен анализ на език или навигиране в среда. В някои от тези тесни области изкуственият интелект вече е постигнал свръхчовешка производителност, каза Роктешел, най-вече в игри като го и шах.

Целта в тази област обаче винаги е била да се възпроизведе по-общата форма на интелигентност, наблюдавана при животните и хората, която съчетава много подобни способности. Тази концепция е била наричана с няколко имена през годините, включително „силен ИИ“ или „универсален ИИ“, но днес най-често се нарича общ изкуствен интелект (ОИИ).

„Дълго време общият изкуствен интелект (ОИИ) беше далечна северна звезда за изследванията в областта на изкуствения интелект. С появата на фундаментални модели обаче вече имаме ИИ, който може да премине широк спектър от приемни изпити за университети и да участва в международни състезания по математика и програмиране“, каза Роктешел.

Това кара хората да приемат по-сериозно възможността за общ изкуствен интелект (ОИИ), каза Роктешел. И най-важното е, че след като създадем ИИ, който е подобен на човешкия в широк спектър от задачи, може да не мине много време, преди той да постигне свръхчовешки способности във всички области. „След като ИИ достигне човешки способности, ще можем да го използваме, за да се усъвършенства по самореферентен начин“, каза Роктешел. След като този важен етап бъде достигнат, бихме могли да станем свидетели на това, което британският математик Ървинг Джон Гуд нарече „интелигентна експлозия“ през 1965 г. Той твърди, че щом машините станат достатъчно умни, за да се самоусъвършенстват, те бързо ще достигнат нива на интелигентност, далеч надхвърлящи човешките. Той описва първата ултраинтелигентна машина като „последното изобретение, което човекът някога ще трябва да направи“.

Известният футурист Рей Курцвейл твърди, че това би довело до „технологична сингулярност“, която внезапно и необратимо би трансформирала човешката цивилизация. Терминът прави паралели със сингулярността в сърцето на черна дупка, където нашето разбиране за физиката се разпада. По същия начин, появата на ИСИ би довела до бърз и непредсказуем технологичен растеж, който би бил отвъд нашето разбиране.

Скорошно проучване сред 2778 изследователи на изкуствен интелект установи, че като цяло те смятат, че има 50% вероятност да се появи до 2047 г. По-широк анализ се съгласи, че повечето учени са съгласни, че може да се появи до 2040 г.

Последиците от технология като ИСИ биха били огромни, което би накарало учените и философите да отделят значително време за очертаване на потенциалните обещания и капани за човечеството.
От положителната страна, машина с почти неограничен капацитет за интелигентност би могла да реши някои от най-належащите предизвикателства в света, каза Даниел Хълм , главен изпълнителен директор на компаниите за изкуствен интелект Satalia и Conscium.

Надеждата е, че това ще освободи хората от необходимостта да работят, за да оцелеят, и вместо това ще им позволи да прекарват време в неща, които ги вълнуват, обясни Хълм.

Възможността за свръхинтелект, върху който нямаме контрол, породи опасения, че изкуственият интелект може да представлява екзистенциален риск за нашия вид. Това се превърна в популярен троп в научната фантастика, като филми като „Терминатор“ или „Матрицата“ изобразяват злонамерени машини, решени да унищожат човечеството.

Философът Ник Бостром подчерта, че една ИСИ дори не е нужно да бъде активно враждебна към хората, за да се разиграят различни сценарии на Страшния съд. В статия от 2012 г. той предполага, че интелигентността на дадено същество е независима от неговите цели, така че една ИСИ може да има мотивации, които са напълно чужди на нас и не са съобразени с човешкото благополучие.

Бостром доразви тази идея с мисловен експеримент, в който на свръхспособен изкуствен интелект е поставена привидно безобидната задача да произведе колкото се може повече кламери. Ако това не е в съответствие с човешките ценности, той може да реши да елиминира всички хора, за да им попречи да го изключат, или по този начин да превърне всички атоми в телата им в още кламери.

Роктешел е по-оптимистичен. „Ние изграждаме настоящите системи с изкуствен интелект, за да бъдат полезни, но също така и безобидни и честни асистенти. Те са настроени да следват човешки инструкции и са обучени на обратна връзка, за да предоставят полезни, безобидни и честни отговори“, каза той. Въпреки че Роктешел признава, че тези предпазни мерки могат да бъдат заобиколени, той е уверен, че в бъдеще ще разработим по-добри подходи. Той също така смята, че ще бъде възможно да се използва изкуствен интелект за наблюдение на други изкуствени интелекти, дори и те да са по-силни.

Хълм каза, че повечето настоящи подходи за „съгласуване на моделите“ - усилията да се гарантира, че изкуственият интелект е съобразен с човешките ценности и желания – са твърде груби. Обикновено те или предоставят правила за това как трябва да се държи моделът, или го обучават върху примери за човешко поведение. Но той смята, че тези предпазни мерки, които се закрепват в края на процеса на обучение, биха могли лесно да бъдат заобиколени от ИСИ.

Вместо това, Хълм смята, че трябва да изградим ИИ с „морален инстинкт“. Неговата компания Conscium се опитва да направи това, като развива ИИ във виртуални среди, проектирани да възнаграждават поведения като сътрудничество и алтруизъм. В момента те работят с много прост ИИ „на ниво на насекомо“, но ако подходът може да бъде мащабиран, това би могло да направи съгласуваността по-стабилна. Не всички обаче са убедени, че трябва да започнем да се тревожим съвсем скоро. Една често срещана критика към концепцията за ИСИ, каза Роктешел, е, че нямаме примери за хора, които са висококвалифицирани в широк спектър от задачи, така че може да не е възможно да се постигне това и в един единствен модел. Друго възражение е, че огромните изчислителни ресурси, необходими за постигане на ИСИ, може да са непосилни.

По-практично казано, начинът, по който измерваме напредъка в областта на изкуствения интелект, може да ни подвежда относно това колко близо сме до суперинтелекта, каза Александър Илич , ръководител на Центъра за изкуствен интелект в Цюрих, Швейцария. Повечето от впечатляващите резултати в областта на изкуствения интелект през последните години са резултат от тестване на системи върху няколко силно изкуствени теста за индивидуални умения, като кодиране, разсъждение или разбиране на езика, които системите са изрично обучени да преминават, каза Илич.

Изкуственият интелект, способен да премине много от тези тестове на свръхчовешко ниво, може да се появи само след няколко години, каза Илич. Но той вярва, че днешният доминиращ подход няма да доведе до модели, които могат да изпълняват полезни задачи във физическия свят или да си сътрудничат ефективно с хората, което ще бъде от решаващо значение за широкото им въздействие в реалния свят.

(от livescience.com)

Най-четени