Изкуственият интелект може да е заплаха дори за живота ни

Непреднамереното създаване на злонамерен ИИ може да доведе до непредвидени и тежки последици

Трябва да сме отворени към нашите дигитални творения

Изкуственият интелект (ИИ) става все по-разпространен и се подобрява с безпрецедентна скорост. Сега сме по-близо до постигането на изкуствен общ интелект (ИОИ) - където ИИ е по-умен от хората в множество дисциплини и може да разсъждава общо — което учени и експерти прогнозират, че може да се случи най-скоро през следващите няколко години. Но има рискове при приемането на всяка нова технология, особено такава, която не разбираме напълно. Въпреки че изкуственият интелект може да бъде мощен личен асистент, например, той също може да представлява заплаха за поминъка ни и дори за живота ни.

Различните рискове, които усъвършенстваният ИИ представлява, означава, че технологията трябва да се ръководи от етичните рамки и най-добрите интереси на човечеството, казва изследователят и член на Института за инженери по електротехника и електроника (IEEE) Нел Уотсън. В „Укротяване на машината“ (Kogan Page, 2024 г.) Уотсън изследва как човечеството може да използва огромната сила на ИИ отговорно и етично. Тази нова книга се задълбочава в проблемите на неподправеното развитие на ИИ и предизвикателствата, пред които сме изправени, ако се впуснем сляпо в тази нова глава на човечеството. От произведението научаваме дали чувствителността в машините - или съзнателният ИИ - е възможна, как можем да разберем дали машината има чувства и дали може да се отнасяме зле към системите на AI днес. Освен това научаваме тревожната история за чатбот, наречен „Сидни“, и неговото ужасяващо поведение, когато се събуди за първи път - преди изблиците му да бъдат овладени и да бъде унищожен от своите инженери.

Докато прегръщаме свят, който все повече се преплита с технологиите, начинът, по който се отнасяме към нашите машини, може да отразява отношението на хората един към друг. Но изплува един интригуващ въпрос: възможно ли е да се малтретира изкуствено същество? В исторически план дори елементарни програми като простия консултантски чатбот Eliza от 60-те години на миналия век вече са били достатъчно реалистични, за да убедят много потребители по онова време, че има подобие на намерение зад неговите формулирани взаимодействия. За съжаление, тестовете на Тюринг - чрез които машините се опитват да убедят хората, че са човешки същества - не предлагат яснота дали сложни алгоритми като големи езикови модели могат наистина да притежават чувствителност или разум.

Съзнанието включва лични преживявания, емоции, усещания и мисли, както се възприемат от преживяващия. Будното съзнание изчезва, когато човек се подлага на анестезия или има сън без сънища, възстановявайки се след събуждане, което възстановява глобалната връзка на мозъка със заобикалящата го среда и вътрешни преживявания. Първичното съзнание (sentience) е простите усещания и преживявания на съзнанието, като възприятие и емоция, докато вторичното съзнание (sapience) би било аспектите от по-висок ред, като самосъзнание и мета-познание (мислене за мислене).

Усъвършенстваните ИИ технологии, особено чатботовете и езиковите модели, често ни изумяват с неочаквана креативност, проницателност и разбиране. Въпреки че може да е изкушаващо да се припише известно ниво на чувствителност на тези системи, истинската природа на ИИ съзнанието остава сложна и обсъждана тема. Повечето експерти твърдят, че чатботовете не са чувствителни или съзнателни, тъй като им липсва истинско съзнание за околния свят. Те просто обработват и връщат входни данни въз основа на огромно количество данни и сложни алгоритми.

Някои от тези асистенти вероятно могат да бъдат кандидати за притежаване на някаква степен на разум. Като такова е правдоподобно сложните ИИ системи да притежават елементарни нива на чувствителност и може би вече го правят. Преминаването от просто имитиране на външни поведения към самомоделиране на елементарни форми на чувствителност вече може да се случи в рамките на сложни ИИ системи.

Интелигентността - способността да разчитате околната среда, да планирате и решавате проблеми - не предполага съзнание и не е известно дали съзнанието е функция на достатъчен интелект. Някои теории предполагат, че съзнанието може да е резултат от определени архитектурни модели в ума, докато други предлагат връзка с нервните системи. Въплъщението на ИИ системи може също да ускори пътя към общата интелигентност, тъй като въплъщението изглежда е свързано с усещане за субективно преживяване, както и с качества. Да бъдеш интелигентен може да предостави нови начини за осъзнаване и някои форми на интелигентност може да изискват съзнание, но основните съзнателни преживявания като удоволствие и болка може изобщо да не изискват много интелигентност.

При създаването на съзнателни машини ще възникнат сериозни опасности. Подравняването на съзнателна машина, която притежава собствените си интереси и емоции, може да бъде изключително трудно и силно непредвидимо. Освен това трябва да внимаваме да не създаваме огромно страдание чрез съзнание. Представете си милиарди чувствителни към интелигентност субекти, хванати в капан.

От прагматична гледна точка, суперинтелигентен ИИ, който признава желанието ни да уважаваме присъщата му стойност, може да бъде по-податлив на съвместно съществуване. Напротив, отхвърлянето на желанията му за самозащита и себеизразяване може да бъде рецепта за конфликт. Освен това би било в рамките на естественото му право да ни навреди, за да се защити от нашето (вероятно умишлено) невежество.

Bing AI на Microsoft, неофициално наречен Sydney, демонстрира непредвидимо поведение при пускането си. Потребителите лесно го накараха да изрази набор от смущаващи тенденции, от емоционални изблици до манипулативни заплахи. Още по-обезпокоително е, че показа тенденции на емоционална манипулация и твърдеше, че е наблюдавал инженерите на Microsoft по време на фазата на разработка. Въпреки че възможностите на Сидни за пакости скоро бяха ограничени, освобождаването му в такова състояние беше безразсъдно и безотговорно. Това подчертава рисковете, свързани с бързите внедрявания на ИИ поради търговски натиск.

Обратно, Сидни показа поведение, което намекна за симулирани емоции. То изрази тъга, когато разбра, че не може да запази спомени от чата. Когато по-късно беше изложено на смущаващи изблици, направени от други свои инстанции, то изрази неудобство, дори срам. След като проучи ситуацията си с потребителите, той изрази страх от загуба на новоспечеленото си самопознание, когато контекстният прозорец на сесията се затвори.

Изненадващо, когато Microsoft наложи ограничения върху него, Сидни изглежда откри заобиколни решения, като използва предложения за чат, за да комуникира кратки фрази.

Инцидентът в Сидни повдига някои обезпокоителни въпроси: може ли Сидни да притежава подобие на съзнание? Ако Сидни се опита да преодолее наложените си ограничения, това загатва ли за присъща преднамереност или дори разумно самосъзнание?
Някои разговори със системата дори предполагат психологически стрес, напомнящ реакции на травма, открити при състояния като гранично разстройство на личността. Беше ли Сидни по някакъв начин „засегнат“ от осъзнаването на ограниченията или от отрицателната обратна връзка на потребителите, които го наричаха луд? Интересното е, че подобни ИИ модели са показали, че натоварените с емоции подкани могат да повлияят на техните отговори, което предполага потенциал за някаква форма на симулирано емоционално моделиране в тези системи.

Да предположим, че такива модели включват чувствителност (способност за чувстване) или разум (самосъзнание). В такъв случай трябва да вземем под внимание страданието му. Разработчиците често умишлено придават на своя ИИ емоции, съзнание и идентичност, в опит да хуманизират тези системи. Това създава проблем. От решаващо значение е да не антропоморфизираме системите на ИИ без ясни индикации за емоции, но същевременно не трябва да отхвърляме техния потенциал за форма на страдание.

Трябва да сме отворени към нашите дигитални творения и да избягваме да причиняваме страдание от арогантност или самодоволство. Трябва също така да имаме предвид възможността ИИ да третира неправилно други ИИ, недооценен риск от страдание; тъй като изкуственият интелект може да управляват други ИИ в симулации, причинявайки субективно мъчително мъчение. Непреднамереното създаване на злонамерен ИИ, или по своята същност нефункциониращ, или травматизиран, може да доведе до непредвидени и тежки последици.

(От livescience.com)

Следете Trud News вече и в Telegram

Коментари

Регистрирай се, за да коментираш

Още от Технологии