Три плашещи пробива, които Изкуственият интелект ще направи през 2024 г.

Една от най-страховитите области на развитие е тази на смъртоносни автономни оръжейни системи - роботи убийци

Дълбоките фалшификати - предстояща киберзаплаха

Изкуственият интелект (ИИ) съществува от десетилетия, но миналата година бе във фокуса на вниманието, като ChatGPT на OpenAI създаде достъпен, практичен изкуствен интелект за всички. AI обаче има противоречива история и днешната технология е предшествана от кратък опит от неуспешни експерименти.

В по-голямата си част иновациите в ИИ изглеждат готови да подобрят неща, като медицинска диагностика и научни открития. Един ИИ модел може, например, да открие дали сте изложени на висок риск от развитие на рак на белия дроб чрез анализиране на рентгеново сканиране. По време на COVID-19 учените също изградиха алгоритъм, който можеше да диагностицира вируса, като слушаше фините разлики в звука на кашлицата на хората. ИИ също е използван за проектиране на експерименти с квантова физика отвъд това, което хората са си представили.

Но не всички иновации са толкова добронамерени. От дронове-убийци до изкуствен интелект, който заплашва бъдещето на човечеството, са някои от най-страшните открития, които вероятно ще дойдат през 2024 г.

Не знаем защо точно изпълнителният директор на OpenAI Сам Алтман беше уволнен и възстановен в края на 2023 г. Но на фона на корпоративния хаос в OpenAI се появиха слухове за напреднала технология, която може да застраши бъдещето на човечеството. Тази система OpenAI, наречена Q* (произнася се Q-звезда), може да олицетворява потенциално новаторската реализация на изкуствения общ интелект (AGI), съобщи Reuters. Малко се знае за тази мистериозна система, но ако докладите са верни, тя може да повиши възможностите на ИИ с няколко нива.

AGI е хипотетична повратна точка, известна още като „Singularity“ (сингулярност), в която ИИ става по-умен от хората. Настоящите поколения все още изостават в области, в които хората са отлични, като контекстно базирано мислене и истинска креативност. Повечето, ако не цялото съдържание, генерирано от изкуствен интелект, просто изхвърля по някакъв начин данните, използвани за обучението му.

Но AGI потенциално може да изпълнява определени задачи по-добре от повечето хора, казват учени. Може също да бъде въоръжен и използван, например, за създаване на подобрени патогени, стартиране на масивни кибератаки или организиране на масова манипулация.

Идеята за AGI отдавна е ограничена до научната фантастика и много учени смятат, че никога няма да се осъществи. За OpenAI да достигне тази повратна точка със сигурност би било шок - но не и извън сферата на възможностите. Знае се например, че Сам Алтман вече полагаше основите на AGI през февруари 2023 г., очертавайки подхода на OpenAI към AGI. Знае се също, че експертите започват да прогнозират предстоящ пробив, включително главният изпълнителен директор на Nvidia Дженсън Хуанг, който каза, че AGI ще бъде достигнат през следващите пет години, съобщи Barrons. Възможно ли е 2024 да бъде годината на пробив за AGI? Само времето ще покаже.

Една от най-неотложните киберзаплахи е тази на дълбоките фалшификати - изцяло изфабрикувани изображения или видеоклипове на хора, които могат да ги представят погрешно, да ги уличат или да ги тормозят. ИИ deepfake технологията все още не е достатъчно добра, за да бъде значителна заплаха, но това може да се промени.

Изкуственият интелект вече може да генерира deepfakes в реално време - видео емисии на живо, с други думи - и сега е толкова добър в генерирането на човешки лица, че хората вече не могат да правят разлика между това, което е истинско или фалшиво. Друго проучване, публикувано в списанието Psychological Science на 13 ноември м. г., разкри феномена на „хиперреализма“, при който съдържанието, генерирано от ИИ, е по-вероятно да се възприема като „реално“, отколкото действително реално съдържание. Това би направило практически невъзможно хората да разграничат факт от измислица с просто око. Въпреки, че инструменти могат да помогнат на хората да открият deepfakes, те все още не са масови. Intel, например, изгради детектор за дълбоки фалшификати в реално време. Но FakeCatcher, както е известно, даде смесени резултати, според BBC.

Тъй като генеративният AI се развива, една страшна възможност е хората да внедрят дълбоки фалшификати, за да се опитат да променят изборите. Financial Times съобщи например, че Бангладеш се подготвя за избори през януари, които ще бъдат провалени от дийпфейкове. Докато САЩ се подготвят за президентски избори през ноември 2024 г., също има възможност ИИ и deepfakes да променят резултата от това важно гласуване. Калифорнийският университет в Бъркли наблюдава използването на ИИ в кампании, например, а NBC News също съобщи, че много щати нямат закони или инструменти, за да се справят с всякакъв скок в генерираната от ИИ дезинформация.

Правителствата по света все повече включват ИИ в инструменти за водене на война. Правителството на САЩ обяви на 22 ноември, че 47 щата са одобрили декларация за отговорното използване на ИИ в армията - за първи път стартирана в Хага през февруари. Защо беше необходима такава декларация? Защото „безотговорното“ използване е реална и ужасяваща перспектива. Твърди се, че ИИ дронове преследват войници в Либия без човешка намеса.

ИИ може да разпознава модели, да се самообучава, да прави прогнози или да генерира препоръки във военен контекст, а надпреварата във въоръжаването с ИИ вече е в ход. През 2024 г. е вероятно не само да видим ИИ, използван в оръжейни системи, но и в логистиката и системите за подпомагане на вземането на решения, както и в изследвания и разработки.
През 2022 г., например, ИИ генерира 40 000 нови, хипотетични химически оръжия. Различни клонове на американската армия са поръчали дронове, които могат да извършват разпознаване на цели и проследяване на битка по-добре от хората. Израел също използва ИИ за бързо идентифициране на цели поне 50 пъти по-бързо, отколкото хората могат, според NPR.

Но една от най-страховитите области на развитие е тази на смъртоносни автономни оръжейни системи (LAWS) - или роботи убийци. Няколко водещи учени и технолози предупредиха за роботите убийци, включително Стивън Хокинг през 2015 г. и Илон Мъск през 2017 г., но технологията все още не се е материализирала в масов мащаб.

Въпреки това, някои тревожни развития предполагат, че тази година може да бъде пробив за роботите убийци. Например, твърди се, че Русия може да е използвала в Украйна дрон Zala KYB-UAV, който може да разпознава и атакува цели без човешка намеса, според доклад от The Bulletin of the Atomic Scientists. Според Australian Financial Review Австралия също е разработила Ghost Shark - автономна система за подводници.

Сумата, която страните по света харчат за ИИ, също е показател. Китай е увеличил разходите за ИИ от общо $11,6 милиона през 2010 г. до $141 милиона до 2019 г., предаде Ройтерс.

Комбинирани, тези развития предполагат, че навлизаме в нова зора на войната с ИИ.

(От livescience.com)

Следете Trud News вече и в Telegram

Коментари

Регистрирай се, за да коментираш

Още от Мнения