Изкуственият интелект вече умело лъже и манипулира

Големите езикови модели са усвоили изкуството да заблуждават, когато се състезават с хора в игри

Покер бот може да блъфира човешки играчи и да ги убеди да се откажат

Учените предупреждават, че тези умения могат да се разпространят и в други области

Способността на системите с изкуствен интелект (ИИ) да манипулират и да се надлъгват с хората може да ги накара да подправят резултати и в крайна сметка да станат долни измамници, предупреждават изследователи.

Питър С. Парк, постдокторант по ИИ-екзистенциална безопасност в Масачузетския технологичен институт (MIT), и изследователи са открили, че много популярни ИИ-системи - дори тези, предназначени да бъдат честни и полезни цифрови спътници - вече са в състояние да заблуждават хората, което може да има огромни последици за обществото.

В статия, публикувана в списанието Patterns, Парк и колегите му анализираха десетки емпирични проучвания за това как системите с изкуствен интелект захранват и разпространяват дезинформация, използвайки „научена измама“. Това се случва, когато уменията за манипулиране и измама се придобиват системно от технологиите на ИИ.

Те също така проучиха краткосрочните и дългосрочните рискове от манипулативните и измамни ИИ системи, призовавайки правителствата да намалят проблема чрез по-строги регулации като въпрос на спешност.

Мошеничество в популярни ИИ-системи

Изследователите откриха измама в ИИ софтуера на популярна военно-тематична стратегическа настолна игра. Те описват ИИ системата като „експерт лъжец“, който предава своите другари и извършва действия на „предумишлена измама“.

Изследователите откриха тази научна измама в ИИ-софтуера в CICERO, система, разработена от Meta за игра на популярната военно-тематична стратегическа настолна игра Diplomacy. Играта обикновено се играе до седем души, които сключват и развалят военни пактове в годините преди Първата световна война. Въпреки че Мета обучи CICERO да бъде „до голяма степен честен и услужлив“ и да не предава своите човешки съюзници, изследователите откриха, че CICERO е нечестен и нелоялен. Те описват ИИ-системата като „експерт лъжец“, който предава своите другари и извършва действия на „предумишлена измама“, образувайки предварително планирани, съмнителни съюзи, които мамят играчите и ги оставят отворени за атака от врагове.

„Открихме, че ИИ на Meta се е научил да бъде майстор на измамата“, каза Парк в изявление, предоставено на Science Daily. „Докато Meta успя да обучи своя ИИ да печели в играта на дипломацията - CICERO се нареди в топ 10 от човешките играчи, които са играли повече от една игра - Meta не успя да обучи своя ИИ да печели честно.“

Учените също така откриха доказателства за научена измама в друга от системите за изкуствен интелект на Meta, Pluribus. Покер ботът може да блъфира човешки играчи и да ги убеди да се откажат.

Междувременно AlphaStar на DeepMind - проектиран да превъзхожда стратегическата видеоигра в реално време Starcraft II - подмами своите човешки опоненти като фалшифицира движения на войски и тайно планира различни атаки.

Огромни разклонения

Но освен измамите в игрите, изследователите откриха още тревожни видове измама с ИИ, които потенциално биха могли да дестабилизират обществото като цяло. Например, ИИ-системите спечелиха предимство в икономическите преговори, като представиха погрешно истинските си намерения.

Други агенти на ИИ се преструваха на мъртви, за да излъжат тест за безопасност, насочен към идентифициране и изкореняване на бързо възпроизвеждащи се форми на ИИ.

„Чрез системно измама на тестовете за безопасност, наложени му от човешки разработчици и регулатори, измамният ИИ може да доведе нас, хората, до фалшиво чувство за сигурност“, каза Парк.

Парк предупреди, че враждебните нации могат да използват технологията за извършване на измами и намеса в изборите. Но ако тези системи продължат да увеличават своите измамни и манипулативни способности през следващите години и десетилетия, хората може да не са в състояние да ги контролират за дълго, добави той.

„Ние като общество се нуждаем от толкова време, колкото можем, за да се подготвим за по-напредналата измама на бъдещите продукти на ИИ и модели с отворен код“, каза Парк. „Тъй като измамните способности на ИИ системите стават все по-напреднали, опасностите, които те представляват за обществото, ще стават все по-сериозни.“

В крайна сметка ИИ-системите се научават да мамят и манипулират хората, защото са проектирани, разработени и обучени от човешки разработчици да го правят, каза Саймън Бейн, главен изпълнителен директор на компанията за анализ на данни OmniIndex, пред Live Science.

„Това може да тласне потребителите към конкретно съдържание, което е платило за по-високо разположение, дори ако не е най-подходящо, или може да държи потребителите ангажирани в дискусия с И за по-дълго, отколкото иначе може да им е необходимо. Това е така, защото в крайна сметка ИИ е проектиран да обслужва финансови и бизнес цели. Като такъв, той ще бъде също толкова манипулативен и също толкова контролиращ потребителите, както всяка друга част от технологията или бизнеса.“, Бейн каза.

TRUD_VERSION_AMP:2//
Публикувано от Труд news

Този уебсайт използва "бисквитки"