Фаворизира познатото, за сметка на оригиналното
Генеративният изкуствен интелект вече може да допринася за културна стагнация и уеднаквяване на идеите, показва ново научно изследване. Според учените, при продължителна и автономна употреба AI системите започват да произвеждат все по-еднообразно и безлично съдържание, което заплашва разнообразието в културата и творчеството. Проучването е публикувано този месец в научното списание Patterns и е проведено от международен екип изследователи. Те са изследвали какво се случва, когато генератор на изображения бъде свързан със система за описание на изображения и процесът се повтаря многократно без човешка намеса. Резултатът е постепенно „срутване“ към изключително сходни, стерилни и лишени от оригиналност визуални образи, които авторите описват като „визуална фонова музика в асансьор“, пише dir.bg.
Изследването повдига по-широк въпрос за бъдещето на културата в свят, в който изкуственият интелект все по-често създава и обработва съдържание, произведено от самия него. Генеративните модели разчитат на огромни масиви от данни, съставени основно от човешко съдържание, събрано от интернет. Учените обаче все още не знаят какво ще се случи, когато тези източници се изчерпат и моделите започнат масово да се обучават върху синтетични, AI-генерирани данни.
Предишни изследвания вече показват, че подобен затворен цикъл може да доведе до деградация на качеството на моделите. С натрупването на повторно използвано съдържание, изкуственият интелект започва да произвежда все по-безлични, шаблонни и често изкривени резултати.
Според професора по компютърни науки от Университета Рътгърс Ахмед Елгамал, който анализира резултатите в публикация за изданието The Conversation, това е поредното доказателство, че генеративният AI вече насърчава процес на културно уеднаквяване. По думите му, системите по подразбиране се насочват към хомогенност, когато се използват автономно и продължително. Особено притеснително е, че този ефект се наблюдава без допълнително обучение или въвеждане на нови данни. Според Елгамал „не е добавена никаква нова информация и не е научено нищо ново“, а сривът е резултат единствено от многократното използване на съществуващите модели. Рискът, според изследователите, не е само в това, че бъдещите модели ще се обучават върху AI-съдържание, а и че културата, филтрирана чрез алгоритми, започва да фаворизира познатото, описуемото и конвенционалното за сметка на оригиналното и изненадващото.