Лошото управление на паролите се влошава от използването на често срещани комбинации от имена, речникови думи и числа
Глобалната компания за киберсигурност Kaspersky съветва да не се използват инструменти с изкуствен интелект като ChatGPT, Llama или DeepSeek за генериране на пароли поради установени слабости в сигурността.
Експерти предупреждават, че паролите, генерирани от изкуствен интелект, не винаги са толкова сигурни, колкото изглеждат.
Призивът за предпазливост е резултат от вътрешен анализ на пароли, генерирани от популярни големи езикови модели, което повдига опасения относно действителната случайност и сила на паролите, генерирани по този начин. Според Kaspersky, генерираните от изкуствен интелект пароли могат да съдържат модели или предвидими елементи, които биха могли да ги направят по-уязвими за кибератаки, предава securitybrief.com.au.
Тестването на 1000 пароли, генерирани от модели, включително ChatGPT, Llama и DeepSeek, установи, че значителна част от тях не отговарят на стандартите на Kaspersky. По-конкретно, 88% от паролите от DeepSeek и 87% от Llama са счетени за недостатъчно надеждни. Дори паролите от ChatGPT, които се представиха малко по-добре, бяха открити като неефективни в 33% от случаите.
"Повечето онлайн услуги и приложения изискват потребителят да създаде парола. Вероятно много от тези пароли не се използват ежедневно и поради това изобилие има голяма вероятност някои от тях да бъдат използвани повторно. Лошото управление на паролите се влошава от използването на често срещани комбинации от имена, речникови думи и числа. Тези пароли са сравнително лесни за разбиване и ако киберпрестъпник получи достъп до една от тях, той може да получи достъп до множество други акаунти", обясняват специалистите на компанията.
Поради тази причина се препоръчва потребителите да създават уникални и произволни пароли, за да намалят уязвимостта, причинена от повторното използване на едни и същи пароли. Създаването и управлението на пароли обаче може да бъде трудна задача. За да улеснят този процес, мнозина може да се изкушат да се обърнат към големи езикови модели като ChatGPT, Llama или DeepSeek, за да генерират пароли.
"Привлекателността е очевидна: вместо да се мъчат да създадат силна парола, потребителите могат просто да помолят изкуствения интелект да "Генерира сигурна парола" и незабавно да получат резултат. Изкуственият интелект генерира привидно произволни комбинации, избягвайки човешката склонност да създава предвидими пароли въз основа на познати думи. Но външният вид може да заблуждава – паролите, генерирани от изкуствен интелект, не винаги са толкова сигурни, колкото изглеждат", предупреждават от Kaspersky.
Специалистите тестваха това, като генерираха хиляда пароли, използвайки някои от най-известните и надеждни модели: ChatGPT (от OpenAI), Llama (от групата Meta), DeepSeek (скорошен модел от Китай). Всички модели знаят, че добрата парола трябва да е с дължина поне 12 знака, да съдържа главни и малки букви, цифри и символи. Те също споменават това в процеса на генериране на парола.
През 2024 г. един от изследователите на Kaspersky разработи алгоритъм за машинно обучение, за да тества сложността на паролите и установи, че почти 60% от тях могат да бъдат разбити за по-малко от час, използвайки съвременни графични карти или облачни инструменти за разбиване. Приложени към пароли, генерирани от изкуствен интелект, резултатите бяха тревожни: 88% от паролите, генерирани от DeepSeek и 87% от Llama, не бяха достатъчно сигурни, за да издържат на сложна атака. ChatGPT се представи малко по-добре, но въпреки това 33% от паролите му не преминаха теста за сигурност на Kaspersky.