Помощник или противник
Мощен инструмент е за фишинг измами
Токсични въпроси получават токсични отговори
От появата му на 30 ноември 2022 г., ChatGPT е смятан за едно от най-големите постижения в сферата на изкуствения интелект. Все повече навлиза в ежедневието на хората и се превръща в пълноценен помощник, но както повечето технологии, ChatGPT също крие своите тъмни страни, въпреки невероятния си набор от функции.
„GPT“ в името означава Generative Pre-trained Transformer, което в превод означава модел за обучение на невронна мрежа, който позволява на машините да изпълняват задачи за обработка на естествен език. Мнозина вярват, че ChatGPT скоро ще свали Google от първото място като предпочитана търсачка. Той може да пише различни кодове много по-бързо и може би много по-точно от хората, както и да изпълнява и чисто артистични задачи като писане на поезия или текстове на песни.
Все по-често чуваме тезата, че изкуственият интелект ще замести работната ръка и страхът от това все повече се засилва след появата на ChatGPT. Той навлиза стремглаво в много професии и хората откровено започват да се притесняват за работните си места.
Например, преди няколко месеца, американски писател и копирайтър споделя в Twitter, че негов клиент е прекратил всякакви отношения с него относно писане на съдържание в уебсайта му, тъй като изкуствен интелект може да свърши същата работа безплатно.
Друг масов пример е, че ChatGTP спокойно може да бъде използван за фишинг измами. Тъй като той и алтернативни чатботове като него могат да пишат с фини детайли, те много лесно имат възможността да създадат фишинг имейл, който улавя желаната цел с идеята да сподели лични данни. Според автора на Forbes Бернард Мар, ChatGPT може автоматично да създава имейли, таргетирани конкретно за определена група хора или дори да бъдат индивидуални.
Изследователи на Recorded Future споделят, че способността на ChatGPT убедително да имитира човешки език му дава потенциала да бъде мощен инструмент за фишинг измами и социално инженерство. Изследователите тестват чатбота за кибер атаки и установяват, че той не допуска същите грешки, като например тези, свързани с правописа и граматиката, които са често срещани в подобни имейли. Езиковите грешки помагат на хората да разберат кога са получили фишинг имейли и при липсата на такива индикатори има много по-голям шанс потребителите да станат жертва на измами, изготвени от чатботове, и да ги накарат да споделят лична информация.
Най-големият портал за откриване на грешки в софтуер Stack Overflow временно забрани въпроси по проблеми, генерирани от чатбота, поради ниското качество на продукцията му.
И все пак системата изглежда твърде добра, за да е истина. Докато някои твърдят, че няма нужда да се учите да пишете програмен код, защото ChatGPT може да го направи вместо вас, сайтът за откриване на грешки в софтуера Stack Overflow временно забрани всякакви отговори на въпроси, генерирани от чатбота, поради лошото качество на отговорите му. „Публикуването на отговори, създадени от ChatGPT, е значително вредно за сайта и за потребителите, които питат или търсят правилни отговори“, казват модераторите на сайта.
Освен това ChatGPT страда от същите проблеми, които много чатботове имат - отразява обществото и всички пристрастия, които то има. Компютърният учен Стивън Пиантадоси, който ръководи изчислителната и езиковата лаборатория в Калифорнийския университет в Бъркли, подчертава редица проблеми с ChatGPT, където изкуственият интелект показва резултати, които предполагат, че „добрите учени“ са тези, които са бели или азиатски мъже и че животите на афроамериканските мъже не трябва да бъдат спасявани.
В отговор на Пиантадоси, Янг Джан, член на факултета в Центъра за информационна сигурност CISPA Helmholtz, който е съавтор на документ от септември 2022 г. как чатботовете (без ChatGPT) стават вредни за обществото, смята, че с този вид модели на чатботове, ако търсите определени токсични заявки, има вероятност да получите токсични отговори. „По-важното е, че ако търсите някои въпроси, които не са толкова токсични, все още има шанс това да даде токсичен отговор“, споделя опасенията си Джан.
Първоначалната идея за ChatGPT е да помага на хората в сферата на технологиите, но колкото повече се използва, толкова повече се злоупотребява с него. Въпреки всички тези тъмни страни на изкуствения интелект, масово хората продължават и ще продължат да го използват и с времето ще се опитват да го усъвършенстват, дори и с негативни цели. Този продукт е все още нов и само времето ще покаже какви други дълбоки тайни крие.