Британско-канадският компютърен учен, често наричан „кръстникът“ на изкуствения интелект, увеличи шансовете AI да унищожи човечеството през следващите три десетилетия, предупреждавайки, че темпът на промяна в технологията е „много по-бърз“ от очакваното.
Професор Джефри Хинтън, който тази година получи Нобелова награда за физика за работата си в областта на изкуствения интелект, каза, че има „10 до 20“ процента шанс изкуственият интелект да доведе до изчезване на хората през следващите три десетилетия.
По-рано Хинтън каза, че има 10% шанс технологията да предизвика катастрофален резултат за човечеството.
Запитан в програмата Today на BBC Radio 4 дали е променил анализа си за потенциален AI апокалипсис и вероятността едно на 10 това да се случи, той каза: „Не, всъщност вероятността е 10 до 20 процента.“
Оценката на Хинтън накара гост-редактора на Today, бившия канцлер Саджид Джавид, да каже „вие повишавате прогнозата си", на което Хинтън отговори: „Виждате ли, никога преди не ни се е налагало да се занимаваме с неща, по-интелигентни от нас."
Той добави: „ Колко примера знаете за по-интелигентно нещо, контролирано от по-малко интелигентно нещо? Има много малко примери. Имаме майката и бебето. Но еволюцията положи много усилия, за да позволи на бебето да контролира майката. Това е почти единственият пример, за който се сещам."
Роденият в Лондон Хинтън, почетен професор в университета в Торонто, каза, че хората биха били като малки деца в сравнение с интелигентността на изключително мощните AI системи.
„Представете си себе си и тригодишно дете. Ние ще бъдем тригодишните“, каза той.
AI може да се дефинира свободно като компютърни системи, изпълняващи задачи, които обикновено изискват човешки интелект.
Миналата година Хинтън влезе в новинарските заглавия, след като подаде оставка от работата си в Google, за да говори по-открито за рисковете, породени от неограниченото развитие на ИИ, цитирайки опасения, че „хора с нечисти намерения“ ще използват технологията, за да навредят на другите. Ключова загриженост на активистите за безопасност на ИИ е, че създаването на изкуствен общ интелект или системи, които са по-умни от хората, може да доведе до това, че технологията представлява екзистенциална заплаха, като в един момент ще започне да избягва човешкия контрол.
Размишлявайки върху това докъде е смятал, че ще стигне развитието на AI, когато за първи път е започнал работата си по AI, Хинтън каза: „Не мислех, че ще стигнем там, където сме сега. Мислех, че в някакъв момент в бъдещето ще стигнем до тук. Ситуацията, в която се намираме сега, е, че повечето от експертите в тази област смятат, че някъде, вероятно през следващите 20 години, ще разработим ИИ, които са по-умни от хората. И това е много страшна мисъл."
Хинтън каза, че темпото на развитие е „много, много бързо, много по-бързо, отколкото очаквах“ и призова за държавно регулиране на технологията.
„Притеснявам се, че невидимата ръка няма да ни държи в безопасност. Така че простото позоваване на мотива за печалба на големите компании няма да е достатъчно, за да се гарантира, че те го развиват безопасно“, каза той. „Единственото нещо, което може да принуди тези големи компании да направят повече изследвания за безопасността, е държавното регулиране.“
Хинтън е един от тримата „кръстници на AI“, които са спечелили наградата ACM AM Turing – еквивалентът на Нобеловата награда за компютърни науки – за своята работа. Въпреки това, един от триото, Ян Лекун, главният учен по изкуствен интелект в Meta на Марк Зукърбърг, омаловажава екзистенциалната заплаха и каза, че изкуственият интелект „всъщност може да спаси човечеството от изчезване“.
Коментари
Регистрирай се, за да коментираш