Google бори „измислиците“ на изкуствения интелект

Автор: Труд news

Наемат инженери за контрол на качеството на отговорите на AI Overviews

Намаляват риска за потребителите на услугата 

След поредица от инциденти, при които изкуственият интелект в търсачката на Google предоставяше неверни данни (от противоречиви оценки на компании до опасни медицински съвети) компанията официално започна да наема инженери, отговорни за качеството на отговорите на изкуствения интелект.

В обява за работа компанията обяснява, че се стреми да преосмисли самия процес на извличане на информация, което изисква решаването на сложни инженерни проблеми, без да се губи гъвкавостта на услугата за търсене. Новите служители ще отговарят за качеството на отговорите на изкуственият интелект, по-специално за функцията на AI Overviews. Както отбелязва BleepingComputer, това е първият път, в който Google косвено признава необходимостта от подобряване и усъвършенстване на тази функция.

Проблемът стана особено забележим след неотдавнашна актуализация, когато Google започна по-активно да насочва потребителите към така наречения AI Mode и да интегрира AI Overviews в канала Discover, включително автоматична преработка на заглавията на новинарските статии. Въпреки напредъка в точността на отговорите през последните месеци обаче, системата продължава да допуска грешки.

Например, журналист от BleepingComputer поискал информация за стойността на определен стартъп и получил отговор от AI, който посочил стойност от 4 млн. долара. С леко преформулиране на въпроса оценката на компанията се оказала по-висока от 70 млн. долара. Допълнителна проверка на генерираните от Google линкове обаче показа, че нито един от тези отговори не отговаря на действителността. По-лошото е, че подобни случаи не са изолирани. По-рано беше съобщено, че AI може да даде на потребителите подвеждащи или потенциално опасни медицински съвети, което увеличава риска за потребителите, склонни да се доверяват на информация от Google без допълнителна проверка.

Най-четени