ЕК предложи законопроект за надежден изкуствен интелект

Снимка: Архив

Европейската комисия предложи нови правила и действия за постигане на надежден изкуствен интелект (ИИ). Съчетанието от първото по рода си законодателство за ИИ и новият план осигуряват безопасността и основните права на хората и предприятията, се посочва в съобщението на комисията.

Новите правила целят да осигурят доверието на европейците и ще обхванат опасностите от системите с ИИ. Планът представя необходимите промени в политиката и инвестициите за укрепване на водещото място на Европа в развитието на ИИ.

Новите правила се предвижда да се прилагат пряко и еднакво във всички държави от ЕС въз основа на насочено към бъдещето определение за ИИ. Системите с ИИ, които са несъмнена заплаха за безопасността, поминъка и правата на хората, ще бъдат забранени. Това включва системите и приложенията с ИИ, които манипулират човешкото поведение с цел заобикаляне на свободната воля на потребителите.

Системите с ИИ, определени като много опасни, включват технологиите с ИИ, използвани при критични инфраструктури (например превози), които биха могли да изложат живота и здравето на гражданите на опасност; образование и професионално обучение, което може да определи достъпа на хора до образование и професионално развитие (например оценяване на изпитни резултати); свързани с безопасността части на изделията (например приложение с ИИ в роботизираната хирургия); заетост, управление на работници и достъп до самостоятелна заетост (например софтуер за подбор на професионални автобиографии при наемане на работа); основни частни и обществени услуги (например кредитни оценки, които лишават гражданите от възможността да получат определен кредит); правоприлагане, което може да засегне основните права на гражданите (например оценка на надеждността на доказателства); управление на миграцията, убежището и граничните проверки (например проверка на истинността на документи за пътуване); правораздаване и демократични процеси (например прилагане на закона към конкретен набор от факти).

Опасните системи с ИИ ще бъдат подлагани на строги изисквания преди да могат да бъдат пуснати на пазара - адекватна оценка на заплахата и системи за нейното ограничаване; високо качество на наборите от данни, захранващи системата, с цел минимизиране на опасносттите и дискриминационния резултат; поддържане на записи за дейността, за да се осигури проследимост на резултатите; подробна документация с цялата необходима информация за системата и целта й, за да могат властите да оценят нейното съответствие; ясна и адекватна информация за потребителя; подходящ човешки надзор за минимизиране на опасностите; висока степен на устойчивост, сигурност и точност.

Всички системи за биометрична идентификация от разстояние се възприемат като особено опасни и подлежат на строги изисквания. Използването им в реално време на обществени места за целите на правоприлагането по правило е забранено. Допуснатите неголеми изключения са строго определени (например когато това е строго необходимо за издирването на изчезнало дете, за предотвратяване на конкретна и непосредствена терористична заплаха или за откриване, идентифициране или подвеждане под съдебна отговорност на извършител или заподозрян в извършването на тежко престъпление). За подобно използване трябва да бъде получено разрешение от съдебен или друг независим орган, и то да бъде съответно ограничено във времето, пространството и претърсваните бази данни.
При използването на системи с ИИ като чатботовете потребителите следва да бъдат наясно, че взаимодействат с машина, за да могат да вземат решение дали да продължат взаимодействието или да се откажат. В предложението се допуска свободното използване на приложения като видеоигри с ИИ или филтри за спам. Огромната част от системите с ИИ попадат в тази категория, пояснява комисията. Предлага се също националните власти за надзор на пазара да следят за прилагането на новите правила.

Законопроектът подлежи на одобрение от Съвета на ЕС и от Европейския парламент.

Следете Trud News вече и в Telegram

Коментари

Регистрирай се, за да коментираш

Още от Европа