Изкуственият интелект крие рискове! Евродепутатите искат да се осигури справедлива и безопасна употреба от потребителите
Изкуственият интелект крие рискове
Евродепутатите
искат да се осигури справедлива и безопасна употреба
от потребителите
Европейският парламент призовава за силен набор от права за защита на потребителите в контекста на изкуствения интелект и автоматизираното вземане на решения. Депутатите одобриха резолюция, в която се посочват няколко предизвикателства, произтичащи от бързото развитие на изкуствения интелект, със специален акцент върху защитата на потребителите.
Машинните алгоритми могат да обработват масиви от данни с точност и бързина, които са непосилни за хората. Това прави приложенията, използващи изкуствен интелект, все по-популярни в области като финансите, здравеопазването, образованието, правото и други. Но ако липсва човешки контрол при вземането на решения, лесно могат да възникнат проблеми. Машините се учат да разпознават модели в бази от данни. Ако в данните са заложени определени предразсъдъци, алгоритмите продължават да ги възпроизвеждат в бъдеще.
Изкуственият интелект все повече се използва за създаването
на автоматизирани системи за вземане на решения.
В много случаи това има силно отражение върху хората, които влизат в контакт с
тези системи – например при отпускане на кредити, при разглеждане на
кандидатури за работа, при лечение или по правни въпроси. Автоматизираните
системи могат да доведат до засилване и утвърждаване на социални разделения –
установени са случаи с някои алгоритми за наемане на работа, които
дискриминират жените.
Развитието на автоматизирани модели за вземане на решения повдига въпроси за това как да се спечели доверието на потребителите и да се гарантира, че техните интереси са взети предвид. Когато потребителите влизат в контакт с автоматизирани системи, те трябва да бъдат добре информирани как точно функционира алгоритъмът и за начина, по който решенията на системата могат да бъдат проверявани и коригирани.
Тези системи трябва да използват само висококачествени и безпристрастни набори от данни и „разбираеми и безпристрастни алгоритми“, гласи резолюцията. Трябва да бъдат създадени механизми за преглед за отстраняване на евентуални грешки в автоматизираните решения. Трябва също така да бъде възможно потребителите да търсят по съдебен ред обезщетение за окончателни и постоянни автоматизирани решения.
„Хората винаги трябва да носят крайната отговорност за предложените от изкуствения интелект решения и да могат да отменят решения, взети в контекста на професионални услуги, като например в медицинските, правните и счетоводните професии, както и в банковия сектор“, подчертават евродепутатите.
Парламентът призовава за схема за оценка на риска на изкуствения интелект и автоматизираното вземане на решения и за общ подход на ЕС, който да допринесе за гарантирането на ползите от тези процеси и смекчаването на рисковете в целия ЕС.
Евродепутатите призовават ЕК да представи предложения за адаптиране на правилата на ЕС за безопасност на продуктите (напр. директивите относно безопасността на машините и на детските играчки), за да се гарантира, че потребителите са информирани относно използването на тези продукти и са защитени от вреди, като същевременно производителите са наясно със своите задължения.
Съгласно законодателството на ЕС търговците трябва да информират потребителите, в случай че цената на стоките или услугите е персонализирана въз основа на автоматизираното вземане на решения и профилиране на потребителското поведение. Евродепутатите искат ЕК да следи отблизо прилагането на тези правила. ЕС трябва също така да гарантира, че автоматизираното вземане на решения не се използва неправомерно за дискриминация на потребителите въз основа на тяхната националност, място на пребиваване или временно местонахождение.
На 19 февруари 2020 г. резолюцията е изпратена на Съвета на ЕС (държавите членки) и на ЕК, които трябва да вземат предвид позицията на евродепутатите за подхода към изкуствения интелект и автоматизираното вземане на решения.