20 април, 2024

Компаниите трябва да помислят внимателно преди да внедрят базирани на изкуствен интелект системи за емоционален анализ, предупреди Службата на комисаря по информацията (ICO) на Обединеното кралство тази седмица.

Алгоритмите за машинно обучение, които претендират да предскажат настроенията и реакциите на човек използват компютърно зрение, за да проследяват погледи, движения на лицето и аудио обработка, за да преценят инфлексията и цялостното настроение. И поради съмнения за неточности може да възникнат проблеми с поверителността при обработката на данните.

Според заместник-комисарят на ICO Стивън Бонър, технологията не е надеждна, което води до системни пристрастия, неточности или дискриминация срещу конкретни социални групи. В своето изявление, Стивън Бонър споделя и загрижеността на ICO относно неправилния анализ на данни, който може да доведе до предположения и преценки за дадено лице, които са неточни и водят до дискриминация. 

Бонър отбеляза, че софтуерът за емоционален анализ често се съчетава с биометрични системи, събирайки и съхранявайки по-широк набор от лична информация отвъд изображенията на лицето. Доставчиците на софтуер често не са прозрачни за това как тези лични данни се обработват или съхраняват. За него единствените устойчиви биометрични внедрявания ще бъдат тези, които са напълно функционални, отговорни и подкрепени от науката. 

Британският надзорен орган за поверителност на данните се очаква да публикува доклад, описващ подробно как биометричните данни, включително лицево разпознаване, идентификация на пръстови отпечатъци и гласово разпознаване, трябва да се обработват от компаниите следващата година през пролетта.

Тагове: , , , , , , , , , , , , , , ,
Editor @ DevStyleR