Този сайт използва бисквитки (cookies). Ако желаете можете да научите повече тук. Разбрах

Deprecated: Function eregi_replace() is deprecated in /var/www/sites/asen/COMMON/procedures/class.FunctionsCommon.php on line 531

Deprecated: Function eregi_replace() is deprecated in /var/www/sites/asen/COMMON/procedures/class.FunctionsCommon.php on line 534

Deprecated: Function eregi_replace() is deprecated in /var/www/sites/asen/COMMON/procedures/class.FunctionsCommon.php on line 537

Deprecated: Function eregi_replace() is deprecated in /var/www/sites/asen/COMMON/procedures/class.FunctionsCommon.php on line 540

Deprecated: Function eregi_replace() is deprecated in /var/www/sites/asen/COMMON/procedures/class.FunctionsCommon.php on line 544

Deprecated: Function eregi_replace() is deprecated in /var/www/sites/asen/COMMON/procedures/class.FunctionsCommon.php on line 548

Deprecated: Function eregi_replace() is deprecated in /var/www/sites/asen/COMMON/procedures/class.FunctionsCommon.php on line 552

Deprecated: Function split() is deprecated in /var/www/sites/asen/pcw/procedures/class.Add.php on line 367

Предубеден ли е софтуерът за лицево разпознаване към различните раси и полове?

Полът се идентифицира погрешно при по-малко от един 1%, когато става дума за мъже с по-светла кожа на лицето, и при 35% от тъмнокожите жени

12 февруари 2018
4123 прочитания
0 одобрения
2 неодобрения

Нови изследвания на MIT подчертават това, за което други експерти вече алармираха по-рано - технологията за лицево разпознаване е жертва на предубеждения въз основа на предоставените данни за обучение и условията, при които се създават алгоритми.

Джой Буламуини, изследовател в MIT Media Lab, наскоро създава набор от данни за 1270 души, използвайки лица на политици, избрани въз основа на мястото, което заема тяхната страна в класациите за равнопоставеност между половете (с други думи, такива, в които има значителен брой жени на публични длъжности). След това тя тества точността на три системи за лицево разпознаване – на Microsoft, на IBM и на китайската компания Megvii. Резултатите, първоначално публикувани от The New York Times, показват неточности при идентификацията на пола, в зависимост от цвета на кожата на човека.

Прочетете още: Маска може да заблуди технологията Face ID в Apple iPhone X

Технологията за лицево разпознаване е жертва на предубеждения въз основа на предоставените данни за обучение и условията, при които се създават алгоритми.

Полът е идентифициран погрешно при по-малко от 1%, когато става дума за мъже с по-светла кожа на лицето, като при жените с подобна пигментация процентът на грешките достига до 7%. При мъже с по-тъмна кожа грешки се получават при 12% от случаите, а при жените от тази група грешните идентификации надхвърлят 1/3 от случаите – 35%.

Като цяло, мъжките субекти бяха класифицирани по-точно от женските, което потвърждава резултатите на предходни изследвания. В същото време, лицата с по-светла кожа бяха по-точно класифицирани от тези на по-тъмните индивиди", пише Буламуини в доклада си за изледването, в което тя си партнира с изследователя от Microsoft – Тимнит Гербу, и добавя, че секторната разбивка сочи, че технологията за разпознаване на лица работи най-неточно, когато става дума за жени с по-тъмен цвят на кожата.

Това далеч не е първият път, в който тази технология дава дефекти. Излседването на MIT Media Lab обаче е поредното доказателство, че е необходимо по-голямо разнообразие при окомплектоването на данните за обучение, както и сред хората, които създават и внедряват системите за лицево разпознаване, за да могат алгоритмите да имат сходни нива на акуратност независимо от расата или други идентификатори.

През 2015 г. например се наложи Google да се извинява публично, след като техен софтуер за обработка на снимки и лицево разпознаване определи двама афроамериканци като “горили”. Тогава от компанията обещаха да фиксират проблема, но всичко, което направиха, беше да премахната думата “горила” от индекса на търсачката в приложението си.

Преди две години пък списание The Atlantic съобщи за това как технологията за лицево разпознаване, използвана за целите на правоприлагането, "непропорционално въвлича афроамериканци". Това е и едно от най-големите опасения около тази все още прохождаща технология - че невинни хора могат да станат заподозрени в престъпления поради неточности в системата. Буламуини и Гербу също предупреждават в своя доклад, позовавайки се на едногодишно изледване, проведемо в 100 полицейски управления, че "афро-американците по-често биват спирани от правоохранителните органи и подлагани на лицево разпознаване, отколкото представителите на други етноси".

Материалът на The Atlantic обръща внимание също така, че други изследвания в миналото показват, че алгоритмите, разработени в Азия, са по-склонни да идентифицират точно азиатските народи, отколкото тези от други части на света, а европейските и американските разработки са по-точни при разпознаването на хора с бял цвят на кожата.

Алгоритмите не са преднамерено предубедени, но повече изследвания подкрепят тезата, че трябва да се вложат много повече усилия в ограничаването на тези отклонения. "Тъй като технологията за компютърно зрение се използва във високорискови сектори, като здравеопазването и правоприлагането, тя трябва да разчита на по-добри алгоритми, когато става дума за сравнения на различни демографски и етнически групи", категорични са Буламуини и Гербу.

0 одобрения
2 неодобрения
Още от рубрика "Защита и сигурност"
КОМЕНТАРИ ОТ  
Трябва да сте регистриран потребител, за да коментирате статията
"Предубеден ли е софтуерът за лицево разпознаване към различните раси и полове?"



    

абонамент за бюлетина