19 ноември, 2019

Налице е нарастващата загриженост, че много от алгоритмите вземат решения за живота. Примерите в интернет са много и затова колко е вероятно да станем жертви или подбудители на престъпността, зависи от определени кръгове от хора.

Много компании разработват инструменти, които ще анализират как и защо алгоритмите вземат решения в реално време. Kit Fairness 360 на IBM например ще сканира за признаци на предразсъдъци. Обществото е загрижено, че алгоритмите, използвани както от големите компании, така и от други фирми, не винаги са справедливи при вземането на решения. Например в миналото системите за разпознаване на изображения не са успявали да идентифицират лица.

Въпреки това, те все повече правят автоматизирани решения за голямо разнообразие от въпроси като полицейска дейност, застрахователни дейности, социални мрежи и каква информация хората виждат онлайн. Последиците от техните препоръки стават все по-широки. В Англия може да забележите камерите, които са с максимална видимост към всяка част от по-оживените булеварди. Така се следи лесно кой как се движи по улицата и чрез алгоритъм се изчислява кои са необичайните маршрути и дейности на минувачите. Често алгоритмите действат в рамките на това, което е известно като “черна кутия” – което означава, че техните собственици не могат да видят как се вземат решения.

Машинното обучение и етиката стават все по-важен въпрос в общността на AI. Microsoft и IBM заявиха, че работят върху набор от инструменти за откриване на пристрастия, а Facebook, че тества инструмент, който да му помогне да определи дали даден алгоритъм е сигурен в решенията си. Част от проблема е, че огромното количество алгоритми за данни са обучени не винаги е достатъчно разнообразно.

Решението на проблемите все още се търси, а същността му наподобява AI платформата Moral Machine. Дали е етично или незаконно, дали човекът, който “дърпа ръчката” трябва да чувства вина и ще се чувства ли виновна машината, ако е подложена на същата ситуация? Все пак общностите за AI и machine learning работят по тези проблеми, дори вече има известни резултати.

Джой Буломовини стартира Лигата за алгоритмична справедливост (AJL), докато пише следдипломна квалификация по темата в MIT през 2016 г., след като откри, че разпознаването на лицето се забелязва само, ако носи бели маски. Google заяви, че е “ужасен и истински съжалява”, когато бе открит неговият фото алгоритъм, който неправилно идентифицира афроамериканците като горили през 2015 г.

Също така бяха изразени опасения относно липсата на разнообразие в технологичния сектор, което допринася за неволно пристрастие в алгоритмите. Възприет е и потенциалът за алгоритми за подобряване на ефективността и вземането на решения за подпомагане.

Алгоритмите позволяват да се правят дейности с по-малко ресурс. Така че, ако става въпрос за полицейски решения, може да се окаже много полезно за случаите, в които алгоритъмът е разчел ситуацията и изпраща ресурса, който е нужен за ситуацията. Правителствата и големите компании искат да знаят как мислим, какво си купуваме, какъв е нашият маршрут, но без човешка намеса машините ще трябва да взимат тежки решения, които няма да са етични, въпреки че се очаква повече професии да бъдат заменени с роботи или алгоритми, все пак някои ще останат под човешки надзор. Поне така се говори.

Атанас Нейчев

 

Тагове: , ,