23 май, 2019

С напредъка на автоматизацията на уредите около нас, както и с бавния тласък на пробивите в създаването на изкуствен интелект, въпросът е дали нещо, което в продължение на години сме приемали за чисто човешко – моралността. Всичко това би могло да бъде дигитализирано. И по този начин вкарано в логическите връзки на процесор. Приписването на числа на моралност не е толкова нова практика. Ако човек се замисли, присъдите в затвор са точно това – числов израз на брой месеци, които човек бива наказан с престои в затворено пространство в отговор на неморалното му поведение.

По този начин моралността се превръща в сложен списък от правила, над които голяма част от хората се съгласяват. Този тип на мислене помага на Iyad Rahwan и неговите колеги от MIT, за да създадат онлайн платформата Moral Machine. В платформата хората от цял свят могат да дават моралните си преценки върху ситуации, в които автоматизирана кола трябва да вземе решение за съдбите на хората на пътя и на пътниците в колата. Примерен сценарий е дали колата да завие и да се удари в мантинела, убивайки шофьора и един пътник или да продължи и по този начин да убие двама възрастни човека и един млад.

Събраната дата изписва почти пълна карта на моралността на човечеството като цяло. Използвайки тази информация може да бъде създаден алгоритъм, който бързо да преценява относителната стойност на даден живот, по същия начин, по които хора седящи в спокойна среда с време за размисъл биха направили. Пред прилагането на подобна техника обаче стоят много проблеми, на първо място система, която да може рентабилно да засича условията на всеки от сценариите в реално време на пътя. Без достатъчно добър апарат за засичането и разграничаването между пешеходци и други обекти, дори и най-добрият алгоритъм би бил безполезен. На второ място са търканията между хората и дори производителите на коли.  Докато масово (над 70%) хората са съгласни колата да завие, убивайки мъж – за да спаси дете, резултатите в по-близки ситуации не са толкова решаващи, показващи едва 60% съгласие между хората за кое е морално правилното решение. От друга стана производители на коли не винаги искат да сложат система, която би могла да убие техните клиенти.

Все пак една от първите стъпки за осъществяване на подобен алгоритъм базиран на човешките оценки е вече действителност. Ассистент-професор Ariel Procaccia от  Carnegie Mellon University и негови колеги започват работа с Iyad Rahwan за осъществяването на прототипен модел, който е резултат на комбинацията на отделни модели научени чрез pairwise comparisons на предпочитанията на всеки един от гласувалите. Успешното сравнение на обединения модел с резултатите, събрани от Moral Machine показва теоретично, че кола, караща с обединената моралност на хиляди хора е възможно бъдеще. До колко такава кола е полезна е въпрос, на който само времето ще отговори.   

Тагове: , ,