17 октомври, 2019

Неведнъж сме засягали темата за опасността от deepfake видеа, гифчета – дори звукообработка. Това манипулирано съдържание може да се окаже мощен инструмент, който да повлияе негативно и да доведе до ужасяващи последици, ако попадне в грешните ръце. Представете си, че някой хакне националната система за бедствия и пусне в хола ви видео, в което обявява старта на Трета световна война. Ужасяващо, но и познато, нали.

Срещу тази и други потенциални заплахи се бори научната група от Университета Ривърсайд, Калифорния. Тяхната дълбока невронна мрежова архитектура може да идентифицира манипулирани изображения на пикселно ниво с висока точност. Ръководител на проекта е Рой-Чоудхури – професор по електротехника и компютърно инженерство в университета. 

За да създадат системата изследователите са вземи голям набор от автентични и манипулирани снимки и са маркирали граничните области между реалната и подправената част на изображението. Интересното в случая е, че с общи усилия са създали най-голямата до момента база от подобно съдържание. По този начин те са успели да научат невронната мрежа да разпознава границите между реалното и добавеното съдържание, както и да селектира изцяло фалшивата част. Макар че за момента системата работи само със снимки, учените са убедени, че след време ще успеят да я приложат и към видеа.

Тагове: , , , , , , ,