Chema Alonso, CDCO на Telefónica и известен експерт по сигурността, се появи звездно в Виртуален опит на OpenEXPO 2021 г., което той спонсорира в това осмо издание на събитието който е проведен онлайн. В това участие той също се възползва от възможността да обсъди интересна тема като deepfakes, генерирани от AI и новите предизвикателства, пред които е изправена киберсигурността с тези практики.
Със сигурност сте виждали някои видеоклипове, в които някой се появява с лицето на друг човек, казва или прави нещо, което човекът, на когото принадлежи това лице, не е казал или направил. Тези видеоклипове могат да бъдат получени по сравнително прост начин и те заливат интернет, особено социалните мрежи, и се използват като инструменти за потребителите. измами и кампании за дезинформация.
В OpenEXPO Virtual Experience 2021 те искаха да въведат нови теми в съответствие с текущата панорама на технологиите и отворения код, а сред тях и технологии като изкуствен интелект, Машинно обучение или Дълбоко обучение. Chema Alonso се фокусира върху дълбоките фалшификати, които могат да бъдат постигнати с помощта на тези технологии, и върху новите предизвикателства, пред които е изправена киберсигурността.
Предвид нарастването на тези фалшиви видеоклипове, които нараснаха от 15.000 2019 през 50.000 г. до почти 2020 XNUMX през XNUMX г. и продължават да растат, това стана въпрос за безпокойство. Освен това 96% от тези фалшиви фалшификати са порнографски видеоклипове, със сцени на явен секс, използвайки лицата на знаменитост, политик или влиятелен човек.
Изправен пред тази заплаха, както поясни Chema Alonso, трябва да се предприемат действия от два фронта: съдебен анализ на изображения и извличане на биологични данни. Речта му за OpenEXPO Virtual Experience 2021 се фокусира именно върху това, където той показва плъгин за Chrome, който е разработил заедно с екипа си, за да може да открива DeepFakes.
За своята работа разчита 4 основни стълба:
- FaceForensics ++: за тестване на изображения въз основа на модел и обучение на собствена база данни за подобряване на ефективността.
- Разкриване на DeepFake видеоклипове чрез откриване на артефакти за изкривяване на лицето- Откриване на ограничения с модел на CNN, тъй като сегашните алгоритми на AI често създават изображения с малко ограничени разделителни способности.
- Разкриване на дълбоки фалшификати с използване на непоследователни пози на главата: с помощта на модел HopeNet могат да бъдат открити несъответствия или грешки в позите на фалшивия модел, които се въвеждат при въвеждане на синтезираното лице.
- Изображенията, генерирани от CNN, са изненадващо лесни за откриване ... засега: Може да се потвърди, че текущите изображения, генерирани от CNN, споделят системни недостатъци.
Повече информация - Официален уебсайт на събитието