Ось як швидко виявити глибоке фейкове криптошахрайство — спеціалісти з кібербезпеки

Криптоінвесторів закликають не відривати очі від майбутніх «глибоких» криптошахрайств, оскільки технологія цифрових двійників продовжує розвиватися, що ускладнює для глядачів відокремлення правди від вигадки.

Девід Швед, головний операційний директор фірми безпеки блокчейнів Halborn, сказав Cointelegraph, що криптоіндустрія більш «вразлива» до дипфейків, ніж будь-коли, тому що «час має важливе значення для прийняття рішень», що призводить до того, що для перевірки правдивості відео витрачається менше часу.

Віддайте свій голос зараз!

За словами технічного автора OpenZeppelin Влада Естоупа, Deepfakes використовує глибоке навчання штучного інтелекту (ШІ) для створення високореалістичного цифрового контенту шляхом маніпулювання та зміни оригінальних медіа, наприклад міняючи обличчя у відео, фотографіях та аудіо.

Естоуп зазначив, що криптошахраї часто використовують технологію deepfake для створення підроблених відео відомих особистостей для здійснення шахрайства.

Прикладом такого шахрайства було глибоке фейкове відео колишнього генерального директора FTX Сема Бенкмана-Фріда в листопаді 2022 року, де шахраї використовували старі кадри інтерв’ю Бенкмана-Фріда і емулятор голосу, щоб направляти користувачів на шкідливий веб-сайт, який обіцяє «подвоїти вашу криптовалюту».

Швед сказав, що мінлива природа криптовалюти змушує людей панікувати та застосовувати підхід «краще перестрахуватися, ніж шкодувати», що може призвести до того, що вони втягнуться в шахрайство з глибокими фейками. Він зазначив:

«Якщо буде опубліковано відео CZ, у якому стверджується, що зняття коштів буде припинено протягом години, чи збираєтеся ви негайно зняти свої кошти, чи витратите години на те, щоб з’ясувати, чи повідомлення правдиве?»

Проте Естоуп вважає, що хоча технологія deepfake розвивається швидкими темпами, її ще не «невідрізнити від реальності».

Як розпізнати дипфейк: стежте за очима

Швед пропонує один корисний спосіб швидко розпізнати дипфейк — спостерігати, коли об’єкт кліпає очима. Якщо це виглядає неприродно, є велика ймовірність, що це діпфейк.

Це пов’язано з тим, що дипфейки генеруються за допомогою файлів зображень, отриманих в Інтернеті, де суб’єкт зазвичай має розплющені очі, пояснює Швед. Таким чином, у дипфейку потрібно імітувати моргання очей суб’єкта.

Швед сказав, що найкращий ідентифікатор, звичайно, це задавати запитання, на які може відповісти лише реальна людина, наприклад: «у якому ресторані ми зустрічалися на обід минулого тижня?»

Естоуп сказав, що є також доступне програмне забезпечення зі штучним інтелектом, яке може виявляти глибокі фейки, і пропонує звернути увагу на значні технологічні вдосконалення в цій галузі.

Він також дав давню пораду: «Якщо це надто добре, щоб бути правдою, то, ймовірно, так і є».

пов’язані: “Ура!” Ілон Маск застерігає користувачів від останнього глибокого фальшивого шахрайства з криптовалютою

Минулого року головний спеціаліст із комунікацій Binance Патрік Хіллман оголосив у серпні 2022 р. блог повідомлення про те, що було здійснено витончене шахрайство з використанням його глибокого фейку.

Хіллман зазначив, що команда використовувала попередні інтерв’ю в новинах і виступи на телебаченні протягом багатьох років, щоб створити дипфейк і «обдурити кількох високоінтелектуальних учасників криптовалюти».

Він дізнався про це лише тоді, коли почав отримувати онлайн-повідомлення з подякою за те, що він приділяв час розмові з командами проекту про потенційне розміщення їхніх активів на Binance.com.

Раніше цього тижня фірма безпеки блокчейнів SlowMist відзначила, що вони були 303 інциденти безпеки блокчейну у 2022 році, причому 31,6% з них спричинені фішингом, перетягуванням килимів та іншим шахрайством.