Боротьба з глибокими фейками «перетворилася на аррасу»


Луїза Брудер ніколи не забуває обличчя. Це не тільки зручне вміння на вечірках, але й допомогло їй побудувати кар’єру.

Вона має чудову посаду суперрозпізнавача, і її робота в британській фірмі цифрових посвідчень Yoti включає порівняння фотографій на документі, що посвідчує особу, із завантаженим селфі, щоб визначити, чи це та сама особа.

Луїза Брудер каже, що хоча штучний інтелект можна використовувати для боротьби з глибокими фейками, створеними штучним інтелектом, люди-перевірники завжди будуть потрібні
Луїза Брудер каже, що хоча штучний інтелект можна використовувати для боротьби з глибокими фейками, створеними штучним інтелектом, люди-перевірники завжди будуть потрібні

Але Yoti, як і інші фірми, що займаються ідентифікацією, стикається з новою загрозою — виявленням так званих глибоких фейків. Це підроблені зображення, створені за допомогою програмного забезпечення на основі штучного інтелекту.

Луїза каже мені, що її ще не просили оцінювати deepfakes як частину її щоденної роботи, але фірма добре усвідомлює цю загрозу. Тому вона активно працює над технологією, яка допоможе їх виявити.

Випробовуючи свої навички у вікторині BBC Deepfake, вона набрала сім балів із восьми. «В очах людей є мертвість, яка насправді означає, що вони не виглядають справжніми», — каже Луїза.

Бен Колман є керівником Reality Defender, американської фірми, яка надає технологію для виявлення глибоких фейків, і він вважає, що незабаром Луїзі буде важко відрізнити правду від фейку.

Бен Колман попереджає, що технологія deepfake стає дедалі складнішою
Бен Колман попереджає, що технологія deepfake стає дедалі складнішою

«Я б сказав, що за останні дев’ять місяців навіть найкращим фахівцям стало майже неможливо відрізнити реальне від створеного штучним інтелектом. Для цього нам потрібне програмне рішення», — каже він.

Колман розрізняє справді складні глибокі фейки, які можуть бути застосовані національною державою для створення дезінформації, і те, що він називає «дешевими фейками», за допомогою яких злочинці використовують готове програмне забезпечення ШІ.

Викликає занепокоєння те, що навіть дешеві підробки «все ще достатньо хороші, щоб обдурити людей, особливо в зображеннях і аудіо», каже він. Відео, однак, «ще трохи складніше та вимагає набагато більше обчислень».

Рішення, яке пропонує його фірма, може сканувати та позначати представлення штучного інтелекту на зображенні, відео чи аудіо. Клієнтами є уряд Тайваню, НАТО, медійні організації та великі банки.

Хоча дипфейки відео чи зображень частіше потрапляють у заголовки, також зростає страх лише щодо аудіо. Наприклад, злочинці надсилають записи голосу за допомогою голосу людини, щоб сказати щось на кшталт «Мамо, я загубив свій телефон, будь ласка, перенесіть гроші на цей рахунок зараз».

Зібрати голосові кліпи з чийогось облікового запису в соціальних мережах або на YouTube – це легко, і лише кількох секунд аудіо достатньо, щоб клонувати голос і використовувати його для створення речень, яких ця особа ніколи не говорила.

Деяке готове програмне забезпечення навіть дозволяє користувачам «набирати» рівень стресу голосом. Ця техніка використовувалася, щоб обдурити батьків у реальних випадках, коли батьки вірили, що їхню дитину викрали.

Сівей Лю — професор Університету Буффало в США, який багато років вивчав дипфейки з кінцевою метою розробити алгоритм, який допоможе автоматично їх ідентифікувати та викривати.

Алгоритм навчений виявляти крихітні відмінності – очі, які дивляться не зовсім у правильному напрямку, або, у випадку штучно створеного голосу, відсутність ознак дихання.



Коментарі

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *