“Створити саундалік, щоб обдурити ваші банки чи близькі. Нам потрібна промисловість та уряд, щоб це виправити.”, – Напишіть: www.washingtonpost.com
Альтман має рацію звучати тривогу про голоси, що генеруються AI, які можуть представити себе, в тому числі у дзвінках з обслуговування клієнтів до банків. Однак Альтман пропустив можливість підкреслити відповідальність компанії AI у боротьбі з новим шахрайством, яке допомогла його індустрія.
Альтман сильно впливовий у формуванні напрямку ШІ, як ми його використовуємо і в що ми віримо в це. Це дає додатковий пристрій тому, що він говорить, і не говорить про небезпеку ШІ.
Давайте поговоримо про ризики AI SoundAlikes, що обдурили ваш банк та інші – і що робиться, або слід зробити, щоб обмежити ці загрози.
Вам потрібні корпорації та уряди, щоб вступити, тому що ви не можете захистити себе від дешевих, легких для створення голосового самозванця AI. Наскільки ефективно компанії та чиновники керують чіткими ризиками AI, таких як шахрайство з імпостором, є вирішальним тестом того, чи може технологія обслуговувати наші найкращі інтереси.
Обдурити свій банк або бабуся і дідусь голосами AI
Але в минулому році або близько того, драматичне вдосконалення вільно доступного онлайн-програмного забезпечення AI дозволило створити реалістичне аудіо, що генерується AI, яке може говорити, як ви, за невеликі зусилля та без грошей,-сказав фахівець з АІ Генрі Айдер.
Шахрайству може просто потрібно кілька секунд власного записаного голосу, щоб зробити саундалік -самозванець. А в технології AI може бути мало або нульові огородження, щоб зупинити людей робити підробки голосу AI незнайомців чи знаменитостей.
“Ви не можете зупинити себе націлитись, в основному”, – сказав Айдер.
Цього тижня Альтман нлузує ризик голосового самозванця, спрямованого на ваші фінансові рахунки.
(The Washington Post має контент -партнерство з OpenAI.)
У кімнаті, повній банкірах на галузевому заході, він сказав, що, враховуючи ризики голосової підробки AI, банки були “божевільними”, щоб все -таки користуватися голосами клієнтів для перевірки їх особи. Альтман сказав, що AI Fakery робить безглуздо намагатися довести свою особу, використовуючи свій голос, селфі -зображення або багато інших звичайних способів.
“Я дуже нервую, що у нас є значна криза шахрайства через це”, – сказав він.
Я не міг підтвердити, які фінансові установи перевіряють особи клієнтів, порівнюючи голос на телефоні з записами, які вони мають у файлі. Експерти з технологій та фінансів сказали мені, що перевірка голосу є відносно поширеною в банках, але це, як правило, лише один із багатьох способів, що фінансова установа підтвердить вашу особу.
Що ви можете зробити – і де компанії повинні взяти на себе відповідальність
Якщо ви не впевнені, чи використовують ваші фінансові установи перевірку голосу, ви можете зателефонувати в службу обслуговування клієнтів, щоб запитати і сказати, що ви не хочете, щоб голосову автентифікацію була використана, запропонована Сюзанна Сандо, аналітик шахрайства та безпеки для радника фінансової галузі Javelin.
Хороша новина полягає в тому, що банки мають довгу історію боротьби з шахрайством і не потребували Альтмана, щоб сказати їм серйозно сприймати ризик передпільних імпосторів, технологій та фінансів, які мені сказали.
Центри обслуговування клієнтів у деяких банках та інших галузях використовують технології від стартапів, включаючи Pindrop, GetReal та Reality Defender, який набуває ймовірності того, що абонент є людиною чи машиною. Ейдер сказав, що технології виявлення AI недосконалі, і більшість надійних компаній будуть чесними щодо недоліків.
AJDER також сподівається на технологічний проект, який працює над тим, щоб вбудувати детальні докази в аудіо кліпи, відео та зображення, що відстежуються, коли і як вони були зроблені та що матеріал походить від реальної людини.
Майкл Рейтблат, генеральний директор компанії з запобігання шахрайству Forter, заявив, що компанії AI компанії розбирають гроші на комп’ютерні центри, високооплачувані дослідники та пільги AI. Це може допомогти, якби вони доклали стільки зусиль для анти-шахрайства,-сказав він.
І саме тут розмова Альтмана з банкірами могла піти по -іншому.
Принаймні, в цей момент Альтман не сказав, що повинні робити компанії AI, щоб допомогти боротися з голосовими шахрайством. (OpenAI відмовився випускати власну голосову технологію AI через ризики самозванців.) Альтман також не виступав за потенційне законодавство, яке краще захистило б нас.
Він значною мірою звинувачував банки і запропонував соціальні зміни високого рівня. Це як генеральний директор Exxon, який сказав, що планета впевнена, що стає гарячою, і хтось, мабуть, повинен це виправити.
OpenAI відповів, що через ризик виникнення голосів AI, компанія обережно переїхала та впровадила гарантії. “Ми спілкуємося з зацікавленими сторонами, такими як банки, щоб переконатися, що вони розуміють, куди йдуть можливості AI, тому вони, і ми можемо краще зрозуміти ризики та партнер у рішеннях”, – йдеться у повідомленні компанії.
На наступний день після розмови Альтмана Білий дім випустив “план дій”. Це не згадувало про шахрайство AI.