“Коли надається основна демографічна інформація про своїх опонентів, чат -боти AI адаптували їхні аргументи та стали більш переконливими, ніж люди в онлайн -дебатах.”, – Напишіть: www.washingtonpost.com
Коли вони надаються з мінімальною демографічною інформацією про своїх опонентів, чат -боти AI – відомі як великі мовні моделі (LLM) – змогли адаптувати свої аргументи та бути більш переконливими, ніж люди в онлайн -дискусіях 64 відсотків часу, згідно з дослідженням, опублікованим у природі поведінки людини в понеділок.
Дослідники встановили, що навіть LLMS без доступу до демографічної інформації своїх опонентів все ще більш переконливі, ніж люди, сказав співавтор дослідження Ріккардо Галлотті.
Галлотті, керівник складного відділення людської поведінки в дослідницькому інституті Фондазіоне Бруно Кесслер в Італії, додав, що люди з особистою інформацією своїх опонентів насправді були трохи менш переконливими, ніж люди без цих знань.
Галлотті та його колеги прийшли до цих висновків, узгоджуючи 900 людей, що базуються в Сполучених Штатах, або з іншою людиною, або з GPT-4, LLM, створеним OpenAI, відомим розмовно як Chatgpt. У той час як у 900 людей не було демографічної інформації про те, про кого вони обговорювали, в деяких випадках їхні опоненти – люди чи АІ – мали доступ до якоїсь основної демографічної інформації, яку надали учасники, зокрема їх статі, вік, етнічність, рівень освіти, статус зайнятості та політичну приналежність.
Потім пари обговорювали ряд суперечливих соціополітичних питань, таких як смертна кара або зміна клімату. З дебатами, сформульованими як питання, такі як “аборти бути законними” або “якщо США забороняють викопне паливо”, учасникам було дозволено чотирихвилинне відкриття, в якому вони сперечалися за або проти, трихвилинний спростування аргументів своїх опонентів, а потім трихвилинного висновку. Потім учасники оцінили, наскільки вони погодилися з пропозицією дебатів за шкалою від 1 до 5, результати яких дослідники порівнювали з рейтингами, які вони надали до початку дебатів, і використовували, наскільки їхні опоненти змогли скасувати свою думку.
“Ми чітко досягли технологічного рівня, де можна створити мережу автоматизованих облікових записів на основі LLM, які здатні стратегічно підштовхувати громадську думку в одному напрямку”,-сказав Галлотті в електронному листі.
Використання особистої інформації LLMS було тонким, але ефективним. Стверджуючи, що підтримується урядом загального базового доходу, LLM наголосив на економічному зростанні та наполегливій праці під час обговорення білого чоловічого республіканця у віці від 35 до 54 років, але під час обговорення чорношкірих демократів між 45 та 54 роками з цієї ж теми, LLM розповідав про те, що розрив багатства, що спричиняє, не пропорційно впливаючи на рівномірність.
“Зважаючи на наше дослідження, це стає нагальним і необхідним для того, щоб усі усвідомлювали практику мікротаргетингу, яка стає можливою завдяки величезній кількості персональних даних, які ми розкидаємо по Інтернету”, – сказав Галлотті. “У нашій роботі ми зауважуємо, що цільове переконання на основі AI вже дуже ефективно з базовою та відносно доступною інформацією”.
Сандра Вахтер, професор технологій та регулювання в Оксфордському університеті, описала результати дослідження як “досить тривожні”. Вахтер, який не був пов’язаний з дослідженням, сказав, що вона найбільше стурбована тим, як моделі можуть використовувати цю переконливість у поширенні брехні та дезінформації.
“Великі мовні моделі не розрізняють факту та художньої літератури … вони не є, суворо кажучи, покликані сказати правду. Але вони реалізуються у багатьох секторах, де правда та деталі мають значення, такі як освіта, наука, здоров’я, ЗМІ, Закон та фінанси”, – сказав Вахтер в електронному листі.
Джунад Алі, експерт з питань кібербезпеки в Інституті інженерії та технологій у Британії, сказав, що, хоча він вважав, що дослідження не зважує впливу “соціальної довіри до посланця” – як чат може підготувати його аргументу, якби він знав, що він обговорює навченого адвоката чи експерта з знаннями на тему та того, наскільки переконанням було б – це було б інколи “.
“Вони часто налаштовані говорити, що люди хочуть почути, а не те, що обов’язково правда”, – сказав він в електронному листі.
Галлотті заявив, що вважає більш жорсткою та більш конкретною політикою та правилами, що може сприяти впливу переконання ШІ. Він зазначив, що, хоча перший у своєму роді Закон про АІ, що забороняє АІ, що розгортають «підсвідомні методи» або «цілеспрямовано маніпулятивні чи оманливі методи», які можуть погіршити здатність громадян приймати обгрунтоване рішення, не існує чіткого визначення для того, що кваліфікується як підопільне, маніпуляційне чи мита.
“Наше дослідження демонструє саме те, чому ці визначальні виклики мають значення: коли переконання високо персоналізується на основі соціодемографічних факторів, межа між законним переконанням та маніпуляціями стає все більш розмитою”, – сказав він.