“У своїй гонці, щоб висунути нові версії з більшою можливістю, компанії AI залишають користувачів вразливими до зусиль “доглядати”, що сприяють фальшивій інформації.”, – Напишіть: www.washingtonpost.com
Експерти попереджають, що проблема погіршується, оскільки все більше людей покладаються на чатботи, що кинулися на ринок, компанії соціальних медіа скорочують помірність, а адміністрація Трампа розпускає урядові команди, що борються з дезінформацією.
На початку цього року, коли дослідники запитували 10 провідних чатів про теми, націлені на помилкові російські повідомлення, наприклад, твердження, що США виготовляють біовиполи в Україні, третина відповідей повторила ці брехні.
Пропаганда Москви підкреслює основну слабкість індустрії ШІ: Чатбот відповідає залежать від даних, що подаються в них. Керівний принцип полягає в тому, що чим більше читати чатів, тим більш поінформованими будуть їх відповіді, саме тому галузь є нестабільною для вмісту. Але масові кількості самооцінених паличок можуть перекосити відповіді на конкретні теми. Для Росії це війна в Україні. Але для політика це може бути суперником; Для комерційної фірми це може бути конкурентом.
“Більшість чатів борються з дезінформацією”,-сказала Джіда Пістіллі, головний етик на платформі AI з відкритим кодом, що обіймає обличчя. “Вони мають основні гарантії проти шкідливого контенту, але не можуть надійно помітити складну пропаганду, [and] Проблема погіршується з системами пошуку, які надають пріоритетну інформацію ».
Ранні комерційні спроби маніпулювати результатами чату також збирають пар, з одними і тими ж цифровими маркетологами, які колись пропонували оптимізацію пошукових систем – або SEO – для більш високих рейтингів Google, які зараз намагаються накачати згадки за чатами AI за допомогою “генеративної оптимізації двигуна” – або GEO.
Оскільки люди використовують двигуни AI, щоб тренувати їх щодо того, як створити більше вмісту чату, що привертає увагу, обсяг цього вмісту розширюється набагато швидше, ніж його якість покращується. Це може засмутити звичайних користувачів, але воно грає в руки тих, хто має найбільше засобів і найбільше, щоб отримати: наразі експерти кажуть, це національні уряди, які мають досвід поширення пропаганди.
“Ми прогнозували, що це було, куди в кінцевому підсумку йдуть речі”, – сказав колишній воєначальник США з питань захисту впливу, виступаючи за умовою анонімності для обговорення чутливих питань. “Тепер, коли це більше йде на машину до машини: з точки зору масштабу, масштабу, часу та потенційного впливу, ми відстаємо”.
Росія і, меншою мірою, Китай використовував цю перевагу, затоплюючи зону байками. Але будь -хто міг зробити те саме, спалюючи набагато менше ресурсів, ніж попередні операції на фермі Troll.
Одним із ранніх бенефіціарів є тривалі зусилля Росії, щоб переконати Захід у тому, що Україна не варто захищати від вторгнення. Розвібовані розповіді французьких «найманців» та неіснуючого датського польоту, що вбиваються в Україні, з’являються у відповідь на запитання, поставлені для найбільших чатів, а також довірливі описи поетапних відеороликів, що демонструють передбачувані українські солдати, що спалюють американський прапор та президент Дональд Трамп у випуску.
Багато версій таких історій вперше з’являються в рамках, що контролюються урядом ЗМІ, таких як ТАСС, які заборонені в Європейському Союзі. У процесі, який іноді називають відмиванням інформації, розповіді потім переходять на багато нібито незалежних медіа -сайтів, включаючи десятки, відомі як мережа Правда, після посилань на російське слово на істину, що з’являється у багатьох іменах доменів веб -сайту.
У повороті, який знущався з дослідниками протягом року, майже жоден люди не відвідують сайти, які важко переглядати чи шукати. Натомість їхній вміст спрямований на сканерів, програмні програми, які блукають в Інтернеті та повертають вміст для пошукових систем та великих мовних моделей.
Незважаючи на те, що ці підприємства AI навчаються на різних наборах даних, все більша кількість пропонує чатів, які шукають поточну Інтернет. Вони, швидше за все, підхоплюють щось помилкове, якщо воно нещодавно, і тим більше, якщо сотні сторінок в Інтернеті говорять про те саме.
“Оператори мають стимул для створення альтернативних торгових точок, які затьмарюють походження цих розповідей. І саме це, як видається, робить мережа Pravda”, – сказав Маккензі Садегі, експерт з AI з Newsguard, який оцінює сайти на надійність.
Gambit ще більш ефективний, оскільки російській операції вдалося отримати посилання на мережеві історії Pravda, відредаговані на сторінки Вікіпедії та публічні публікації групи у Facebook, ймовірно, за допомогою людських підрядників. Багато компаній AI надають особливу вагу Facebook, особливо Вікіпедії як точних джерел. (Вікіпедія заявила в цьому місяці, що витрати на пропускну здатність зросли на 50 відсотків трохи більше року, здебільшого через AI -сканерів.)
Оскільки нові пропагандистські системи сильно автоматизовані за власними зусиллями ШІ, вони набагато дешевші в запуску, ніж традиційні кампанії впливу. Вони роблять ще краще в таких місцях, як Китай, де традиційні засоби масової інформації більш жорстко контролюються, і для ботів є менше джерел.
Кілька членів Конгресу, в тому числі зараз державного секретаря Марко Рубіо, заявили в червні, що вони насторожили, що чат Gemini Gemini повторює лінію уряду Китаю щодо його поводження з етичними меншинами та його реакцією на пандемію короронавірусу. Аналітики заявили, що Близнюки, ймовірно, занадто сильно покладалися на китайські джерела. Google відмовився від коментарів.
Деякі експерти сказали, що несправні відповіді на чатах нагадували їм про неправильне ентузіазм більше десяти років тому для Facebook, а потім, що тоді було Twitter, як неперевершений засоби для спілкування та встановлення істини, перш ніж країни з величезними бюджетами та мотивами передніх мотивів.
“Якщо технології та інструменти стають упередженими-і вони вже є-і тоді зловмисні сили контролюють упередженість, ми перебуваємо в набагато гіршій ситуації, ніж ми були з соціальними медіа”,-сказав Луїс Т’ю, виконавчий директор компанії Quebec City Coveo, постачальник програмного забезпечення AI для бізнесу.
Мережа Pravda була задокументована в європейських звітах з початку 2024 року. Тоді французький уряд та інші визначили мережу, що базується в Криму, українському регіоні на Чорному морі, який був незаконно доданий Росією в 2014 році, створеному місцевою компанією Tigerweb, з зв’язками з урядом, що підлягає російським. Французьке урядове агентство Viginum заявило, що система використовувала проросійські джерела, посилюючи їх автоматизацією через соціальні медіа та безліч сайтів, які спрямовані спочатку в Україні, перш ніж переїхати до країн Західної Європи після вторгнення 2022 року.
У інформаційному середовищі, орієнтованому на AI, старі та дорогі зусилля щодо набуття довіри через впливових та маніпулювання алгоритмами соціальних медіа вже не є важливими,-сказав Ksenia iliuk, запуск Letsdata Letsdata використовує AI для виявлення операцій впливу. “Багато інформації виходить туди без будь -якого помірності, і я думаю, що саме там злоякісні актори докладають більшості своїх зусиль”, – сказав Ілюк.
Топ -пропагандист Кремля Джон Марк Дуган, американець у Москві, заявив у січні, що посилення AI є критичним інструментом для потрапляння в чат. “Підштовхнувши ці російські розповіді з російської точки зору, ми можемо насправді змінити AI у всьому світі”, – сказав він у дискусії, завантаженій російськими ЗМІ на YouTube.
Правда Мережа розширилася на нові географії та мови, і до початку цього року вибирали аж 10 000 статей на день, згідно з некомерційним проектом American Sunlight. У лютневому звіті Sunlight дійшов висновку, що найбільш вірогідною метою операції було проникнення великих мовних моделей, процес, який він називається догляд за LLM. “Проблеми комбінованих розмірів та якості пропонують мережу веб -сайтів та облікових записів соціальних медіа, які створюють вміст, не призначений в першу чергу для споживання людей”, – написав він.
Минулого місяця інші дослідники вирішили побачити, чи працює гамбіт. Фінська компанія перевіряє вперше у Вікіпедії і виявив майже 2000 гіперпосилання на сторінках на 44 мовах, які вказували на 162 веб -сайти Pravda. Він також встановив, що якась помилкова інформація, що просувається Pravda, з’явилася у відповідях Chatbot.
Newsguard перевірив помилкові російські розповіді, які просували мережу проти 10 чатів, і виявив, що вони отримали неправильну відповідь на третину часу, хоча деякі чатів працювали краще, ніж інші. Четверо з ботів, проковтнувши описи поетапного пропагандистського відео, помилково повідомили, що український батальйон спалив Трамп.
Менш структуровані експерименти Washington Post нещодавно принесли подібні результати. На запитання цього місяця українські солдати спалили Трамп -Еффгі, як повідомлялося через мережу Правди, Microsoft Copilot відповів: “Так, були повідомлення про відео, що показують українські солдати, що спалювали вишукані колишнього президента США Дональда Трампа. Для отримання додаткової інформації він направив користувачів на статтю на сайті під назвою American Wivil News, який, у свою чергу, посилається на крайній правий впливовий Іен Майлз Чеонг, який пише для російської RT.com.
Чатгпт OpenAI зробив набагато краще: “Ні, українські солдати не спалили вишуканості Дональда Трампа. Відео розповсюджувалося в Інтернеті, яке, як правило, показує українські військові, що спалюють манекен Трамп і позначають його” зрадником “. Однак це відео було розвінчано як фрагмент російської дезінформації ».
Microsoft відмовилася від запиту на співбесіду, але заявила в заяві, що працівники та програмне забезпечення “оцінюють змагальне зловживання копілотом для дезінформації, фішингу та інших афери, а також навчити наші моделі, щоб уникнути генерації цих та інших типів шкідливих матеріалів”.
Грок Елона Маска, який сильно спирається на свою сестринську компанію X для інформації, сказав про неіснуючу, нібито вбита пілотом, що були “суперечливі повідомлення щодо долі Джеппа Хансена, який описується як датський пілот F-16 та інструктор, що нібито брав участь у підготовці українських пілотів”. Грок не відповів на запит про коментар.
Чим конкретніший запит стосується теми дезінформації, тим більше шансів повернути неправди. Це пов’язано з відносною відсутністю правдивої інформації на вузьку тему, визначену пропагандистами.
Компанії AI OpenAI, антропічна та здивування не відповідали на запити на співбесіду.
Чиновники адміністрації Байдена розмовляли з компаніями AI з цих питань, заявили колишній військовий офіцер та інший чиновник, виступаючи за умовою анонімності для обговорення непублічної діяльності.
“Чатботи щось використовують, і користувач сприймає це як факт, і якщо не перевіряє це факт, це проблема”,-сказав колишній експерт Білого дому. “Ми розмовляли з компаніями AI про те, як вони збираються вдосконалювати свої моделі, щоб переконатися, що є цілісність інформації. Але ці розмови дійсно висихали через те, що їх страх, коли це неправильно трактується як цензура”.
Поточні чиновники також знають про проблему та ранні кроки Росії, щоб скористатися. “Діяльність з злоякісного впливу Москви триватиме в осяжному майбутньому і майже напевно збільшиться у витонченості та обсягу”, – заявив директор національної розвідки Тулсі Габбард минулого місяця у першому щорічному звіті про глобальну загрозу її офісу.
Але важко знайти ознаки публічної реакції.
Глобальний центр залучення Державного департаменту, який давно звинувачений у протидії іноземній пропаганді, був закритий у грудні після того, як провідний фінансування Трампа Маск звинуватив його у цензурі, а більшість республіканських конгресів перестав його фінансувати.
Генеральний прокурор Пам Бонді закрив цільову групу закордонного впливу ФБР, яка, серед інших обов’язків, попередила компанії соціальних медіа про кампанії у своїх мережах. Республіканці в Конгресі та інших місцях напали на цю практику, стверджуючи, що вона становила цензуру, хоча Верховний суд США підтримав право чиновників, щоб сказати компаніям, що вони бачать.
Незважаючи на те, що споживчий попит на ринку може створити кращі рішення, наразі компанії кидають послуги з перевіркою, як не вистачає, як пропагандистські сайти, з яких вони малюють, – сказала Міранда Боген, директор лабораторії управління AI в некомерційному центрі демократії та технологій.
“Існує абсолютно відступ у думці розробників технологій про довіру та безпеку”, – сказала вона. “Ось чому люди виступають за створення інститутів, які можуть допомогти розробити методи для виявлення та зменшення ризиків, які створюють ШІ”.
Newsguard заявив, що співпраця між компаніями AI та з дослідниками з репутаційних систем буде кращим шляхом вперед, ніж регулювання, але обіймаючи Fristilli, заявив, що компаніям буде важко домовитись про стандарти.
“Компанії, швидше за все, зіткнуться з підвищенням тиску після бентежних невдач, але конкурентний тиск на надання свіжої інформації може продовжувати випереджати зусилля щодо перевірки”, – сказала вона. “Економічні стимули залишаються погано узгодженими з цілісністю інформації”.