1 Травня, 2025
Reddit розбиває "неетичний експеримент", який розгорнув таємні боти AI на форумі thumbnail
Технології

Reddit розбиває “неетичний експеримент”, який розгорнув таємні боти AI на форумі

Головний юридичний директор платформи закликав команду університету Цюріха, яка розгорнула ботів на R/Changemyview, щоб вивчити, як АІ може впливати на думки.”, – Напишіть: www.washingtonpost.com

Реддіт піднімає тривогу з приводу того, що він назвав “неналежним і дуже неетичним експериментом” групою дослідників Університету Цюріха, які таємно розгортали ботів AI на популярному форумі, щоб вивчити, як штучний інтелект може впливати на думку людини.

Модератори на Changemyview Subreddit попередили 3,8 мільйона користувачів групи у вихідні “несанкціонованого експерименту”, який розгортався за останні кілька місяців. Модератори заявили, що вони отримали повідомлення від дослідників як “частину кроку розкриття інформації” у дослідженні, в якому дослідники заявили, що вони використовували кілька рахунків для розміщення на Subreddit, не розкриваючи, що AI використовувався для написання коментарів.

Subreddit, який працює як “місце для розміщення думки, яку ви приймаєте, може бути хибним”, щоб краще зрозуміти протилежні погляди, не дозволяє використовувати нерозкритий вміст або боти, що генерується AI. “Дослідники не контактували з нами перед дослідженням, і якби вони мали, ми відмовилися б”, – написали модератори в дописі.

У дописі адміністратора, який ідентифікує себе як головного юридичного директора Reddit, Бен Лі, використовуючи ім’я користувача Reddit Traceroo, назвав експеримент “неналежним і дуже неетичним”, а також “глибоко неправильно як на моральному, так і на юридичному рівні”.

“Ми перебуваємо в процесі звернення до Університету Цюріха та саме цієї дослідницької групи з офіційними юридичними вимогами”, – сказав Лі в понеділок на посаді на форумі. “Ми хочемо зробити все можливе, щоб підтримати громаду та гарантувати, що дослідники несуть відповідальність за свої проступки тут”. Він не одразу відповів на запит про коментар про те, що можуть спричинити ці вимоги.

Мелані Ніфельер, прес-секретар Університету Цюріха, підтвердила в електронній заяві в середу, що Комітет з питань етики факультету мистецтв та соціальних наук переглянув дослідницьку проект минулого року, “досліджуючи потенціал штучного інтелекту для зменшення поляризації в політичному дискурсі на основі цінності”. Одне з чотирьох досліджень, пов’язаних з цим проектом, передбачав використання «великих мовних моделей (LLM) розмовних агентів (« чатів ») на онлайн-форумах та субредитах»,-сказав Nyfeler.

Комітет повідомив дослідникам, що це дослідження буде “винятково” складним, оскільки “учасників повинні бути поінформовані якомога більше”, а “правила платформи повинні повністю дотримуватися”, – сказав Ніфелер. Але оцінки комітетів – це рекомендації, а не юридично обов’язкові. “Самі дослідники відповідають за здійснення проекту та публікацію результатів”, – сказав Ніфелер.

“У світлі цих подій Комітет з питань етики факультету мистецтв та соціальних наук має намір прийняти більш жорсткий процес перегляду в майбутньому та, зокрема, координувати з громадами на платформах до експериментальних досліджень”, – сказав Ніфелер. “Відповідні органи Університету Цюріха знають про інциденти і тепер детально розслідують їх та критично переглядають відповідні процеси оцінювання”.

Nyfeler додав, що дослідники вирішили не публікувати результати експерименту.

У своєму суботньому дописі з деталізацією їх висновків модератори Subreddit заявили, що подали скаргу на етику до університету і попросили його не публікувати дослідження, стверджуючи, що публікація його “різко сприяє подальшому вторгненню дослідників, сприяючи підвищенню вразливості громади до майбутніх неконсенсуальних експериментів з людськими предметами”.

Вони сказали, що дослідники поділили з ними проект результатів експерименту, який був пов’язаний у пості, але обмежена тим, хто має дозвіл на доступ до нього.

Логан Макгрегор, один із модераторів Subreddit, заявив The Washington Post, що дії дослідників залишили його почуття порушенням. Він приєднався до форуму близько року тому після відключення від більшості інших соціальних медіа через те, наскільки токсичний та вітріолічний дискурс може отримати. Але R/Changemyview, зі своїми добре встановленими правилами та етосом, був різним, сказав він.

“Я дуже неохоче приєднався до Reddit, тому що правило 1 -” Пам’ятайте людину “, – сказав він. “І тоді я знайшов це місце, де ви могли говорити про що завгодно, де було дозволено будь -який погляд і застосовувалося громадянськість. Це було безпечне людське місце для обміну ідеями”.

Дослідники, імена яких не були оприлюднені, використовували AI Bots для проведення 13 різних рахунків, один з яких вважається жертвою зґвалтування, а інший – чорношкірий чоловік, який виступав проти Black Lives Matter, модератори написали у своєму повідомленні.

Використовуючи обліковий запис Reddit, перевірений модераторами форуму, llmresearchteam, дослідники відповіли на занепокоєння та критику з боку громади, розміщуючи, що їм довелося проводити свій експеримент, не попереджаючи користувачів або не отримуючи згоди від невідповідних учасників, оскільки “не знає, що було необхідним”.

Дослідники заявили, що спочатку вони намагалися запустити 34 рахунки, але 21 був заборонений Shadow протягом перших двох тижнів, це означає, що рахунки все ще можуть переглянути Subreddit, але їхні посади були приховані від решти громади. Решта 13 рахунків в середньому становили близько 10 – 15 постів на день, за словами дослідників, сума, яку вони описали як незначні, враховуючи 7000 постів, в середньому на день на весь subreddit.

Загалом боти опублікували близько 1700 коментарів, повідомляє модератори.

“Попередні дослідження щодо переконання LLM відбулися лише у високопотужних умовах, часто залучаючи фінансово стимульованих учасників”, – написали дослідники. “Ці налаштування не зможуть захопити складність взаємодій у реальному світі, які розвиваються спонтанними та непередбачуваними способами з численними контекстними факторами, що впливають на те, як змінюються думки з часом. На основі згоди не вистачає екологічної обґрунтованості, оскільки вони не можуть імітувати, як користувачі поводяться, коли не знають переконливих спроб-так само, як вони будуть в присутності поганих акторів”.

Дослідники вибачилися за будь -які зриви, що їх дослідження, можливо, спричинило, але стверджувало, що “кожне рішення” протягом усього їх дослідження керувалося принципами “етичної наукової поведінки, безпеки користувачів та прозорості”. Вони стверджували, що Комітет з питань етики в Університеті Цюріха переглянув і затвердив їх підхід, і вони “визнали, що попередня згода є непрактичною”.

Університет, поділяючи свою заяву, не відповідав на подальші запитання.

Анжеліки Керасіду, доцент з біоетики в Оксфордському університеті, заявив, що, хоча обман у дослідженні може бути виправданий у випадках, коли дослідження мають високу соціальну цінність, поінформована згода вважається наріжним каменем етичних досліджень, “оскільки це підкреслює повагу до осіб і підтримує індивідуальну автономію”.

Експеримент, проведений на R/Changemyview, “є прикладом важливості мислення про соціальну (і не лише наукову) цінність досліджень та взаємодію з дослідницькими спільнотами під час планування дослідницьких проектів”, – написав Керасіду в електронному листі.

Макгрегор сказав, що одна срібна підкладка експерименту полягала в тому, що це привернуло увагу до всебічного питання: як захистити “дорогоцінні громадянські людські простори”, які все ще існують в Інтернеті.

“Дослідники мають рацію щодо екзистенційних викликів ШІ”, – сказав він. “Те, як вони пішли на це, було неправильно. Але я думаю, що вони були добросовісними, і одна з речей, які я особисто хотів бачити, виходила з цього-це кращий шлях вперед, оскільки всі ми боремося з AI. Це не йде. Ви не можете це вимкнути. Але що ми можемо зробити, щоб ці простори були людьми?”

ПОВ'ЯЗАНІ НОВИНИ

Apple порушила антимонопольну постанову, суддя знаходить

wsj

Технічні поради для міністра оборони Піта Гегсета (та всіх інших)

washingtonpost

Ці аутичні люди намагалися осмислити інших. Потім вони знайшли AI.

washingtonpost

Залишити коментар

Цей веб-сайт використовує файли cookie, щоб покращити ваш досвід. Ми припустимо, що ви з цим згодні, але ви можете відмовитися, якщо хочете. Прийняти Читати більше