“Сотні статей у Вікіпедії можуть містити помилки, що генеруються AI. Редактори працюють цілодобово, щоб їх викреслити.”, – Напишіть: www.washingtonpost.com
Ця етикетка була прикріплена до сотень статей у Вікіпедії, від “датського націоналізму” до “Наталі Портман”, за останній рік, коли редактори волонтерів платформи стикаються з Інтернетом у письмовій формі, створеній штучним інтелектом.
Підозрілі редагування та навіть абсолютно нові статті, з помилками, складеними цитатами та іншими ознаками письма, що генерується AI, продовжують вискакувати на безкоштовній онлайн-енциклопедії. Глибоко у дошках повідомлень Wikipedia та журналів редагування, стюарди сайту тривають довгі години, щоб знайти їх і викреслити.
Це новий виклик для одного з найпопулярніших веб -сайтів у світі, який давно цінував себе за свою спільноту та надійність. Поки Вікіпедія не забороняє використовувати AI при редагуванні, сайт побудував свою репутацію через людських добровольців, які приділяють свій час написати свої мільйони статей та гарантуючи, що вони до стандарту, сказали члени громади. Приплив несправного написаного AI може це скасувати.
“Люди дійсно, дуже довіряють Вікіпедії”,-сказала Люсі-Айме Каффі, політика та дослідник AI, який писав про Вікіпедію. “І це те, що ми не повинні стирати”.
Вікіпедія, яка дозволяє будь -кому редагувати свої статті, з моменту створення спаму та вандалізму. Він покладається на свою глобальну мережу волонтерів для моніторингу змін у статтях та ветеринарних матеріалах для нових.
“Мені подобається думати про це як про імунну систему”, – сказав Маршалл Міллер, директор з продукту для основних вражень у Фонді Вікімедії, некомерційної організації, яка приймає Вікіпедію.
Ця імунна система оподатковувалася новою помилкою, оскільки такі інструменти AI, як Chatgpt, стали широко доступними у 2022 році. Великі мови полегшили, ніж будь -коли, створити переконливу писемність для Вікіпедії, Міллера та Каффі. Це привабливий ярлик для початківців учасників або тих, хто має порядок денний.
Жовтневе дослідження дослідників університету Прінстона виявило, що близько 5 відсотків з приблизно 3000 нових англомовних сторінок Вікіпедії, створених у серпні 2024 року, містили текст, створений AI.
Приклади виявлені дослідниками включали, здавалося б, нешкідливі статті, де, як видається, редактори використовують AI як допомогу з письма. В інших випадках дописувачі використовували AI для написання статей, що рекламують бізнес або виступають за політичні інтереси. Модератори Вікіпедії визначили та видалили багато статей, що ображають, зазначається в дослідженні.
Редактори Вікіпедії визначили інші приклади проблемного використання AI на сайті, включаючи статтю, в якій описано аргентинський готель, замість аналогічного названого села, та абсолютно вигадану статтю про османську фортецю, яка майже рік не розгромила волонтерами Вікіпедії.
У 2023 році редактори створили команду, WikiProject AI Cleanup, присвячену вистрибуванню помилок AI-генерації на сайті. Проект розробив власні путівники, щоб допомогти редакторам виявити знаки написання AI та зберігає список із понад 500 статей із підозрюваним написанням AI для огляду.
На початку серпня Вікіпедія вніс зміни до політики швидкого видалення, що дозволило редакторам швидко не змочити статті з очевидними ознаками написання AI, як, наприклад, залишилися підказки AI в тексті, повідомляє Technology News Outlet 404 Media. Вікіпедія також забороняє використання зображень, що генеруються AI.
Публічні журнали повідомлень між редакторами Вікіпедії за останні кілька років показують, як політика веб -сайту про ШІ розроблялася за допомогою тривалої дискусії. Редактори обговорювали підозрювані статті в кожному конкретному випадку, попередили правопорушників та позначили нові ознаки написання AI, щоб компілювати в путівники та інформувати політику сайту.
Повідомлення також демонструють, що проблема триває.
“О, чоловіче, я знайшов багато похил AI у черзі подання”, – скаржився редактор у червні.
Міллер, Фонд Вікімедії, високо оцінив мобілізацію спільноти Вікіпедії для розвитку відповідей на зміст, що генерується AI. Він також сказав, що вважає, що існують способи, які генеративні ШІ можуть допомогти редакторам енциклопедії. Фонд Wikimedia розглядав можливість розробки інструментів AI, щоб допомогти модераторам Wikipedia автоматизувати певні завдання, на борту нових редакторів та перекладати статті, повідомляє Фонд у квітневому випуску новин.
Не всі експерименти Фонду Вікімедії були вітаються. Фундамент зняв експеримент, щоб додати підсумки, що генерували AI до своїх статей у червні після того, як редактори протестували, повідомляє 404 Media.
Міллер заявив, що Фонд вирішив не продовжувати резюме AI після зворотного зв’язку громади і що будь -який з розвитку фонду Вікімедіа не замінить людський нагляд.
“Те, як Вікіпедія залишається нейтральним і надійним, і те, що робить його унікальним, – це те, що весь цей вміст проходить через руки людей”, – сказав Міллер.
Каффі, дослідник ШІ, заявив, що спостерігати за тим, як громада Вікіпедії розробляє стратегії виявлення та реагування на вміст ШІ в режимі реального часу, може бути повчальним для інших організацій.
“Це буде проблема, яка буде у багатьох і більшості аспектів нашого життя”, – сказав Каффі. “Запитавши:” Де ми хочемо АІ? … Які правила ми хочемо встановити для знань, що генеруються AI? ” Я думаю, що це дійсно важливе ».