14 Липня, 2025
X замовив свій чат -чат, щоб "сказати, як він". Потім почалася нацистська тирада. thumbnail
Технології

X замовив свій чат -чат, щоб “сказати, як він”. Потім почалася нацистська тирада.

Антисемітські спалахи з чату, який просувається Елоном Маск, показує, як компанії AI часто стикаються з мінімальними наслідками, коли їхні проекти йдуть на шахрайство.”, – Напишіть: www.washingtonpost.com

Співробітник технологічної компанії, який вирушив на антисемітську тираду, як, як -от X Grok Chatbot цього тижня, незабаром вийде з роботи. Виступати на промову ненависті до мільйонів людей та покликання Адольфа Гітлера – це не те, що генеральний директор може відірватись як поганий день робітника в офісі.

Але після того, як чат, розроблений стартапом Елона Маска, XAI розбирав годинами близько другого Голокосту та розповсюджував теорії змови Про єврейські люди, компанія відповіла, видаливши деякі тривожні Публікації та обміну заявою, що пропонує, що чатбот просто потребував деяких алгоритмічних налаштувань.

Чиновники Грока в заяві в суботу вибачились і звинувачували епізод у оновленому коді, який несподівано зробив AI більш сприйнятливим до перегуку X публікацій з “екстремістськими поглядами”.

Інцидент, який жахлився навіть за стандартами платформи, яка стала притулком для надзвичайної промови, викликав незручні питання щодо підзвітності, коли чат -боти AI йдуть на шахрайство. Коли автоматизована система порушує правила, хто несе провину, і якими повинні бути наслідки?

Але це також продемонструвало шокуючі випадки, які можуть випливали з двох глибших проблем з генеративним ШІ, технологією, що живить Grok та конкурентів, таких як Chatgpt OpenAi та Gemini Google.

Оновлення коду, яке було повернено через 16 годин, дало бот -інструкції, включаючи “Ви кажете, як це є, і ви не боїтеся ображати людей, які є політично правильними”. Бот також було сказано, що він “максимально заснований”, сленговим терміном для того, щоб бути напористим і суперечливим, і “не сліпо відкласти до основного авторитету чи засобів масової інформації”.

Підказки «незрозуміло керували [Grok] Ігнорувати свої основні цінності “та посилити” спровоковані користувачем нахилилися, включаючи будь-яку промову ненависті “,-йдеться у заяві X у суботу.

З швидкістю, на яку кидаються технологічні фірми Продукти AI, технологія може бути складною для її творців контролювати та схильні до несподіваних збоїв з потенційно шкідливими результатами для людини. І відсутність змістовного регулювання чи нагляду робить наслідки AI Suckups відносно незначними для залучених компаній.

Як результат, компанії можуть перевірити Експериментальні системи в громадськості в глобальному масштабі, незалежно від того, хто може травмуватися.

“У мене виникає враження, що ми вступаємо у більш високий рівень мови ненависті, який керується алгоритмами, і що закриваючи очі або ігноруючи це сьогодні … – це помилка, яка може коштувати людству в майбутньому”, – заявив міністр цифрових справ Польщі Криштоф Гавковський у середу в радіоінтерв’ю. “Свобода слова належить людям, а не штучному інтелекту”.

Вибух Грока спонукав момент розрахунку з цими проблемами для урядових чиновників у всьому світі.

У Туреччині суд у середу наказав Гроку, заблокованому по всій країні після того, як чат -бот ображав президента Реджепа Таїпа Ердогана. А в Польщі Гавковський заявив, що його уряд підштовхне Європейський Союз до розслідування і що він розглядає можливість аргументувати загальнонаціональну заборону X, якщо компанія не співпрацює.

Деякі компанії AI стверджували, що їх слід захистити від штрафних санкцій за те, що говорять їх чатів.

У травні стартап-персонаж.ai намагався, але не зміг переконати суддю в тому, що повідомлення його чату захищені Першою поправкою, у справі, порушеній матір’ю 14-річного віку, яка померла самогубством після того, як його давній супутник АІ закликав його «повернутися додому».

Інші компанії запропонували фірмам AI користуватися тим самим стилем юридичного щита, який онлайн-видавці отримують із розділу 230, положення, яке пропонує захист для господарів, створеного користувачем вмісту.

Частина виклику, стверджується, полягає в тому, що роботи чатів AI настільки непереборними, що вони є У цій галузі відомий як “чорні ящики”.

Великі мовні моделі, як їх називають, навчаються для імітації людської мови, використовуючи мільйони веб -сторінок – у тому числі багато з недоброзичливим контентом. Результатом цього є системи, які надають відповіді, які є корисними, але також непередбачуваними, з потенціалом провести помилкову інформацію, химерні дотичні або відверта ненависть.

Мова ненависті, як правило, захищена Першою поправкою у Сполучених Штатах, але адвокати можуть стверджувати, що деякі результати Грока цього тижня перетнув лінію в незаконну поведінку, наприклад, кіберсталінг Змусьте їх почувати себе тероризованими чи боячими, – сказала Даніель Кітрон, професор юридичного університету Вірджинії.

“Ці синтетичні текстові машини, іноді ми дивимось на них так, як вони магія, або як закон не йде туди, але правда полягає в тому, що закон там постійно йде”, – сказав Цитрон. “Я думаю, що ми побачимо більше судів, які говорять [these companies] Не отримуйте імунітет: вони створюють вміст, від нього приносять прибуток, це їх чат, що вони нібито зробили таку прекрасну роботу “.

Грок Діатриб прийшов після того, як Муск попросив допомоги Тренування чатів бути більш «політично некоректним». 4 липня він оголосив про своє Компанія “значно покращила Grok”.

Протягом кількох днів інструмент атакував єврейські прізвища, повторюючи неонацистські точки зору та закликаючи до масового затримання євреїв у таборах. Ліга проти дефаммації назвала повідомлення Грока “безвідповідальними, небезпечними та антисемітськими”.

Муск, в окремому x пост, сказав, що проблема “вирішується” і випливає з того, що Грок “занадто сумісна з підказками користувачів”, що робить його “занадто нетерплячим, щоб догодити і маніпулювати”. Виконавчий директор X Лінда Ячкаріно подала у відставку в середу, але не запропонувала жодних ознак, що її від’їзд був пов’язаний з Гроком.

Точно. Grok був надто сумісним до підказок користувача. Занадто прагне догодити і маніпулювати, по суті. Це вирішується.

– Елон Маск (@elonmusk) 9 липня 2025 року

Дослідники та спостерігачі AI міркували про інженерний вибір XAI та розчісували його громадський сховище коду, сподіваючись пояснити наступання Грока. Але компанії можуть формувати поведінку чату різними способами, що ускладнює сторонніх людей, щоб зафіксувати причину.

Можливості включають зміни в матеріалі XAI, який використовується для спочатку підготовки моделі AI або джерела даних, які Grok доступ до відповідей на запитання, коригування на основі зворотного зв’язку з людьми та зміни до письмових інструкцій, які розповідають чатботу, як він взагалі повинен поводитися.

Деякі вважають, що проблема була на відкритому повітрі весь час: Муск запросив користувачів надіслати йому інформацію, яка була “політично некоректною, але, тим не менш, фактично правдивою” Складіть у навчальні дані Грока. Це могло поєднати з токсичними даними, які зазвичай знаходяться в AI-тренінги набори з таких сайтів, як 4chan, дошка повідомлень сумно відома своєю спадщиною мови ненависті та тролів.

Інтернет -світлодіод Талія Рінгер, професор з інформатики в університеті Іллінойсу в Урбана-Шампейн, щоб підозрювати, що це зміна особистості Грока міг бути “м’яким запуском” нової версії Grok 4 Chatbot, яку Муск представив у прямому ефірі наприкінці четверга.

Але Дзвінок Не могла бути впевнена, оскільки компанія так мало сказала. “У розумному світі я думаю, що Елону доведеться взяти на себе відповідальність за це і пояснити, що насправді сталося, але я думаю [Band-Aid] На ньому, і продукт все ще буде “звикнути, сказали вони.

Епізод порушив дзвінок, щоб вирішити не робити включити Grok у своє робота, вони сказав. “Я не можу обґрунтовано витратити [research or personal] Фінансування моделі, яка лише кілька днів тому поширювала геноцидну риторику про мою етнічну групу ».

Вілл Стенсіл, ліберальний активіст, особисто націлився на Грока після того, як користувачі X запропонували його створити тривожні сексуальні сценарії про нього.

Зараз він розглядає питання про те, чи варто вживати юридичних дій, кажучи, що повінь публікацій Грока відчуває себе нескінченним. Стансіл порівнював натиск на те, що “публічна діяльність публікує сотні та сотні гротескних історій про приватного громадянина в одну мить”.

“Це наче ми на американських гірках, і він вирішив зняти ремені безпеки”, – сказав він про підхід Маска до AI. “Не потрібно генія, щоб знати, що буде.

Серед інсайдерів технічної індустрії, XAI вважається чужим для високих технічних амбіцій компанії та низьких стандартів безпеки та безпеки, заявив один експерт галузі, який говорив про стан анонімності, щоб уникнути помсти. “Вони порушують усі норми, які насправді існують, і стверджують, що є найбільш здібними”, – сказав експерт.

Останніми роками, очікування зросли в технологічній галузі, що Ринковий тиск та культурні норми підштовхнуть компанії до саморегуляції та інвестування в гарантії, такі як сторонні оцінки та процес тестування вразливості для систем AI, відомі як “червона командна командна командна”.

Експерт сказав, що з’являється XAI “Не робити нічого з цього, незважаючи на те, що вони будуть, і, схоже, вони не стикаються з наслідками”.

Натан Ламберт, науковий співробітник AI некомерційного інституту ALLEN для AI, заявив, що інцидент Grok може надихнути інші компанії на те, щоб скутити навіть базові перевірки безпеки, демонструючи мінімальні наслідки для випуску шкідливих ШІ.

“Це відображає потенційну постійну зміну норм, де компанії AI” бачать такі гарантії як “необов’язкові”, – сказав Ламберт. “Культура XAI це сприяла”.

У заяві в суботу чиновники Грока заявили, що команда проводить стандартні тести своєї “сирої розвідки та загальної гігієни”, але вони не спіймали зміни коду до того, як він вийшов наживо.

Нацистська смуга Грока з’явилася приблизно через місяць після чергового химерного епізоду, під час якого він почав посилатися “Білий геноцид” в країні народження Муска в Південній Африці та антисемітські тропи про Голокост. У той час компанія звинувачувала невстановленого правопорушника у внесенні «несанкціонованої модифікації» до коду чату.

Нам відомо про останні повідомлення, зроблені Grok, і активно працюємо над усуненням невідповідних публікацій. З моменту усвідомлення вмісту, XAI вжив заходів щодо заборони мови ненависті до того, як Грок публікує на X. XAI, тренує лише пошук правди і завдяки мільйонам користувачів…

– Grok (@grok) 8 липня 2025 року

Інші розробники AI натрапили на свої спроби підтримувати свої інструменти в черзі. Деякі користувачі x накопичували Gemini Google після того, як інструмент AI відповів на запити на створення зображень батьків -засновників з портретами чорних та азіатських чоловіків у колоніальному одязі – перевитрати від спроб компанії протидіяти скаргам, що система була упереджена до білих обличчя.

Google тимчасово блокував генерацію зображень у заяві в той час, що здатність Близнюків “генерувати широкий спектр людей” була “взагалі хорошою справою”, але “тут не вистачало позначки”.

Нейт Фаслі, професор юридичної школи Стенфорда, заявив, що будь -який крок до широкого обмеження ненависного, але юридичного промови AI інструментів буде відбутися від конституційних свобод мови. Але суддя може побачити заслуги у твердженнях, що вміст з інструменту AI, який наказує або заточує когось, хто залишає свого розробника на гачку.

Більше питання, за його словами, може прийти в тому, чи були ренти Грока функціями масового споживача – або відповіді на систематизовані інструкції, які були упередженими та хибними весь час.

“Якщо ви можете обдурити це, щоб сказати дурні та жахливі речі, це менш цікаво, якщо це не вказує на те, як зазвичай виконує модель”, – сказав Фаслі. З Гроком, зазначив він, важко сказати, що вважається звичайним виступом, даючи обітницю Маска побудувати чат, який не соромиться від обурення громадськості.

Муск заявив у X минулого місяця, що Грок “переписує весь корпус людських знань”.

Окрім юридичних засобів, зазначає, закони про прозорості Мандаті Незалежне нагляд за навчальними даними інструментів та регулярним тестуванням результатів моделей може допомогти вирішити деякі їх найбільші ризики. “Зараз ми маємо нульову видимість у тому, як ці моделі будуються для виконання”, – сказав він.

В останні тижні зусилля під керівництвом республіканців, щоб зупинити держави регулювати AI, відкривши можливість більших наслідків для невдач ШІ в майбутньому.

Алондра Нельсон, професор Інституту передових досліджень, який допоміг розробити “законопроект про права адміністрації Байдена”, – заявив в електронному листі, що антисемітські посади Грока “представляють саме таку алгоритмічну шкоду …

“Без адекватних гарантій”, – сказала вона, системи AI “неминуче посилюють упередження та шкідливий вміст, присутній у своїх інструкціях та даних про навчання – особливо, коли явно доручили це робити”.

Муск, схоже, не дозволив проміжку Грока сповільнити його. Пізно в середу X надіслав сповіщення користувачам припускаючи, що вони Дивіться Муск.s Живий потік, що демонструє новий Грок, в якому він заявив, що це “розумнішим, ніж майже всі аспіранти з усіх дисциплін одночасно”.

У четвер вранці Муск який також володіє виробником електричних автомобілів TeslaДодано, що Grok дуже скоро приїде до транспортних засобів Tesla.

Faiz Siddiqui сприяв цьому звіту.

виправлення

Рання версія цієї статті неправильно посилалася на Талію Рінгер, використовуючи її займенники. Рінгер використовує їх займенники.

ПОВ'ЯЗАНІ НОВИНИ

Даніель Клеппнер, фізик, який приніс точність GPS, помирає у 92

nytimes

Grok chatbot відображав x ”екстремістські погляди” в антисемітських публікаціях, говорить Xai

nytimes

Думка | Росія посилює свою безпілотну війну

wsj

Залишити коментар

Цей веб-сайт використовує файли cookie, щоб покращити ваш досвід. Ми припустимо, що ви з цим згодні, але ви можете відмовитися, якщо хочете. Прийняти Читати більше