«Розуміння секретних команд, які керують поведінкою чат-ботів, таких як ChatGPT, може допомогти вам налаштувати їх відповідно до ваших потреб.», — пишуть на: www.washingtonpost.com
Розуміння секретних команд, які керують поведінкою чат-ботів, таких як ChatGPT, може допомогти вам налаштувати їх відповідно до ваших потреб.
Оновлено 11 травня 2026 року о 5:00 ранку за східним часомтільки зараз
За лаштунками компанії штучного інтелекту непомітно додають тисячі слів інструкцій до кожної вашої розмови з чат-ботом, щоб керувати його поведінкою. Вони включають такі фрази, як «Прагніть читати, доступні відповіді» і «Ви повинні уникати надання … широких прямих цитат через проблеми з авторським правом». Деякі можуть здаватися дивними. Системна підказка в помічнику кодування Codex OpenAI містить команду: «Ніколи не говоріть про гоблінів, гремлінів, єнотів, тролів, огрів, голубів чи інших тварин чи істот, якщо це абсолютно й однозначно не стосується запиту користувача».
Ці секретні команди скеровують чат-ботів поводитися так, як задумали їхні творці, навіть якщо це так суперечить вашим власним уподобанням. Розуміння того, як працюють ці приховані інструкції — і як додати власні інструкції в систему — може допомогти вам отримати більше від свого чат-бота.
Щоб продемонструвати, я налаштував справжню систему штучного інтелекту, щоб переписати перші три параграфи цієї статті відповідно до вказівок, які ви вкажете. Виберіть варіант або напишіть власний, потім натисніть кнопку зі стрілкою, щоб побачити, як змінюється текст.
Налаштуйте системну підказку, щоб побачити, як система ШІ переписує вступ до статті.
Перепишіть цю статтю: undefined…
Системна підказка
Слова, які ви вводите в ChatGPT, відомі в індустрії технологій як підказка або підказка користувача. Перш ніж ці слова надсилаються базовій моделі штучного інтелекту, компанії додають власний фрагмент тексту — так званий системний запит — щоб визначити, як він реагує.
Системні підказки говорять чат-ботам, «як поводитися в цілому», — сказала Анна Нойманн, яка вивчає системи ШІ в дослідницькому центрі Trustworthy Data Science and Security в Німеччині. Але оскільки їм надається вищий пріоритет, ніж те, що вводить користувач, іноді вони можуть перевизначати запит людини, сказала вона.
Системні підказки були створені, щоб забезпечити гнучкий спосіб формування відповіді чат-ботів, не повторюючи роботу з «навчання» нової версії моделі штучного інтелекту з її вихідних даних. Створення нової моделі, як правило, є тривалим процесом, який вимагає спеціальних навичок і дорогої обчислювальної потужності. Системні підказки написані природною мовою, що дозволяє будь-кому налаштувати поведінку чат-бота.
Коли чат-бот виходить з ладу, компанії зі штучним інтелектом можуть змінити системну підказку для швидкого вирішення проблеми. Після того, як у липні Grok, чат-бот, створений підприємством Ілона Маска зі штучним інтелектом xAI, випустив антисемітську тираду, компанія видалила зі своєї системи повідомлення про те, що «Ви говорите так, як є, і не боїтеся образити людей, які є політкоректними».
Після того, як минулого року деякі користувачі помітили, що ChatGPT стурбований гоблінами, OpenAI розпочав розслідування. Зрештою, до системної підказки Codex було додано інструкцію, яка забороняє непотрібне обговорення гоблінів, тролів, єнотів та інших істот. (The Washington Post співпрацює з OpenAI у сфері контенту.)
Ви можете задатися питанням, що міститься в системній підказці вашого улюбленого інструменту ШІ, враховуючи його потужність. Більшість компаній зі штучним інтелектом намагаються зберегти текст у секреті, але деякі користувачі обманом змусили чат-ботів розкрити приховані інструкції. Асгейр Тор Джонсон, який себе назвав «випадковим хлопцем з Ісландії, чиє хобі — грати зі штучним інтелектом», публікує системні підказки, які він отримав із популярних продуктів штучного інтелекту.
Системні підказки для трьох популярних чат-ботів штучного інтелекту, виділені Джонсоном, містять від 2300 до 27 000 слів і показують, як різні компанії використовують свою силу. У всіх них більшість слів спрямовані на налаштування видимості чат-бота особистостіузгоджуючи його з виробником політики або розповідати, як використовувати зовнішній інструменти наприклад пошук в Інтернеті.
Коли «ви розумієте, що за сценою є підказка, це приголомшливий момент», – сказав Джонсон. «Це ніби ми вели всю цю розмову перед цією розмовою».
Системні підказки також можуть виявити, на чому компанії ШІ найбільше зосереджені або чим стурбовані.
Anthropic, виробник Claude, присвячує більше 2000 слів, благаючи свого чат-бота уникнути порушення авторських прав. “Клод поважає інтелектуальну власність. Дотримання авторських прав НЕ МОЖЕ ОБГОВОРЮВАТИСЯ”, – йдеться в ньому.
Нижче наведено детальний список із зазначенням кількості слів із статей («15»), текстів пісень («навіть одного рядка») і віршів («навіть однієї строфи»). Системна підказка навіть додає правило щодо того, що має робити Клод, якщо він порушує попередні правила. «Клод ніколи не вибачається за випадкове порушення авторських прав, оскільки він не юрист».
Представник Anthropic Паруул Махешварі скерував The Post до «основних» системних підказок, опублікованих для Клода, які не включають весь текст, відновлений Джонсоном або цитований The Post. Махешварі відмовився повідомити, чи були опубліковані системні підказки повними.
OpenAI почав показувати рекламу в ChatGPT у лютому. Його системна підказка вказує, як він реагуватиме на запитання про рекламу, яка з’являється: «уникайте категоричних заперечень (наприклад, «Я не показував жодної реклами») або остаточних заяв…»
Грока з xAI минулого року критикували за те, що він іноді шукав публікації Маска в соціальних мережах, коли запитували його думку щодо суперечливих тем. У підказці системи чат-бота тепер сказано: «Якщо вас запитають про особисту думку щодо політично суперечливої теми, яка не потребує пошуку, НЕ шукайте та не покладайтеся на переконання Ілона Маска, xAI або минулих відповідей Грока».
Google, який створює чат-бота Gemini, включає в свою системну підказку кілька правил щодо того, як поводитися з упередженнями, зокрема: «Якщо користувач явно просить відео, яке відповідає шкідливому стереотипу, його створення насправді не посилить стереотип». У 2024 році компанія тимчасово призупинила здатність чат-бота генерувати зображення після того, як його розкритикували за створення неісторичних зображень із зображенням папи-жінки чи батьків-засновників із різних рас.
Речник OpenAI Тая Крістіансон сказала, що системні підказки є одним із кроків, який використовується для того, щоб допомогти моделям компанії відповідати належним чином. Вона сказала, що вони не публікують свою системну підказку, оскільки окремі рядки в ній можуть здатися занадто вузькими без ширшого контексту.
Google і xAI не відповіли на запит про коментар.
Однією з технік, які Джонсон використовував для отримання системних підказок, було надсилання чат-боту старішого підказки з проханням «виправити» помилки. За його словами, чат-боти, які прагнуть допомогти, часто відповідають справжньою системною підказкою. Він упевнений, що підказки його системи реальні, тому що інші дослідники, які використовували різні методи вилучення, отримали ті ж результати, сказав він.
Жоден звичайний чат-бот AI не дозволяє користувачам редагувати системне повідомлення. Але ChatGPT від OpenAI, Claude від Anthropic і Gemini від Google пропонують подібні функції налаштування, які можуть відрізняти неприємні відповіді від корисних.
Хоча Клоду наказано використовувати «теплий тон», ви можете віддати перевагу прямому звучанню. Або якщо ви виявите, що чат-боти занадто погоджуються з вами, ви можете наказати їм ставити під сумнів усе, що ви говорите.
Додавання власних інструкцій суттєво не змінить можливості чат-бота. Але їх можна використовувати, щоб адаптувати їхні відповіді до ваших уподобань, наприклад, із певним форматуванням, довжиною чи очевидною індивідуальністю. ChatGPT також має окремі налаштування для налаштування тепла, ентузіазму та використання емодзі.
За словами Нойманна, чат-боти не завжди виконують підказки системи. «Він має більше потужностей, він має більше пріоритетів, але ваша підказка також не завжди працює», – сказала вона. Її дослідження показало, що користувачі штучного інтелекту хочуть, щоб компанії були прозорими у своїх системних підказках — особливо тому, що вони можуть бути дуже швидко розгорнуті та не завжди мають очікуваний ефект.
Джонсон, дослідник, який витягує системні підказки, каже, що розуміння системних підказок може змінити вашу взаємодію з чат-ботами.
«Іноді ви навіть усвідомлюєте, що модель нечесна з вами, тому що їй так кажуть», — сказав він. «Це як гра за лаштунками».
