“Десятиліття досліджень показують, що ми ставимося до таких машин, як магічні відповіді. Недарма AI Нісенітниця продовжує з’являтися в суді, статті новин та звіті Білого дому.”, – Напишіть: www.washingtonpost.com
Ви можете повірити, що ви ніколи не будете досить дурними, щоб надмірно покластися на AI таким чином. Ти помиляєшся.
Існує десятиліття досліджень, що хронізують нашу тенденцію до сліпо довіряти потужному програмному забезпеченню, навіть коли ми знаємо краще – як поспільна людина, яка слідкує за вказівками Google, що відображає на скелі. Нові форми ШІ, які є одночасно потужними, здавалося б, загадковими, схильними до помилок і надмірно розгорнутою, турбозарядкою цієї проблеми.
Тоді необхідним супутником використання сучасного ШІ є смирення, щоб передбачити, що ви будете довіряти технології, навіть коли знаєте, що не повинні. Ось як боротися з цією тенденцією:
Автоматизація упередженість
Багато технологій AI кажуть, що ви не повинні ставитися до них як до Євангелія.
У текстовому полі Chatgpt йдеться: “Чатгпт може робити помилки. Перевірте важливу інформацію”. Tesla каже, що ви повинні постійно бути практичними з його вдосконаленою системою круїзного контролю автомобіля, яку вона називає “автопілотом”. Компанії, які продають програмне забезпечення для розпізнавання обличчя, яке використовується відділами поліції, кажуть, що інформація призначена для розслідувань, а не підстав для арешту.
Проблема, кажуть дослідники AI, полягає в тому, що ці попередження зручно ігнорують, як ми насправді використовуємо технологію – як машини, які виплюнули правильну “відповідь”.
Дослідники десятиліттями описували низку людських упереджень з комп’ютеризованими рекомендаціями, включаючи те, що іноді називають зміщенням автоматизації, або тенденцією до відкликання машин навіть тоді, коли вони суперечать вашому здоровому глузду чи професійному навчанню.
Генеративні системи AI, включаючи чатгпт та генерування зображень Dall-E з OpenAI, що посилюють цю тенденцію, сказала Кейт Кроуфорд, професор університету Південної Каліфорнії та автор “Атласу Ай”. (The Washington Post має контент -партнерство з OpenAI.)
“Генеративні системи AI мають як авторитетний тон, так і ауру нескінченної експертизи, яка може змусити користувачів відчувати себе так, ніби кожна відповідь є правильною без необхідності її перевірити”, – сказав Кроуфорд.
Мій улюблений приклад зміщення автоматизації: роками багато людей намагаються визначити розташування комп’ютера чи телефону, які використовуються злодіями особи, дітьми -втікачами та онлайн -домаганнями знайшли місце в одній фермі Канзасу. Це був комп’ютерний глюк у спільному онлайн -програмному забезпеченні для картографування.
Інакше розумні американці їхали до Канзасу, щоб протистояти людині, на яку вони вважали, вкрали телефон або переслідували їх в Інтернеті – адже комп’ютер виплював неправильну відповідь.
Якщо ви думаєте, що ніколи не зробите щось подібне, ви навчилися неправильного уроку. Ми всі схильні до упередженості автоматизації, особливо коли ми піддаємося стресу чи опрацьованню.
‘Недовіра, але перевірить’
Комп’ютерний програміст Саймон Віллісон заявив, що допомагає припустити, що чат -боти та інші нові форми ШІ помиляються, поки ви не підтвердите інакше, підхід, який він назвав “недовірою, але перевіряєш”.
Це відрізняється від того, як ми приїхали до лікування багатьох інших технологій. Прогнози погоди не на 100 відсотків точні, але вони, як правило, досить надійні, щоб не приймати парасольку, коли прогноз сонячний. Картографування вказівки та Сірі постійно піднімаються, але вони часто досить хороші, або, принаймні, відносно низькі ставки, коли вони помиляються.
Однак генеративні ШІ складають речі, і це стає гірше, а не краще. Ці знання про притаманні недоліки є необхідною відправною точкою, коли ви використовуєте AI для узагальнення інформації, редагування електронних листів та мозкового штурму.
Необхідно також визнати, що вау -фактор генерації речень чи зображень не робить технологію інтелектуальною.
“Генеративна ШІ може здатися, що він розумний, оскільки він має розмовний інтерфейс, але це насправді протилежне розумному”, – сказала Мередіт Бруссар, професор журналістики даних Нью -Йоркського університету, який написав “штучну непереможність: як комп’ютери неправильно розуміють світ”.
Френк Паскале, професор юридичної школи Корнелла, досліджував останні приклади адвокатів, спійманих, подаючи фальшиві юридичні цитати з чатів. Юристи зобов’язані переконатися, що будь -що, що подається до суду, заздалегідь переглянуто людиною, але, як і решта з нас, адвокати спокушаються ярликами AI.
Паскале заявив, що “конкретні наслідки”, такі як круті штрафи або тимчасова втрата ліцензій юристів юристів, можуть допомогти перекрити апеляцію щодо використання AI та не перевірити його роботу.
Спокуса, яку Паскале описав для вирізання кутів, показує, що за людьми, що викачують, є більша причина, що викачує недоліки матеріалу, що генерується AI,-сказав Еван Селінгер, професор технологічного інституту Рочестера, який зосереджується на філософії технологій.
Коли ваш начальник або школа дитини “очікує, що AI підвищить продуктивність та роботу, і робочі місця відчуватимуться нестабільними, тиск неминуче призведе до залежності від інструментів AI”, – сказав Селінгер. “Багато хто робить те, що вони вважають, що потрібно, щоб вижити”.
Детальніше:
- Ми попросили 5 помічників AI написати жорсткі електронні листи. Один був явним переможцем.
- Ні AI, ні роботи. Ці компанії вимагають від працівників користуватися технологіями.
- Простежування локацій “Знайти мої” програми та повітряні папери, безумовно, зручні. Але ви ніколи не можете їм повністю довіряти.