4 Березня, 2025
Ні, AI не може вирішити, кого стріляти - або багато інших цілей дож thumbnail
Технології

Ні, AI не може вирішити, кого стріляти – або багато інших цілей дож

Використання AI для виявлення “критичних місій” роботи? Виявляючи мертвих людей на рулонах соціального страхування? Уряду є нагальна роль для автоматизації та ШІ – але те, що, здається, робить Дог, не складається.”, – Напишіть: www.washingtonpost.com

З Служба США до Goge проводить стратегію “AI-First” для переробки уряду.

Я розумію, чому це заманлива ідея: принесіть до Вашингтона такого відомого технолога, як Елон Маск. Розкриття штучного інтелекту. Нехай дані визначають, що марно.

«Він створив ці алгоритми, які постійно повзають через дані. І, як він сказав мені у своєму кабінеті, дані не брешуть »,-сказав оратор Хауса Майк Джонсон (R-Louisiana) минулого місяця.

Але я чую іншу історію, коли розмовляю з технологами, які давно виступають за урядову автоматизацію. Мало підстав вважати, що AI – вражаючі, як може бути його досягнення – може досягти навіть частини того, що Дога може хотіти, щоб ми повірили зараз. Дані, безумовно, можуть брехати.

Багато останніх доказів свідчать про те, що покладатися на автоматизацію лише для прийняття критичних рішень може призвести до великих урядових помилок. Просто попросіть Нью -Йорка, де минулого року уряд AI Chatbot порадив бізнесу порушити закон. Або Австралія, де глибоко хибний алгоритм під назвою Robodebt створив протилежне ефективності: уряду довелося влаштувати більше мільярдів доларів з громадянами за неправильну відшкодування пільг.

“Якби ми могли просто взяти інструмент і усунути шахрайство у федеральному уряді, я б за нього був на 1000 відсотків”, – сказала Лінн Оверманн, виконавчий директор Центру Беека в університеті Джорджтаун, аналітичний центр для практикуючих урядової автоматизації. «Технологія може бути дійсно потужним інструментом для вирішення деяких проблем, які вони претендують на вирішення. Вони просто не використовують це таким чином ».

Майже всі погоджуються, що статус -кво в державних системах не працює. У нашій економіці додатка очікування паспорта вперше-це шість тижнів, а Державний департамент США приймає лише чеки та грошові замовлення. Бажання використовувати ШІ та автоматизацію для виправлення урядових хрестових ліній партій. У 2023 році президент Джо Байден видав виконавчий наказ, який закликав агенції знайти більше способів використання ШІ. До того, як Дог був навіть річчю, федеральний уряд повідомив про понад 1700 випадків використання.

«AI був би корисним з федеральним урядом. Існує багато досить низької вартості, яка може бути автоматизована »,-сказала Дженніфер Палка, колишній заступник головного директора з технологій Білого дому, яка в 2014 році допомогла знайти цифрову службу США, організацію, яка стала догі.

Але вона застерігає: “Це не означає, що ми в хорошому місці, щоб зробити це дуже швидко”.

Залучення більше ШІ в уряд вимагає чіткого очей щодо того, що він може зробити. Це вимагає отримання доступу до – і захисту – високоякісних даних. Це вимагає продуманого підходу до тестування на точність та упередженість. І найбільше, він займає глибоку експертизу навколо урядових систем та людської роботи, яку він замінює, кажуть багато його адвокатів.

Що робить Дог з AI?

Білий дім не відповів на мої запитання щодо використання AI. Але деякі з того, що стало загальнодоступним, не підтримує ретельну перевірку.

NBC News повідомив, що Doge планує подавати електронні листи від федеральних працівників про те, що вони досягли у великій мови AI – техніка, яка лежить в основі чатів. Їх мета: Використовуйте ШІ, щоб визначити, які робочі місця були “критичними місією”.

Це зміїна олія AI. “Застосування LLM до резюме співробітників останнього тижня ефективності є явно недостатнім”,-сказав Фред Освальд, професор промислової організаційної психології в університеті Райса, який проводить дослідження того, як AI використовується в умовах управління талантами.

“Ефективна оцінка ефективності вимагає широкого розуміння роботи працівника та його вимог щодо ефективності, а також більш широкі дані, що збираються для порівняння з цими вимогами”, – сказав Освальд, член Національного консультативного комітету з питань штучної розвідки, який був створений під час першої адміністрації Трампа, а також консультував адміністрацію Бідена.

Дож також може використовувати AI для виявлення відходів та шахрайства. Тож давайте розглянемо один приклад: Муск сказав, що дані показують, що десятки мільйонів людей, яким старше 100 років, отримують виплати соціального страхування. На X він назвав це “величезною проблемою”.

Але після того, як він почав висловлювати претензію, виконуючий обов’язки комісара соціального захисту Лі Дудек пояснив, що це насправді лише непорозуміння бази даних. «Повідомлені дані – це люди в наших записах із номером соціального страхування, які не мають дати смерті, пов’язаної з їх записом. Ці особи не обов’язково отримують пільги », – сказав він.

Інцидент, як мінімум, показує, що Маск та його екіпаж не розуміють базу кодексу соціального страхування. Він також пропонує АІ не обов’язково розраховувати, щоб дати правильні відповіді на запитання про шахрайство та відходи, навіть коли він має доступ до даних.

“Це насправді в кінцевому підсумку, я б уявив, створюючи більш неефективність, змусивши їх переслідувати кролячі отвори, які насправді не приведуть їх до кращого програмування або фактично розкриття шахрайства”, – сказав Оверман Джорджтаун.

Цинічний погляд: Значна частина розмови про “AI-First” від DOGE може бути обкладинкою-використовуючи технічну мову, що люди відчувають себе менш комфортними, що кидає виклик як претензію на витягування уряду.

Минулого тижня 21 державний службовці пішли у відставку з департаменту технічних наук Білого дому, який став дожом, сказавши в спільному листі, що вони відмовилися використовувати свої технічні знання, щоб “демонтувати критичні державні послуги”. На X Маск сказав, що співробітники – це “політичні затримки”, які “були б звільнені, якби вони не пішли у відставку”.

Наприкінці минулого тижня адміністрація Трампа також звільнила команду з 90 державних державних службовців під назвою 18F. Раніше це допомогло федеральним агенціям покращити свої цифрові послуги. Раніше Маск назвав це “далеко лівим урядовим комп’ютерним офісом”.

Що працює, а що ні

Урядова автоматизація найкраще працює, коли звільняє час людей із завдань з низькими ставками, щоб люди могли приймати важливі рішення, кажуть експерти.

Це не повинно бути AI. Однією з останніх ініціативи автоматизації на чолі з 18F є веб -сайт під назвою DirectFile, який дозволяє багатьом американцям робити свої податки легко та безкоштовно.

Що стосується AI, то багато експериментів розпочалися близько року тому з виконавчим розпорядженням Байдена. Але зараз деякі люди, які працюють над ними, залишилися або звільнили з уряду; Навіть веб -сайт, який зібрав інформацію про ці проекти AI, був знятий.

“Більшість цих проектів – це надія та прагнення та потенціал” – не доведені та готові до громадського використання, – сказала Елізабет Лейрд, яка відстежує ШІ в уряді в некомерційному центрі демократії та технологій.

Багато урядових зусиль AI зосереджуються на полегшенні адміністративних тягарів, таких як оформлення документів та введення даних, сказала вона.

На сьогоднішній день найпоширеніші зусилля включають чатів. Вони можуть бути використані для того, щоб допомогти державним працівникам зрозуміти складні правила та правила та впорядкувати свої процеси. Держава Пенсільванія запустив пілота з OpenAI, виробником Chatgpt, і заявила, що урядові службовці, які самостійно повідомляли, в середньому 105 хвилин на день за завданнями, які допомагають Chatgpt.

Чатботи також можна використовувати публічно, що стосується. Парт Шах, генеральний директор технологічної компанії під назвою Polimorphic, сказав мені, що він отримав близько 70 переважно місцевих органів влади, щоб поставити чат -боти на свої сайти, які відповідають на запитання про послуги, як, де скаржитися на сміттєвий пікап. Перевага полягає в тому, що він доступний цілодобово на день, на декількох мовах, щоб здебільшого відповісти на запитання про речі, які важко знайти на веб-сайтах. “Якщо ви працюєте з справами, ви сподіваєтесь виконати справу, і все ж більшість людей потрапляють у відповіді на телефони”, – сказав він.

Але сьогоднішні чати мають деякі помітні недоліки, особливо те, що вони іноді “галюцинують” або складають інформацію. Нью -Йоркський бот сказав роботодавцям, що вони можуть приймати поради щодо працівників і що орендодавці можуть розрізнити, виходячи з чийогось джерела доходу. Microsoft, яка зробила Tech Bot’s AI Tech, заявила, що працює з містом, щоб покращити його.

Експерти не погоджуються, наскільки це проблема, коли урядові боти неправильно отримують факти. “Я розірвана”, – сказала Енн Льюїс, яка до листопада минулого листопада керувала Управлінням послуг з трансформації технологій в Адміністрації загальних послуг. Як і у пошукових системах перед ними, “люди вчаться не довіряти кожній річ, яку AI розповідає вам у людських реченнях”.

І це відносно низькі ставки для AI в уряді.

Ближче до заявленої місії Дога, були зусилля щодо використання AI для виявлення шахрайства. AI може бути корисним для виявлення закономірностей або аномалій для експертів, які потім заходять і досліджують, кажуть експерти, але попередніх прикладів його використання з типами ставок, які ми бачимо з Doge, сказав Лейрд.

Алгоритми та ШІ також використовувались для того, щоб спробувати прискорити визначення переваг, теоретично, щоб процес рухався швидше і бути більш справедливим. Але помилки приходять із жахливими наслідками. У Мічигані система під назвою Мідас помилково звинувачувала громадян у шахрайстві з безробіттям, неправильно вилучила свої гроші і змусила деяких оголосити про банкрутство. У 2022 році, Держава оселилася з багатьма жертвами за 20 мільйонів доларів.

Проблеми виникають, коли автоматизовані системи виводять з циклу. І все -таки видалення людей є частиною того, що робить AI таким привабливим.

«Я переживаю, що в чомусь однією з основних дисфункцій уряду є те, що насправді ніхто не хоче приймати рішення. І тому AI – це корисний спосіб сказати: “Я не прийняв рішення, Ай зробив”, – сказав Пахлка.

“Я не думаю, що це здорово”, – додала вона. “Я думаю, що людям багато в чому потрібно приймати рішення”.

Проблема не AI-вона використовує його без гарантій, сказав реп. Ро Ханна (D-California), який представляє Кремнієву долину і виступав за більше використання уряду.

«Проблема полягає в тому, що довіра не встановлена, і прозорості немає. Немає чітких принципів », – сказав він мені. “І тому люди злякаються”.

ПОВ'ЯЗАНІ НОВИНИ

Це як окуляри віртуальної реальності для вашого рота

nytimes

Новий технічний технологій Google означає, що відеодзвінки можуть бути не смертю нас

wsj

Трамп, виробник чіпів TSMC, як очікується, оголосить у США в 100 мільярдів доларів

wsj

Залишити коментар

Цей веб-сайт використовує файли cookie, щоб покращити ваш досвід. Ми припустимо, що ви з цим згодні, але ви можете відмовитися, якщо хочете. Прийняти Читати більше