9 Травня, 2025
AI execs, що використовуються для прохання про регулювання. Вже не. thumbnail
Технології

AI execs, що використовуються для прохання про регулювання. Вже не.

В рамках адміністрації Байдена Openai та його суперники попросили уряд регулювати ШІ. Під Трампом вони говорять про прискорення, щоб перемогти Китай.”, – Напишіть: www.washingtonpost.com

Сем Альтман, генеральний директор Chatgpt-Maker OpenAi, попередив у Сенатському слуханні в четвер, що вимагати схвалення уряду звільнити потужне програмне забезпечення штучного інтелекту буде “катастрофічним” для лідерства США в цій технології.

Це було вражаючим переворотом після його коментарів до Сенату Слухаючи два роки тому, коли він перерахував створення нового агентства для отримання ліцензії на технологію як рекомендацію “номер один” щодо того, щоб AI був у безпеці.

Поворот Альтмана підкреслює трансформацію того, як технологічні компанії та уряд США говорять про технології AI.

Широкі попередження про те, що AI становить “екзистенціальний ризик” для людства та благань керівників керівників щодо швидкого, превентивного регулювання технології, що розвиваються. Натомість серед нових керівників технічних технологій є майже консенсус у новій адміністрації Трампа, що Сполучені Штати повинні звільнити компанії ще швидше, щоб отримати економічні вигоди від ШІ та зберегти перевагу нації над Китаєм.

“Щоб лідирувати в ШІ, США не можуть дозволити регулювати навіть нібито доброякісне вид, щоб задушити інновації та прийняття”,-сенатор Тед Крус (R-Texas), голова комітету Сенату з питань торгівлі, науки та транспорту, заявив у четвер на початку слухань.

Венчурні капіталісти, які висловили обурення при підході адміністрації Байдена до регламенту AI, тепер мають ключові ролі в адміністрації Трампа. Віце-президент JD Vance, сам колишній венчурний капіталіст, став ключовим прихильником політики AI Laissez-Faire AI вдома та за кордоном.

Критики цієї нової позиції попереджають, що технологія AI вже завдає шкоди людям та суспільству. Дослідники показали, що системи AI можуть вловити расизм та інші упередження з даних, на яких вони пройшли навчання. Генератори зображень, що працюють від ШІ, зазвичай використовуються для цькування жінок, створюючи порнографічні зображення без згоди, а також вони використовувались для створення образів сексуального насильства над дітьми. Конгрес у квітні був прийнятий двосторонній законопроект, який має на меті зробити злочин для розміщення неконсенсуальних сексуальних образів, включаючи AI-погворених AI.

Румман Чоуддурі, науковий посланник Державного департаменту США під час адміністрації Байдена, заявив, що розповідь технологічної галузі про екзистенціальні проблеми відволікали законодавців від подолання шкоди в реальному світі.

Підхід галузі в кінцевому підсумку дозволив «приманці та перемикання», де керівники розбирають регулювання навколо таких концепцій, як самозапиваючі ШІ, а також забивають побоювання, що Сполученим Штатам потрібно перемогти Китай щодо побудови цих потужних систем.

Вони “Підрив будь -якого регламенту, викликаючи одне, що уряд США ніколи не говорить” ні “: стурбованість національної безпеки”, – сказав Чоуддурі, який є виконавчим директором некомерційної гуманної розвідки.

Ранні попередження

Гонка AI в Силіконовій долині, спричинена випуском Chatgpt OpenAI в листопаді 2022 року, була незвичною для великої шаленості технологічної індустрії в тому, як сподівання на технологію зросли разом із побоюваннями її наслідків.

Багато співробітників OpenAI та інших провідних компаній були пов’язані з рухом безпеки AI, ниткою думки, орієнтованої на занепокоєння щодо здатності людства контролювати теоретизовані «суперінтеллігентні» майбутні системи AI.

Деякі лідери техніки знущалися над тим, що вони називали науково-фантастичними фантазіями, але занепокоєння щодо SuperIntelligence сприймалися серйозно серед лав провідних керівників ШІ та корпоративних дослідників. У травні 2023 року сотні з них підписалися на заяву, в якій зазначається, що “пом’якшення ризику вимирання від ШІ має бути глобальним пріоритетом поряд з іншими ризиками суспільства, такими як пандемія та ядерна війна”.

Страхи над надсиланням AI також закріпили у Вашингтоні та інших світових центрах розвитку технологічної політики. Мільярди, пов’язані з рухом безпеки ШІ, такими як співзасновник Facebook Дастін Московіц та співзасновник Skype Яан Таллінн, фінансуючи лобістів, аналітичні документи та стипендії для молодих політики, що сприяють підвищенню політичної обізнаності про ризики великих картин AI.

Ці зусилля, здавалося, виграли результати та поєднуватися з побоюванням, що регулятори не повинні ігнорувати перші дні нової одержимості технологічної індустрії, як вони мали для соціальних медіа. Політики з обох партій у Вашингтоні виступали за регулювання AI, і коли у листопаді 2023 року світові лідери зібралися у Великобританії на міжнародному саміті AI, стурбованість майбутніми ризиками була на сцені.

“Ми повинні розглянути та вирішити повний спектр ризику ШІ, загрози людству в цілому, а також загрозам для людей, громад, нашим установам та найбільш вразливим населенням”,-сказав тодішній президент Віце Камала Гарріс у зверненні, яку вона дала під час саміту Великобританії. “Ми повинні керувати всіма цими небезпеками, щоб переконатися, що AI справді безпечний”.

Під час продовження цього збору, проведеного в Парижі цього року, змінене ставлення до регулювання AI серед урядів та технологічної галузі було простим. Безпека була наголошена на останньому комюніке Паризького саміту в порівнянні з вишуканим на саміті Великобританії. Більшість світових лідерів, які говорили, закликали країни та компанії прискорити розвиток розумнішого ШІ.

Венс у мовленні критикував спроби регулювати технологію. “Ми вважаємо, що надмірне регулювання сектору ШІ може вбити трансформаційну галузь так само, як вона знімається, і ми докладемо всіх зусиль, щоб заохотити політику щодо зростання AI”,-сказав Венс. “Майбутнє AI не збирається вигравати рукотворною безпекою”. Він виділив регламент AI Європейського Союзу за критику.

Через тижні Європейська комісія перейшла до послаблення запланованих правил AI.

Нові пріоритети

Після повернення на посаду президент Дональд Трамп швидко переїхав, щоб повернути порядок денний AI за президента Джо Байдена, центральним місцем якого було розшифровим виконавчим наказом, який, серед іншого, вимагало компаній, що будують найпотужніші моделі AI для проведення тестів на безпеку та повідомляють про результати уряду.

Правила Байдена розлютили засновників-стартапів та венчурних капіталістів у Силіконовій долині, які стверджували, що вони віддають перевагу великим компаніям з політичними зв’язками. Питання, поряд із протидією антимонопольних політики Байдена, сприяло припливу підтримки Трампа в Силіконовій долині.

Трамп скасував виконавчий наказ Байдена в перший день свого другого терміну і призначив кілька фігур Силіконової долини до своєї адміністрації, включаючи Девіда Сакса, видатного критика технологічної програми Байдена, як його криптовалюту та політики AI. Цього тижня адміністрація Трампа скасувала план епохи Бідена, щоб суворо обмежити експорт мікросхем в інші країни, намагаючись зупинити фішки, що досягають Китаю через інші країни.

Заяви Альтмана в четвер – лише один із прикладів того, як технологічні компанії спритно відповідали тону адміністрації Трампа щодо ризиків та регулювання ШІ.

Президент Microsoft Бред Сміт, який у 2023 році також виступав за федеральне агентство, орієнтоване на поліцейські АІ, заявив на слуханні в четвер, що його компанія хоче регуляторну базу “легкого дотику”. Він додав, що довгі очікування на федеральні дозволи на будівництво водно -болотних угідь є однією з найбільших проблем для побудови нових центрів обробки даних AI у Сполучених Штатах.

У лютому лабораторія AI в Google Deepmind зняла давню обіцянку не розробити AI, який буде використовуватися для зброї чи спостереження. Це одна з декількох провідних компаній AI, щоб нещодавно охопити роль будівельних технологій для уряду та військових США, керівники стверджують, що ШІ має контролювати західні країни.

Компанія OpenAI, META та AI Antropic, яка розробляє Chatbot Claude, всі оновили свою політику за останній рік, щоб позбутися від положень щодо роботи над військовими проектами.

Макс Тегмарк, професор ШІ в Массачусетському технологічному інституті та президент Інституту майбутнього життя, некомерційної організації, яка досліджує потенційний ризик надзвичайного AI, заявив, що відсутність регулювання ШІ в США є “смішним”.

“Якщо в дорозі від OpenAI або антропічного або однієї з інших компаній є магазин сендвічів, перш ніж вони зможуть продати навіть один бутерброд, вони повинні відповідати стандартам безпеки для своєї кухні”, – сказав Тегмарк. “Якщо [the AI companies] Хочете випустити Super Intelligence завтра, вони вільні це зробити ».

Tegmark та інші продовжують досліджувати потенційні ризики ШІ, сподіваючись підштовхнути уряди та компанії до повторної роботи з ідеєю регулювання технології. У Сінгапурі відбувся саміт дослідників безпеки AI, який організація Tegmark в електронному листі до ЗМІ, яка називається кроком вперед після “розчарувань” Паризької зустрічі, де говорив Венс.

“Шлях до створення політичної волі – це насправді просто проводити дослідження ботаніків”, – сказав Тегмарк.

Уілл Оремус внесе свій внесок у цей звіт.

ПОВ'ЯЗАНІ НОВИНИ

Що відбувається з Apple, якщо торгова війна Трампа змушує її розірвати зв’язки з Китаєм?

nytimes

Panasonic Holdings скоротити 10 000 робочих місць у всьому світі

wsj

Як використовувати інструменти для написання AI на своєму iPhone та Android

nytimes

Залишити коментар

Цей веб-сайт використовує файли cookie, щоб покращити ваш досвід. Ми припустимо, що ви з цим згодні, але ви можете відмовитися, якщо хочете. Прийняти Читати більше