«Американські юристи прискорюють темпи подання згенерованих штучним інтелектом записок із вигаданими цитатами, судові санкції встановлюють нові рекорди, а технологія настільки глибоко поширюється в легальне програмне забезпечення, що експерти кажуть, що обов’язкові правила розкриття вже застаріли. Підсумок Минулого року відбулося стрімке зростання кількості судових санкцій проти адвокатів за згенеровані штучним інтелектом матеріали, що містять», — пишуть на: www.crypto.news
Американські юристи прискорюють темпи подання згенерованих штучним інтелектом записок із вигаданими цитатами, судові санкції встановлюють нові рекорди, а технологія настільки глибоко поширюється в легальне програмне забезпечення, що експерти кажуть, що обов’язкові правила розкриття вже застаріли.
Резюме
- Минулого року стався стрімкий сплеск судових санкцій проти адвокатів за згенеровані штучним інтелектом матеріали, що містять вигадані цитати, і цей показник все ще зростає — дослідник, який відстежував цю тенденцію, зафіксував 10 справ із 10 різних судів за один день.
- Федеральний суд, можливо, встановив новий рекорд минулого місяця, наказавши юристу Орегону сплатити 109 700 доларів США у вигляді санкцій за повідомлення про помилки, створені штучним інтелектом, у той час як верховні суди штату Небраска та Джорджії провели публічні слухання щодо галюцинованих цитат у справах.
- У березні на OpenAI була подана позов американська компанія Nippon Life Insurance Company, яка стверджувала, що жінка використовувала ChatGPT як юридичного консультанта, створюючи безглузді позови — звинувачення, яке OpenAI назвав безпідставним.
Американські юристи прискорюють темпи подання згенерованих штучним інтелектом записок із вигаданими цитатами, судові санкції встановлюють нові рекорди, а технологія настільки глибоко поширюється в легальне програмне забезпечення, що експерти кажуть, що обов’язкові правила розкриття вже застаріли. Згідно з розслідуванням NPR від 3 квітня, обсяг судових санкцій за помилки, створені штучним інтелектом, зріс у 2025 році та не сповільнився у 2026 році — закономірність, яка має прямі наслідки для будь-якого сектору, включно з криптовалютою, юридичний вплив якого залежить від якості заяв, поданих на його захист.
Цифри продовжують зростати
Демієн Шарлотен, дослідник HEC Paris, який веде всесвітній підрахунок судових санкцій за юридичні помилки, створені штучним інтелектом, сказав NPR, що темпи не сповільнилися. «Останнім часом у нас було 10 справ із 10 різних судів за один день», — сказав він. «У нас є ця проблема, тому що штучний інтелект занадто хороший, але не ідеальний». Найвідомішим випадком минулого циклу був випадок адвокатів генерального директора MyPillow Майка Лінделла, яких оштрафували на 3000 доларів кожного за подання документів із вигаданими цитатами.
Минулого місяця федеральний суд, можливо, встановив новий рекорд, коли адвоката з Орегону було зобов’язано сплатити 109 700 доларів США у вигляді санкцій і витрат. Верховні суди штатів також були залучені: у лютому Верховний суд штату Небраска засудив адвоката Омахи за фіктивні цитати та скерував його до дисциплінарної відповідальності; подібна публічна сцена розгорнулася у Верховному суді Джорджії в березні. «Мене дивує, що люди все ще роблять це, коли про це пишуть у новинах», — сказала Карла Уейл, заступник декана факультету інформації та технологій Школи права Вашингтонського університету.
Чому правила розкриття інформації не працюють
Деякі суди відповіли, вимагаючи від юристів позначати будь-який контент за допомогою ШІ у своїх справах. Джо Патріс, старший редактор журналу Above the Law і юрист, який став журналістом, сказав NPR, що ці правила, ймовірно, майже відразу стануть непрацездатними. «Це стане настільки інтегрованим у те, як усе працює, що, щоб старанно дотримуватися правила, вам доведеться використовувати все, що ви видаєте: «Гей, це за допомогою штучного інтелекту», і тоді це стає начебто марним зусиллям», — сказав він. Економіка легального виставлення рахунків також прискорює впровадження, а не сповільнює його. Оскільки інструменти штучного інтелекту скорочують час на розробку, юридичні фірми стикаються з тиском, щоб знайти нові моделі виставлення рахунків — і Патріс припускає, що внаслідок цього тиск часу робить більш спокусливим для юристів приймати перші проекти штучного інтелекту без належної перевірки.
Відмова Міністерства юстиції від судового переслідування розробників криптографії частково залежала від аргументу про те, що код є нейтральним, якщо немає злочинного наміру — це відмінність, яка вимагає саме такого ретельного юридичного обґрунтування, яке постійно не вдається відтворити поспішним запитам за допомогою ШІ. Федеральний суд Техасу нещодавно відхилив справу про відповідальність за програмне забезпечення для шифрування, посилаючись на меморандум Міністерства юстиції щодо стандартів судового переслідування розробників, що демонструє, як якість юридичної аргументації у справах, пов’язаних зі штучним інтелектом, безпосередньо впливає на результати регулювання для всього сектора.
Позов OpenAI
Сам штучний інтелект тепер увійшов до юридичного перехрестя поза проблемою судових помилок. У березні компанія Nippon Life Insurance of America подала позов на OpenAI у федеральному суді штату Іллінойс, яка стверджувала, що жінка використовувала ChatGPT як юридичного радника, отримуючи вказівки, що призвело до безглуздих позовів проти страховика. У скарзі OpenAI звинуватили у юридичній діяльності без ліцензії. У письмовій заяві для NPR OpenAI сказав: «Ця скарга безпідставна». Уельс, зі свого боку, відкидає обидві крайнощі. «Я думаю, що юристи, які розуміють, як ефективно та етично використовувати генеративний ШІ, замінять юристів, які цього не розуміють», — сказала вона. «Я думаю, це майбутнє».
