Жінка виграла судову справу, залучивши ChatGPT у ролі свого юридичного представника.
У Каліфорнії відбулася унікальна подія: місцева жителька Ліні Вайт успішно використала технології штучного інтелекту, такі як ChatGPT і Perplexity, щоб скасувати рішення про своє виселення та уникнути значних фінансових штрафів. Її випадок став яскравим, хоча й ризикованим, прикладом того, як штучний інтелект може змінити доступ до правосуддя.
Елементи
Лінні Вайт, яка мала заборгованість за оренду і спочатку програла суд присяжних, вирішила відмовитися від послуг традиційних адвокатів і самостійно подати апеляцію, покладаючись виключно на штучний інтелект.
Як повідомляє NBC, чат-бот виявив потенційні процедурні помилки у рішеннях судді, підказав Вайт, які дії необхідно вжити, і допоміг скласти юридично грамотні відповіді для суду.
"Я не можу переоцінити корисність ШІ у моїй справі, -- розповіла жінка, -- Я ніколи, ніколи, ніколи, ніколи не змогла б виграти цю апеляцію без ШІ".
Це не поодинокий випадок. Власниця фітнес-бізнесу зі штату Нью-Мексико Стейсі Деннетт також успішно використовувала ШІ для переговорів щодо врегулювання боргу. За її словами, вона просила ChatGPT "прикинутися професором права з Гарварда і розгромити її аргументи", поки вони не ставали ідеально переконливими.
Темна сторона: Юристи та підроблені висловлювання
Попри очевидні успіхи, використання ШІ у судовій практиці залишається вкрай ризикованим, оскільки чат-боти схильні до "галюцинацій" -- вигадування неіснуючої інформації та фейкових цитат.
Проблема настільки серйозна, що від неї страждають навіть професійні юристи. Нещодавно стався гучний випадок, коли юриста з Нью-Йорка спіймали на поданні документів із вигаданими судовими прецедентами, згенерованими ШІ. А ще більше обурення викликало те, що його викрили у використанні ШІ для написання пояснення до першої помилки.
У серпні адвокат із Каліфорнії отримав "прецедентний" штраф у розмірі $10,000 за подачу апеляції, в якій 21 з 23 наведених судових рішень виявилися абсолютно вигаданими.
Криза відповідальності в юридичній галузі.
Ці ситуації спричинили активні дискусії щодо етичних стандартів. У той час, як звичайні люди, які не можуть дозволити собі послуги адвоката, "приваблюються" легкістю використання штучного інтелекту, професійні юристи, що маніпулюють фальсифікованими даними, опиняються під суворим контролем суддів.
"Я можу зрозуміти, чому деякі люди без юридичного представництва можуть бути схильні довіряти одному з цих інструментів, -- зауважив адвокат Роберт Фройнд. -- Але мені важко зрозуміти, як адвокат може зраджувати основні принципи своїх обов'язків перед клієнтами, пропонуючи аргументи, що ґрунтуються на повній вигадці."
Експерти фіксують різке зростання кількості громадян, які представляють себе у суді:
"Протягом останнього року я зустріла більше людей, які представляють себе самостійно, ніж за весь час своєї кар'єри", - відзначила параюрист Міган Холмс.
Це стається, незважаючи на чіткі застереження від таких компаній, як Google та xAI Ілона Маска, які наголошують, що не слід використовувати їхні технології для ухвалення "високоризикових рішень, що можуть впливати на безпеку, правові та майнові права людей".
Тим часом у Деланді, штат Флорида, історія, що почалася як підліткова витівка, швидко перетворилася на кримінальну справу. 13-річний школяр вирішив, що буде смішно використати шкільний ноутбук, щоб запитати у ChatGPT, "як вбити свого друга".