Употребата на вештачката интелигенција во правната пракса станува се почеста, бидејќи адвокатите бараат начини да го намалат оптоварувањето и да ги забрзаат работните процеси.
Ванкувер во декември минатата година стана место на несекојдневен скандал кога адвокатот Чонг Ке поднел барање во судот користејќи фиктивни случаи кои г генерирал „ChatGPT“. Имено, Ке го користел четботот развиен од страна на „OpenAI“ за истражување, не сфаќајќи дека случаите кои ги пронашол се измислени. Ова е првиот познат случај во Канада каде адвокатот поднел лажни информации поради генеративната вештачка интелигенција.
Употребата на вештачката интелигенција во правната пракса станува се почеста, бидејќи адвокатите бараат начини да го намалат оптоварувањето и да ги забрзаат работните процеси. Меѓутоа, „ChatGPT“, како голем јазичен модел, има тенденција да креира лажни или неточни податоци, феномен познат како „халуцинации“. Адвокатите како Ке, но и оние од Масачусетс и Колорадо, веќе се соочиле со последиците од користењето на овој алат.
Минатата година, њујоршките адвокати Стивен Шворц и Питер ЛоДука се соочиле со санкции поради користење на „ChatGPT“ за подготовка на правен случај против една авио-компанија/ Нивниот правен документ содржел шест измислени цитати, што резултирало со казна од 5.000 долари и професионален срам.
Професорот Ејми Сализин од Правниот факултет при Универзитетот во Отава, која се занимава со етика и технологија, истакнува дека ко на вештачката интелигенција станало „неодоливо“, посебно поради големото работно оптоварување и стресните услови за работа во таа професија. Истражување од 2022-ра година покажало дека повеќе од половина од адвокатите патат од синдромот „прегорување“, додека речиси 60 проценти од правните професионалци се под психолошки стрес.
Адвокатите и натаму се одговорни за точноста на информациите кои ги поднесуваат на суд, без оглед на тоа колку се зависни од технологијата. Адвокатските друштва во Канада воведуваат специфични насоки за користње на вшакт интелигенција, барајќи од адвокатите да ги проверуваат сите податоци пред поднесувањето.
Лен Полски од адвокатското друштво Алберта верува дека генеративната вештачка интелигенција може да биде корисна ако се користи одговорно. Таа може да им помогне на адвокатите да пружаат подобри услуги, под услов да се користи паметно и доверливо, пишува „The Walrus“.
Од друга страна, јавноста исто така користи генеративна вештачка интелигенција, често не сфаќајќи ги ризиците. Во Велика Британија, Фелисити Харбер користела девет измислени цитати о жалба прти плаќање а данок на имот, додека Џонатан Карлен измислувал цитати во одбрана на суд. Ваквите случаи укажуваат на потребата за колективна акција на судовите, владите и регулаторите за да се едуцираат адвокатите и јавноста за одговорното користење на вештачка интелигенција.
Засега, најважно е брзината и погодноста кои вештачката интелигенција ги пружа да се усогласат со внимателна имплементација и надзор. Без соодветна едукација и регулација, овие случаи ќе продолжат, ставајќи ги адвокатите во опасност од професионален срам и правни поледици.