A još će se manji broj nas moći podičiti okolnošću da je do toga došlo uslijed našeg profesionalnog propusta. Kolega Steven Schwartz iz njujorškog odvjetničkog društva Levidow, Levidow & Oberman naučio je to na teži način.
Predmet kao takav i nije (bio) naročito pravno kompliciran. Kolega Schwartz preuzeo je zastupanje gospodina Mate, koji je 2022. tužio Aviancu, Inc. tvrdeći da su ga uslijed nemara Aviancinog zaposlenika na jednom njihovom letu ozlijedila metalna kolica za posluživanje. Avianca je prigovorila zastari, ali Schwartz i kolege iz ureda uzvratili su podugačkim podneskom „podebljanim“ relevantnom sudskom praksom. Avianca-ini odvjetnici zdušno su se bacili na opovrgavanje dostavljenih presedana, no nikako ih nisu mogli pronaći u dostupnim bazama podataka. Kad su skrenuli sucu pažnju na ovu okolnost, sud je reagirao pozvavši kolege na dostavu preslika presuda iz podneska. No osim jedne odluke (za koju se naknadno ispostavilo da je lažna, kao što su lažne bile i u njoj citirane presude), Schwartz i kolege nisu mogli potkrijepiti svoje tvrdnje. Presude na koje su se u ranijem podnesku pozivali nije bilo moguće ni pronaći ni dostaviti, jer nisu postojale.
Sud je, u čudu, zatražio pisano očitovanje, a kolega Schwartz je skrušeno priznao da je presedane tražio (i našao) koristeći ChatGPT. To mu je, tvrdio je, bio prvi susret s umjetnom inteligencijom - držao je da se radi o naprednoj tražilici koja nikako ne bi mogla ponuditi lažne podatke. Sudu je dostavio i presliku svog “razgovora” s ChatGPT-em, u kojem pita chatbot jesu li slučajevi stvarni i koji mu je izvor. Iz snimki zaslona, brani se Schwartz, vidljivo je kako je umjetna inteligencija potvrdila da se sve slučajeve može pronaći u renomiranim pravnim zbirkama poput LexisNexisa i Westlawa. Zadovoljen nedvosmislenim odgovorom i ne videći razloga da ovako naprednu tražilicu dalje provjerava, kolega Schwartz uključio je navedene slučajeve u podnesak sudu. Na njegovu nesreću, ispalo je da je umjetna inteligencija baš sve ponuđene odluke u cijelosti izhalucinirala.
Na nesreću, pak, sviju nas, slučaj su brzinom munje nanjušili američkih mediji. Niti tjedan dana nakon Schwartzova očitovanja, članak laskavog naslova „Evo što se dogodi kada vaš odvjetnik upotrijebi ChatGPT“ osvanuo je ni manje ni više nego u New York Timesu. Očekivano, Schwartzova obrana ismijana je i odbačena s prijezirom. No, važnije, člankom je zacementiran perpetualno negativan javni imidž odvjetništva. Javnosti je ovaj slučaj potvrdio sve ono što nam oduvijek spočitavaju - od nestručnosti i nebrige za stranke, preko samoživosti i prenapuhanog ega, pa sve do prekomjernih naknada za usluge koje, na koncu, nismo (sami) izvršili. Ukratko, kolege, ovo nam kao struci zaista nije trebalo.
Toga je u potpunosti bio svjestan i uredujući sudac koji se, zaustavivši raspravu o meritumu, u cijelosti fokusirao na utvrđivanje odgovornosti uključenih kolega. Odlukom koja se proteže na nekoliko desetaka stranica (i koju je preko dva sata u detalje usmeno obrazlagao) sud je izrekao Schwartzu i kolegama novčanu kaznu od 5000 dolara i obvezao ih na slanje obrazloženih podnesaka ne samo drugoj strani u sporu, već i svim sucima koji su netočno navedeni kao uredujući u lažnim slučajevima.
Očekivao bi čovjek da se ovakva priča treba desiti samo jednom, pa da ostatku struke (makar od susramlja) ne padne na pamet ponoviti grešku. Mais non! Samo u drugoj polovici 2023. u javnost je isplivalo nekoliko sličnih slučajeva u Americi, Kanadi, Ujedinjenom Kraljevstvu, Indiji i drugdje. Umjetna inteligencija nemilosrdno je sjekla sve pred sobom - kolega Schwartz imao je preko 30 godina staža, no gafova nisu bili pošteđeni ni pripadnici mlađih generacija. Pod pritiskom rokova, iz neznanja, a možda i nebrige, brojni su odvjetnici kratkoročnu suradnju s umjetnom inteligencijom „platili“ ne samo novcem, već i reputacijom, suspenzijama, pa čak i otkazima.
Osobito se problematičnom pokazala nevoljkost znatnog broja posrnulih kolega da iskreno priznaju pogrešku i za nju preuzmu odgovornost. Schwartz i društvo ustrajali su u dostavi lažnih dokumenata i nakon što su prozvani od protivne strane i suda, a potom se vadili na neznanje i „općepoznatu nekompetentnost odvjetnika pri korištenju tehnologije“ (sic!). U jednom je kasnijem slučaju kolega krivnju čak pokušao svaliti na vježbenika, priznavši ipak naknadno da se „uspaničario“. Upravo su uslijed takvih jalovih pokušaja otklanjanja odgovornosti ovi slučajevi zadobili snažnu negativnu konotaciju i preobrazili lapsus technologicae u višestruku povredu odvjetničkih dužnosti. Povrh utroška vremena i novca za suprotnu stranu i sud, da ne govorimo o povredi časti i ugleda sudaca potpisanih na nepostojećim odlukama, ovakvim postupanjem nekolicine kolega nanesena je šteta cjelokupnoj pravnoj profesiji. Možemo li kriviti javnost što na odvjetnike gledaju s rastućim nepovjerenjem?
Reagirajući na ove razvoje, u narednim mjesecima suci iz desetak saveznih američkih država proceduralnim su nalozima i odvjetnike i stranke obvezali na posvemašnju transparentnost u slučaju korištenja umjetne inteligencije (osobito velikih jezičnih modela poput ChatGPT-a) u podnescima sudu. Intervenirala je i Američka odvjetnička komora (ABA), pri kojoj je sredinom prošle godine osnovana posebna radna skupina za umjetnu inteligenciju. Početkom kolovoza 2024. objavljeno je ABA-ino prvo godišnje izvješće o utjecaju umjetne inteligencije na odvjetničku praksu u SAD-u, koje cilja upoznati kolege s rizicima i prednostima korištenja umjetne inteligencije, kao i s primjenjivim zakonodavnim okvirom. Povrh toga, krajem srpnja 2024. ABA-in Stalni Odbor za etiku i profesionalnu odgovornost izdao je Službeno mišljenje 512 u kojem se najvažnije odvjetničke etičke dužnosti razrađuju u kontekstu umjetne inteligencije.
Slični su razvoji primjetni i pri komorama drugih zahvaćenih jurisdikcija. Izdavanjem smjernica, vodiča i preporuka za korištenje umjetne inteligencije i izbjegavanje povezanih rizika u praksi, profesionalna udruženja odvjetnika našu struku, izgleda, nastoje zaštititi od nje same.
Uzimajući u obzir presedanski značaj predmeta Mata v. Avianca, Inc. i naknadnih razvoja, ove komorske inicijative treba pozdraviti, jer očito nam nisu naodmet. U okolnostima kontinuiranog tehnološkog napretka koji nam gotovo pa svakodnevno nameće nove izazove, većinu je odvjetničkih dužnosti moguće (a dijelom i potrebno) iznova sagledati u kontekstu rastućeg utjecaja umjetne inteligencije.
No istini za volju, nismo li mogli i bez toga? U SAD-u odvjetnička pravila profesionalnog ponašanja još od 2012. propisuju obvezu tehnološke kompetentnosti, koja podrazumijeva upoznavanje s prednostima i rizicima korištenja relevantnih pojavnih oblika tehnologije. No Mata v. Avianca se ipak dogodio, a uslijedili su i brojni drugi. Odvjetnicima bi, bez obzira na pozadinu, trebala biti usađena zdravorazumska podozrivost pri korištenju bilo kakve tehnologije koja obećava brzo i lako zamijeniti trenirane oči i uši pravnika praktičara. Stoga, kolege, ako vas rokovi stisnu u iskušenje i pomislite kako biste mogli nešto „na brzinu“ uz pomoć ChatGPT-a, sjetite se slučaja Mata v. Avianca, Inc. i sve dobro provjerite.
Stavovi izneseni u kolumnama osobni su stavovi autora i ne predstavljaju nužno stav organizacije u kojoj su zaposleni ili uredništva portala IUS-INFO.