Un avocat a folosit ChatGPT și acum trebuie să răspundă pentru că a citat sentințe false

Marti, 30 Mai 2023, ora 23:30
2450 citiri
Un avocat a folosit ChatGPT și acum trebuie să răspundă pentru că a citat sentințe false

Creșterea fulgerătoare a ChatGPT zguduie mai multe domenii – inclusiv Justiția, după cum a aflat recent un avocat. O carieră juridică onestă a fost distrusă de o utilizare stângace a tehnologiei ChatGPT pentru a argumenta un recurs la tribunalul din Manhattan pentru Roberto Mata, un pasager al unui zbor Avianca care acuza compania aeriană columbiană, după ce a fost rănit la genunchi de un cărucior de mâncare în timpul unei călătorii din El Salvador la New York.

Avocatul lui Mata, Steven Schwartz, a răspuns companiei Avianca făcând trimitere la val de precedente - de la dosarul Martinez împotriva Delta Airlines până la Zicherman v. Korean Air - în care instanțele au dat dreptate pasagerilor și au respins obiecțiile companiilor aeriene.

Negăsind nicio confirmare a cazurilor citate și presat de avocații Avianca, judecătorul Kevin Castel i-a cerut lui Schwartz detaliile cazurilor. Avocatul, care se bazase în documentare pe ChatGPT pentru a investiga cazul a indicat instantele care s-au pronunțat, chiar a furnizat numărul sentințelor.

Chiar și așa, însă, judecătorul nu a găsit nimic. În fața solicitării de a expune textul integral al documentelor citate, a recunoscut că a folosit ChatGPT și că nu știa că poate afişa şi conţinut fals.

Șapte cazuri, toate inventate de la zero. Steven Shwartz nu știa că ChatGPT suferă de ceea ce tehnicienii numesc "halucinații": un termen sugestiv, dar înșelător pentru că îi conferă o conotație umană. În realitate, acestea sunt pur și simplu răspunsuri false aleatoriu, inventate, pe care inteligența artificială (AI) le amestecă cu informațiile bine fundamentate pe care le oferă.

ChatGPT este un model probabilistic bazat pe un mecanism statistic și pe o bază de date imensă care include totul, bine și rău, corect sau incorect care circulă pe internet.

ChatGPT reușește să producă texte sensibile deoarece după fiecare cuvânt ghicește probabil expresia care va urma. În cele mai multe cazuri, oferă informații concrete, dar nu întotdeauna.

Schwartz „regretă profund că a folosit inteligența artificială generativă pentru a completa cercetările juridice efectuate și spune că nu va face niciodată acest lucru în viitor fără a verifica absolut autenticitatea acesteia”.

Proces istoric în SUA. Va fi suficient un munte de dovezi pentru a-l condamna pe Trump?
Proces istoric în SUA. Va fi suficient un munte de dovezi pentru a-l condamna pe Trump?
Luni, 22 aprilie, vor avea loc declarații de deschidere în procesul Statul New York vs. Donald J. Trump. Dosarul acuzării pare puternic, dar o condamnare este departe de a fi asigurată, scrie...
Universitățile de top din SUA se luptă să țină în frâu protestele faţă de războiul din Gaza
Universitățile de top din SUA se luptă să țină în frâu protestele faţă de războiul din Gaza
Protestele faţă de războiul din Gaza s-au extins de la Columbia şi Yale la alte universităţi, în timp ce oficialii se străduiesc să disperseze o mişcare de protest în plină expansiune,...
#SUA, #proces, #avocat, #ChatGPT, #sentinte false tribunal , #SUA