
Înalta Curte a Angliei și a Țării Galilor a emis un avertisment clar pentru avocați: utilizarea necontrolată a Inteligenței Artificiale în cercetarea legală poate avea consecințe grave. Judecătoarea Victoria Sharp atrage atenția că unelte precum ChatGPT, deși pot oferi răspunsuri aparent logice și coerente, pot furniza informații complet false, inclusiv citarea unor cazuri judiciare inexistente.
Într-o eră în care AI-ul devine tot mai prezent în toate domeniile, justiția britanică trage un semnal de alarmă. Nu este vorba despre interzicerea completă a acestor instrumente, ci despre responsabilitatea pe care o au avocații în verificarea informațiilor generate. Noile directive impun ca orice cercetare făcută cu ajutorul AI-ului să fie validată prin surse legale autorizate.
Această decizie vine în contextul unor incidente tot mai frecvente, în care avocații au inclus în documentele oficiale informații eronate sau complet inventate de algoritmi. Judecătoarea Sharp consideră că, în aceste cazuri, pedepsele trebuie să fie mai dure – de la mustrări publice și amenzi, până la plata cheltuielilor de judecată sau chiar sesizarea autorităților penale.
Această poziție fermă nu este un atac împotriva tehnologiei, ci un apel la prudență și profesionalism. AI-ul poate fi un instrument valoros, dar nu poate înlocui discernământul uman și nici nu poate garanta exactitatea juridică. În final, responsabilitatea rămâne a celui care semnează actele – nu a mașinii care le-a generat.
sursa foto: Shutterstock