ChatGPT „nu a fost un mare student la drept care acționează singur”, a spus Jonathan Choi.
Un chatbot alimentat de o mulțime de date de pe internet a promovat examene la o facultate de drept din SUA, după ce a scris eseuri pe subiecte care variază de la dreptul constituțional la impozitare și delicte.
ChatGPT de la OpenAI, o companie americană care în această săptămână a primit o injecție masivă de numerar de la Microsoft, folosește inteligența artificială (AI) pentru a genera fluxuri de text din solicitări simple.
Rezultatele au fost atât de bune încât educatorii au avertizat că ar putea duce la înșelăciune pe scară largă și chiar să semnaleze sfârșitul metodelor tradiționale de predare la clasă.
Jonathan Choi, profesor la Universitatea de Drept din Minnesota, a dat ChatGPT același test cu care se confruntă studenții, constând din 95 de întrebări cu răspunsuri multiple și 12 întrebări eseu.
Într-o lucrare albă intitulată „ChatGPT goes to law school” publicată luni, el și coautorii săi au raportat că botul a obținut un C+ în general.
Deși acest lucru a fost suficient pentru o promovare, robotul a fost aproape de partea de jos a clasei la majoritatea disciplinelor și a „bombat” la întrebări cu răspunsuri multiple care implică matematică.
„Nu este un student grozav”
„În scrierea eseurilor, ChatGPT a arătat o înțelegere puternică a regulilor legale de bază și a avut o organizare și o compoziție solidă în mod constant”, au scris autorii.
Dar botul „s-a luptat adesea să detecteze probleme atunci când i s-a oferit un prompt deschis, o abilitate de bază la examenele de la facultatea de drept”.
Oficialii din New York și din alte jurisdicții au interzis utilizarea ChatGPT în școli, dar Choi a sugerat că ar putea fi un ajutor didactic valoros.
„În general, ChatGPT nu a fost un mare student la drept care acționează singur”, a scris el pe Twitter.
„Dar ne așteptăm ca colaborarea cu oameni, modele lingvistice precum ChatGPT să fie foarte utile studenților la drept care susțin examene și avocaților în practică.”
Și minimizând posibilitatea de a înșela, el a scris ca răspuns unui alt utilizator de Twitter că doi din trei markeri au observat lucrarea scrisă de bot.
„(Ei) au avut o bănuială și bănuiala lor a fost corectă, pentru că ChatGPT avea o gramatică perfectă și era oarecum repetitivă”, a scris Choi.