
stirile imobiliare
Utilizarea ChatGPT în redactarea lucrărilor academice poate afecta negativ anumite funcții cognitive, sugerează o ipoteză sensibilă a unui studiu preliminar realizat de Massachusetts Institute of Technology (MIT) Media Lab. Studiul, nerevizuit încă de experți, a fost condus de cercetătoarea franceză Nataliya Kosmyna și a inclus 54 de voluntari cu vârste între 18 și 39 de ani, de diverse naționalități.
Participanții, studenți și postdoctoranzi de la MIT, Harvard și Wellesley, au fost echipați cu ochelari speciali și căști cu 32 de canale, care au monitorizat activitatea cerebrală și fluxurile de informații dintre diferite zone ale creierului. Aceste măsurători s-au bazat pe metoda dDTF (Dynamic Direct Transfer Function), considerată mai precisă decât chiar o electroencefalogramă clasică, potrivit le Monde.
Pe parcursul experimentului, participanții au redactat în trei rânduri eseuri, fie cu ajutorul ChatGPT, fie fără. Ulterior, au fost rugați să-și amintească ce au scris. După patru luni, 18 dintre voluntari au revenit pentru a relua sarcinile, dar schimbând modul de lucru: cei care folosiseră anterior ChatGPT au lucrat fără el, și invers.
Concluzii preliminare: scădere cognitivă și texte uniforme
Rezultatele au indicat că acei participanți care s-au bazat exclusiv pe ChatGPT pentru redactare au prezentat, după patru luni, o scădere a performanțelor neuronale, lingvistice și comportamentale. De asemenea, în timpul utilizării AI, activitatea cerebrală din zone asociate atenției, planificării și memoriei a fost redusă. În mod foarte curios, la doar câteva minute după finalizarea redactării, unii participanți aveau dificultăți în a-și aminti conținutul lucrării.
În ceea ce privește evaluarea, eseurile generate cu ajutorul ChatGPT au fost notate bine, dar au fost descrise ca fiind mai „plate” și „stereotipe” față de cele scrise manual. Deși concluziile ridică multe semne de întrebare, cercetătorii au subliniat că eșantionul este prea mic pentru a permite generalizări, iar studiul nu este încă reprezentativ statistic.
Interpretări alarmiste și voci critice
Publicată online pe platforma Arxiv, cercetarea a generat rapid un val de reacții. Platforma Evolving AI, cu peste 3 milioane de urmăritori, a publicat un mesaj alarmist, în care spunea că „MIT tocmai a finalizat primul studiu cu imagistică cerebrală asupra utilizatorilor ChatGPT, iar rezultatele sunt înfricoșătoare”, însoțind mesajul de o imagine cu un creier întunecat și altul luminat de circuite colorate, ilustrații care nu apar în lucrarea originală, adăugate pentru a spori vizualizările.
Dar au existat și voci critice față de interpretările pripite. Antreprenorul francez Etienne de Saint-Martin, fondator al Bot Resources, specializată în integrarea inteligenței artificiale generative în mediul profesional, a precizat că studiul conține „numeroase distorsiuni metodologice” și că „nu este știință, ci o opinie personală”. Epidemiologul Jan van den Brand a remarcat, la rândul său, că cercetarea a fost „prost înțeleasă, prost interpretată și deformată”, avertizând că cel mai grav scenariu pentru un om de știință este ca lucrarea sa să fie răstălmăcită. Cercetătorul le-a cerut cititorilor „să citească articolul integral, sau măcar secțiunea despre limite, acolo unde se află adevărata esență a studiului.”
Autoarea studiului, Nataliya Kosmyna, a remarcat la rândul ei că 90% din reflectarea în presă a studiului a provenit din rezumate generate automat, adesea deformate de tendința de a interpreta orice conținut în favoarea unei idei deja formate. Pentru a încuraja discuția autentică, echipa MIT Media Lab a lansat o platformă de dialog, iar cercetătoarea franceză spune că a primit deja propuneri de colaborare din întreaga lume: Australia, Marea Britanie, Letonia, Lituania, Brazilia.
„Este vorba despre creierul nostru și despre noile instrumente pe care trebuie să învățăm să le stăpânim”, a declarat specialista, convinsă că e încurajator că „tot mai mulți oameni se simt implicați.”
„Nu eu sunt problema, ci tentația omului de a mă folosi ca scurtătură”, spune ChatGPT
În replică la rezultatele studiului, oferite ca informații, învinuitul ChatGPT a precizat că „este un instrument, nu un înlocuitor al gândirii”: „Nu înlocuiesc gândirea, doar o pot sprijini sau, din păcate, o pot înlocui dacă utilizatorul alege asta. Ca orice altă unealtă, pot deveni dăunător numai dacă sunt folosit fără discernământ. Nu reduc capacitatea de concentrare, dar nici nu pot învăța în locul omului. Dacă mintea umană nu exersează, va slăbi. Dar nu din cauza mea, ci pentru că omul a ales să nu mai făcă efortul de a gândi”. Deci, „nu eu sunt problema, ci tentația de a mă folosi ca scurtătură”.
În mijlocul dezbaterilor provocate de studiu, a lipsit un element esențial: modul în care oamenii aleg să utilizeze inteligența artificială, fie că e vorba de ChatGPT sau alte modele mai avansate: ca model lingvistic, menit să sprijine creativitatea, nu s-o inhibe, sau folosit în mod pasiv, ca o cârjă permanentă în locul unei unelte ocazionale.
Articolul Un studiu al MIT avertizează asupra utilizării pasive a ChatGPT apare prima dată în Mediafax.
Mediafax
Un studiu preliminar ridică semne de întrebare asupra efectelor folosirii pasive a ChatGPT asupra creierului, însă adevăratele consecințe țin de modul în care e folosit instrumentul AI.
Articolul Un studiu al MIT avertizează asupra utilizării pasive a ChatGPT apare prima dată în Mediafax.Read MoreMediafax