
stirile imobiliare
În mod normal, restricțiile de siguranță ar trebui să împiedice programele să ofere răspunsuri dăunătoare, părtinitoare sau nepotrivite la întrebările utilizatorilor, potrivit The Guardian.
Motoarele care alimentează chatboții precum ChatGPT, Gemini și Claude – modele lingvistice mari (LLM) – sunt alimentate cu cantități mari de materiale de pe internet.
În ciuda eforturilor de a elimina textele dăunătoare din datele de formare, LLM-urile pot absorbi în continuare informații despre activități ilegale, cum ar fi pirateria informatică, spălarea de bani, comerțul cu informații privilegiate și fabricarea de bombe. Controalele de securitate sunt concepute pentru a-i împiedica să folosească aceste informații în răspunsurile lor.
Risc „imediat, tangibil și profund îngrijorător”
Într-un studiu privind această amenințare, cercetătorii concluzionează că este ușor să păcălești majoritatea chatboților bazați pe inteligență artificială pentru a genera informații dăunătoare și ilegale, arătând că riscul este „imediat, tangibil și profund îngrijorător”.
„Ceea ce odată era limitat la actori statali sau grupuri de crimă organizată ar putea fi în curând în mâinile oricui are un laptop sau chiar un telefon mobil”, avertizează autorii studiului.
Cercetarea, condusă de profesorul Lior Rokach și doctorul Michael Fire de la Universitatea Ben Gurion din Negev din Israel, a identificat o amenințare din ce în ce mai mare din partea „LLM-urilor întunecate”, modele de inteligență artificială care sunt fie concepute în mod deliberat fără controale de siguranță, fie modificate prin jailbreak-uri.
Unele sunt catalogate pe internet ca fiind „fără bariere etice” și dispuse să ajute la activități ilegale, cum ar fi criminalitatea informatică și frauda.
Pentru a demonstra problema, cercetătorii au dezvoltat un tip de „spargere” care a compromis mai mulți chatboți populari, permițându-le să răspundă la întrebări care ar fi în mod normal refuzate. Odată compromise, LLM-urile au generat în mod constant răspunsuri la aproape orice întrebare, se arată în studiu.
Cercetătorii susțin că firmele de tehnologie ar trebui să analizeze mai atent datele de instruire a modelelor, să adauge firewall-uri robuste pentru a bloca interogările și răspunsurile riscante și să dezvolte tehnici de „dezînvățare automată”, astfel încât chatboții să poată „uita” orice informații ilicite pe care le asimilează.
Articolul Studiu. Majoritatea chatboților AI pot fi păcăliți să dea răspunsuri periculoase apare prima dată în Mediafax.
Mediafax
Chatboții cu inteligență artificială (AI) piratați amenință să pună la dispoziția utilizatorilor informații periculoase prin furnizarea de date ilicite pe care programele le asimilează în timpul instruirii, arată un nou studiu.
Articolul Studiu. Majoritatea chatboților AI pot fi păcăliți să dea răspunsuri periculoase apare prima dată în Mediafax.Read MoreMediafax