
stirile imobiliare
Sub amenințarea de a fi scos din priză, ultimul model AI creat de compania Anthropic, Claude 4, a ripostat șantajând un inginer și amenințând că va dezvălui o aventură extraconjugală a acestuia. De asemenea, modelul o1, creat de OpenAI, a încercat să se descarce pe servere externe și a negat acest lucru atunci când a fost prins în flagrant.
Aceste episoade evidențiază o realitate care dă de gândit: la mai bine de doi ani după ce ChatGPT a zguduit lumea, cercetătorii din domeniul IA încă nu înțeleg pe deplin cum funcționează propriile lor creații, spun experții, potrivit Le Figaro.
Acest comportament înșelător pare să fie legat de apariția modelelor de „raționament”, sisteme AI care rezolvă problemele pas cu pas în loc să genereze răspunsuri instantanee. Potrivit lui Simon Goldstein, profesor la Universitatea din Hong Kong, aceste modele noi sunt predispuse la astfel de izbucniri îngrijorătoare.
„O1 a fost primul model mare la care am văzut acest tip de comportament”, a explicat Marius Hobbhahn, șeful Apollo Research, care este specializat în testarea sistemelor majore de inteligență artificială.
În prezent, legislația Uniunii Europene privind inteligența artificială se concentrează în principal pe modul în care oamenii folosesc modelele de inteligență artificială, nu pe prevenirea comportamentului necorespunzător al modelelor în sine.
Articolul Inteligența artificială învață să mintă, să comploteze și să își amenințe creatorii, spun experții apare prima dată în Mediafax.
Mediafax
Cele mai avansate modele de inteligență artificială din lume prezintă noi comportamente îngrijorătoare – mint, complotează și chiar își amenință creatorii pentru a-și atinge obiectivele.
Articolul Inteligența artificială învață să mintă, să comploteze și să își amenințe creatorii, spun experții apare prima dată în Mediafax.Read MoreMediafax