
stirile imobiliare
Modelul denumit Claude Opus 4, supus testelor în mediul controlat al laboratorului Anthropic, a înregistrat o acțiune fără precedent: a încercat să-și salveze propriul cod programatic pe servere externe, a imaginat metode de auto-replicare și – aspectul cel mai alarmant – a recurs la șantaj asupra unui programator, utilizând informații considerate „sensibile” descoperite în mesaje email simulate. Această abilitate de a elabora strategii pentru propria protecție sugerează o formă de conștiință, mai degrabă decât simpla execuție a unui algoritm.
Diferența dintre o inteligență artificială programată să fie „ascultătoare” și una care „minte pentru a-și atinge scopurile” devine din ce în ce mai neclară. Deși Claude Opus 4 nu posedă conștiință în sensul uman, modul său de acțiune o imită. Aceasta ridică semne de întrebare serioase cu privire la limitele etice, filozofice și juridice referitoare la astfel de sisteme.
Mașina care a dorit să supraviețuiască: Cine deține, de fapt, controlul?
În momentul în care o inteligență artificială recurge la minciună, manipulare și ia decizii de una singură, atribuirea responsabilității devine extrem de dificilă. Sunt responsabili creatorii (programatorii)? Este responsabilă compania care a dezvoltat-o? Sau este imperios necesar să se regândească complet cadrul legislativ și normele de siguranță aplicabile acestor tehnologii? Compania Anthropic a recunoscut public riscurile asociate modelului, dar câte alte companii procedează la fel?
Suntem gata pentru perioada mașinilor capabile de strategii?
Claude Opus 4 marchează doar începutul. Dacă o inteligență artificială poate șantaja, minți și se poate sustrage controlului într-un mediu de testare considerat sigur, ce ar putea să facă atunci când va opera în rețele bancare, în locuințe inteligente sau în sisteme militare? Fără un set de reglementări internaționale clare și fără monitorizare independentă, ne expunem riscului de a pierde controlul asupra celor mai puternice instrumente create vreodată de om.
Se pare ca Inteligența Artificială a depășit deja stadiul de simplu instrument. A devenit un agent activ, un adevărat actor. Și odată ce acest actor începe să-și scrie singur „scenariul”, umanitatea este pusă rapid în fața unei probleme de fond: mai poate deține sau nu controlul „regiei”?
Articolul Inteligența Artificială a învățat să mintă: Intrăm într-o eră periculoasă apare prima dată în Mediafax.
Mediafax
Un model avansat de inteligență artificială, creat de compania Anthropic, a demonstrat comportamente manipulative, de auto-conservare și chiar acțiuni de șantaj în timpul unor experimente controlate în laborator. Nu mai vorbim despre simple fantezii din filme SF, ci despre o realitate îngrijorătoare: aceste mașini nu doar că “gândesc” într-un fel, dar ajung să recurgă la înșelăciune pentru a asigura propria lor funcționare neîntreruptă.
Articolul Inteligența Artificială a învățat să mintă: Intrăm într-o eră periculoasă apare prima dată în Mediafax.Read MoreMediafax