
stirile imobiliare
OpenAI face un pas important către consolidarea securității accesului la platforma sa, introducând un sistem de verificare a identității organizațiilor pentru accesul la modelele AI OpenAI. Această măsură vizează limitarea utilizării neautorizate sau abuzive a modelelor sale avansate, în special în contextul în care acestea devin din ce în ce mai performante și mai influente în industrii critice.
Potrivit companiei, procesul de verificare presupune prezentarea unui act de identitate emis de guvern dintr-una dintre țările acceptate de API-ul OpenAI. Același act de identitate poate fi utilizat pentru verificarea unei singure organizații la fiecare 90 de zile, iar nu toate entitățile vor fi eligibile pentru verificare, scrie TechCrunch.
Verificarea organizațiilor pentru accesul la modelele AI OpenAI: o măsură de siguranță
„La OpenAI, ne luăm în serios responsabilitatea de a asigura că AI-ul este atât accesibil pe scară largă, cât și utilizat în mod sigur,” se arată în declarația oficială. Compania susține că această măsură vine ca răspuns la un număr mic de dezvoltatori care au folosit în mod intenționat API-urile în moduri care încalcă politicile de utilizare.
Introducerea sistemului Verified Organization este văzută și ca o etapă pregătitoare pentru următoarea lansare majoră de model AI, potrivit unui anunț distribuit pe platforma X de dezvoltatorul Tibor Blaho.
OpenAI released a new Verified Organization status as a new way for developers to unlock access to the most advanced models and capabilities on the platform, and to be ready for the „next exciting model release”
– Verification takes a few minutes and requires a valid… pic.twitter.com/zWZs1Oj8vE
— Tibor Blaho (@btibor91) April 12, 2025
Experții consideră că noul sistem de verificare a identității organizațiilor pentru accesul la modelele AI OpenAI poate avea și rolul de a combate furtul de proprietate intelectuală. Bloomberg a raportat la începutul anului că OpenAI ar fi investigat un presupus atac asupra API-ului său, asociat cu DeepSeek, un laborator de AI din China, suspectat că ar fi extras date masive pentru antrenarea propriilor modele.
În acest context, OpenAI a blocat accesul la serviciile sale din China în vara anului trecut.
Articolul OpenAI impune verificarea identității organizațiilor pentru accesul la noile modele AI avansate apare prima dată în Mediafax.
Mediafax
OpenAI a anunțat introducerea unui nou proces de verificare a organizațiilor, numit Verified Organization, care va deveni necesar pentru a accesa viitoarele modele AI de ultimă generație, potrivit unei pagini de suport publicate recent pe site-ul companiei.
Articolul OpenAI impune verificarea identității organizațiilor pentru accesul la noile modele AI avansate apare prima dată în Mediafax.Read MoreMediafax