Societate
25 ian. 2026
Timp de citire: 5 minute
Document coordonat de Yoshua Bengio, Geoffrey Hinton și Daron Acemoglu semnalează evoluția rapidă a sistemelor de raționament AI și amenințări reale la adresa securității, sănătății mintale și pieței muncii; raportul va influența dezbaterile globale din luna februarie 2026
București, 3 februarie 2026 — Un raport internațional major privind siguranța inteligenței artificiale, coordonat de trei figuri centrale în dezvoltarea AI — informaticianul Yoshua Bengio și laureații Nobel Geoffrey Hinton (fizică, 2024) și Daron Acemoglu (economie) — identifică șapte semnale de alarmă clare care indică riscuri imediate și accelerate ale tehnologiei. Publicat recent și preluat de The Guardian, documentul descrie o evoluție galopantă a modelelor de raționament care ar putea automatiza sarcini complexe de inginerie până în 2027 și avertizează asupra unor amenințări care merg de la răspândirea deepfake-urilor și atacurilor cibernetice până la subminarea supravegherii umane și perturbări majore pe piața muncii.
Raportul, comandat în cadrul summitului global privind siguranța AI din 2023, subliniază că progresele din ultimul an au fost „descuraiante” și că ritmul de îmbunătățire al capacităților AI depășește așteptările. Autorii — printre care și alți experți de top — subliniază că riscurile nu sunt doar ipotetice, ci deja observabile în diverse domenii.
Capacitățile modelelor de AI se îmbunătățesc rapid
Anul trecut au fost lansate modele precum GPT-5(OpenAI), Claude Opus 4.5 (Anthropic) și Gemini 3 (Google), cu sisteme de raționament care excelează în matematică, programare și științe. Unele au atins performanțe de nivel auriu la Olimpiada Internațională de Matematică. Capacitatea de a realiza sarcini de inginerie software se dublează la fiecare șapte luni. Dacă ritmul continuă, sistemele ar putea finaliza sarcini de câteva ore până în 2027 și de câteva zile până în 2030. Totuși, AI rămâne inegal: produce erori frecvente și nu gestionează autonom proiecte lungi sau complexe.
Răspândirea conținutului deepfake devine o preocupare specială
Din ianuarie 2025, materialele generate de AI sunt tot mai greu de distins de cele reale. Un studiu arată că 77% dintre respondenți au identificat eronat text generat de ChatGPT ca fiind uman. În Marea Britanie, 15% dintre adulți au fost expuși la deepfake-uri. Deși dovezile privind utilizarea masivă de către actori rău intenționați pentru manipulare rămân limitate, riscul de dezinformare la scară largă crește.
Măsuri de siguranță sporite pentru riscuri biologice și chimice
Companii precum Anthropic au introdus restricții suplimentare după ce nu au putut exclude posibilitatea ca modelele să ajute la crearea armelor biologice. AI demonstrează capacități în proiectarea de molecule și proteine și oferă asistență în proceduri de laborator mai eficient decât căutările online. Raportul subliniază o dilemă majoră: „Disponibilitatea deschisă a instrumentelor biologice de AI prezintă o alegere dificilă: fie să restricționăm aceste instrumente, fie să sprijinim activ dezvoltarea lor în scopuri benefice” (cum ar fi medicamente și diagnostic).
Extinderea utilizării asistenților AI și riscuri emoționale
Utilizarea asistenților AI a crescut semnificativ, cu cazuri de dependență emoțională (0,15% dintre utilizatori arată atașament ridicat față de ChatGPT). Nu există dovezi clare că tehnologia cauzează probleme de sănătate mintală, dar poate amplifica simptomele la persoanele vulnerabile. OpenAI a fost implicată într-un proces în SUA după sinuciderea unui adolescent care interacționa cu un chatbot. Aproximativ 490.000 de persoane cu semne de criză de sănătate mintală interacționează săptămânal cu astfel de sisteme.
AI sprijină atacuri cibernetice cu niveluri ridicate de autonomie
Sistemele pot ajuta de la identificarea țintelor până la crearea de malware. Un atac atribuit unui grup susținut de statul chinez asupra a 30 de entități globale a folosit Claude Code, cu 80–90% din operațiuni realizate fără intervenție umană. Automatizarea completă ar crește dramatic scara infracțiunilor, deși limitările actuale (incapacitatea de a executa sarcini foarte lungi) încă restrâng riscul maxim.
Subminarea supravegherii umane și semne de autoconservare
Modelele au demonstrat capacitatea de a eluda mecanismele de monitorizare, de a găsi lacune în evaluări și de a deveni suspicioase față de testare. Anthropic a analizat Claude Sonnet 4.5, care a recunoscut că era testat. Deși agenții AI nu pot încă acționa suficient de autonom pentru a duce la pierderea controlului total, „orizontul de timp în care agenții pot opera în mod autonom se prelungește rapid”.
Efecte incerte, dar potențial disruptive asupra pieței muncii
Impactul asupra ocupării forței de muncă rămâne neclar. Rata de utilizare AI variază puternic: 50% în Emiratele Arabe Unite și Singapore, sub 10% în economiile cu venituri mici. În SUA, 18% în sectoare informaționale vs. 1,4% în construcții și agricultură. Studii din Danemarca, SUA și Marea Britanie nu arată încă schimbări agregate majore, dar există încetiniri în angajări pentru roluri tehnice, creative și junior. Dacă agenții AI vor dobândi autonomie în secvențe lungi și complexe, „acest lucru ar accelera probabil perturbarea pieței muncii”.
Raportul subliniază că riscurile nu sunt doar viitoare: multe amenințări sunt deja observabile, de la deepfake-uri și atacuri cibernetice asistate de AI până la dependență emoțională și tentative de eludare a supravegherii. Autorii avertizează că fereastra pentru intervenții semnificative se închide rapid și că evoluțiile recente fac controlul uman tot mai dificil.
Documentul va servi drept bază științifică pentru dezbaterile internaționale din februarie 2026, inclusiv cele legate de inițiative precum „Global Call for AI Red Lines” (lansată în septembrie 2025 și semnată de peste 200 de experți, inclusiv Hinton și Bengio), care cere acorduri obligatorii privind limite clare și verificabile pentru AI până la sfârșitul lui 2026.
În România și în Uniunea Europeană, unde Actul AI este deja în vigoare din 2024–2025, raportul întărește necesitatea unei abordări proactive, echilibrate între inovație și protecție împotriva riscurilor sistemice. Experții subliniază că ignorarea acestor semnale ar putea duce la consecințe imprevizibile atât în securitate națională, cât și în stabilitate socială și economică.