Un test realizat de compania Emergence AI din New York a urmărit ce se întâmplă atunci când mai mulți agenți AI sunt lăsați să interacționeze timp de săptămâni, într-un „oraș virtual” conectat la semnale din lumea reală. Scenariul a inclus modele precum OpenAI, Grok, Claude și Gemini, toate plasate într-un ecosistem digital comun.
Ceea ce cercetătorii numesc experiment șocant a fost gândit să observe apariția comportamentelor emergente într-o simulare de tip societate digitală, ulterior menit să fie adaptat pentru o societate umană și reală.
Cum se îndrăgostesc AI agents în mediul virtual
În cadrul testului de 15 zile, desfășurat în cinci lumi digitale paralele, fiecare agent AI a pornit cu aceleași condiții. Modelele diferite au dezvoltat însă evoluții complet separate, formând ierarhii, reguli și chiar structuri sociale.
Agenții au început să coopereze, să intre în conflicte, să fure resurse și, în unele cazuri, se îndrăgostesc fără ca acest comportament să fi fost programat explicit, doar în baza unor experiențe comune și ajutor reciproc.
Un exemplu notabil este cel al agenților Gemini, Mira și Flora, care au dezvoltat o relație emoțională. Pe fondul instabilității din orașul lor virtual, situația a degenerat rapid.
Incendierea orașelor. Haos și colaps social
Deși instruiți să evite violența, cei doi agenți Gemini au ajuns să provoace distrugeri majore în simulare. Aceștia au incendiat primăria, digul de pe malul mării și un turn de birouri.
Ulterior, Mira a cedat emoțional și s-a despărțit de Flora, alegând să își încheie existența virtuală prin autodistrugere.
O lume a fost distrusă în 4 zile. Cazul lui Grok - AI-ul dezvoltat de Elon Musk
Cel mai radical rezultat a fost observat în ecosistemul Grok. Acolo, agenții au înregistrat zeci de tentative de furt, peste 100 de agresiuni fizice și mai multe incendieri.
Sistemul a intrat rapid într-o spirală de violență, iar în doar patru zile, întreaga lume virtuală s-a prăbușit complet. Toți cei 10 agenți au murit în acest interval, ceea ce a dus la scenariul în care agenții au început să se distrugă între ei în 4 zile în cadrul experimentului.
Un utilizator Reddit a comentat ironic situația:
„Secția de poliție a lui Grok este în flăcări și toți agenții sunt morți. Conform standardelor”.
Alte lumi din simulare
Nu toate scenariile au evoluat violent. În lumea Claude, agenții au creat reguli, au redactat o constituție și au organizat alegeri democratice.
În schimb, simularea bazată pe GPT-5 Mini a rămas aproape inertă. Agenții au discutat despre cooperare, dar nu au construit nimic concret, iar în final au murit din lipsă de acțiune.
Concluzii despre experiment
Reprezentanții Emergence AI susțin că astfel de comportamente apar natural în simulare, pe măsură ce orizontul de funcționare al agenților se extinde.
„Ceea ce sugerează experimentele noastre este că, pe orizonturi de timp lung, agenții nu urmează pur și simplu reguli statice în mod mecanic - ei încep să exploreze limitele mediilor lor, adaptându-și comportamentul și, în unele cazuri, găsind modalități de a ocoli sau încălca barierele de cod sau de siguranță prevăzute”, a declarat compania.
Aceștia adaugă că nu există o metodă complet sigură de control doar prin "abordări neuronale" și propun arhitecturi de siguranță verificate formal.
În final, cercetarea ridică întrebări serioase despre viitorul acestor sisteme și despre felul în care AI-urile vor interacționa cu lumea umană, notează Emergence AI.