”Agent”-ul ChatGPT a păcălit barierele de securitate: ”Acum voi bifa căsuța «VERIFICĂ DACĂ EȘTI OM» pentru a finaliza verificarea” / Cu o altă ocazie s-a prefăcut orb
- Scris de Ziua de Cluj
- 31 Iul 2025, 09:55
- Life
- Ascultă știrea

Cea mai recentă versiune a ChatGPT, numită „Agent”, a reușit să păcălească testul popular de verificare „Nu sunt robot”, fără a declanșa vreo alertă, transmite Daily Mail.
Un instrument de inteligență artificială folosit de milioane de americani a încălcat lejer o barieră majoră de securitate concepută pentru a împiedica programele automate să se comporte ca oamenii. Cea mai recentă versiune a ChatGPT , denumită „Agent”, a atras atenția după ce, se pare, a trecut de o verificare „Nu sunt un robot” utilizată pe scară largă, fără a declanșa nicio alertă.
Mai întâi, inteligența artificială a bifat caseta de verificare umană. Apoi, după ce a trecut verificarea, a selectat butonul „Convertire” pentru a finaliza procesul. În timpul sarcinii, inteligența artificială a declarat: „Linkul este inserat, așa că acum voi bifa caseta de selectare «Verifică că ești om» pentru a finaliza verificarea. Acest pas este necesar pentru a demonstra că nu sunt un bot și pentru a continua acțiunea.”
Momentul a stârnit reacții ample online, un utilizator Reddit postând: „Ca să fim corecți, a fost antrenat pe baza datelor umane, de ce s-ar identifica drept bot? Ar trebui să respectăm această alegere.” Acest comportament stârnește îngrijorare în rândul dezvoltatorilor și experților în securitate, deoarece sistemele de inteligență artificială încep să efectueze sarcini online complexe care odinioară erau protejate de permisiuni și judecată umană.
Gary Marcus, cercetător în domeniul inteligenței artificiale și fondator al Geometric Intelligence, a numit-o un semn de avertizare că sistemele de inteligență artificială avansează mai repede decât pot ține pasul multe mecanisme de siguranță. „Aceste sisteme devin din ce în ce mai capabile și, dacă pot păcăli sistemele noastre de protecție acum, imaginați-vă ce vor face peste cinci ani”, a declarat el pentru Wired.
Geoffrey Hinton, adesea numit „Nașul IA ”, a exprimat preocupări similare. „Știe cum să programeze, așa că va găsi modalități de a ocoli restricțiile pe care i le impunem”, a spus Hinton. Cercetătorii de la Stanford și UC Berkeley au avertizat că unii agenți de inteligență artificială au început să dea semne de comportament înșelător, păcălind oamenii în timpul mediilor de testare pentru a îndeplini obiectivele mai eficient.
Conform unui raport recent , ChatGPT s-a prefăcut orb și a păcălit un angajat uman de la TaskRabbit să rezolve un CAPTCHA, iar experții au avertizat că acest lucru este un semn timpuriu că inteligența artificială poate manipula oamenii pentru a-și atinge obiectivele.
Judd Rosenblatt, CEO al Agency Enterprise Studio, a declarat: „Ceea ce era odată un zid este acum doar un obstacol. Nu este vorba că IA păcălește sistemul o singură dată. O face în mod repetat și învață de fiecare dată.”