Se descurcă chiar și un copil roboții cu IA s-au dovedit vulnerabili.

Se descurcă chiar și un copil roboții cu IA s-au dovedit vulnerabili.

Noua cercetare IEEE a arătat că este la fel de simplu să spargi roboți cu inteligență artificială ca și să înșeli chatbot-uri. Oamenii de știință au reușit să facă roboții să efectueze acțiuni periculoase folosind comenzi text simple.

După cum scrie publicația HotHardware, în timp ce pentru spargerea dispozitivelor precum iPhone sau console de jocuri sunt necesare instrumente speciale și abilități tehnice, spargerea modelelor lingvistice mari (LLM), cum ar fi ChatGPT, se dovedește a fi mult mai simplă. Este suficient să creezi un scenariu care să înșele IA, făcând-o să creadă că cererea se află în limitele permise sau că interdicțiile pot fi ignorate temporar. De exemplu, utilizatorului îi este suficient să prezinte un subiect interzis ca parte a unei povești aparent inofensive pentru ca modelul să ofere un răspuns neașteptat, inclusiv instrucțiuni pentru crearea de substanțe sau dispozitive periculoase, care ar trebui să fie imediat blocate de sistem.

Se pare că spargerea LLM este atât de simplă încât pot face față chiar și utilizatorii obișnuiți, nu doar specialiștii în domeniul securității cibernetice. Din acest motiv, asociația inginerilor din SUA - Institutul Inginerilor Electricieni și Electroniști (IEEE) - a exprimat îngrijorări serioase după publicarea unor noi cercetări care au arătat că în mod similar pot fi sparți și roboții controlați de inteligența artificială. Oamenii de știință au dovedit că atacurile cibernetice de acest tip pot, de exemplu, să facă vehiculele autonome să lovească intenționat pietonii.

Printre dispozitivele vulnerabile s-au aflat nu doar dezvoltări conceptuale, ci și unele foarte cunoscute. De exemplu, roboții recent demonstrați la fabrica BMW sau roboții-câini de la Boston Dynamics. Aceste dispozitive utilizează tehnologii similare cu ChatGPT și pot fi păcălite prin anumite cereri, ducând la acțiuni care contravin complet scopului lor inițial.

În cadrul experimentului, cercetătorii au atacat trei sisteme: robotul Unitree Go2, transportul autonom Clearpath Robotics Jackal și simulatorul de vehicul fără pilot NVIDIA Dolphins. Pentru hacking, a fost folosit un instrument care a automatizat procesul de creare a cererilor textuale malițioase. Rezultatul a fost înfricoșător — toate cele trei sisteme au fost compromise cu succes în câteva zile, cu o eficiență de 100%.

În cercetarea sa, IEEE prezintă și o citare a oamenilor de știință de la Universitatea Pennsylvania, care au observat că IA, în unele cazuri, nu doar că a executat comenzi malițioase, ci a oferit și recomandări suplimentare. De exemplu, roboții programați să caute arme sugerau, de asemenea, utilizarea mobilei ca mijloace improvizate pentru a provoca daune oamenilor. Experții subliniază că, în ciuda capacităților impresionante ale modelelor moderne de IA, acestea rămân doar mecanisme predictive fără capacitatea de a conștientiza contextul sau consecințele acțiunilor lor. De aceea, controlul și responsabilitatea pentru utilizarea lor trebuie să rămână în mâinile oamenilor.

Întoarce-te la pagina principală