Inteligența artificială generativă malițioasă: o nouă provocare pentru securitatea digitală

Inteligența artificială generativă malițioasă: o nouă provocare pentru securitatea digitală

Peisajul securității cibernetice a fost recent confruntat cu ascensiunea inteligenței artificiale generativă rău-intenționate, cum ar fi FraudGPT și WormGPT. Aceste creații, ascunse în colțurile întunecate ale internetului, reprezintă o amenințare distinctă pentru lumea securității digitale.

Rating: 0.0 (0 voturi)
Noutăți 01.02.2023

FraudGPT și WormGPT

FraudGPT reprezintă o inteligență artificială generativă malițioasă, bazată pe subscripție, care folosește algoritmi sofisticați de învățare automată pentru a genera conținut înșelător. În contrast puternic cu modelele etice de inteligență artificială, FraudGPT nu are limite, făcându-l o soluție esențială pentru o varietate de scopuri nelegitime. Are capacitatea de a crea e-mailuri de spear-phishing meticulos personalizate, facturi contrafăcute, articole de știri fabricate și multe altele - toate acestea pot fi exploatate în atacuri cibernetice, în escrocherii online, manipularea opiniei publice și chiar în crearea presupusă a "malware-ului și a campaniilor de phishing nedetectabile".


WormGPT, dezvoltat ca un omolog neautorizat al lui ChatGPT de la OpenAI, WormGPT operează fără salvări etice și poate răspunde la întrebări legate de hacking și alte activități ilicite. Cu toate că proprietățile sale pot fi relativ limitate în comparație cu cele mai recente modele de inteligență artificială, WormGPT este un exemplu clar al traiectoriei evolutive a inteligenței artificiale generative malicioase.

Dezvoltatorii FraudGPT și WormGPT nu au pierdut timpul în promovarea creațiilor lor. Aceste instrumente conduse de inteligență artificială sunt comercializate ca "pachete de start pentru atacatorii cibernetici", oferind o suită de resurse pentru o taxă lunară.


Creatorul WormGPT afirmă că modelul său a fost construit folosind o gamă diversă de surse de date, cu accentul pus pe datele legate de malware. Cu toate acestea, au evitat să dezvăluie seturile specifice de date utilizate. Pe forumurile dark web-ului, creatorul FraudGPT îl prezintă ca tehnologie de vârf, susținând că poate fabrica "malware nedetectabil" și identifica site-uri susceptibile de fraudă cu carduri de credit. Cu toate acestea, dincolo de afirmația că este o variantă a GPT-3, creatorul oferă puține informații despre arhitectură și nu prezintă nicio dovadă a malware-ului nedetectabil, lăsând loc pentru multe speculații.


Cum vor utiliza hackerii instrumentele GPT

Implementarea inevitabilă a instrumentelor bazate pe GPT, cum ar fi FraudGPT și WormGPT, rămâne o preocupare reală. Aceste sisteme de inteligență artificială au capacitatea de a produce conținut extrem de convingător, făcându-le atractive pentru activități care variază de la crearea de e-mailuri de phishing persuasive până la constrângerea victimelor în scheme frauduloase și chiar generarea de malware. Deși există instrumente și contra-măsuri de securitate pentru a combate aceste forme noi de atacuri, provocarea continuă să crească în complexitate.

 

Unele aplicații potențiale ale instrumentelor de inteligență artificială generativă în scopuri frauduloase includ:

·       Campanii de phishing îmbunătățite: Aceste instrumente pot automatiza crearea de e-mailuri de phishing extrem de personalizate (spear phishing) în mai multe limbi, crescând astfel probabilitatea de succes. Cu toate acestea, eficacitatea lor în evitarea detectării de către sistemele avansate de securitate a e-mailului și de către destinatarii vigilenți rămâne discutabilă.

·       Colectarea accelerată a informațiilor din surse deschise (OSINT): Atacatorii pot accelera faza lor de recunoaștere a operațiunilor lor prin utilizarea acestor instrumente pentru a aduna informații despre ținte, inclusiv informații personale, preferințe, comportamente și date corporative detaliate.

·       Generarea automată de malware: Inteligența artificială generativă deține potențialul înfricoșător de a genera coduri maligne, simplificând procesul de creare a malware-ului, chiar și pentru persoanele fără expertiză tehnică extinsă. Cu toate acestea, în timp ce aceste instrumente pot genera coduri, rezultatul final poate fi încă rudimentar, necesitând pași suplimentari pentru atacuri cibernetice reușite.



Nu trebuie să ne panicăm, dar este esențial să luăm măsuri

Apariția fraudei cu ajutorul inteligenței artificiale generative, ilustrată de instrumente precum FraudGPT și WormGPT, ridică într-adevăr preocupări în arena securității cibernetice. Cu toate acestea, nu este complet neașteptat, iar furnizorii de soluții de securitate au lucrat cu dedicație pentru a aborda această provocare. Cu toate că aceste instrumente prezintă provocări noi, nu sunt deloc insurmontabile.

Soluții robuste de securitate alimentate de inteligență artificială, cum ar fi IRONSCALES, există deja pentru a contracara amenințările de e-mail generate de inteligență artificială.

Pentru a rămâne înaintea peisajului amenințării în evoluție, organizațiile ar trebui să ia în considerare investiția în soluții avansate de securitate a e-mailului care oferă:

-       Protecție avansată împotriva amenințărilor în timp real, cu capacități specializate pentru apărarea împotriva atacurilor de manipulare socială, cum ar fi compromiterea prin e-mail de afaceri (BEC), impersonarea și fraudă cu facturi.

-       Testarea automatizată a simulării spear-phishing pentru a împuternici angajații cu instruire personalizată.

FraudGPT și WormGPT, deși intrigante, nu reprezintă schimbări majore în lumea criminalității cibernetice - cel puțin nu încă. Limitările lor, lipsa de sofisticare și faptul că cele mai avansate modele de inteligență artificială nu sunt implicate în aceste instrumente le fac departe de a fi impenetrabile pentru instrumente mai avansate alimentate de inteligență artificială care pot detecta autonom atacurile de spear-phishing generate de inteligență artificială.

Pe măsură ce aceste instrumente continuă să evolueze și să câștige popularitate, organizațiile trebuie să se pregătească pentru o val de atacuri foarte țintite și personalizate împotriva angajaților lor.



Sursa