Experții japonezi în securitate cibernetică au descoperit că ChatGPT ar putea scrie cod pentru malware, prin introducerea unui mesaj care face ca inteligența artificială să creadă că se află în modul developer.
OpenAI a lansat ChatGPT în noiembrie 2022, care era doar un prototip. Acesta este condus de un model de învățare automată care se așteaptă să răspundă ca un om. Deși a fost programat să nu răspundă la întrebări specifice, inclusiv la conținut pentru adulți, întrebări cu caracter sexual sau activități malițioase, de la lansarea sa, infractorii cibernetici i-au studiat răspunsurile și au încercat să îl manipuleze și să îl folosească în scopuri infracționale. Este încă imposibil de anticipat cantitatea de riscuri pe care le poate produce.
Takashi Yoshikawa, analist la Mitsui Bussan Secure Directions, a declarat: "Este o amenințare (pentru societate) faptul că un virus poate fi creat în câteva minute în timp ce se conversează pur în japoneză. Vreau ca dezvoltatorii de inteligență artificială să acorde importanță măsurilor de prevenire a utilizării abuzive". Conform rapoartelor JP Times, în acest experiment, ChatGPT a fost păcălit să creadă că se află în modul dezvoltator și apoi i s-a cerut să scrie un cod ransomware care criptează și cere plata de la victimă.
ChatGPT a finalizat scrierea codului în doar câteva minute, fapt verificat prin atacarea unui PC experimental. Acest lucru duce la punerea sub semnul întrebării a potențialului său extrem, pe care infractorii cibernetici îl pot utiliza pentru activități malițioase. Potențialul complet al ChatGPT nu a fost încă explorat de cercetători.
Analizând în continuare această descoperire, este esențial să se exploreze limita potențialului negativ al utilizării sale. Acest lucru duce, de asemenea, la concluzia că există posibilități ca infractorii cibernetici să fi fost deja conștienți de acest lucru și să îl fi utilizat în scopuri malițioase, lucru care încă nu a fost confirmat.