OpenAI şi Microsoft avertizează că instrumentele de AI, precum ChatGPT, sunt folosite de hackeri pentru a-şi îmbunătăţi atacurile cibernetice.
Cele două companii au lansat un avertisment comun cu privire faptul că hackerii folosesc deja modele lingvistice pentru a-şi consolida tacticile.
Avertizări asupra acestei posibilităţi au fost emise şi până acum de diverse alte entităţi, însă cele două companii americane vin şi cu dovezi.
Acestea spun că grupuri de hackeri chinezi, ruşi, iranieni şi nord coreeni folosesc deja instrumente precum ChatGPT pentru a crea scripturi mai bune şi a-şi îmbunătăţi tehnicile sociale.
Acestea din urmă sunt folosite pentru a crea campanii de phishing mai convingătoare, în urma cărora utilizatorii sunt păcăliţi mai uşor să ofere informaţii personale.
Există şi situaţii cu implicaţii militare. De exemplu, Stontium, un grup de hackeri susţinut de spionajul rus, a folosit AI-ul pentru a descifra protocolul de comunicaţii al sateliţilor, informaţiile radarelor şi diverşi alţi parametrii tehnici sensibili.
Avertismentul celor două companii vine în condiţiile în care propriile instrumente de AI, ChatGPT şi Copilot, pot fi folosite de hackeri în atacuri.