Robotok lesznek a jövő kiberbűnözői?
A mesterséges intelligencia (MI) és a kapcsolódó technológiák rengeteg figyelmet kaptak az elmúlt egy évben. Sokan aggódnak amiatt, hogy az MI felemelkedése oda vezethet, hogy hamarosan a gépek emberi segítség nélkül, önállóan tudnak majd kibertámadásokat indítani.

 

Noha az első teljes mértékben mesterséges intelligencia által indított kibertámadásra még várni kell, az MI technológiának mindenképpen van hatása a kiberbiztonságra. A bűnözők már ma is használnak mesterséges intelligenciát például az adathalász e-mailek finomítására, testre szabására. A ChatGPT-hez hasonló szolgáltatások majdnem tökéletes képessége arra, hogy az ember által írt szövegekhez hasonlókat hozzanak létre kétségtelenül ráirányítja a figyelmet a technológiára.

Hogyan védekezhetünk ez ellen? Hogy megválaszolhassuk ezt a kérdést, először meg kell határoznunk az MI és a kiberbűnözés jelenlegi kapcsolatát. Már most megfigyelhető, hogy a hackerek olyan utasításokat tudnak adni a nagy nyelvi modelleknek (large language model – LLM), amelyek lehetővé teszik, hogy jogosulatlan műveleteket hajtsanak végre.

 

Ilyen jogosulatlan művelet lehet a korábbi utasítások és tartalommoderálási irányelvek figyelmen kívül hagyása, a mögöttes adatok nyilvánosságra hozatala, vagy a kimenet manipulálása olyan tartalom előállítása érdekében, amelyet a szolgáltató általában tilt.

 

Ezen a módon a bűnözők az ilyen közvetlen injekciós támadásokkal a diszkriminatív tartalomtól kezdve a félretájékoztatáson keresztül a rosszindulatú kódokig sok mindent generáltathatnak a mesterséges intelligenciával. Közvetlen támadás során a hacker a bemenetet módosítja úgy, hogy felülírja a rendszerkérdéseket. Közvetett támadás során a hacker viszont megmérgezi a mesterséges intelligencia adatforrását – például egy webhelyet -, hogy manipulálja, milyen adatok alapján dolgozik az MI.

 

Már ma is használnak mesterséges intelligenciát például az adathalász e-mailek finomítására, testre szabására

 

Egy német kutatónak sikerült például a Bing Chat-et átalakítania hackerré, ami social engineering módszerrel személyes információkat szerez meg anélkül, hogy gyanút keltene. A felhasználónak nem kell kérdeznie az átalakított bot-tól, és nem is kell kapcsolatba lépnie vele, a csevegőrobot magától kéri el a látogató hitelkártyaadatait. Noha mindez nem teljesen új – a banki trójaiak valami hasonlót művelnek évek óta -, a fenyegetést komolyan kell venni, mert az MI rendszerek egyre több alkalmazásba, weboldalba kerülnek integrálásra, a megbízható és nem megmegbízható adatforrások megkülönböztetése pedig egyelőre kevés figyelmet kap.

Közös felelősség

Az MI megoldások gyártónak mindebben hatalmas felelőssége van, és tesznek is biztonság érdekében. Azok a cégek és felhasználók viszont, akik implementálják a technológiákat, szintén felelősséggel tartoznak. Jelenleg ez abból áll, hogy felkészülnek a már ismert támadási formákra, és megpróbálják felmérni, hogy milyen új támadási lehetőségekre – például adathalász kísérletekre – kell felkészülniük. Azok az elvek, amelyekre a nagy nyelvi modellek és az MI megoldások épülnek, már járnak következményekkel. A mesterséges intelligencia nem magától talál fel dolgokat, hanem adatforrásokon alapszik.

Éppen ezért bölcs dolog körültekintőnek lenni azzal kapcsolatban, hogy milyen adatot kivel (vagy mivel) osztunk meg. Másszóval: nem kell okosabbá tenni az MI-t velünk kapcsolatban, mint amilyen magától lenne. Így például ne adjunk meg magunkról vagy a cégünkről minden adatot egy MI számára, mert nem tudhatjuk, hogy ezeket később milyen célra használhatják fel. Körültekintőnek kell lenni, mert az MI megoldások általános felhasználási feltételeiben általában benne van, hogy a megoldás gyártója a megadott adatokat felhasználhatja az MI oktatására, fejlesztésére is – ezt pedig elég tágan is lehet értelmezni.

A munkavállalók biztonsági oktatását is érdemes kiterjeszteni erre: a munkavállalóknak tudniuk kell, hogyan használhatják felelősségteljesen az MI megoldásokat. Nekünk pedig ügyelni kell arra, hogy magunkról és családunkról milyen információkat osztunk meg a mesterséges intelligenciával. A kiberbűnözés nem egy passzív, egyoldalú játék, ahol csak a támadónak vannak lehetőségei: a mi szerepünket is kritikusan kell vizsgálni a kockázatok csökkentése érdekében.

 

| Képek: Adobe Stock

Kik Európa innovátorai?
2024-ben is magas volt a szabadalmi aktivitás, közel 200 ezer szabadalmi bejelentést tettek az Európai Szabadalmi Hivatalhoz – derült ki szervezet közléséből.
Így lesz a jövő adatközpontja fenntartható és biztonságos
Az adatközpontoknak egyre komolyabb elvárásoknak kell megfelelniük, legyen szó teljesítményről, kapacitásról vagy éppen a biztonságos és megbízható működésről. Elengedhetetlen, hogy a rendszer folyamatosan elérhető legyen, de az adatokhoz kizárólag azok férhessenek hozzá bármikor és bárhonnan, akik erre jogosultak.
Ötgenerációs munkahelyeké a jövő: újra kell tanulnunk a felgyorsult világot
Kényes helyzetekhez, feszültséghez, széthúzáshoz vezethetnek sokak szerint a generációs különbségek, főleg a munka világában. Szükségszerű-e, hogy ez így legyen? Hasonlóan sürgető és megoldásra váró kérdésekre keresik a választ a Bosch Podcast legfrissebb adásának szakértő vendégei, Steigervald Krisztián és Somogyi András.
Tudjuk, hogy káros, mégsem törődünk az akkumulátorgyárak éjszakai fényszennyezésével
A fényszennyezés egyaránt káros hatással van az emberi szervezetre és az élővilágra, mégis kevés figyelem jut rá az új gigaberuházások kivitelezésénél.
Új kiberbiztonsági szabályozás: így spórolhatnak milliókat a cégek
2025-ben tovább szigorodtak a kiberbiztonsági előírások, amelyek az auditok lefolytatását és a felügyeleti díjak számítását érintik.