2023.10.28. 06:00
Robotok lesznek a jövő kiberbűnözői?
Sokan aggódnak amiatt, hogy a mesterséges intelligencia (MI) és a kapcsolódó technológiák felemelkedése oda vezethet, hogy hamarosan a gépek emberi segítség nélkül, önállóan tudnak majd kibertámadásokat indítani.
Forrás: Shutterstock
Noha az első teljes mértékben mesterséges intelligencia által indított kibertámadásra még várni kell, az MI technológiának mindenképpen van hatása a kiberbiztonságra. A bűnözők már ma is használnak mesterséges intelligenciát például az adathalász e-mailek finomítására, testre szabására. A ChatGPT-hez hasonló szolgáltatások majdnem tökéletes képességgel rendelkeznek ahhoz, hogy az ember által írt szövegekhez hasonlókat hozzanak létre – figyelmeztet a G Data. Hogyan védekezhetünk ez ellen?
Hogy megválaszolhassuk ezt a kérdést, először meg kell határoznunk az MI és a kiberbűnözés jelenlegi kapcsolatát. Már most megfigyelhető, hogy a hackerek olyan utasításokat tudnak adni a nagy nyelvi modelleknek (large language model – LLM), amelyek lehetővé teszik, hogy jogosulatlan műveleteket hajtsanak végre. (Erről a G Data írt már bővebben.)
Ilyen jogosulatlan művelet lehet a korábbi utasítások és tartalommoderálási irányelvek figyelmen kívül hagyása, a mögöttes adatok nyilvánosságra hozatala, vagy a kimenet manipulálása olyan tartalom előállítása érdekében, amelyet a szolgáltató általában tilt.
Ezen a módon a bűnözők az ilyen közvetlen injekciós támadásokkal a diszkriminatív tartalomtól kezdve a félretájékoztatáson keresztül a rosszindulatú kódokig sok mindent generáltathatnak a mesterséges intelligenciával. Közvetlen támadás során a hacker a bemenetet módosítja úgy, hogy felülírja a rendszerkérdéseket. Közvetett támadás során a hacker viszont megmérgezi a mesterséges intelligencia adatforrását – például egy webhelyet –, hogy manipulálja, milyen adatok alapján dolgozik az MI.
Add ide kártyaszámod
Egy német kutatónak sikerült például a Bing Chat-et átalakítania hackerré, ami social engineering módszerrel személyes információkat szerez meg anélkül, hogy gyanút keltene. A felhasználónak nem kell kérdeznie az átalakított bot-tól, és nem is kell kapcsolatba lépnie vele, a csevegőrobot magától kéri el a látogató hitelkártyaadatait.
Noha mindez nem teljesen új – a banki trójaiak valami hasonlót művelnek évek óta –, a fenyegetést komolyan kell venni, mert az MI rendszereket egyre több alkalmazásba, weboldalba integrálják, a megbízható és nem megmegbízható adatforrások megkülönböztetése pedig egyelőre kevés figyelmet kap.
Közös felelősség
Az MI megoldások gyártónak mindebben hatalmas felelőssége van, és tesznek is biztonság érdekében. Azok a cégek és felhasználók viszont, akik implementálják a technológiákat, szintén felelősséggel tartoznak. Jelenleg ez abból áll, hogy felkészülnek a már ismert támadási formákra, és megpróbálják felmérni, milyen új támadási lehetőségekre – például adathalász kísérletekre – kell felkészülniük.
Azok az elvek, amelyekre a nagy nyelvi modellek és az MI megoldások épülnek, már járnak következményekkel. A mesterséges intelligencia nem magától talál fel dolgokat, hanem adatforrásokon alapszik.
Éppen ezért bölcs dolog körültekintőnek lenni azzal kapcsolatban, hogy milyen adatot kivel (vagy mivel) osztunk meg. Más szóval:
nem kell okosabbá tenni az MI-t velünk kapcsolatban, mint amilyen magától lenne.
Így például ne adjunk meg magunkról vagy a cégünkről minden adatot egy MI számára, mert nem tudhatjuk, hogy ezeket később milyen célra használhatják fel.
Körültekintőnek kell lenni, mert az MI megoldások általános felhasználási feltételeiben általában benne van, hogy a megoldás gyártója a megadott adatokat felhasználhatja az MI oktatására, fejlesztésére is – ezt pedig elég tágan is lehet értelmezni.
A munkavállalók biztonsági oktatását is érdemes kiterjeszteni erre: a munkavállalóknak tudniuk kell, hogyan használhatják felelősségteljesen az MI megoldásokat. Nekünk pedig ügyelni kell arra, hogy magunkról és családunkról milyen információkat osztunk meg a mesterséges intelligenciával.
A kiberbűnözés nem egy passzív, egyoldalú játék, ahol csak a támadónak vannak lehetőségei: a mi szerepünket is kritikusan kell vizsgálni a kockázatok csökkentése érdekében.
Digitália
- Saját halálos mellrákját kezelte (sikeresen) egy tudós vírusterápiával
- A világ legkelendőbb telefonja: kitalálja, melyik az?
- Hazai tervezésű pilóta nélküli légijármű forradalmasítja a tisztítástechnológiát
- Ezért van mesterséges intelligencia a Samsung tévéiben
- Így torzítják a gondolkodásunkat az interneten látható képek