Az Irregular nevű biztonsági cég tesztelte a három népszerű mesterségesintelligencia-eszközt. Mindegyik modelltől 50 darab, hatkarakteres, erős jelszót kértek, azzal a feltétellel, hogy azoknak speciális karaktereket, számokat és betűket egyaránt tartalmazniuk kell. Az eredmények riasztónak bizonyultak.
A ChatGPT hasonlóan járt el: jelszavait jellemzően "v" betűvel indította, és az esetek közel felében "Q" volt a második karakter.
A Gemini sem teljesített jobban: kis- vagy nagybetűs "k"-val nyitott, második karakterként pedig rendszerint a "#", a "P" vagy a "9" valamelyike következett.
A probléma gyökere a nagy nyelvi modellek (LLM-ek) működési elvében rejlik. Ezek a rendszerek statisztikai valószínűség alapján generálnak hihető mintázatokat, nem pedig valódi véletlenszerűséget állítanak elő. Az eredmény így hiába tartalmaz vegyes karaktereket és speciális jeleket, a kiszámíthatóság alapjaiban ássa alá a biztonságot - írja a Portfolio.
Az sem mindegy, miről csevegünk az MI-vel. Az Elon University kutató a közelmúltban összegyűjtötték, mi az, amit ne osszunk meg az MI alapú chatbotokkal, például a ChatGPT-vel.
Amit ne áruljunk el a chatbotoknak:
- Személyazonossághoz köthető információk, pl. lakcím, személyigazolvány-szám, jogosítványszám, valódi név. Ezek az információk ugyanis kiszivároghatnak, illetéktelen kezekbe kerülhetnek, legrosszabb esetben rosszindulatú személyek visszaélhetnek velük.
- Túlságosan intim, személyes információk például párkapcsolatokról, családi helyzetről, magánéletről. Ezeket az információkat nemcsak elraktározzák a chatbotok, hanem külső személyek is hozzájuk férhetnek, például bírósági végzés esetén (az USA-ban egészen biztosan).
- Egészségügyi adatok: ez egyrészt a fent is említett személyes adatok kiszivárgása miatt veszélyes, másrészt pedig az is előfordulhat, hogy az AI részinformációk alapján téves diagnózist, rossz tanácsot ad.
- Érzékeny munkahelyi, céges adatok, forráskódok, olyan információk, melyeket bizalmas szerződés véd. Ismét: ezek az adatok kiszivároghatnak, az AI-rendszer pedig tárolja ezeket.
- Pénzügyi információk: fizetési adatok, bankkártyák, adóbevallás, befektetési tanácsadás. Itt is ugyanazok a kockázatok merülnek fel, mint az egészségügyi adatokkal kapcsolatosan: egyrészt előfordulhat, hogy illetéktelen személyek férnek hozzá a fizetési adatainkhoz, másrészt pedig az AI olyan tanácsot adhat, amin az ember végeredményében pénzt veszít.
Olvasd el ezt is!


