Az Irregular nevű biztonsági cég tesztelte a három népszerű mesterségesintelligencia-eszközt. Mindegyik modelltől 50 darab, hatkarakteres, erős jelszót kértek, azzal a feltétellel, hogy azoknak speciális karaktereket, számokat és betűket egyaránt tartalmazniuk kell. Az eredmények riasztónak bizonyultak. 

A ChatGPT hasonlóan járt el: jelszavait jellemzően "v" betűvel indította, és az esetek közel felében "Q" volt a második karakter.

A Gemini sem teljesített jobban: kis- vagy nagybetűs "k"-val nyitott, második karakterként pedig rendszerint a "#", a "P" vagy a "9" valamelyike következett.
 


A probléma gyökere a nagy nyelvi modellek (LLM-ek) működési elvében rejlik. Ezek a rendszerek statisztikai valószínűség alapján generálnak hihető mintázatokat, nem pedig valódi véletlenszerűséget állítanak elő. Az eredmény így hiába tartalmaz vegyes karaktereket és speciális jeleket, a kiszámíthatóság alapjaiban ássa alá a biztonságot - írja a Portfolio.

 

1
Ezt az 5 dolgot ne mondd el a ChatGPT-nek

Az sem mindegy, miről csevegünk az MI-vel. Az Elon University kutató a közelmúltban összegyűjtötték, mi az, amit ne osszunk meg az MI alapú chatbotokkal, például a ChatGPT-vel.

Amit ne áruljunk el a chatbotoknak:

- Személyazonossághoz köthető információk, pl. lakcím, személyigazolvány-szám, jogosítványszám, valódi név. Ezek az információk ugyanis kiszivároghatnak, illetéktelen kezekbe kerülhetnek, legrosszabb esetben rosszindulatú személyek visszaélhetnek velük.
Túlságosan intim, személyes információk például párkapcsolatokról, családi helyzetről, magánéletről. Ezeket az információkat nemcsak elraktározzák a chatbotok, hanem külső személyek is hozzájuk férhetnek, például bírósági végzés esetén (az USA-ban egészen biztosan).
Egészségügyi adatok: ez egyrészt a fent is említett személyes adatok kiszivárgása miatt veszélyes, másrészt pedig az is előfordulhat, hogy az AI részinformációk alapján téves diagnózist, rossz tanácsot ad.
- Érzékeny munkahelyi, céges adatok, forráskódok, olyan információk, melyeket bizalmas szerződés véd. Ismét: ezek az adatok kiszivároghatnak, az AI-rendszer pedig tárolja ezeket.
Pénzügyi információk: fizetési adatok, bankkártyák, adóbevallás, befektetési tanácsadás. Itt is ugyanazok a kockázatok merülnek fel, mint az egészségügyi adatokkal kapcsolatosan: egyrészt előfordulhat, hogy illetéktelen személyek férnek hozzá a fizetési adatainkhoz, másrészt pedig az AI olyan tanácsot adhat, amin az ember végeredményében pénzt veszít.

 

2