A 4000 fős kutatás egyik legmeglepőbb eredménye, hogy minden ötödik munkavállaló (22%) valószínűnek tartja a felmondást, ha túl intenzívvé válik a munkahelyi AI-használat. Jeannie Bril szervezetpszichológus szerint a technológia kényszerítése – különösen a kreatív területeken – sértheti a dolgozók szakmai identitását és csökkentheti a választási szabadságukat - írja a HR Portal az Online DISC Profile kutatásáról.
A kutatás szerint a különböző karaktertípusok eltérő módon közelítenek az automatizációhoz:
D-típus (Domináns): Gyorsak és szeretik a kontrollt, így az AI-t leginkább a feladatok felgyorsítására használják. Ugyanakkor gyanakvóvá válnak, ha az eszköz nem pontosan az ő munkamódszerüket támogatja.
I-típus (Befolyásoló): Társaságkedvelőként kedvelik az AI-modellek közvetlen stílusát, de nagyban függnek a kollégák véleményétől is. Ha a környezetük elutasító, ők is kerülni fogják a technológiát.
S-típus (Kitartó): A rendszereket és a csapatmunkát értékelik. Az AI-ra segítőkész társként tekintenek, de ha úgy érzik, hogy a technológia miatt kollégák kerülhetnek veszélybe, inkább nem használják.
C-típus (Szabálykövető): A pontosság és a kockázatkerülés jellemzi őket. Az AI-t a hibák kiszűrésére használhatják, de az algoritmusok tévedéseitől való félelem gyakran visszatartja őket.
Még akkor is, ha élen járunk az AI-használatban, néhány szabályt érdemes betartani a magunk védelmében is. Az Elon University digitális kutatóközpontjának kutatóinak fő aggálya az, hogy gyakorlatilag az összes AI chatbot felhasználja az ott megosztott adatokat a chatbot funkcióinak bővítésére, javítására, sőt, egyes IT-rendszerek ezeket az információkat „határozatlan ideig” tárolják is.
A kutatók szerint a következő információkat nem szabad megosztani a ChatGPT-vel és a hozzá hasonló AI-modellekkel:
- személyazonossághoz köthető információk, pl. lakcím, személyigazolvány-szám, jogosítványszám, valódi név. Ezek az információk ugyanis kiszivároghatnak, illetéktelen kezekbe kerülhetnek, legrosszabb esetben rosszindulatú személyek visszaélhetnek velük.
- Túlságosan intim, személyes információk például párkapcsolatokról, családi helyzetről, magánéletről. Ezeket az információkat nemcsak elraktározzák a chatbotok, hanem külső személyek is hozzájuk férhetnek, például bírósági végzés esetén (az USA-ban egészen biztosan).
- Egészségügyi adatok megosztása: ez egyrészt a fent is említett személyes adatok kiszivárgása miatt veszélyes, másrészt pedig az is előfordulhat, hogy az AI részinformációk alapján téves diagnózist, rossz tanácsot ad.
- Érzékeny munkahelyi, céges adatok, forráskódok, olyan információk, melyeket bizalmas szerződés véd. Ismét: ezek az adatok kiszivároghatnak, az AI-rendszer pedig tárolja ezeket.
- Pénzügyi információk: fizetési adatok, bankkártyák, adóbevallás, befektetési tanácsadás. Itt is ugyanazok a kockázatok merülnek fel, mint az egészségügyi adatokkal kapcsolatosan: egyrészt előfordulhat, hogy illetéktelen személyek férnek hozzá a fizetési adatainkhoz, másrészt pedig az AI olyan tanácsot adhat, amin az ember végeredményében pénzt veszít
Olvasd el ezt is!


