Egy számítógép alaplapja közelről
Fotó: unspalsh

Hogyan józanítsuk ki a mesterséges intelligenciát?

A mesterséges intelligencia (AI) világában néhány hónappal ezelőtt hatalmas érdeklődés fogadta a GPT-3 koncepcióját. Jogosan, hiszen hatalmas előrelépésnek számít ez a generatív nyelvi modell, mely szövegalkotásban, értelemben és kommunikációban és igen fejlett technológia. Az elmúlt pár hónapban azonban kikristályosodott néhány probléma a modellel kapcsolatban.


A GPT-3 nevű mesterséges intelligencia megdöbbentően életszerű beszélgetéseket, irományokat képes generálni, történjen ez akár nietzsche-i magaslatokban, vagy legyen szó kommentek előállításáról Reddit-en. Viszont ami eleinte igen bíztatónak látszott, tüzetesebb vizsgálat után már bizonyos funkcionális problémákat vetett fel. Lényegében tartalmi és összefüggésbeli hiányosságok vannak "a gép" mondataiban. Persze még így is könnyedén azt hihetjük, hogy egy ember van a vonal túlsó végén - írja a Shifted.

Beszélgetés egy részeggel

Két lényeges dologról érdemes beszélnünk ezzel kapcsolatban. Az első, hogy a GPT-3 nem tud érvelni, nem tud semmilyen következtetést levonni. Ez a technológia egyfajta tudatfolyamként viselkedik, ami azt jelenti, hogy a korábban megalkotott mondatokra építkezve formálja meg a soron következő mondandóját. Mondatok szintjén még valószínűleg értelmes tartalmat tud összehozni, sőt még talán egy-egy bekezdéssel is megküzd, viszont hosszabb szövegek esetében már kiütközik, hogy nem emberalkotta szöveggel van dolgunk. Olyan, mintha egy részeggel beszélgetnénk, aki nem tudja megformálni a véleményét, mert valójában a GPT-3-nak nincs véleménye, amit megformáljon. Így az még egyelőre várat magára, hogy megírja az üzleti tervünket.A második, hogy ha lenne is véleménye, tudna miről érvelni, akkor sem tudná, hogyan jusson el odáig. Például ha azt a célt adnánk neki, hogy 2021-ben meg kell növelnünk az eladásainkat 15 százalékkal, a GTP-3 nem tudna egyik pontról a másikra logikusan építkezni, míg el nem éri azt a következtetés, hogy valóban 15 százalékos eladási növekedést kell elérnünk. Inkább úgy fogalmaznánk, hogy mint egy bulldózer törne utat ehhez a következtetéshez. Helyelközel elfogadható munkát végezne, de a vezetőség biztosan nem fogadná el az előterjesztését.

​Lehet e valóságérzete egy robotnak?

A fő probléma, hogy a mesterséges intelligencia nem érti a valóság fogalmát. Nincs valódi világképe, nem tudja mi realisztikus, és mi nem az. Egy jó példa erre, hogy nem lát különbséget „A dohányzás halált okoz" és „A halál dohányzást okoz" mondatok között. Valójában az alapvető folyamatok is igen nagy kihívást jelentenek. Ilyen például a számolás, de gondoljunk csak bele, milyen nehéz lehet felfogni egy ilyen folyamatot, ha csak olvashatunk róla. Ugyanis a gép csak írásos formában tanítható. Képzelhetjük ennek alapján, hogy egy teljes világkép felfogása mennyire bonyolult folyamat számára!

​Új megoldásokra van szükség

A GTP-3, a korábbi verzióival egyetemben a transzformátor nevezetű, nagysikerű neurális hálózati komponensből építkezik. Ez az architektúra óriási fejlődést eredményezett a mesterséges intelligencia szövegalkotóképességében. Erőssége a szabad asszociáció, amely az emberek esetében is jelen van, csak mi képzeletnek hívjuk. A különbség, hogy mi ki tudjuk egyensúlyozni a valóságérzetünkkel a gondolatainkat, míg ez a mestersége sintelligenciánál nincs meg. Még! Éppen ezért először is szükségünk van egy új neurális hálózati architektúrára, amelynek segítségével már elérhetünk egy valóságérzettel rendelkező mesterséges intelligenciával működő programot.

​Vezet a Facebook

Feedback Transformer – ezt a nevet kapta a Facebook AI csapata által készített új transzformátor-architektúra. Ez a megközelítés az eredeti architektúrán két jelentős fejlesztést végzett. Először is megnövelték a memóriáját, így nem csak az utolsó néhány mondatra emlékszik a Feedback Transformer, hanem mindenre, amit az adott pontig valaha mondtak neki. A második, ami még fontosabb, hogy a Facebook megoldása képes megérteni teljes számítógépes programokat. A megnövelt memóriának köszönhetően azon túl, hogy be tudja fogadni az adott programot, még arra is képes, hogy pontosan megmondja, mit fog csinálni az adott program. A megnövekedett memóriának köszönhetően már képes felismerni, ha valamit többször, sőt azt is, hogy hányszor mondták neki, így már a számolásban is fejlődéseket ért el.

Már les ránk a Skynet?

A terminátor eljövetelére valószínűleg még várnunk kell, de ezek a forradalmi megoldások egyre közelebb visznek minket egy okosabb, fejlettebb mesterséges intelligenciához. A Feedback Transformerhez hasonló megoldások javítják a GTP-3-hoz hasonló modellek tudatfolyamát, ezzel már egyre kevésbé fognak részeges beszélgetőpartnernek tűnni, és egyre meggyőzőbbek lesznek, hogy miért is kell az a 15 százalékos növekedés az eladásaink terén. Szépen lassan pedig be lehet integrálni őket komoly üzleti folyamatokba.

Ne hagyd ki!