Lézerprocesszor és a szintetikus agy

Lézerprocesszor

Fény az alagút végén?

Az integrált áramkörök órajelének növelése már tavaly lelassult, ám a CPU-k áramfelvétele és hőtermelése az új irányú fejlesztések ellenére is tovább nő. Egy forradalmi újítás talán az egész gondot megszüntetheti, és hatalmas lökést adhat az egész iparágnak. Forradalom? Ez a szilíciumalapú, folyamatos üzemű lézer.

Jelenleg szinte kizárólag a távközlésben találkozhatunk a nagy sebességű optikai adattovábbítással, holott az elektromos jelátvitel törvényszerű vesztesége meglehetősen sok hiba forrása - bizonyára mindenki ismeri a néhány négyzetcentiméteren 84-115 W-ot disszipáló processzorok hűtőinek zaját. Ha az elektromosság helyett fényt használnánk, a hőtermelési gondok egy időre megoldódnának, illetve a nagy sávszélességű kommunikáció nem csak a processzormagban működhetne. Néhány száz MHz fölött igen nehéz biztosítani az elektromos impulzosok szinkronitását, mivel az alaplapon sok a szórt kapacitás és az induktivitás. A fényjeleknél azonban egyszerűbb a helyzet.

Az optikai alapokon nyugvó áramkörök egyik fő gondja a fénygenerálás, azaz a lézer megépítése. A periódusos rendszer III. és V. főcsoportjának elemeiből (gallium-arzenid, indium-foszfid) ugyan - a később részletezett Raman-effektus segítségével - lehetséges félvezető alapú lézert építeni, ez azonban egyrészt drága, másrészt nehéz feladat többfajta félvezető egy chipre integrálása a különböző hőtágulási együtthatók miatt. Az év elején az Intel fejlesztőcsoportja (H. Rong és társai) bejelentette, hogy elsőként sikerült kifejleszteniük folyamatos üzemű, szilíciumalapú lézert. A következőkben a technológiai mérföldkőként aposztrofált találmány elvi hátteréről lesz szó.

Raman-effektus

Az optikai adatforgalom lebonyolításához lézerre van szükség, amelyet precízen egybeépítenek a fényt továbbító hullámvezetővel - Victor Krutul, az Intel szilíciumalapú optikai berendezésekkel foglalkozó részlegének vezetője szerint a berendezések teljes költségének kétharmadát a pontos összeszerelés és a tesztelés teszi ki. Az integráltsági fok növeléséhez tehát szükség van egy, lehetőleg chipre építhető, pontos orientációjú, kisméretű fényforrásra. Közelebb kerülünk a Raman-jelenség megértéséhez, ha a fényt nem hullámként, hanem részecskenyalábként képzeljük el. Amikor a nyaláb áthalad egy (fényáteresztő) atomrácson, akkor rugalmasan ütközhet az atomokkal, ennek során energiát ad át az atomrácsnak, amely rezgésbe jön, és továbbadhatja az energiát más fotonoknak - természetesen némi (hő)veszteség kíséretében. Ennek eredményeképpen egy másodlagos fénysugarat kapunk, amely kisebb energiájú (nagyobb hullámhosszú), mint a bemenő sugár. De miért jó, hogy egy fénysugárból kisebb energiájú sugarat hozunk létre? Azért, mert a másodlagos sugár megfelelő orientációjú, míg a bemenő (gerjesztő) nyalábra vonatkozó irányultságbeli követelmények sokkal lazábbak. A C.V. Raman által 1927-ben felfedezett jelenség a szilíciumban tízezerszer erősebb, mint például az üvegben, azonban nem véletlenül kellett idáig várni a folyamatos üzemű lézerre. Pontosítsunk: az első szilíciumalapú, folyamatos üzemű lézerre kellett sokat várni, egzotikus alapanyagokkal értek már el sikereket a fejlesztők. Az ipar számára azonban kulcsfontosságú, hogy szilíciumot használjanak, hiszen az utóbbi néhány évtized során rengeteg gyártástechnológiai tapasztalat halmozódott fel és így az előállítási költségek sem elérhetetlenek.

Ha netán egyszerre két foton ütközik egy atomnak, akkor az atom elektront bocsát ki, a keletkező elektronfelhő pedig elnyeli a másodlagos sugár jó részét. Az Intel kutatói valójában nem tettek mást, mint sikeresen eltávolították az elektronfelhőt a fény útjából. Elektron nem keletkezik "magában", mindig egy elektron és egy úgynevezett "lyuk" jön létre, amely valójában elektronhiányos helyet jelent. A kutatók egy p-i-n átmenet, vagyis egy elektronhiányos, egy semleges és egy elektrontöbbletes szilíciumba helyezték a hullámvezetőt, ami azt jelenti, hogy a fény egy dióda belsejében fut. A folyamatok részletes leírása túlfeszítené írásunk határait, a lényeg, hogy ha negatívan előfeszítjük a diódát, akkor a lyukak és az elektronok egyaránt kisodródnak a fény útjából (a dióda csak adott irányban vezeti az áramot, a negatív előfeszítés a vezetési iránnyal ellenkező polaritású feszültség rákapcsolását jelenti). Így a keletkező másodlagos fénynyaláb nemcsak impulzusszerűen, hanem folyamatos üzemben keletkezik, és innentől fogva tetszőlegesen modulálható, kapcsolható, azaz felhasználható kommunikációs célokra.

 

Fényes jövő

Bár az előrejelzések szerint 5-6 éven belül biztosan nem épül szilíciumlézeren alapuló processzor vagy egyéb chip, de a találmány mégis áttörés. "Mind technológiailag, mind pszichológiailag lényeges mérföldkőhöz érkeztünk, mivel (a szilíciumalapú optikai áramkörök megépítéséről) senki sem gondolta, hogy lehetséges" - nyilatkozta Mario Paniccia, az Intel fotonikai kutatásokért felelős vezetője. A fényalapú adatátvitel részben orvosolhatja a jelenlegi csúcsprocesszorok egyre nehezebben kordában tartható hőtermelésének gondját, a nagyfrekvenciás jelek néhány centiméternél hosszabb távolságokon történő átvitelét (amely a jeltorzulások miatt ma kissé bonyolult), illetve az adathálózatok és a feldolgozóegységek összekötése nagyságrendekkel egyszerűbb és gyorsabb lehet. Ez utóbbi a biztonságos kommunikációt is segítheti, ugyanis az optikai kapcsolat észrevétlen lehallgatása sokkal nehezebb, mint az elektromosé, hiszen azt az információt, amelyet a kommunikációs csatornából kinyer valaki, más már nem kapja meg, hiszen a foton elnyelődik az érzékelőben. Tehát hibátlan adatfolyam esetén biztos, hogy más nem hallgat bele a csatornába, nagyon nagy hibaaránynál pedig az adó megszünteti az információközlést.

Érdekesség, hogy a kísérleti áramkör az AMD és az IBM által kifejlesztett és használt silicon-on-insulator (szilícium a szigetelőn) gyártástechnológiával készült. Az Intel tervei szerint a következő lépés egy chipes, szilíciumalapú optikai adó-vevő megtervezése és gyártása lesz.

A szintetikus agy

A Palm és a Treo gépek "feltalálója", Jeff Hawkins izgalmas területtel foglalkozik manapság: egyenesen azt állítja, hogy megfejtette az emberi agy működését. Hogy elméletét a gyakorlatban is igazolhassa, megalapította Numenta elnevezésű cégét. A vállalkozás égisze alatt algoritmusokkal modellezik az agy egy bizonyos részének működését, ami páratlan távlatokat nyit(hat) az öntanuló gépek világában.

A mesterséges intelligencia megvalósítására irányuló kísérletekkel eddig az volt a gond, hogy az intelligenciát a feldolgozó erőnek feleltették meg. Az agy működése azonban gyökeresen más, mint egy számítógépé. Ahhoz, hogy intelligens gépet készítsünk, meg kell értenünk e központi szervünk működését. Ha képesek lennénk erre, akkor valódi - és nem mesterséges - intelligenciával ruházhatnánk fel a gépeket.

Hawkins ezen a téren harangozott be hatalmas előrelépést - és érdemes meghallgatni őt, hiszen mintegy 25 éve az egyik fő érdeklődési területe az agykutatás, azon belül is egy rózsaszín, szivacsszerű rész, a neokortex. A jelen kutatások állása szerint az agy e részében rejlik az emberi intelligencia (ellentétben például azon részekkel, amelyek a testi funkciókat irányítják). Az itt található harmincbillió sejt - ahol a tudásunk tárolódik - a memóriarendszerünknek tekinthető. Hawkins pedig a neokortex működésén alapuló gépet készít.

Az agy mintákat tárol és hív elő. Minden érzékszervi benyomás - legyen az látvány, hang, érintés vagy illat - mintasorozatokká alakul. Amikor új dolgokkal, helyzetekkel találkozunk, az agy megvizsgálja a korábban eltárolt tapasztalatokat, és megjósolja, mi fog történni. Számára a múlt nem más, mint tárolt minták sorozata.

Ha például leszállunk egy repülőgépről egy új városban, és keresztülhaladunk a terminálon, az agyunk összehasonlítja az adott terminált a korábban látottakkal. Magyarán, a korábbi tapasztalatok alapján jósolja meg, mire számíthatunk. Ugyanez történik, ha ismerős dal csendül fel: agyunk a korábbi, egyező minták alapján kitalálja, milyen taktusok következnek. Fogalmazhatunk úgy is, hogy a tárolt benyomások függvényében az érzékszervi benyomások állandó áramlata folyamatosan lehetőségek jóslatára sarkallja az agyunkat.

Hawkins ezt az elvet követve kíván olyan gépeket készíteni, amelyek az emberi agyhoz hasonlóan gondolkodnak és tanulnak. Jelenleg azon dolgozik, hogy a gépek által is érthető algoritmusokká alakítsa az elméletet. Egy nemrégiben lezajlott konferencián pedig már azt is bemutatta, mit tud az egyelőre még korai fejlettségi állapotú szoftver. A programot felkészítették helikopter, kutya és más hétköznapi alakzatok felismerésére, és olyan képeket mutattak neki, amelyek elnagyolva, esetleg épp csak skiccelve ábrázolták ezeket a tárgyakat, az intelligens program mégis felismerte mindet.

Ha lesznek olyan gépek és programok, amelyek ilyen könnyen felismerik a mintákat, sőt tanulnak is belőlük, óriásit léptünk előre. Hiszen ezzel az olyan nehézkes, mégis nagy jelentőségű területeken, mint amilyen a hang- és arcfelismerés, esetleg a tanulás, nagyot fejlődhetünk. Lényeges azonban tudni, hogy az ilyen újszerű szoftvereket futtató gépek felépítése különbözni fog a ma ismertektől: nem a hatalmas processzorok lesznek a fő ismérveik.

Ehelyett képzeljük el a következőt: adott egy ajtó, amit valaki erővel belök, és egy kamera, amelyik az ajtót figyeli. A kamerához két gép van kötve, az egyik a hagyományos mesterséges intelligenciát, a másik pedig az ismertetett új megközelítést alkalmazva próbálja megjósolni, mi fog történni. Az előbbit használó gép lehetőségek milliárdjait veszi számba, mielőtt letáborozik a legvalószínűbb kimenetelnél (hogy az ajtó becsapódik). Ehhez elengedhetetlen az óriási teljesítményű gép. Hawkins megközelítésénél viszont a masina észleli, hogy az ajtó egyre növekvő sebességgel mozog, ezt a mintát összeveti a többi tárolt mintával, és gyorsan meghatározza, mi is fog bekövetkezni. Ehhez sokkal kevesebb számítási teljesítményre van szükség, azonban jócskán nagyobb tárhelyre - hiszen minél több mintát és információt tárolnak ezek a gépek, annál többet tudnak tanulni.

Hawkins szerint a mai öntanuló, intelligens gépek nagyjából abban az állapotban vannak, mint a programozható (ős)számítógép az ötvenes években. Izgalmasan hangzik, hogy ezek - legalábbis a tudós reményei szerint - gyorsabban fognak tanulni és fejlődni, mint az emberek, mivel "érzékszervi benyomásaik" nem lesznek az öt alapvető emberi érzékre korlátozva. Képesek adatokat gyűjteni infravörös, magnetikus és mikroszkopikus forrásokból, hogy csak egy párat említsünk. Az adatok beszerzése történhet különböző célszenzorokon, sőt az interneten keresztül összekapcsolt érzékelőhálózaton keresztül is. A lehetőségek tárháza tehát hatalmas. Ráadásul a felhasználási területek számottevőek: építhetünk olyan gépet, ami a jelenlegi rendszereknél sokkalta pontosabban jelzi előre a következő földrengést, de az sem kizárt, hogy ily módon elkészülhet egy embernél is intelligensebb gép. Persze a kérdés adott: hasznos lesz-e ez nekünk és jó célra fordítjuk-e, avagy a hatalmas fantáziával megáldott, de legtöbbször borúlátó sci-fi írók jövendölése teljesedik-e be.

Csöndes Áron

Azóta történt

Hirdetés