Nyugatról érkező elismerés: „Kívülállóként azt látom, hogy Orbán Viktor ezeket a csapdákat eddig sikeresen elkerülte”
A volt brit brexitügyi főtárgyalóval, Lord David Frosttal beszélgettünk.
Az irdatlan mennyiségű adat, a napjainkat meghatározó big data egyre komolyabb problémákat vet fel. Hogyan kezeljük, és nyerjünk ki belőle hasznos információt?
A 2015 végén lezárult EU-s JUNIPER projekt az adatfolyam és a tárolt adatmennyiség növekedésére talált ki megoldásokat. A kutatók bigdata-elemző szoftvereket, alkalmazásokat támogató prototípus-technológiákat fejlesztettek, teszteltek és értékeltek ki.
Új üzleti lehetőségekhez és intelligensebb alkalmazásokhoz vezető mintázatok felfedezése és a mintakutatásra alkalmas fejlett elemzőeszközök létrehozása volt a cél. A mintákkal jobban érthető a fogyasztói viselkedés, preferenciák. Az elemzéshez közösségi médiaadatokat, böngésző logokat és szövegeket használnak.
A big data egyik kulcskérdése az óriási és bonyolult adatfolyamok kezelése, leegyszerűsítve: az online információ terjedése meghaladja a hálózati kapacitást, gyorsabb a növekedése, amivel kell tenni valamit. A big data feldolgozása általában egy adatgenerátorral kezdődik, amely nagy információfolyamokat gyárt. Ezeket tárolás előtt meg kell szűrni, illetve a felhasználói igényeket megválaszoló alkalmazással támogatni is kell.
A JUNIPER projekt nagymennyiségű jó teljesítményű bigdata-alkalmazást segítő valósidejű platformot dolgozott ki hozzá.