“A mérnököknek is van helye a big data világában”

Szinte biztosak lehetünk abban, hogy van néhány termelési szakértő, akik vegyes érzelmekkel várják a szeptemberi EMO Hannover rendezvényt és annak kiemelt Ipar 4.0 tematikáját. Ők attól tartanak, hogy az Ipar 4.0 fogja uralni az iparágat és a big data-hoz kapcsolódó algoritmusok és megoldások kiválthatják a szakértői tudás szükségességét hosszú távon. Ezt a félelmet kívánja eloszlatni a WZL két munkatársa Alexander Epple vezető mérnök és Michael Königs, akik a big data és a szakértői tudás közötti kölcsönhatás, együttműködés szerepét hangsúlyozzák.

07-02-big-data-analyse_image_gallery_desktop

Alexander Epple, az RWTH Acheni Egyetem Szerszámgép- és Gyártástechnológiai Laboratóriumának egyik vezető mérnöke. Ön vezeti a gépadatok analitikájával, valamint az NC technológia fejlesztésével foglalkozó osztályt. Hogyan került éppen Ön ennek a szervezeti egységnek az élére? Egy matematikus nem lett volna alkalmasabb erre a feladatra?

Alexander Epple: Őszintén csodálom a matematikusokat hatékony algoritmusaik miatt, valamint azért, hogy képesek a felmerülő problémák megoldásához nagyfokú absztrakcióval közelíteni. Ez a képesség segítséget jelent akkor is, amikor nagy adatmennyiség elemezése szükséges. Mai, termelésközpontú világunkban, a gépek és folyamatok multiplicitásának köszönhetően, igencsak eltérő adathalmazokkal találkozhatunk. Ezért az azonos munkafolyamatokat végző gépek kölcsönös összevetése csak meglehetősen ritkán lehetséges. Ilyen előfeltételek mellett a tisztán statisztikai jellegű megközelítések nem igazán eredményesek, és valós gyártási környezetben ezek az absztrakt big data megközelítések hamar elérik teljesítőképességük határait.

Sokkal hatékonyabb ezért a gyártástechnológiai tudást például modellek formájában összekapcsolni az érintett adathalmazokkal. Ezért van a mérnököknek is helyük a big data világában.

Az Ön által vezetett szervezeti egység ezt az interdiszciplináris megközelítést képviseli?

Alexander Epple: A csoportomban összesen hat egyetemi tanár dolgozik, az ő munkájukat magasan képzett programozók és gépésztechnikusok segítik. A csoport valóban nagyon összetett, a gépészmérnökök mellett informatikus és villamosmérnök kollégákkal is együtt dolgozunk. Emellett szorosan együttműködök Dr. Marcel Fey-jel és az általa vezetett Géptechnológiai Tanszékkel (Machine Technology Department) is, miután ők széleskörű ismeretekkel rendelkeznek a modellezés területén. Így együtt, közel 30 egyetemi tanár képességeit, tudását kamatoztathatjuk, ami lehetővé teszi, hogy ötleteinket hatékonyan kidolgozhassuk. Mindazonáltal szándékunk szerint a csoportot szeretnénk további munkatársakkal bővíteni.

Mennyire elterjedt ez a több tudományágat felölelő, multidiszciplináris megközelítés a gyakorlatban?

Michael Königs: Itt a WZL-nél, mindenekelőtt a szimuláció területén, már régóta működnek interdiszciplináris csoportjaink. Ez a megközelítés egyébként más egyetemeken, illetve kutatóintézetekben is bizonyította már hatékonyságát, eredményességét.

Ám azt is tapasztaljuk, hogy ilyen, interdiszciplináris munkacsoportok kialakítása a modell alapú, közel valós idejű adatfeldolgozás területén már nem csupán egy lehetséges opció, ellenkezőleg, a jövőben egyszerűen nem lesz, lehet alternatívája az ilyen típusú együttműködésnek.

Ahhoz, hogy az adatelemzésben rejlő órási lehetőségeket feltárjuk, kiemelt fontosságú, hogy a különböző szakterületek által alkalmazott módszereket, modelleket összekapcsoljuk, összehangoljuk.

Michael Königs, Ön az említett informatikus kollégák egyike: Hogyan közelíti meg Ön a gépészmérnöki tudományokat?

Michael Königs: Amikor tényleges, gyakorlati alkalmazásokról van szó, az ember gyorsan megtanulja, hogy a rögzített jelek adatminősége döntő fontosságú az elemezés eredményessége szempontjából. Azzal ellentétben, amit sokan gondolnak, az adatok nem mindig tartalmazzák az összes szükséges információt. Így például egy adott szerszámgép metrológiai rendszerei biztosítják ugyan a pozícióadatokat, ám ezek csupán egy közelítést adnak a szerszám marási művelet során megtett valós szerszámútjáról. Ebből azonban általában nem vonhatunk le következtetéseket a szerszám elhajlására vonatkozóan a megmunkálás során fellépő erők következtében, vagy az alkalmazott szerszámgép geometriai-kinematikai pontatlanságainak feltárására. Ilyen esetben a modellezési ismeretek felhasználásával elérhetjük a hiányzó információt is magában foglaló tiszta jeladatokat. Tudja, az így helyrehozott adatrekord előrejelzi az aktuális megmunkálási folyamatban elkészítendő munkadarab tulajdonságait.

Hogyan birkózhatunk meg eredményesen ilyen gigantikus méretű adathalmazokkal?

Az Ipar 4.0 olyan átlátható gyártóüzemeket eredményez, amelyek a kapcsolódó szenzortechnológiának és a nagy teljesítményű kiértékelő eletronikának köszönhetően nagy adatmennyiséget generálnak. Ám hogyan nyerhetjük ki az értékes nyers adatokat például egy régi szerszámgépből úgy, hogy ne kényszerülnénk valamilyen szenzortechnológiai megoldás utólagos beépítésére?

Alexander Epple: Vannak olyan kutatási projektek, melyek azt vizsgálják, hogy a viszonylag régi gépeket, hogyan szerelhetnénk fel utólag a szükséges szenzorokkal. Ezen felül, jelenleg is dolgozunk olyan megközelítéseken, melyek az eredetileg a gépbe épített szenzortechnológia hasznosítására koncentrálnak. A motoráram mellett valamennyi gép gyűjt információkat az aktuális tengelypozíciókról is. Általában közvetlen vagy közvetett útmérési rendszerek telepítésére kerül sor. Ezeket a jeleket fel tudjuk használni például a rezgési hajlam meghatározására a folyamat közben. A jövőben esedékes karbantartásokkal összefüggésben a megmunkálás során fellépő erők és az alkatrész terhelései is meghatározhatók. Ez éppúgy vonatkozik a régi, mint az új gépekre.

Ugyanakkor a nagy nem mindig szép. Így például, ha egy megmunkáló központ által végzett munka adatait szeretnénk 100 százalékban begyűjteni, az valós időben (milliszekundumonként 35 folyamatparaméter), éves szinten 5,8 terrabájtnyi adatmennyiséget jelent. Hogyan képesek kiszűrni ebből a lényeges információkat?

Michael Königs: Az érdeklődésre számot tartó információk és folyamatparaméterek kinyerésére is olyan statisztikai módszereket (gépi tanulás) és algoritmusokat használunk, melyeket kifejezetten erre a célra dolgoztak ki, és amelyek lehetővé teszik a szakértelem és a szakterületi tudás integrálását. Nagy általánosságban azonban tényleg kijelenthetjük, hogy a folyamatos adatgyűjtés hatalmas mennyiségű adatot eredményez. Léteznek már olyan megoldások is, amelyekben nincs szó maximális szkennelési sebesség melletti, folyamatos adatgyűjtésről, hanem csak bizonyos időszakokban, meghatározott eseményeket – pl. határértékek megsértése – követően, vagy pedig bizonyos folyamatok céljából kerül sor adatgyűjtésre. Míg megint más módszerek, folyamatparaméterek megalkotásával, egyszerűen összetömörítik az adatmennyiséget. Végül találkozhatunk olyan megközelítésekkel is, melyek szándékosan dolgoznak nagy mennyiségű adatállománnyal, azért, hogy helyes algoritmusokat alkalmazó mintákat azonosítsanak. Nagymértékben az adott alkalmazástól függ az, hogy melyik megoldás lehet a leginkább célravezető.

Ekkora adatmennyiség kezelhető még a hagyományos hardvereszközökkel vagy pedig szuperszámítógépre, kvantumszámítógépre van szükség?

Michael Königs: A jelenlegi technológia (amennyiben megfelelően használjuk), a legtöbb esetben elegendő az általunk végzett tudományos munkához, amennyiben szakemberek által kifejlesztett egyedi vagy részleges modellek alkalmazásáról van szó.

Mindazonáltal a széles, több tudományágat felölelő együttműködés és a modellek alkalmazása rövid időn belül eredményezhet olyan helyzetet, ahol a jelenleg elérhető hardverkörnyezet már nem lesz elégséges. Egy, az e téren jelentkező szükségletekhez igazodó felhő alapú környezet, ahol mind a statisztikailag, mind pedig a fizikailag szükséges egyedi modellek összefűzhetők és megvalósíthatók reszponzív, a célnak megfelelő számítástechnikai erőforrásokkal, biztosíthatja a szükséges kapcsolatot és számítástechnikai teljesítményt.

Ugyanakkor nem hiszem, hogy egy ilyen környezet létrehozható pusztán kvantumszámítógépek alkalmazásával.

A Termelési rendszerekért és Tervezési Technológiákért felelős Fraunhofer Intézet (IPK) akadémikusainak nézete szerint ésszerűbb lenne a tárolás megkezdése előtt, a gép környezetében egyfajta előválogatást megvalósítani, még azelőtt, hogy a lecsökkentett méretű adatrekordokat (smart data) a felhőbe továbbítanánk. Ön mit gondol erről az álláspontról?

Alexander Epple: Ez egy olyan ötlet, amit el tudok fogadni. Mi, a WZL-nél ugyancsak foglalkozunk a lokális adatfeldolgozás és -elemzés kérdéskörével, így azzal is, hogy az adatok finomításával, hogyan hozhatunk létre okos adatokat (smart data) az érintett gépészeti rendszer közvetlen környezetében.

A lokális adatok ilyen jellegű előfeldolgozása kézzelfogható előnyökkel jár. Ugyanakkor vannak olyan cégek is, amelyek a nyers adatokat egy szűrés nélküli központi rendszerben (mint egy felhőben) tárolják, illetve dolgozzák fel.

Mit ért Ön a felhő alatt, és miben látja annak hasznosságát?

Alexander Epple: “Felhő” alatt mi egy olyan modellt értünk, amely helytől független igény szerint felhasználható számítástechnikai kapacitást jelent. Ezt, a felhasználók a szükségleteiknek megfelelőn elérhetik, használhatják, mintegy közös számítási pufferként (shared pool). A felhő így nemcsak hálózati sávszélességeket és számítástechnikai hardvert, de szolgáltatásokat és alkalmazásokat is magában foglal.

A big data kérdéssel összefüggésben a felhő platformok, pontosan a méretezhetőségnek, valamint az analítikus algoritmusok széles körű elérhetőségének köszönhetően, megfelelő előfeltételeket kínálnak az olyan adathalmazok további (downstream) elemzéséhez, melyek túl nagyok, túlságosan összetettek, túl gyengén struktrúráltak vagy pedig túl heterogének ahhoz, hogy manuálisan vagy az adatfeldolgozás klasszikus módszereit alkalmazva értékeljük ki azokat.

Ugyanakkor az upstream adatátvitel, technikailag, nehézségeket vethet fel. Egy, a géphez kapcsolódó lokális adatgyűjtő rendszer megtervezése viszonylag egyszerű feladat akkor, ha az adatokat csupán továbbítani kell. Ennek természetesen tekintélyes előnyei vannak a karbantartás és a bevezetés vonatkozásában, ugyanakkor az adatátvitelhez szükséges sávszélesség szempontjából kihívást is jelent. Ugyanakkor valamennyi adattömörítési művelet együtt jár egy bizonyos mennyiségű, a folyamatban lévő elemzések szempontjából irreleváns információ elvesztésével, mely utóbbi viszont rendkívül lényeges lehet különböző jövőbeli forgatókönyvek bekövetkezésekor. Sokszor csak azt követően realizáljuk, hogy egy bizonyos információ már nem elérhető, amikor az éppen hasznos volna egy adott jelenség értelmezése szempontjából.

30-150 százalékos termelékenység-növekedés a big data megoldásoknak köszönhetően

Hogyan jött létre  az együttműködés a SAP szakembereivel, akik a Cisco-val és a Huawei-vel együtt egy olyan big data klienst fejlesztettek ki, amely képes egy CNC ciklus összes adatának begyűjtésére és tárolására?

Alexander Epple: Az említett szoros együttműködés a SAP kezdeményezésére jött létre, mivel ők egy olyan kutatási partnert kerestek a termelési technológia területéről, aki nem csupán kiváló K+F hátteret tud biztosítani, hanem az alkalmazás-fókuszú ipari vállalatokkal történő együttműködés terén is rendelkezik már hosszú távú tapasztalatokkal. Mi a SAP munkáját különböző területeken megvalósuló ügyfélprojektek kapcsán segítettük. Az eredmények még bennünket is megleptek. Például egy német autógyártó esetében, a SAP vállalat a közösen végzett munka nyomán, 30 százalékkal növeltük a termelékenységet az erőátviteli szakaszban, és lényegesen csökkentettük az elutasítási arányt. A repülőgépgyártás területén ugyancsak sikerült 30 százalékos termelékenység-növekedést elérnünk, egy nagy gépek előállításával foglalkozó német gyártónál pedig közel 150 százalékos növekedést generáltunk.

Melyek azok a tipikus kérdések, melyekkel gyakran szebesülnek?

Alexander Epple: A gépkezelők, folyamatfejlesztők, vagy éppen a minőségbiztosítási mérnökök gyakran aggódnak amiatt, hogy szaktudásukra, hosszú távon, már nem lesz szükség.

Mi ugyanakkor úgy gondoljuk, hogy a lényeges döntéseket a jövőben is a szakembereknek kell meghozniuk. Ők ugyanis számos olyan határfeltételről rendelkeznek ismeretekkel, melyek nem feltétlenül alkalmasak arra, hogy pusztán adatok segítségével megjelenítésre kerüljenek.

Az adatértékelésnek a gép- vagy folyamatállapotok megfelelő megjelenítése révén elő kell segítenie a gépkezelői döntések meghozatalát. Mindamellett, az új megoldásoknak köszönhetően a kezelőknek nem kell többé az egyes információk fáradságos keresésével, előfeldolgozásával foglalkozniuk, ami amúgy is csak minimális hozzáadott értéket képvisel.

A fémmegmunkálás területén magas a munkaterhelés. Vajon képesek vagyunk arra, hogy a big data segítségével hatékonyan fejlesszük a prototípusok készítését és kipróbálását, méghozzá úgy, hogy a tényleges próbák, kísérletek számát csökkentjük vagy akár teljesen el is hagyjuk?

Alexander Epple: Lényeges csökkenéseket érhetünk el, valóban. Álláspontunk szerint nagy lehetőségek rejlenek abban, hogy modellek támogatásával tanuljunk az adatokból.

Ön és kollégái mit várnak az idei EMO Hannovertől, mely a fémfeldolgozó ipar világszinten elsőszámú szakvására. Milyen szerep jut majd vajon a big data kérdésnek ezen a rendezvényen?

Alexander Epple: Mivel számos olyan ipari partnerrel dolgozunk együtt, akik szintén képviseltetik majd magukat az EMO Hannover kiállításon, meglehetősen határozott elképzelésünk van e kérdésről. Úgy hiszem, hogy mindenki számára egyre világosabbá válik, hogy a gyártási műveletek során a big data használatát lényegesen megnövelhetjük, ha ahhoz speciális szakértelmet kapcsolunk hozzá.

Ez ugyanakkor eloszlatja azt a számos szakember által hangoztatott aggodalmat, hogy szaktudásuk a big data miatt hamarosan feleslegessé válik. Őszintén remélem, hogy a látogatók egyre nyitottabbak, elfogadóbbak lesznek a big data kérdéssel kapcsolatban, és bízom abban is, hogy némi kíváncsisággal is találkozom egy olyan szektor szereplői részéről, amely szektort inkább konzervatívnak nevezném.

Így tehát nagyon várom, hogy megismerkedhessek számos, megoldásközpontú megközelítéssel.

Forrás:Nikolaus Fecht, Gelsenkirhen

További információ

Az EMO Hannover 2017 hivatalos weboldalán.