Begreppet fog computing (dimman?) syftar på ”en systemvid horisontell arkitektur för distribuerade resurser och tjänster för beräkningar, lagring, styrning och nätverk som täcker allt från molnet till minsta uppkopplade enhet”. Det är i alla fall definitionen enligt den nya standarden IEEE 1934, skriver Newark World.

Begreppet fog computing inkluderar även vertikala lösningar för olika branscher och olika typer av applikationer. Ett syfte med den här typen av lösningar är att både kunna flytta körningen av tjänster och applikationer närmare uppkopplade enheter och att kunna distribuera den till olika ställen, med hjälp av olika protokoll.

Läs också: Glöm molnet – nu är det in i dimman som gäller

Det finns flera anledningar till att skapa sådana här arkitekturer, till exempel prestandamässiga och ekonomiska. De lösningar som används i dag klarar ofta inte av att hantera stora mängder data på ett bra sätt. Det är inte minst fördröjningar (latency) som ställer till det. Sådana kan minimeras om hantering av data sker på ett optimalt ställe.

Dessutom säger det sig självt att det blir knepigt om data från IoT-enheter, mobiltelefoner, AI-lösningar, med mera, ska hanteras tillsammans. Det ska bli enklare med den nya standarden från IEEE (Institute of Electrical and Electronics Engineers).

IEEE 1934 har till stor del utformats av organisationen Openfog Consortium, med medlemmar som Arm, Cisco, Dell, Intel, Microsoft och universitetet i Princeton.

ANNONS: Storsatsande eventet IBM Analytics University kommer till Stockholm 17-20 september 2018