Anzeige

Vom IPC@Chip zum IoT@Chip

16 Jahre nachdem die Erfolgsgeschichte IPC@Chip begann, startet Beck IPC nun kompatibel in die Zukunft. Was im Jahr 2000 der PC im DIL-Gehäuse, basierend auf 186 und MSDos war, wird nun der Server als SoM basierend auf Linux und ARM. Hierzu sprachen wir mit Christoph Müller, Business Development Manager, Beck IPC. Beck IPC nimmt am Automatisierungstreff 2017 teil.

Herr Müller, auf welche Anforderungen gehen Sie mit dem IoT@Chip ein?

Christoph Müller: IPC@Chip ist vor allem für Anwendungen gedacht, in denen eine hohe Kommunikationsgeschwindigkeit, sprich geringere Latenzzeit, wichtig ist. Wir sprechen hier bei einer GSM-Verbindung von unter 250ms und bei einer LAN-Verbindung von 30 bis 40ms vom Endgerät, vom Feld, in die Cloud und von der Cloud wieder zurück. Und das gibt dem Anwender die Möglichkeit, Echtzeitanwendungen abzuwickeln. Denn man kann sehr schnell auf Veränderungen, die im Feldgerät geschehen reagieren. Neben der Geschwindigkeit spielt Sicherheit eine sehr große Rolle.

Warum haben Sie sich beim IoT@Chip für Open Source entschieden? Hat das auch was mit Security-Aspekten zu tun?

Müller: Richtig, wir haben möglichst viele Open-Source-Funktionalitäten eingebunden, damit wir zunächst auch wirklich wissen, mit was wir arbeiten. Aber natürlich auch, damit der Anwender das weiß und das rückverfolgen kann. Wir sehen Open Source als eines der zentralen Themen in der Zukunft an, darum lag es nahe, dass wir uns Linux widmen. Das ist sicherlich eines der zentralen Aspekte, wenn es um das Thema System-on-Module geht.

IT-Security ist ein bisschen wie ein Fass ohne Boden, oder?

Müller: Natürlich – und das wissen alle in unserer Branche – das ist ein Thema, an dem man dran bleiben muss. Es kann gut sein, dass es in zwei Jahren eine bessere Lösung gibt als die, die wir heute integrieren. Aber das beobachten wir ganz genau, damit unsere Kunden und ihre Anwendungen immer geschützt sind und das auch bleiben.

Welche konkreten Vorteile ergeben sich für den Anwender?

Müller: Beck IPC ist mit dem IPC@Chip dadurch bekannt geworden, dass es ein System-on-Module ist, was nicht nur die Komponenten bereitstellt, sondern auch eine Vielzahl von Softwarefunktionalitäten, angefangen beim Betriebssystem über TCP/IP, etc. Im Grunde sehen wir das als ein Tool, eine Art Workbench, mit dem ein ganzes System einwandfrei funktionieren kann.

Sie sind also nicht nur der reine Hardwarelieferant, sondern auch?

Müller: Sondern auch derjenige, der die Softwarefunktionalität mit dazu liefert.

Warum haben Sie nicht ein übliches Protokoll wie MQTT verwendet, sondern ein eigenes?

Müller: Wir wollten uns nicht mit dem zufrieden geben, was auf dem Markt ist. Besonders im Bereich Datenmenge werden etwa bei MQTT viel zu viele Daten kommuniziert. Auch die Latenzzeiten sind zu hoch für industrielle Applikationen. Also haben wir unser eigenes Protokoll gemacht und haben auf der Cloud das Gegenstück – den Broker – installiert. Und der wird jetzt direkt mitgeliefert. Es gibt natürlich viele Mitbewerber auf dem Markt, die auch gerne mit dem Thema anfangen würden, aber der Integrationsaufwand ist für viele einfach zu groß.

Der Trend zur Miniaturisierung, was halten Sie davon?

Müller: Das ist ein guter Punkt, bei unserer Hardwareoptimierung haben wir tagtäglich damit zu tun. Der Tenor ist doch meist „so klein wie möglich mit so wenigen Ressourcen wie möglich“ – das ist etwas, wovon wir unseren Kunden grundsätzlich von abraten. Wenn wir in zwei Jahren feststellen, dass wir im Security-Protokoll Änderungen machen müssen und der Anwender aber die Hardware hat, bei dem der Speicher nicht mehr für die neuen Funktionen reicht – dann muss er das System komplett neu kaufen! Wir glauben dass in dem IPC@Chip genug Platz ist für Zukunftsthemen, auch was die Security angeht.

Das könnte Sie auch interessieren

Sei es der Kühlschrank, der meldet, wenn die Milch alle ist, oder der Thermostat, der Nutzungsstatistiken aufs Smartphone sendet: Verschiedenste Produkte, die traditionell nicht über eine Netzwerkverbindung verfügten, werden mittlerweile damit ausgestattet.‣ weiterlesen

Markforscher rechnen mit einem Anstieg des weltweiten Datenvolumens auf 175 Zettabyte im Jahr 2025. Über die Hälfte soll dann von vernetzten Applikationen im IoT und der Industrie 4.0 ausgehen. Zusammen mit Edge- und Fog-Technologien sorgen Computer-on-Module (COM), Single-Board-Computer (SBC) und entsprechende Software dafür, die Rechenleistung effizient, schnell und flexibel zur Verfügung zu stellen.‣ weiterlesen

Warum MQTT im IIoT so erfolgreich ist und was man vor dem Einsatz des Übertragungsprotokolls wissen sollte, erläutert der folgende Beitrag.‣ weiterlesen

Die Anforderungen an zukunftsorientierte Automatisierungsgeräte sind vielfältig - Gerätehersteller suchen heute hochflexible und multifunktionale Gehäusesysteme. Hier bietet das neue Gehäusesystem ICS von Phoenix Contact abgestufte Größen, erweiterte Anschlusstechnik und optionale Busverbinder.‣ weiterlesen

Erweiterungen des Matlab-Workflows helfen Ingenieuren, Systeme zu entwerfen, zu simulieren und zu analysieren, die Daten von mehreren Sensoren zusammenführen.‣ weiterlesen

Fix und fertig: Fest an Maschinen installierte Panel-PCs waren jahrzehntelang der Standard für Maschinensteuerung und -wartung als HMI. Zunehmend experimentieren Unternehmen nun erfolgreich mit einem neuen Konzept.‣ weiterlesen

Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige