Die Brücke zur Anwendung

Schon lange war bei den Anwendern der Wunsch vorhanden, Vision-Systeme individuell auf ihre Applikationen anpassen zu können. Mittlerweile sind die ersten solcher individualisierbaren Bildverarbeitungssysteme auf dem Markt. Wo die Vorteile dieser Systeme liegen und wie sie überhaupt funktionieren, wurde während einer Expertenrunde auf dem VDMA-Forum während der SPS IPC Drives 2017 diskutiert.


Teilnehmer

Dr. Albert Schmidt, Geschäftsführer, Baumer Optronic

Uwe Furtner, Geschäftsführer, Matrix Vision

Dr. Olaf Munkelt, Managing Director, MVTec Software

Andreas Behrens, Head of Marketing & Sales -

Barcode-RFID-Vision, Sick

Dr. Klaus-Henning Noffz, CEO, Silicon Software

Peter Keppler, Director of Corporate Sales, Stemmer Imaging

Dr.-Ing. Peter Ebert (Moderator), Chefredakteur inVISION

Was sind individualisierbare Vision-Systeme?

Andreas Behrens (Sick): Individualisierbar waren bisher bei Sensoren die Parameter, die an die jeweilige Steuerung angepasst wurden.

Wie wäre es aber, wenn Sensoren so einstellbar wären, dass der Servicetechniker individuelle Schalter und Einstellungen erstellen kann?

Peter Keppler (Stemmer Imaging): Wir hatten in der Vergangenheit zuerst programmierbare PC-Systeme, dann intelligente Kameras und Vision-Sensoren, die auf eine ganz spezielle Aufgabe zugeschnitten waren. Nun sind die neuen Systeme wieder ein wenig offener, damit man diese individualisieren kann, um verschiedene Aufgaben zu lösen. Diese Möglichkeiten der Individualisierung jeglicher Bildverarbeitungssysteme sind wichtig, um die Vielzahl der Anforderungen der Anwender erfüllen zu können.

Uwe Furtner (Matrix Vision): Der Anwender möchte vor der Installation genau festlegen, was das Gerät tun soll. Ihm geht es nicht darum, ob es programmierbar ist, oder nicht. Sein Wunsch ist es, einfach sein Vision-System selbst individuell anzupassen und dann löst es eine aktuelle Aufgabe.

Klaus-Henning Noffz (Silicon Software): Insbesondere für Industrie-4.0-Anwendungen haben wir eine wesentlich größere Spannbreite an Aufgaben als bisher, die wir zukünftig mit Bildverarbeitung lösen müssen. Für diese Fälle brauchen wir eine schnelle und individuelle Anpassung an die jeweilige Applikation. Für mich stellt sich allerdings die Frage, ob der Endkunde die Systeme selbst individualisieren muss oder möglicherweise ein Dienstleister, der die Individualisierung nutzt, um Anpassungen für den Endkunden zu machen?

Albert Schmidt (Baumer): Individualisierung heißt letztlich Anpassung an die Aufgaben, die zu erfüllen sind, aber auch Anpassung an die Bedürfnisse und Kenntnisse des Benutzers. Was die Kenntnisse angeht, kann man heute sehr viel besser abschätzen, was für die Anwender machbar ist - und was nicht.

Olaf Munkelt (MVTec): Letztendlich geht es darum, Funktionen so zu verpacken, dass die Systeme auch von Leuten verwendet werden können, die kein Universitätsstudium haben.

Warum sind individualisierbare Systeme heute umsetzbar?

Schmidt: Zum einen haben sich die technischen Möglichkeiten erweitert. Man kann z.B. durch FPGAs sehr viel Intelligenz direkt in die Kameras integrieren.

Furtner: Zum anderen hat sich die Prozessorgeschwindigkeit erhöht. Mittlerweile kann man auch in kleinen Umgebungen mit leistungsstarken FPGAs und geringem Leistungsverbrauch arbeiten. Zudem werden auch andere Technologien genutzt, wie z.B. kleinere Serverarchitekturen.

Behrens: Hatten wir vor Jahren noch über die Leistungsfähigkeit von Algorithmen diskutiert, zweifelt der Anwender das heute nicht mehr an. Er glaubt uns, dass wir Codes lesen und Dinge vermessen können. Allerdings ist die Technik immer noch kompliziert und das ist der Schritt, den wir mit einer Individualisierung vereinfachen wollen. Wie bekommen wir diese komplexe Technik in die Benutzeroberflächen für die Servicetechniker und Instandhalter besser dargestellt?

Noffz: Wir werden nur dann erfolgreich sein, wenn diese Lösungen aus Sicht der Anwender einfach bedienbar und vor allem integrierbar sind. Wenn Bildverarbeitung weiterhin eine geheimnisumwitterte Technologie bleibt, die nur von wenigen Spezialisten beherrscht wird, kommen wir nicht voran. Also müssen wir lernen, eine komplexe Bildverarbeitung einfach darzustellen. Zudem müssen wir uns Gedanken über eine Standardisierung machen, um unterschiedliche Systeme in Produktionsumgebungen schnell und effizient integrieren zu können.

Keppler: Die Lösungen müssen für die Endanwender einfach zu bedienen sein, aber auch dem Entwickler die nötigen Freiheiten geben. Einfach nur zu sagen, ´das muss einfach bedienbar sein´ birgt die Gefahr, dass man es zu einfach macht. Genauso wie man bei einer SPS Fachkenntnisse benötigt, um diese programmieren zu können, benötigt man auch für die Bildverarbeitung ein bestimmtes Wissen.

Schmidt: In vielen Systemen finden Sie heute bereits verschiedene Level integriert - Ein Anwenderlevel, bei dem Sie nur einen bestimmten Teil des Bildschirmes und der Funktionalität haben, sowie einen Expertenmodus, bei dem der Softwareingenieur seine Funktionen individuell gestalten kann.

Munkelt: Wenn ich sehe, was diese Messe alles an Bildverarbeitung zu bieten hat und das mit dem Stand vor fünf Jahren vergleiche, ist das ein riesiger Fortschritt. Das zeigt, dass die Bildverarbeitung bereits einen großen Schritt auf die Anwender zugegangen ist. Allerdings liegen immer noch einige Aufgaben vor uns. Der Königsweg ist es, eine komplexe Technologie einfach zu machen, ohne sie zu stark in ihrer Funktionalität zu beschränken.

Wie setzen Sie individualisierbare Vision-Systeme um?

Behrens: Für wen machen wir diese Individualisierung? Sicherlich nicht für Maschinenbediener, sondern für Maschinenbauer und Integratoren, die eine Vielzahl von Oberflächen programmieren müssen, und diese dann in die Steuerungen integrieren. Wir haben hierfür das Ecosystem AppSpace geschaffen, bei dem wir vorgefertigte Komponenten miteinander verbinden. Ich kann dort meine eigenen Applikationen erstellen und - was neu ist - sie auch auf den Sensoren individualisiert laufen lassen, indem die entsprechenden Oberflächen von den Anwendern erstellt werden.

Furtner: Wir schauen, aus welchen Subteilen eine typische Gesamtapplikation besteht und untergliedern diese dann in einfache Tools, wie z.B. Objekt finden oder Objekt prüfen.

Schmidt: Wir gehen ein Stück weiter und ermöglichen den Anwendern selbst ihre Programme zu erstellen und diese individuellen Lösungen dann direkt in die Kameras über einen FPGA zu integrieren.

Wird Bildverarbeitung durch den Einsatz von FPGAs einfacher?

Schmidt: Das Geheimnis ist natürlich dies nicht über eine VHDL-Programmierung zu machen, sondern über eine einfache FPGA-Programmierumgebung wie z.B. VisualApplets von Silicon Software.

Noffz: FPGAs verbinden eine extrem hohe Leistungsfähigkeit mit deterministisch harter Echtzeit. Diese Technologie war allerdings anfangs nicht für die Bildverarbeitung gedacht, sondern die Programmiertools waren für Schaltungsdesign entwickelt und entsprechend komplex. Daher waren FPGAs auch nur von Spezialisten zu bedienen. Wir haben bereits vor zehn Jahren mit VisualApplets eine Hochsprache entwickelt, die eine einfache FPGA-Programmierung ermöglicht und die Sprache der Bildverarbeitung in ein FPGA-Design überträgt. Für diese Anwendersprache brauchen sie keine Hardwarespezialisten, sondern Leute mit einem Bildverarbeitungshintergrund. Von unseren Kunden haben etwa 80 Prozent überhaupt keine Ahnung von FPGAs, können diese aber dank unserer Software nutzen.

Furtner: Applikationsingenieure können sicherlich VisualApplets benutzen. Aber schon für Integratoren, die schnell eine Lösung erstellen müssen, wird es schwierig, wenn sie sich mit Details beschäftigen müssen. Zudem gibt es viele Anwender, die keine Zeit haben sich mit einer neuen Technologie auseinanderzusetzen, da deren Aufgabengebiete ganz woanders liegen.

Munkelt: Heute haben wir FPGAs, aber auch GPUs, die uns nach vorne bringen. Wir müssen sehen, was uns die großen Prozessorhersteller an Werkzeugen in die Hand geben und dafür dann die entsprechenden Werkzeuge erstellen, um damit umgehen zu können.

Wie erklären Sie den Anwendern die Technologie?

Behrens: Dem Anwender ist es letztendlich egal, ob ein DSP, FPGA, CPU oder GPU eingebaut ist. Ihn interessiert letztendlich nur, welchen Nutzen er davon hat. Es muss daher im Ecosystem Blöcke geben, die sich gar nicht als FPGA oder CPU darstellen, sondern einfach benutzt werden und mitlaufen. Die Anwendung muss derart gestaltet sein, dass man die Feinheiten der Technologien nicht verstehen muss. Das ist die Brücke zur Anwendung.

Furtner: Wir Hersteller müssen die Technik hinter der Oberfläche verstecken. Der Anwender sollte sich nicht mit der Frage auseinandersetzen, welche Technik dahinter steht, sondern nur auf seine Lösung schauen.

Noffz: Was wir brauchen ist eine Standardisierung, um die Vernetzung der Technologien untereinander zu erreichen. Eine Parametrierung über OPC Vision wird es uns z.B. erlauben, sehr viel schneller komplexe Bildverarbeitungsmodule in die Produktion zu integrieren.

Wie intelligent sind die neuen Systeme, d.h. muss ich Bildverarbeitung überhaupt noch verstehen?

Keppler: Das wäre zu empfehlen, egal wie intelligent die Sensoren sind. Es geht bereits mit der optischen Fragestellung los, die man richtig erfassen sollte, damit man auch die richtige Auswahl trifft.

Behrens: Das hängt davon ab, ob ich Maschinenbauer bin, der es in eine Maschine integrieren soll, oder Anwender. Wenn sie als Anwender tief in die Bildverarbeitung einsteigen müssen, um ihre Maschine bedienen zu können, gehen sie besser gleich zu ihrem Integrator und fragen, was er da programmiert hat. Es sollte Baukästen geben, aus denen der Anwender aus vorgefertigen Blöcken bzw. Lösungen auswählen kann und diese miteinander verbindet, um seine individuelle Lösung zu bekommen. Bei einem iPhone X interessiert es auch niemanden, wie dort eine Bildverarbeitung funktioniert.

Keppler: Wir haben einen großen amerikanischen Kunden, der Bildverarbeitung in seine Anlagen installiert hat. Dort wurde jeder Maschinenbetreiber zu einer Schulung geschickt. Dort sollte der Anwender nicht programmieren lernen, aber ein gewisses Grundverständnis für die Technologie bekommen, z.B. dass er eine Optik besser nicht mit einem öligen Lappen sauber macht.

Schmidt: In der Bildverarbeitung müssen die Algorithmen dem Integrator verschiedene Möglichkeiten bieten, seine Anwendungen kompakt zu gestalten. Allerdings mit nur ganz wenigen Auswahlmöglichkeiten. Ich muss nicht zwischen 50 Möglichkeiten auswählen können, wenn für meine Lösung nur zwei wirklich relevant sind.

Wie weit helfen uns die neuen Systeme, Bildverarbeitung auch von der Bedienbarkeit einfacher zu gestalten?

Behrens: Wir bewegen uns heute vorwiegend auf webfähigen Systemen. Wenn Sie dort etwas bestellen, müssen Sie gewisse Abfragen ausfüllen, z.B. ihre Adresse. Sie können eine neue Seite im Netz aufsuchen und dort ebenfalls etwas bestellen, obwohl Sie keine Schulung für diese neue Seite hatten. Das ist genau das, was wir bei den Maschinen erreichen wollen. Ihre tägliche Umgebung einfach widerspiegeln, d.h. dass ich einen neuen Sensor ansprechen kann und mich dabei in den gleichen Mechanismen wie immer bewege.

Munkelt: Was Amazon und dergleichen geschafft haben, ist die Digitalisierung eines Einkaufsprozesses. Man geht in einen Laden, wählt ein Produkt aus dem Regal und geht zur Kasse, um zu zahlen. Die Frage ist, was wir machen müssen, damit der Anwender bei einer Oberfläche versteht, dass der linke Kasten diese Zahl repräsentiert und der rechte Kasten eine andere. Wir Bildverarbeiter orientieren uns gerne an den Apples dieser Welt. Wir unterschätzen dabei aber massiv, wie viele hunderte oder tausende an Mannjahren an Entwicklung in diese Usability geflossen sind. Uns Herstellern bleibt daher mit unseren begrenzten Ressourcen leider nichts anderes übrig, als sich mit einer guten ´Kopie´ dieser Prozesse dem Anwender anzunähern. In fünf Jahren haben auch wir diese Prozesse besser verstanden und entsprechende einfachere Werkzeuge. Die Bedeutung der Usability - aber auch den Aufwand dahinter - kann man nicht hoch genug einschätzen.

Furtner: Wir haben in unsere neue Smart-Kamera 40 Mannjahre Entwicklungen investiert und ca. 30 Jahre davon alleine für die Usability benötigt und nur zehn Mannjahre für die Bildverarbeitung.

Sind individualisierbare Systeme etwas, das sich auf Ihr gesamtes Produktportfolio übertragen lässt?

Behrens: Wir haben angefangen mit sogenannten Sensor-Integrationsmachinen, um Sensoren miteinander zu verbinden und gemeinsam intelligent zu machen. Dann haben wir mit Vision-Sensoren weitergemacht, bei denen wir AppSpace implementiert haben und beginnen nun mit 3D-Sensoren. Aber es gibt auch ganz andere Sensoren wie z.B. Laserscanner oder RFID, bei denen diese neuen Technologien zum Einsatz kommen werden.

Keppler: Individualisierbare Sensoren und vor allem auch Embedded-Lösungen werden immer wichtiger, können jedoch nicht in jeder Anwendung die gewünschte Lösung liefern. Man darf sich nicht auf einzelne Technologien verlassen, sondern muss die Vielfalt der Bildverarbeitungsoptionen beherrschen, um für jede Anforderung die optimale Konfiguration nutzen zu können.

Noffz: Individualisierbare Sensoren werden wesentlich mehr an Bedeutung gewinnen, da Bildverarbeitung zukünftig nicht länger nur High-End-Lösung ist, sondern auch massiv in Bereichen wie Industrie 4.0 zum Einsatz kommt.

Furtner: Individualisierbare Sensoren, Vision-Sensoren und Smart-Kameras werden an Bedeutung gewinnen, da es einen sehr großen Bedarf an Lösungen für einfache Anwendungen gibt. Zusätzlich wird es aber auch eine höhere Nachfrage nach ausgereiften Bildverarbeitungssystemen geben, bei denen ich Entwickler benötige, die spezielle Anwendungen lösen können, die zu komplex für die einfachen Systeme sind. Ein großer Bereich des weltweiten Maschinenbaus - auch in Deutschland - setzt auch heute noch kaum Bildverarbeitungssysteme ein. Durch Industrie 4.0 werden sich diese Firmen einfach zu konfigurierende Vision-Systeme wünschen.

Anzeige