Mission AI Hackathon 2020 erfolgreich abgeschlossen. Nach 10 Stunden harter Arbeit präsentierte das evosoft-Team eine end-to-end-Lösung, die Anlagenbetreibern von Fertigungslinien helfen kann, Daten aus alten Maschinen ohne Sensoren zu gewinnen.

 

Jedes Jahr veranstalten die Teilnehmer der Siemens Architektenweiterbildung („Senior Software Architect Learning Programs, SSWA“) einen Hackathon. Der diesjährige AI Hackathon des SSWA Run 11 fand am 27. Januar 2020 in Erlangen im Learning Campus Training Center statt. Die Aufgabe des Hackathons bestand darin, eine AI (Artifical Intelligence) Lösung auf Basis von Azure zu entwickeln.

 

 

Insgesamt bewarben sich 14 Teams mit ihren Ideen, wovon 6 Teams ausgewählt wurden, um am Hackathon teilzunehmen. Die evosoft GmbH ging mit einem interdisziplinären Team, bestehend aus Data Scientisten, Software Developern und Testern aus den Bereichen APS, BS und DSI, an den Start. Zudem schlossen sich auch zwei Architekten aus Siemens CT und Siemens DI.

Die Teammitglieder waren:

Kristina Smiljkovic, Nadine Metzger, Michael Gross, Andreas Schieb, Pauline Van Nies, Andre Burkovski, Thiemo Daubner, Thorsten Kastner, Tobias Horneber, Tobias Kufner, Ben Vlayen, Chintan Singh Setia

 

 

10 Stunden lang beschäftigte sich das Team mit dem Thema: „Computer Vision in der Fertigung“ (Computer Vision in Manufacturing). Am Ende wurde die fertige Applikation auf Azure im Rahmen eines 10-minütigen Pitch Thomas Hahn (CT) und Frances Paulisch (Healthineers) vorgestellt, die von der Lösung begeistert waren.

 

 

Problem:

Viele Anlagenbetreiber von Fertigungslinien möchten an der Digitalisierung teilnehmen und bspw. ihre Maschinen vernetzen oder Daten ihrer Produktionslinie auswerten. Jedoch sind ältere Anlagen, sog. Brownfield-Anlagen, nicht mit Sensoren o.Ä. ausgestattet. Deshalb stehen oft keine Daten zur Verfügung.

 

Lösung:

Eine mögliche Lösung für das Problem ist der Einsatz von Smart Kameras, die den laufenden Produktionsprozess filmen und die gewünschten Daten extrahieren.

Im Rahmen des Projektes „Augmented Machine Vision“ (AMV) wurden kürzlich drei auf Raspberry-Pi basierende Kameras über dem evosoft Anlagenmodell (Marienbergstr. 82, 1. OG) installiert, um den Herstellungsprozess aufzuzeichnen. Das evosoft Anlagenmodell simuliert eine Produktionslinie, das Werkstücke mit und ohne Deckel fertigt. Sowohl die Werkstücke als auch die Deckel können dabei entweder blau, rot oder weiß sein. Die Fertigungslinie enthält eine Speicherplatte für nicht aktive Werkstücke, die bis zu 6×6 verschiedene Werkstücke aufnimmt.

Die Herausforderung besteht darin, anhand des Videostreams der Kameras herauszufinden, welche Werkstücke (Körperfarbe) in welchem Zustand (mit oder ohne Deckel) sich an welcher Stelle auf der Speicherplatte befinden.

 

Technologie & Methodik:

Während des Hackathons wurde die Machine Vision Lösung mit Hilfe verschiedener Azure Services erfolgreich in der Cloud umgesetzt. Zusätzlich dazu zeigte das Team auch, dass die Applikation auch außerhalb der Azure Cloud auf einem Edge Device (Raspberry Pi) laufen kann.

Bewundernswert ist, dass das Team während des Hackathons nicht nur wie weit verbreitet einen Azure Machine Vision Service getestet hat. Stattdessen hat das interdisziplinäre Team innerhalb kurzer Zeit eine komplette Lösungsapplikation entwickelt, um die Bilddaten des Anlagenmodells zur Verfügung zu stellen.

Hierbei zeigte sich wieder die einzigartige Situation von Data Science bei evosoft – hier heißt Data Science nicht nur modellieren, sondern auch integrieren in eine fertige Softwarelösung.

 

 

Durch die Umsetzung eines Machine Vision Prototypes in Azure hat das Team den Grundstein für weitere UseCases in Azure gelegt.