AI-UI and Coral for Edge AI

Overview

As you can see, this robotic arm grasps two different kinds of components from the blue basket and puts them in the left. These two kinds of components are plastic and aluminium parts. The machine must find the components and distinguish them. The challenge is, the two different material reflect lights differently, because the light changes during the day inside a production line, which causes the traditional image processing algorithm to not work well often.

In this project, we will demonstrate how an industrial AI dedicated for this problem is developed and deployed on the Coral Dev Board, with AI-UI and a few mouse clicks.

Coral Dev Board

The Dev Board is a single-board computer that’s ideal when you need to perform fast machine learning (ML) inferencing in a small form factor. You can use the Dev Board to prototype your embedded system and then scale to production using the on-board Coral System-on-Module (SoM) combined with your custom PCB hardware.

Hardware setup

  • PC with Windows System: the most work is done here.
  • Coral Dev Board: the target device that the model is deployed to.
  • Type-C to USB cable: optional, if the PC and Coral Dev Board are under the same network.

Software setup

  • Software AI-UI installed on the PC
  • Windows Subsystem for Linux: installed on the PC with Edge TPU Compiler
  • AI-UI on-device: installed on the Coral Dev Board

Dataset

The first step is to take a look at the dataset. Those images are taken by camera via the robotic arm through different light conditions. This is important for training a robust AI model. Because the real-world environment is complex in terms of light reflecting, for example the sun light changes during the day, somebody walks by with a phone on, production variance of the component surface, lights from other machine and so on. The more variants of light condition we consider, the better we can make use of the generalization ability of the AI model.

Images

We can then import the data into AI-UI for next step: annotating.

Annotation

Annotation is to tell the AI where to find an object and how this object is labeled, so that the AI can learn patterns to recognize it.

On the left tool panel, we choose circle as the annotating tool, then draw it on an object and then label it. By doing so, we want the AI in this project to learn the annotations as rectangle (box), which will be converted internally before model training. We use the circle to annotate the objects, so that the dataset can be applied for other scenarios requiring more precise predictions (for example more complex masks).

Annotation tool

A few moment later, all the images are annotated.

Annotated image
Annotated dataset

Pre-process

After annotation we should split the dataset into a train dataset and a validation dataset. The train dataset is used for model training and the model learns the information from it. The validation dataset contains images, that the model has never seen and this dataset is used for model evaluation.

First we create a project in „AI-UI Project“ asset view with name „coral robotic arm“. In the project view, we find a data selector node on the left panel and drag&drop it into the working area in the middle. In the node configuration by the right side, we find the settings, belonging to the chosen node. In this case, datasets. Here you can find the dataset that we just annotated. Select it and click the „proceed“ button.

After that, the data selector node will produce an output socket representing the selected dataset. Then we create a train val split node and connect the output socket of data selector and the input socket of train val split node.

In the configuration of train val split node, we use „normal“ mode rather than „shuffle“, that means the split is done „chronological“, „shuffle“ would split the images in a random way. After clicking „proceed“, the node will produce two outputs representing train dataset and validation dataset.

Select dataset
Split dataset

Augmentation

Data augmentation means a technique to enrich the data by applying different modifications randomly. In AI-UI, we can apply geometric transformations, flipping, cropping, rotation and noise injection on image datasets. To apply augmentation, create an „image augment node“ (by drag&drop), connect it with train set, then choose „Fliplr“ and „Flipud“ augmenters and click „proceed“. Because, we just want the data from the training dataset to be augmented. Validation data stays the same.

Image augment node
Node result

Neural network

Before training a model, we need to create a neural network. In this project, we use EfficientDet introduced by Tan et al. in EfficientDet: Scalable and Efficient Object Detection 2020.

To use this model in AI-UI, create an architecture asset in the software and double click it for editing. In the STAM (Systematic and Touchable Architecture Modelling) designer, find the EfficientDet node from left panel, drag and drop it into working area in the middle and select the node for configuration. In the node configuration, set the height and width of the actual image size and use the „efficientdet-lite0“ type, which is optimized for mobile and edge devices.

STAM designer view

Transfer learning

In this section, we will demonstrate how to train a model by using transfer learning from pre-trained weights in AI-UI.

Pre-trained weights are weights of a network that was trained on a large and general enough dataset (usually requiring hardware vastly). In transfer learning, we train this model further for a given task, taking the advantage of the knowledge gained by the previous training.

Model training

First, create an architecture node in the project and select the architecture created in previous section as we did for data selection. Then create a training node which takes augmented data as training set, validation data as validation set and architecture as inputs.

Model training workflow

In the training node configuration, set „Epochs“ to 5, „Batch size“ to 4 and „checkpoint“ to „efficientnet-lite0“ to enable transfer learning. Then click „proceed“ to start the training process.

Epochs and batch size
Checkpoint

Model evaluation

During the process, the training node will show different metrics in real time. When the training process is complete, the training node will produce a model socket as output, that represents the resulting model. Because an AI-Model is nothing more than data, fed to a neural network by training. We can use the model to predict the validation set with predict node and the result shows model predictions are reliable.

To evaluate the model quantitatively, create a meanAP (mean average precision) node and feed it with predicted-data and true-data. Mean average precision is a common evaluation method in object detection task and the result shows AP over 80%, AP50 and AP75 over 95%, which means the model serves with very high accuracy.

Training history
Predict node
Mean AP node

Create AI-Service pipeline

To use the trained model, there is a need to create a productive pipeline.

First of all switch over to the tab „API-Requests“ and create a new one.

AI-service workflow

After creation, you will be able to leave the workflow back to the API-Requests overview and deploy your model.

AI-service asset

By clicking on the „Deploy“ button, you reach an overview of you devices.

Deploy AI-service

First, make sure the Coral Dev Board is connected with the PC.

If you have clicked on the „Deploy“ button, found in „API-Requests“, you are now able to choose a model format and see if the device is „online“.

Deployment view

For our Coral Development Board, we are going to choose Edge TPU, cause this is the hardware, the model will be used on. Protobuf or Tensorflow Lite won’t work this way, cause the edge-TPU-compiler will compile the model in a way, that makes it usable for the TPU. This is also the reason, why not all possible AI-Models are deployable that easy on the Edge-TPU (not all NN-Layers are compilable).

Model runtime selection

If you choose „Edge TPU“ another menu is popping up.

Edge TPU configuration

Now you will be able to choose optimization methods and type.

Also, you will have to choose a dataset that has been used for the model training or testing. TFlite uses it, to compile the model in the right way. Click on „Deploy“ and the model is send to the edge device.

Inference

In this section, we will demonstrate how to deploy this model into production with Coral Dev Board. If you connect a Coral Camera to your Dev-Board, you will be able to access the inference-video-stream by the demo-api. First, go to the tab „EDGE“.

Edge group list

Because we have not defined any group of devices, you won’t find any entry here. If you click on the arrows, you will reach a menu, that shows all single devices.

Edge device list

Check again, if it is online and double click on it. Then you will reach an device manager that shows how many requests have been done via the api and you can choose models that have been already deployed on-the-fly.

Device view

You can monitor the health status and check for the IP adress. This is the way, you will be able to run inferece via the camera device in your browser.

Open up the browser window and tab: http://192.168.101.2:5002/demos/cam (in this case) You choose the pattern: http://ip_of_edge_device:port_of_edge_device/demos/cam

Demo view

FrAIday Blog #12

Retrospektive 2021 & Perspektive 2022

Das Jahr 2021 neigt sich dem Ende und so auch diese Blogreihe. Wir blicken auf ein interessantes Jahr zurück, in dem wir KI-Experte Martin Schiele, Geschäftsführer der AI-UI GmbH, in vielen Gesprächsrunden „künstliche“ Löcher in den Bauch gefragt haben.

Wir wollten das Thema Künstliche Intelligenz möglichst für jedermann greifbar und verständlich machen. Unternehmen, die in diesem Bereich noch kein fachliches Knowhow besitzen, sollten durch unsere Interviews einen einfachen Zugang zum KI-Thema erhalten. In insgesamt 11 Interviews haben wir den KI-Super-Hype, welcher ein Zusammenspiel von Technologien wie Machine Learning, Deep Learning sowie Automation ist, ausführlich beleuchtet.

Heute wollen wir nochmal zusammenfassen und einen kleinen Ausblick geben, wie Sie als Unternehmen nun starten können.

„KI wird für Mutige ihre Geschäftsmodelle in der Industrie optimieren, für viele bedeutet dies aber auch eine große Herausforderung.“

Was meinen wir mit "Herausforderung"?

Schon seit Jahrzehnten ist es in Deutschland üblich, dem Bereich „Software“ kaum Bedeutung beizumessen. Das hat dazu geführt, dass wir weltweit bei der Digitalisierung zurückblieben. Beim Thema „Künstliche Intelligenz“ dürfen wir diesen Fehler nicht wiederholen, denn der traditionell starke Maschinenbaubereich wird uns auch nicht mehr retten können. Es ist also an der Zeit, was zu riskieren und zu evaluieren.

Es muss individuell geschaut werden, wo diese neuen Technologien helfen können, auch in Zukunft profitabel zu bleiben.

Unser Blogreihe nochmal kurz zusammengefasst

Wir sind bei grundlegenden Dingen gestartet, wie beispielsweise der Unterteilung in unbeaufsichtigtes– beaufsichtigtes und bestärkendes Lernen. Anschließend habe ich erklärt, wie Deep Learning funktioniert und umfangreich dargelegt, wie mit Daten umzugehen ist, um aussagefähige Ergebnisse zu erhalten. Das ist ganz klar der langweiligste, aber wichtigste Part.

Besprochene Themen wie Digitaler ZwillingQualitätskontrolle über Bilderkennung und Retrofit bestehender Hardware sind vor allem anwendungsbezogen.

Mensch-KI-AIUI

Wie hängen diese ganzen Themen zusammen?

KI und Deep Learning bieten ein sehr breites Spektrum an Lösungen. Mit diesen Algorithmen lassen sich auf nahezu gleiche Art und Weise Probleme der BilderkennungMaschinensteuerung und Textverarbeitung bewältigen.

Ein „all in one“ Baukasten der seinesgleichen sucht. Wenn das einmal verstanden ist, wird KI unter einem viel visionäreren Kontext gesehen und kann dadurch die Zukunft mitgestalten. Daher war es für mich so wichtig, dass Problemlösungspotential so breit aufzuspannen.

Einsatz-KI-AIUI

Wie und wo fangen Unternehmen am besten an?

Künstliche Intelligenz ist grundsätzlich sehr vielversprechend für Unternehmen. KI-Pioniere machen es vor. Sie greifen oft zuerst einmal auf externe Berater zurück oder informieren sich an geeigneten Stellen. Auch das Thema Kooperationen, z.B. mit KI-Startups, gewinnt in diesem Zusammenhang immer mehr an Bedeutung.

Das Schlüsselwort lautet Daten, denn ohne Daten keine KI. Verfügbarkeit, Qualität sowie Nachvollziehbarkeit von Daten ermöglichen den erfolgreichen Einsatz von KI-Lösungen in Unternehmen.

Wichtig ist es, das Thema anzugehen und die Mitarbeiter:innen in diesen Prozess zu integrieren. In diesem Kontext sollte die Analysekompetenz ausgebaut werden, um mit den Daten auch umgehen zu können. Unternehmen brauchen ganzheitliche Datenmanagementkonzepte. Nur so können KI-Projekte von Erfolg gekrönt sein.

Wo liegt die Wertschöpfung und wo geht die Reise hin?

Unternehmen brauchen KI nicht unbedingt. Das ist klar, wenn man sieht, dass wir es auch ohne ins Jahr 2021 geschafft haben. Entscheiden Sie sich aber dafür, bewegt dies viel mehr. Es führt zur Implementierung einer breiteren Digitalisierungsstrategie zum Datengewinn. Damit einhergehend werden langfristig optimierte Verwaltungssystematiken etabliert und die Mitarbeiter:innen sensibilisiert, ihr Know-How gegebenenfalls auf eine viel modernere Art und Weise mit einzubringen. KI kann einzelne Bereiche im Unternehmen optimieren und fördert Synergien, die aus den Randtechnologien erwachsen. Das wiederum hat positive Auswirkung auf die Profitabilität des Unternehmens. Einhergehend soll nicht verschwiegen werden, dass mit dem Einsatz von KI-Lösungen im Einzelfall auch neue, sogar weitere Aufgabenbereiche entstehen.

Netzwerk-KI-AIUI
„KI wird für Mutige ihre Geschäftsmodelle in der Industrie optimieren, für viele bedeutet dies aber auch eine große Herausforderung.“
Martin Schiele - AIUI
Martin Schiele
Geschäftsführer

FrAIday Blog #11

Industrieroboter wieder im Einsatz

Nachdem wir uns im letzten Blog mit der Anwendung einer Bilderkennung in der Robotik beschäftigt haben, wollen wir diesmal direkt in die Umsetzung einsteigen. Wir zeigen, wie Sie Ihre eigenen, bereits bestehenden Systeme via eines sogenannten Retrofit mit Künstlicher Intelligenz optimieren können.

Auch für das heutige Blogvideo waren wir zu Besuch im Mehnert Lab in Erfurt.

Mehnert Lab - Erfurt

Das Mehnert Lab bringt Zusammenarbeit in die Industrie 4.0: In Zeiten der digitalen Transformation und permanenter Veränderungen in Märkten und Branchen werden Kooperation, Synergie und Wissensaustausch essentiell für Wachstum und Fortschritt. Als Hub der industriellen Zusammenarbeit bringt das Mehnert Lab verschiedene Akteure im Wertschöpfungsprozess zusammen und ermöglicht so die gemeinsame Entwicklung neuer Geschäftsmodelle und Servicekonzepte sowie die Qualifikation von Fachkräften.

Was verbirgt sich hinter dem Begriff Retrofit?

Von Retrofit ist die Rede, wenn sie bestehende Systeme, Maschinen, Kameras und Sensoren mit moderneren Technologien aufbessern. Vergleichbar ist das mit einer Art Upgrate.

Warum ist das relevant?

Mittelständische Unternehmen im Bereich der fertigenden Industrie haben oft wenig Interesse infolge neuer technologischer Möglichkeiten seitens der IT komplett neue Maschinen anzuschaffen. Das hat vor allem seinen Ursprung in den Kosten, aber auch wegen des generellen Gesamtaufwandes. Ältere Systeme nutzen aber noch nicht die Vorteile, die KI-Algorithmen bieten und sind oft fehlerhaft. Dies veranschaulicht die folgende Abbildung:

Retrofit_1

Nutzen Unternehmen die bestehende Infrastruktur und optimieren sie, sind ggf. günstig enorme Verbesserungen möglich, wie das nachstehende Bild illustriert:

Was werden Sie uns im folgenden Video zeigen?

Wir werden das #RoboVision Beispiel aus Blog X nehmen und aufzeigen, wie die KI für dieses bestehende System entwickelt wurde. Dabei beginnen wir bei der Datenerhebung, gehen über zum Labeling, zeigen das KI-Training und das Ergebnis. Dieses wird in der Lage sein, bei nahezu völliger Dunkelheit die Objekte zu finden.

Für das Projekt wurde bestehende Kamera-Hardware aus dem Mehnert Lab verwendet und ausschließlich einer selbst trainierten KI, einem #Retrofit, unterzogen.

„Kein Hardwareaustausch nötig – KI ist Software, die problemlos in bestehende Systeme integriert werden kann!“
Martin Schiele - AIUI
Martin Schiele
Geschäftsführer

FrAIday Blog #10

Industrieroboter im Einsatz

Nachdem wir uns im letzten Blog mit Anomalieerkennung beschäftigt haben, wollen wir diesmal direkt in die Praxis einsteigen und zeigen, welche Probleme bei der Arbeit mit Robotern auftreten können. Für unser heutiges Blogvideo waren wir zu Besuch im Mehnert Lab in Erfurt.

Mehnert Lab - Erfurt

Das Mehnert Lab bringt Zusammenarbeit in die Industrie 4.0: In Zeiten der digitalen Transformation und permanenter Veränderungen in Märkten und Branchen werden Kooperation, Synergie und Wissensaustausch essentiell für Wachstum und Fortschritt. Als Hub der industriellen Zusammenarbeit bringt das Mehnert Lab verschiedene Akteure im Wertschöpfungsprozess zusammen und ermöglicht so die gemeinsame Entwicklung neuer Geschäftsmodelle und Servicekonzepte sowie die Qualifikation von Fachkräften.

Heute haben wir etwas Besonderes vor!

In diesem BLOG soll an einem praktischen Beispiel die Nutzung einer Objekterkennungs-KI gezeigt werden und warum das auch im Jahre 2021 immer noch ein Thema ist. Wir zeigen das Problem, was die derzeitigen Lösungen bieten und was aktuelle KI-Lösungen vermögen zu tun.

Bilderkennung ist doch ein alter Hut! Der Markt dafür ist voll von Expertensystemen, wie soll man da noch Mehrwert schaffen?

Jedes Unternehmen hat ganz individuelle Produkte. Diese sehen oft sehr unterschiedlich aus und auch deren Eigenschaften können verschieden sein. Durch das einfache Training einer eigenen KI lässt sich die Software perfekt auf die eigenen Bedürfnisse anpassen.

„Autoencoder sind bereits in einigen Produkten zur Zustandsüberwachung enthalten und eine Schlüsselkomponente für Predictive Maintenance.“
Martin Schiele - AIUI
Martin Schiele
Geschäftsführer

FrAIday Blog #9

Bessere Früherkennung von Fehlfunktionen durch sogenannte Autoencoder

Haben Sie schon mal von Predictive Maintenance gehört? Wir besprechen im heutigen Interview die Anamalieerkennung als Teilgebiet der vorrausschauenden Wartung. KI-Experte Martin Schiele, Geschäftsführer der AI-UI GmbH klärt auf, wie sogenannte Autoencoder funktionieren und welche Rolle Künstliche Intelligenz in diesem Zusammenhang spielt.

Sofern Sie besonderen Wissensbedarf zur Thematik haben, sind Sie herzlich eingeladen, Ihre Wunschfragen an blog@ai-ui.ai zu senden, um so die Ausrichtung unserer Blogreihe mitzugestalten.

Was hat Predictive Maintenance mit Anomalieerkennung zutun?

Predictive Maintenance ist ein Überbegriff für alle Funktionen, die dazu dienen Systemverhalten vorherzusagen, um Fehlfunktionen vorzubeugen oder Wartungsintervalle zu planen. Anomalieerkennung ist der Predictive Maintenance daher untergeordnet, weil sie direkt Fehlverhalten von Systemen aufdecken soll, auch wenn es sich um hunderte von Variablen handelt.

Was heißt Anomalieerkennung im Kontext der Industrie 4.0?

Maschinenhersteller und Unternehmen, die Prozesse überwachen, haben alle das gleiche Problem: Selbst, wenn Sie Ihre Systeme sehr gut kennen, ist die Menge an möglichen Fehlfunktionen, die das System in der realen Welt und nicht im Labor haben kann, enorm groß. Nehmen wir als Beispiel eine CNC-Fräsmaschine. Wahrscheinlich ist es üblich, dass Lager verschleißen und dieser Prozess in der Regel bei jedem Kunden über die Nutzungsdauer ähnlich abläuft. Was ist zu beachten, wenn die äußeren Rahmenbedingungen der Maschine geändert werden?

Angenommen ein bestimmter Kunde verrichtet seine Tätigkeit ausschließlich unter freien Himmel. Flugrost setzt sich an und führt zu unvorhersehbarem Systemverhalten. Welche Sensorwerte sollten dann betrachtet werden? Wie kommt man effektiv zu Erkenntnissen, ohne den Fehler je zuvor gesehen zu haben? Darum geht es beim heutigen Thema, nämlich Anomalien vollautomatisch zu erkennen und mit dem digitalen Finger auf die Systemgrößen zu zeigen, die sie auslösen.

Was ist das Problem in diesem Zusammenhang?

Angenommen wir haben eine Zeitreihe, einfache Messwerte, Sensordaten, irgendwelche Systemwerte, die konstant oder zu bestimmten Zeiten gemessen werden. Dann können Sie diese Werte über die Zeit auftragen, wie das folgende Bild veranschaulicht.

Anomaly-AI

Arbeitet das System beispielsweise mit Temperaturen und es sollen Fehler im Temperaturbereich erkannt werden, kann in der Systemsoftware folgendes definiert werden: „Wenn Temperatur größer als 150°C, dann FEHLER!“. So kann das für alle Werte übertragen werden. Was geschieht aber, wenn das System hunderte oder tausende Messwerte umfasst und für viele gar nicht klar ist, welcher Bereich tatsächlich okay ist und welcher nicht? Und was ist, wenn 150°C generell okay sind, aber im Zusammenspiel mit einem anderen Wert zu Problemen führt? Dann helfen solche selbst geschriebenen „Wenn – Dann“ Programme, so wie sie nahezu überall derzeit Anwendung finden, wenig.

Wie genau kann KI hier helfen?

Das Zauberwort heißt Autoencoder. Ein Autoencoder ist nichts anderes als ein neuronales Netz, das versucht, Variablenzusammenhänge in einer Art Flaschenhals auf wenige Zusammenhänge herunterzubrechen. Eine Autoencoder-Architektur sehen Sie in folgender Illustration:

Autoencoder-Architektur-1

Man schickt also als Input, d.h. irgendwelche Werte in die KI und trainiert als Output dieselben Werte. Was bringt das? Das neuronale Netz lernt zu verstehen, wie die Variablen miteinander zusammenhängen, um sie auf geringere Dimensionalität herunterzubrechen.

wie hilft das jetzt bei Anomalieerkennung?

Nun ja, im Autoencoder trainiert man alles an, was OK ist. Das heißt, wir nehmen Messwerte aus der Maschine oder dem System, von denen wir wissen, dass diese gut sind. Dann lernt die KI diese Zusammenhänge. Tritt jetzt etwas auf, dass so nicht erlernt wurde, kann die KI die Zusammenhänge nicht korrekt rekonstruieren und zeigt an, bei welcher Variablen der Fehler auftritt.

Autoencoder-Architektur_2

Wie geht es dann weiter?

Wir wissen nicht zwangsläufig, was passiert ist, also welche der tausend Möglichkeiten, die zum Fehlverhalten führten, tatsächlich vorliegt (Wetter, Bedienung, Erdbeben, …). Es kann aber direkt eine Meldung herausgeben werden, die Service- und Technikpersonal darauf hinweist, bestimmte Systemfunktionen zu überprüfen. So ist es ohne viel Aufwand und mit geringen Kosten möglich, Havarien vorzeitig zu vermeiden oder Systeme wieder in den Optimalzustand zu versetzen.

Was sind in diesem Kontext wieder typische Anwendungsfälle?

Ein Großteil aller Predictive Maintenance Probleme lassen sich mit diesem einfachen Werkzeug adressieren. Man hat zunehmend weniger gut ausgebildete Maschinenführer vor Ort, die nicht genau wissen, was zu tun ist, um komplexe Systemdiagnosen abzuleisten. Servicepersonal ist teuer, nicht zuletzt wegen der Spesen. Mit Anomalieerkennung via Autoencoder ist es einschätzbar, wo das Problem liegt, noch bevor es kritisch wird.

Nehmen wir ein konkretes Beispiel. Ein Hersteller für Fertigungsmaschinen verwendet Führungen, die elektrisch oder elektrohydraulisch betrieben werden, um das in der Maschine befindliche Produkt geführt zu bewegen. Normalerweise gibt es da keine Probleme. Doch es könnte ein Metallspan in die Führung geraten und schlagartig würde das Antriebsmoment steigen, was nötig wäre, um das Produkt zu bewegen. Die Maschine würde das konsequent tun, weil sie programmiert wurde, ihr Ziel zu erreichen und keinem würde auffallen, dass etwas anders ist. Arbeitet die Führung unter diesen Bedingungen unerwartet weiter, ist mit schnellerem Verschleiß oder Havarie zu rechnen. Ein einfacher Hinweis zu unüblichem Maschinenverhalten oder „komischen Werten“ wäre hier Gold wert.

„Autoencoder sind bereits in einigen Produkten zur Zustandsüberwachung enthalten und eine Schlüsselkomponente für Predictive Maintenance.“
Martin Schiele - AIUI
Martin Schiele
Geschäftsführer

FrAIday Blog #8

Vollautomatisch unterschiedliche Objekte in Bildern erkennen und unterscheiden

Heute knüpfen wir wieder an das letzte Interview mit KI-Experte Martin Schiele, Geschäftsführer der AI-UI GmbH an und besprechen das Thema Bildsegmentierung. Wir klären auf, was Segmentierung in diesem Zusammenhang bedeutet, wie es funktioniert und wie es in der Praxis eingesetzt wird.

Sie haben spezielle Fragen zum Thema KI? Dann senden Sie uns diese gern an blog@ai-ui.ai. Wir beantworten diese in den nächsten Interviews.

Wir haben bereits über Bildklassifikation gesprochen. Was bedeutet in diesem Zusammenhang Bildsegmentierung?

Bei der Bildklassifikation aus Blog VII haben wir ganze Bilder mit einem Label versehen, also ein komplettes Bild wurde einer Kategorie zugeordnet. Bei der Bildsegmentierung werden einzelne Pixel aus dem Bild verschiedenen Klassen zugeordnet. Folgendes Bild veranschaulicht dies sehr gut.

(Bildquelle: https://surjeetsaikia.medium.com/)

Bei der Bildklassifikation aus Blog VII haben wir ganze Bilder mit einem Label versehen, also ein komplettes Bild wurde einer Kategorie zugeordnet. Bei der Bildsegmentierung werden einzelne Pixel aus dem Bild verschiedenen Klassen zugeordnet. Folgendes Bild veranschaulicht dies sehr gut.

Wie genau funktioniert das?

Nehmen wir als Beispiel einen Bremsscheibenhersteller. Dieser Hersteller fotografiert seine fertigen Scheiben nach einem bestimmten Produktionsschritt und möchte nun ohne Zuhilfenahme einer subjektiv-menschlichen Entscheidung eine Qualitätskontrolle durchführen.

Mit Bildklassifikation ließe sich eine Aussage darüber treffen, ob das Produkt IO (in Ordnung) oder nIO (nicht in Ordnung) ist. Die Bildsegmentierung geht einen Schritt weiter, sie kann jeden einzelnen Fehler finden.

Gibt es hierfür ein bestimmtes Verfahren?

Auch hier werden wie bei der Bildklassifikation oft sogenannte CNNs (Convolutional Neural Networks) benutzt. Das generelle Vorgehen ist zudem IMMER gleich:

Der Kunde/Bremsscheibenhersteller muss jedes Bild labeln und zwar nicht mit IO/nIO, sondern alle Fehler im Bild für 200-500 Bilder einzeln einzeichnen (siehe Bild oben, Fehler-Rot: Grat und Fehler-Blau: Kratzer). Das kommt dem „Lehrer-Schüler-Prinzip“ nahe. Der Bremsscheibenhersteller bringt der KI bei, auf was sie zukünftig zu achten hat und tut dies, indem er genau die Pixel markiert, die für einen bestimmten Fehler stehen.

Wie geht es dann weiter?

Die Bilder werden zusammen mit einer neuronalen Netzwerkarchitektur trainiert und die KI generiert. Nach Fertigstellung kann der Algorithmus in komplett unbekannten Bildern die gleichen Fehler wiedererkennen, da diese die charakteristischen Merkmale aufweisen.

Grate beispielsweise werden sich immer am Rand befinden und scharfkantig sein, Kratzer wird man immer auf dem glänzenden Teil der Bremsscheibe selbst vorfinden. Morphologie und Lage sind wie auch für uns Menschen die Indikatoren für die korrekte Klassifikation.

Das Ergebnis sieht wie illustriert aus. Wir geben dem Algorithmus vor, welche Sicherheit wir selbst haben möchten und können darüber filtern, wie das Endergebnis aussieht.

Was sind typische Anwendungsfälle für Bildsegmentierung im unternehmerischen oder industriellen Kontext?

Diese Form der Bilderkennungs-KI lässt sich für nahezu jedes Unternehmen im industriellen Umfeld anwenden. Es ist damit möglich, in 2-4 Wochen mit günstiger Hardware zu erstaunlichen und sehr robusten Ergebnissen zu gelangen. Anwendung findet das Verfahren in der Qualitätskontrolle (siehe Bremsscheibe), der Robotik-Steuerung (Tracking von Objekten) oder Überwachung von Bereichen und Arbeitsplätzen. Die Frage, wann welches Objekt oder eine Person an einem bestimmten Ort war, lässt sich somit individuell überwachen.

„Ein Ansatz für alles, mit Bildsegmentierung jedes Problem lösen.“
Martin Schiele - AIUI
Martin Schiele
Geschäftsführer

FrAIday Blog #7

Bilderkennung: Vollautomatisch Objekte erkennen und unterscheiden

Wir haben wieder den KI-Experten Martin Schiele, Geschäftsführer der AI-UI GmbH, weiterführend zum Thema Künstliche Intelligenz befragt. Im Gespräch ging es in dieser Runde um Bilderkennung durch KI-Methoden. Dafür hat Herr Schiele erklärt, wie dieser Prozess funktioniert und welches Verfahren dafür genutzt wird. Im Anschluss haben wir uns verschiedene Beispiele angeschaut – sowohl aus dem Alltagsbereich als auch aus dem unternehmerischen Kontext.

Was heißt Bilderkennung via KI?

Es ist genauso, als ob Sie sich selbst ein Bild ansehen. Sie schauen darauf und schlagartig klassifizieren sie es aufgrund verschiedener Merkmale als Familienfoto, Werbung, Landschaft, Tiere oder etwas anderes bestimmtes. Dabei können wir Menschen oft selbst gar nicht sagen, woran wir das genau fest machen.

Wie genau funktioniert das?

Nehmen wir als Beispiel ein sehr bekanntes Dataset. Das sogenannte MNIST Dataset. Dabei möchte man auf einem Bild, dass 28×28 Pixel groß ist, handgeschriebene Ziffern unterscheiden können.

Bildklassifizierung Schrifterkennung

Jeder der Pixel hat einen Helligkeitswert von 0 bis 255, wobei 255 Weiß und 0 Schwarz bedeutet. Dazwischen bilden sich Grauwerte aus. Folgendes geschieht: Man nimmt tausende von handgeschriebenen Beispielen als Input. Alle 28×28 = 748 Pixel, die in verschiedenen Schreibvarianten auftreten, werden einem Label (der Ziffer) zugeordnet und zu einem neuronalen Netz trainiert. Dieses Netz merkt sich, welche Pixelkombination zu welchem Label (der Ziffer) gehört. Es ist nun eine KI entstanden, die handgeschriebene Ziffern unterscheiden kann.
Ich habe dieses Beispiel in einem YouTube-Video genau erklärt. (Hier geht es zum Video)

Gibt es ein bestimmtes Verfahren?

Es gibt viele verschiedene Möglichkeiten, aber am häufigsten wird Convolutional Neural Networks (NN) genutzt, also sogenannte Faltungsnetzwerke. Sie funktionieren über zufällige Filter, die sich im Trainingsprozess so entwickeln, dass sie auf das Beispiel passen. Vergleichbar ist das zum Beispiel mit einem Snapchat-Filter, den Sie über Selfies legen, der dann immer die Augen ausschneidet.

Gibt es weitere Alltagsbeispiele?

So gut wie jeder KI-Algorithmus, der mit Bilddaten arbeitet, benutzt Convolutional NN. Ob es die sogenannten „Deep Fakes“ sind oder Gesichtserkennung, im Prinzip nutzen alle die gleiche Technologie. Wenn das Handy die eigenen Bilder aus der Galerie automatisch nach Personen, Tieren oder Events kategorisiert, dann ist das ebenfalls auf Bildklassifikationsalgorithmen des maschinellen Lernens zurückzuführen. Auch in der bildgebenden Medizintechnik versucht man seit einigen Jahren, KI-Bildklassifikationsalgorithmen darauf zu trainieren, Krebszellen von gesundem Gewebe vollautomatisch zu unterscheiden. Das würde Radiologen enorm viel Arbeit ersparen und die Medizin hätte zukünftig mehr Zeit für den persönlichen Kontakt zum Patienten.

Was sind typische Anwendungsfälle im unternehmerischen oder industriellen Kontext?

Ein schönes Beispiel, ist die Unterscheidung von Gut- und Schlechtteilen bei Produktionsprozessen. Sie nehmen beispielsweise 1000 Bilder von Teilen, die gut waren und geben ihnen das Label „IO“ und nun fügen Sie weitere 1000 Bilder hinzu von Schlechtteilen mit dem Label „NIO“. Wenn die Merkmale eindeutig sind, lassen sich in weniger als 2 Tagen über Sortieren und Trainieren sehr genaue Aussagen darüber treffen, ob das Verfahren direkt produktiv nutzbar sein wird oder nicht.

Bilderkennung IO NIO

Das Bild zeigt IO- und NIO-Teile eines Gussteils (Bremsscheibe) und wie man das Labeling visualisieren könnte.
Für den nächsten Blog gehen wir sogar noch einen Schritt weiter und klassifizieren nicht nur ganze Bilder, sondern einzelne Objekte in jedem Bild. Dabei könnte es sich um Produktionsfehler oder Objekte jeder Art handeln. Das gleiche Beispiel aus dem Bild oben ließe sich dann folgendermaßen übertragen:

KI Objektklassifizierung

Vergleichbar mit uns Menschen ist sich auch der Algorithmus nie 100% sicher mit seiner Einschätzung. Je nachdem, welche Sicherheit gewünscht ist, können die Ergebnisse gefiltert werden, sodass „Fehler“, die bei einer 50% Sicherheit gefunden werden, gegebenenfalls gar keine Fehler sind.

Wozu kann Bildklassifikation im Mittelstand sinnvoll sein?

Es lassen sich viele Qualitätssicherungsprozesse schnell und effizient automatisieren. Vor allem aber ist positiv herauszuheben, dass dazu keine teure Kamerahardware mehr nötig ist. Die Software (in diesem Fall KI), hat sich so gut weiterentwickelt, dass Sie Schwächen der Hardware problemlos kompensieren kann. Kamerasysteme für zehntausende von Euro sind damit obsolet, wenn es auch eine Webcam für weniger Geld tut.

„Moderne KI-Bilderkennungsalgorithmen sind längst besser als der Mensch.“
Martin Schiele - AIUI
Martin Schiele
Geschäftsführer

FrAIday Blog #6

Resampling: Die Häufigkeit macht den Unterschied

Wir haben im heutigen Interview mit KI-Experte Martin Schiele, Geschäftsführer der AI-UI GmbH an das Thema Data Scaling angeknüpft. Heute dreht sich alles um Resampling – Methoden. Erfahren Sie, was die typischen Verfahren ausmacht, wie sie funktionieren und wo sie in der Praxis Anwendung finden.

Was bedeutet Resampling?

Resampling bedeutet auf Deutsch Stichprobenwiederholung und bezeichnet die Bestimmung der statistischen Eigenschaften von Stichprobenfunktionen. Wurden Daten skaliert, wie in Blog V beschrieben, geht es im Maschinellen Lernen direkt im Anschluss oft darum, die Daten auszugleichen. Wir kennen das von uns selbst. Das, was wir am häufigsten tun, können wir in der Regel am besten und genau so lernt auch eine KI. Am Beispiel von Bildern zu Hunden und Katzen lässt sich das gut erklären. Stellen Sie sich vor, Sie haben ich nur 100 Katzenbilder, aber 10.000 Hundebilder, um einer KI beizubringen, die beiden Tiere zu unterscheiden. Wenn Sie den Datensatz unbearbeitet nutzen, dann wird die KI viel besser darin sein, Hunde zu erkennen als Katzen. Das liegt daran, dass die KI 100-mal mehr Bilder von Hunden sah (im Training) als Bilder von Katzen.

Und welche Methoden gibt es, um dem vorzubeugen?

Die zwei einfachsten und bekanntesten Methoden nennen sich „Undersampling“ und „Oversampling“. Mit Ihnen passt man Datensätze so an, dass die KI bei jedem Training die gleiche Anzahl an Klassen oder Werten sieht, ohne das eine häufiger vorkommt als die andere.

Dafür ist es notwendig zu verstehen, wie ein Histogramm funktioniert. Es zeigt einem, wie oft ein bestimmter Wert im Datensatz vorkommt. Im Bild rechts sehen Sie, dass im gegebenen Datensatz drei verschiedene Sorten von Orchideen unterschiedlich oft vorkommen. Setosa 40 mal, Versicolor 50 mal und Virginica 20 mal.

Artificial Intelligence Resampling

Wie funktioniert nun Undersampling?

Undersampling ist vergleichbar mit zufälligem Abschneiden. Man hat einen Datensatz und möchte irgendeinen Wert oder eine Klasse, in diesem Fall alle Klassen gleichförmig oft, vorkommen lassen. Dabei werden aus den Klassen, die öfter vorkommen (Setosa und Versicolor) als die am wenigsten auftretende (Virginica), zufällig Beispiele behalten und alle anderen gelöscht. Das führt dazu, dass Beispiele verloren gehen.

Artificial Intelligence Undersampling

Wie funktioniert Oversampling im Gegensatz dazu?

Das Oversampling funktioniert genau andersherum. Wir versuchen die fehlenden Beispiele „einfach aufzufüllen“. Man nimmt also von Setosa beispielsweise zufällig 10 Beispiele aus den 40 vorhandenen und steckt sie erneut in das Dataset, sodass es 50 sind. Dabei gibt es natürlich mehrere doppelt. Genau so verfahren wir in diesem Beispiel mit Virginica. Aus 20 wird 50, was bedeutet, dass es hier Beispiele mindestens 3 Mal gibt. In jedem Falle aber ist das Datenset bezüglich der Orchideenklasse nun gleich verteilt!

Artificial Intelligence Oversampling

Was ist ein typischer Anwendungsfall?

Typische Anwendungsfälle sind überall zu finden, wo man keinen sogenannten „Bias“ (dt. Verzerrung) möchte. Ein Beispiel ist das Training eines Modells zur Vorhersage von Kriminalstatistiken mit personenbezogenen Informationen wie Alter, Herkunft und Familienstand.

Wenn schon im Datensatz ein altersbezogenes Bias enthalten ist, also das feature (dt. Merkmal), dass eine Altersgruppe einseitig überrepräsentiert ist, dann wird auch das Modell zukünftig eher dazu tendieren, die überrepräsentierte Klasse in den zukünftigen Vorhersagen öfter abzubilden. Ähnlich wie bei uns Menschen, schließen wir auf eine Ereignis-Eintrittswahrscheinlichkeit aus Erfahrung. Dies nennen wir auch Vorurteile, da sie oft nur in beschränktem Rahmen und subjektiv erfahren wurden.

Wir werden genau das im nächsten Blog anhand einer Bildklassifikation einmal demonstrieren. Dabei wird gezeigt, wie ein Modell reagiert, wenn es nur wenige Beispiele einer Klasse gesehen hat im Vergleich zu einem gleichverteilten Trainingsdatensatz anhand handgeschriebener Ziffern.

Wo kann AI-UI helfen?

Wir arbeiten derzeit ausschließlich mit überwachtem Lernen. Diese Methodik hat in einem Sammelsurium breiter Anwendungsfälle gezeigt, dass es hervorragend funktioniert. Optimieren Sie Ihre Disposition, sodass beispielsweise verderbliche Waren nicht weggeworfen werden müssen oder saisonale Einflüsse in Ihre Prognose mit einfließen. Checken Sie via Bilderkennung vollautomatisch Ihre Produkte auf Fehler und verbinden Sie die Erkenntnisse mit dem Herstellungsprozess. Ebenso können Sie die Standzeiten ihrer Maschinen via digitaler Zwillinge, virtuellen Sensoren und Predictive Maintenance erhöhen. Für alle diese Einsatzgebiete ist AI-UI ein nützliches Werkzeug.
„Methoden des maschinellen Lernens geben tiefe Einblicke in unsere eigenen, menschlichen Lernprozesse.“
Martin Schiele - AIUI
Martin Schiele
Geschäftsführer

FrAIday Blog #5

Data Scaling: Bessere KI-Modelle durch einheitliche Daten

Es ist wieder so weit. Wir haben das nächste Interview mit KI-Experte Martin Schiele, Geschäftsführer der AI-UI GmbH geführt. Im heutigen Gespräch geht um das Thema Data Scaling. Wir haben mit Herrn Schiele zuerst einmal die Basis geklärt, was eigentlich Skalierbarkeit bedeutet. Wie sollte mit Daten umgegangen werden und warum muss man Daten überhaupt skalieren? Wir zeigen Ihnen einen Überblick, welche Methoden existieren, um Daten zu skalieren. Zum Abschluss zeigen wir auch ein Beispiel.

Was bedeutet Skalierbarkeit?

Skalierbarkeit bedeutet im Unternehmenskontext, dass man ein Geschäftsmodell hat, welches mit wenig Aufwand gut wachsen kann. Im Datenkontext bedeutet es die Möglichkeit der systematischen Werteveränderung. Es ist so ähnlich wie Prozentrechnung. Man sagt, das Auto hat 30.000 € UVP, es gibt 10% Rabatt und damit kostet es nur noch 27.000 €. Dabei skalieren wir automatisch die 30.000 € auf den Wert 100 (Einheit ist %) und ziehen einen vergleichbar großen Teil der Menge „10“ (in %) ab. Dann rechnen wir wieder um und kommen auf 27.000 €. Bei der Prozentrechnung skalieren wir sämtliche Daten um uns herum ständig.

Wie geht ein Unternehmen mit Daten um?

Häufig eher stiefmütterlich. Selbst wenn Daten erhoben werden, gibt es selten ein nachvollziehbares und zukunftsgerichtetes Ablagesystem, da es dem Unternehmen erst einmal nichts bringt außer Arbeit. Erst wenn es in diesen Daten einen Weg sieht, um Geld zu sparen, wird man sie auch als wertvoll einstufen. Ziel ist es also, tiefe Unternehmenseinblicke zu gewinnen.

Warum müssen Datensätze denn skaliert werden?

Stellen Sie sich vor, Sie hätten eine Datentabelle mit verschiedenen Spalten (links). Eine Spalte enthält kleine Werte, eine weitere viel Größere (Faktor 10.000 gegenüber der kleinen Werte) und eine dazwischen mit „Ausreißern“. Rechts sehen sie die statistische Auswertung. Es sind je 100 Werte pro Spalte.
Nehmen wir an, diese Werte beschreiben Insekten. Jede Zeile ein anderes Insekt. Kleine Werte stehen für die Augengröße in Metern. Große Werte für das Gewicht in Milligramm und „Werte mit Ausreißern“ für die Beinlänge in Millimetern. Es gibt hunderttausende verschiedene Arten, mit ganz unterschiedlichen Eigenschaften und jede Zeile steht für ein Tier. Als Ziel könnte man definieren, eine KI zu trainieren, die anhand dieser drei Werte klassifiziert, welcher Art das Insekt angehört.

scaled dataset

Welche Methoden lassen sich anwenden, um Daten zu skalieren?

Es gibt viele Möglichkeiten, aber wir schauen uns im Folgenden drei sehr bekannte und im Bereich des Maschinellen Lernens genutzte Methoden an. Sie sind mit Programmierkenntnissen in der Python-Bibliothek Scikit-Learn zu finden und lauten: MinMax-ScalerRobust-Scaler und Standard-Scaler. Alle drei skalieren auf unterschiedliche Weise. Die folgende Tabelle illustriert, für welche Probleme diese Skalieralgorithmen verwendet werden sollten:

NameVerteilungMittelwertWann nutzen?Beschreibung
MinMaxGebundenVariiertImmer! Erst wenn es nicht funktioniert, andere probieren.Für jeden Wert in einer Spalte subtrahiert MinMax den Minimalwert und dividiert dann durch den Gesamtbereich. Der Bereich ist die Differenz zwischen dem ursprünglichen Maximum und dem ursprünglichen Minimum.
RobustUngebundenVariiertVerwenden, wenn Sie Ausreißer haben und nicht möchten, dass diese einen großen Einfluss nehmen.Robust transformiert die Spalte durch Subtraktion des Medians und anschließende Division durch den Interquartilsbereich (75 %-Wert – 25 %-Wert ist Standard, lässt sich aber ändern).
StandardElementen-abweichung0Wenn ein Merkmal transformiert werden muss, damit es annähernd normalverteilt ist.Standard skaliert eine Spalte durch Subtraktion des Mittelwerts und anschließende Skalierung auf Einheitsvarianz. Einheitsvarianz bedeutet, dass alle Werte durch die Standardabweichung geteilt werden.

Könnten Sie ein einfaches, praktisches Beispiel zeigen?

Im Folgenden werde ich die oben gezeigte Tabelle in einem Box Plot jeweils vor und nach dem Skalieren, mit den dazugehörigen Einstellungen zeigen. So wird klar, wie sich die Daten mit den unterschiedlichen Wertebereichen verändern.

data scaling example 1

Im Bild links ist die ursprüngliche Verteilung zu sehen. Aufgrund zweier Ausreißer in der Spalte „mit Ausreißern“ also Beinlänge, liegt der Wertebereich auf der X-Achse zwischen -100 und 1.000. Also alle Insekten liegen eigentlich bezüglich der Beinlänge im Bereich 0 bis 100, aber 2 Tiere tanzen völlig aus der Reihe. Der Wert -100 muss wahrscheinlich sogar falsch sein, da Insekten keine negativen Beinlängen haben können. Jetzt kann man also die Zeilen mit den Ausreißern löschen, oder Sie doch mit einbeziehen, weil sie tatsächlich stimmen. Im Folgenden gehen wir einfach davon aus, dass die Daten OK sind. Skaliert man MinMax zwischen 0 und 1 wird wie bei dem Prozentrechnungsbeispiel für jede Spalte eine Umrechnung durchgeführt. Nun sind auch die „Kleinen Werte“ nicht mehr nur als Strich dargestellt, sondern erstrecken sich komplett innerhalb ihres Bereichs von 0 bis 1. Hier wird aber schon klar, was Ausreißer tun. Sie können zu Fehlabbildungen führen, denn dieses eine Beispiel mit dem Wert 1.000 ist womöglich nicht repräsentativ für den Rest des Datensets.

data scaling example 2

Robust wirkt dem entgegen. Durch die Auswahl von With Centering ist es zusätzlich möglich, den Mittelwert auf 0 umzurechnen, bevor in der Interquartile Range skaliert wird. Es ist festzustellen, dass Robust nicht die Ausreißer entfernt, sondern sie lediglich nur nicht bei der Berechnung des Mittelwertes und der Standardabweichung berücksichtigt.

data scaling example 2

Auch hier wurde wieder „zentriert“, dann aber durch die Einheitsvarianz geteilt.

Was ist ein typischer Anwendungsfall?

Typische Anwendungsfälle sind überall zu finden, wo man keinen sogenannten „Bias“ (dt. Verzerrung) möchte. Ein Beispiel ist das Training eines Modells zur Vorhersage von Kriminalstatistiken mit personenbezogenen Informationen wie Alter, Herkunft und Familienstand.

Wenn schon im Datensatz ein altersbezogenes Bias enthalten ist, also das feature (dt. Merkmal), dass eine Altersgruppe einseitig überrepräsentiert ist, dann wird auch das Modell zukünftig eher dazu tendieren, die überrepräsentierte Klasse in den zukünftigen Vorhersagen öfter abzubilden. Ähnlich wie bei uns Menschen, schließen wir auf eine Ereignis-Eintrittswahrscheinlichkeit aus Erfahrung. Dies nennen wir auch Vorurteile, da sie oft nur in beschränktem Rahmen und subjektiv erfahren wurden.

Wir werden genau das im nächsten Blog anhand einer Bildklassifikation einmal demonstrieren. Dabei wird gezeigt, wie ein Modell reagiert, wenn es nur wenige Beispiele einer Klasse gesehen hat im Vergleich zu einem gleichverteilten Trainingsdatensatz anhand handgeschriebener Ziffern.

Wo kann AI-UI helfen?

Wir arbeiten derzeit ausschließlich mit überwachtem Lernen. Diese Methodik hat in einem Sammelsurium breiter Anwendungsfälle gezeigt, dass es hervorragend funktioniert. Optimieren Sie Ihre Disposition, sodass beispielsweise verderbliche Waren nicht weggeworfen werden müssen oder saisonale Einflüsse in Ihre Prognose mit einfließen. Checken Sie via Bilderkennung vollautomatisch Ihre Produkte auf Fehler und verbinden Sie die Erkenntnisse mit dem Herstellungsprozess. Ebenso können Sie die Standzeiten ihrer Maschinen via digitaler Zwillinge, virtuellen Sensoren und Predictive Maintenance erhöhen. Für alle diese Einsatzgebiete ist AI-UI ein nützliches Werkzeug.
„Datenskalierung ist essenziell für die Arbeit mit Künstlicher Intelligenz!“
Martin Schiele - AIUI
Martin Schiele
Geschäftsführer

FrAIday Blog #4

Digitaler Zwilling am Praxisbeispiel

Es ist wieder so weit. Wir haben das nächste Interview mit KI-Experte Martin Schiele, Geschäftsführer der AI-UI GmbH geführt. Im heutigen Gespräch geht um das Thema Data Scaling. Wir haben mit Herrn Schiele zuerst einmal die Basis geklärt, was eigentlich Skalierbarkeit bedeutet. Wie sollte mit Daten umgegangen werden und warum muss man Daten überhaupt skalieren? Wir zeigen Ihnen einen Überblick, welche Methoden existieren, um Daten zu skalieren. Zum Abschluss zeigen wir auch ein Beispiel.

Heute haben wir etwas besonderes vor. Daher erklären wir heute kurz, wie der heutige BLOG ablaufen wird!

In diesem BLOG soll an einem praktischen Beispiel die Erstellung eines Digitalen Zwillings gezeigt werden. Dabei wird noch einmal erklärt, was ein Digitaler Zwilling im vorliegenden Beispiel genau bedeutet und welche Daten als Grundlage dienen. Die Datenanalyse und Datenaufbereitung wird Stück für Stück gezeigt und erklärt. So wird nachvollziehbar, warum bestimmte Tätigkeiten notwendig sind und warum nicht. Best Practices aus dem Bereich des Maschinellen Lernens werden vermittelt und gezeigt, warum Daten skaliert werden sollten. Nach gelungenem Training des Digitalen Zwillings, erkläre ich Ihnen, wie das neuronale Netz arbeitet. Wir schauen, mit welchen Werkzeugen untersucht werden kann, warum es gewisse Entscheidungen trifft.

Entscheidungen treffen ist ein gutes Stichwort. Unternehmen tun sich genau in diesem Punkt oft schwer, oder?

Natürlich klären wir im Live-Tutorial auch die Frage, wie Entscheidungen in diesem Zusammenhang getroffen werden. Viele Unternehmer schrecken immer noch vor KI zurück, weil sie Angst haben, die Entscheidungsprozesse dahinter nicht nachvollziehen zu können. Diese Probleme gehören jedoch der Vergangenheit an.

„Digitale Zwillinge sind zeitgemäße Instrumente zur System- und Prozessüberwachung.“
Martin Schiele - AIUI
Martin Schiele
Geschäftsführer