FrAIday Blog #12

Retrospektive 2021 & Perspektive 2022

Das Jahr 2021 neigt sich dem Ende und so auch diese Blogreihe. Wir blicken auf ein interessantes Jahr zurück, in dem wir KI-Experte Martin Schiele, Geschäftsführer der AI-UI GmbH, in vielen Gesprächsrunden „künstliche“ Löcher in den Bauch gefragt haben.

Wir wollten das Thema Künstliche Intelligenz möglichst für jedermann greifbar und verständlich machen. Unternehmen, die in diesem Bereich noch kein fachliches Knowhow besitzen, sollten durch unsere Interviews einen einfachen Zugang zum KI-Thema erhalten. In insgesamt 11 Interviews haben wir den KI-Super-Hype, welcher ein Zusammenspiel von Technologien wie Machine Learning, Deep Learning sowie Automation ist, ausführlich beleuchtet.

Heute wollen wir nochmal zusammenfassen und einen kleinen Ausblick geben, wie Sie als Unternehmen nun starten können.

„KI wird für Mutige ihre Geschäftsmodelle in der Industrie optimieren, für viele bedeutet dies aber auch eine große Herausforderung.“

Was meinen wir mit "Herausforderung"?

Schon seit Jahrzehnten ist es in Deutschland üblich, dem Bereich „Software“ kaum Bedeutung beizumessen. Das hat dazu geführt, dass wir weltweit bei der Digitalisierung zurückblieben. Beim Thema „Künstliche Intelligenz“ dürfen wir diesen Fehler nicht wiederholen, denn der traditionell starke Maschinenbaubereich wird uns auch nicht mehr retten können. Es ist also an der Zeit, was zu riskieren und zu evaluieren.

Es muss individuell geschaut werden, wo diese neuen Technologien helfen können, auch in Zukunft profitabel zu bleiben.

Unser Blogreihe nochmal kurz zusammengefasst

Wir sind bei grundlegenden Dingen gestartet, wie beispielsweise der Unterteilung in unbeaufsichtigtes– beaufsichtigtes und bestärkendes Lernen. Anschließend habe ich erklärt, wie Deep Learning funktioniert und umfangreich dargelegt, wie mit Daten umzugehen ist, um aussagefähige Ergebnisse zu erhalten. Das ist ganz klar der langweiligste, aber wichtigste Part.

Besprochene Themen wie Digitaler ZwillingQualitätskontrolle über Bilderkennung und Retrofit bestehender Hardware sind vor allem anwendungsbezogen.

Mensch-KI-AIUI

Wie hängen diese ganzen Themen zusammen?

KI und Deep Learning bieten ein sehr breites Spektrum an Lösungen. Mit diesen Algorithmen lassen sich auf nahezu gleiche Art und Weise Probleme der BilderkennungMaschinensteuerung und Textverarbeitung bewältigen.

Ein „all in one“ Baukasten der seinesgleichen sucht. Wenn das einmal verstanden ist, wird KI unter einem viel visionäreren Kontext gesehen und kann dadurch die Zukunft mitgestalten. Daher war es für mich so wichtig, dass Problemlösungspotential so breit aufzuspannen.

Einsatz-KI-AIUI

Wie und wo fangen Unternehmen am besten an?

Künstliche Intelligenz ist grundsätzlich sehr vielversprechend für Unternehmen. KI-Pioniere machen es vor. Sie greifen oft zuerst einmal auf externe Berater zurück oder informieren sich an geeigneten Stellen. Auch das Thema Kooperationen, z.B. mit KI-Startups, gewinnt in diesem Zusammenhang immer mehr an Bedeutung.

Das Schlüsselwort lautet Daten, denn ohne Daten keine KI. Verfügbarkeit, Qualität sowie Nachvollziehbarkeit von Daten ermöglichen den erfolgreichen Einsatz von KI-Lösungen in Unternehmen.

Wichtig ist es, das Thema anzugehen und die Mitarbeiter:innen in diesen Prozess zu integrieren. In diesem Kontext sollte die Analysekompetenz ausgebaut werden, um mit den Daten auch umgehen zu können. Unternehmen brauchen ganzheitliche Datenmanagementkonzepte. Nur so können KI-Projekte von Erfolg gekrönt sein.

Wo liegt die Wertschöpfung und wo geht die Reise hin?

Unternehmen brauchen KI nicht unbedingt. Das ist klar, wenn man sieht, dass wir es auch ohne ins Jahr 2021 geschafft haben. Entscheiden Sie sich aber dafür, bewegt dies viel mehr. Es führt zur Implementierung einer breiteren Digitalisierungsstrategie zum Datengewinn. Damit einhergehend werden langfristig optimierte Verwaltungssystematiken etabliert und die Mitarbeiter:innen sensibilisiert, ihr Know-How gegebenenfalls auf eine viel modernere Art und Weise mit einzubringen. KI kann einzelne Bereiche im Unternehmen optimieren und fördert Synergien, die aus den Randtechnologien erwachsen. Das wiederum hat positive Auswirkung auf die Profitabilität des Unternehmens. Einhergehend soll nicht verschwiegen werden, dass mit dem Einsatz von KI-Lösungen im Einzelfall auch neue, sogar weitere Aufgabenbereiche entstehen.

Netzwerk-KI-AIUI
„KI wird für Mutige ihre Geschäftsmodelle in der Industrie optimieren, für viele bedeutet dies aber auch eine große Herausforderung.“
Martin Schiele - AIUI
Martin Schiele
Geschäftsführer

FrAIday Blog #11

Industrieroboter wieder im Einsatz

Nachdem wir uns im letzten Blog mit der Anwendung einer Bilderkennung in der Robotik beschäftigt haben, wollen wir diesmal direkt in die Umsetzung einsteigen. Wir zeigen, wie Sie Ihre eigenen, bereits bestehenden Systeme via eines sogenannten Retrofit mit Künstlicher Intelligenz optimieren können.

Auch für das heutige Blogvideo waren wir zu Besuch im Mehnert Lab in Erfurt.

Mehnert Lab - Erfurt

Das Mehnert Lab bringt Zusammenarbeit in die Industrie 4.0: In Zeiten der digitalen Transformation und permanenter Veränderungen in Märkten und Branchen werden Kooperation, Synergie und Wissensaustausch essentiell für Wachstum und Fortschritt. Als Hub der industriellen Zusammenarbeit bringt das Mehnert Lab verschiedene Akteure im Wertschöpfungsprozess zusammen und ermöglicht so die gemeinsame Entwicklung neuer Geschäftsmodelle und Servicekonzepte sowie die Qualifikation von Fachkräften.

Was verbirgt sich hinter dem Begriff Retrofit?

Von Retrofit ist die Rede, wenn sie bestehende Systeme, Maschinen, Kameras und Sensoren mit moderneren Technologien aufbessern. Vergleichbar ist das mit einer Art Upgrate.

Warum ist das relevant?

Mittelständische Unternehmen im Bereich der fertigenden Industrie haben oft wenig Interesse infolge neuer technologischer Möglichkeiten seitens der IT komplett neue Maschinen anzuschaffen. Das hat vor allem seinen Ursprung in den Kosten, aber auch wegen des generellen Gesamtaufwandes. Ältere Systeme nutzen aber noch nicht die Vorteile, die KI-Algorithmen bieten und sind oft fehlerhaft. Dies veranschaulicht die folgende Abbildung:

Retrofit_1

Nutzen Unternehmen die bestehende Infrastruktur und optimieren sie, sind ggf. günstig enorme Verbesserungen möglich, wie das nachstehende Bild illustriert:

Was werden Sie uns im folgenden Video zeigen?

Wir werden das #RoboVision Beispiel aus Blog X nehmen und aufzeigen, wie die KI für dieses bestehende System entwickelt wurde. Dabei beginnen wir bei der Datenerhebung, gehen über zum Labeling, zeigen das KI-Training und das Ergebnis. Dieses wird in der Lage sein, bei nahezu völliger Dunkelheit die Objekte zu finden.

Für das Projekt wurde bestehende Kamera-Hardware aus dem Mehnert Lab verwendet und ausschließlich einer selbst trainierten KI, einem #Retrofit, unterzogen.

„Kein Hardwareaustausch nötig – KI ist Software, die problemlos in bestehende Systeme integriert werden kann!“
Martin Schiele - AIUI
Martin Schiele
Geschäftsführer

FrAIday Blog #10

Industrieroboter im Einsatz

Nachdem wir uns im letzten Blog mit Anomalieerkennung beschäftigt haben, wollen wir diesmal direkt in die Praxis einsteigen und zeigen, welche Probleme bei der Arbeit mit Robotern auftreten können. Für unser heutiges Blogvideo waren wir zu Besuch im Mehnert Lab in Erfurt.

Mehnert Lab - Erfurt

Das Mehnert Lab bringt Zusammenarbeit in die Industrie 4.0: In Zeiten der digitalen Transformation und permanenter Veränderungen in Märkten und Branchen werden Kooperation, Synergie und Wissensaustausch essentiell für Wachstum und Fortschritt. Als Hub der industriellen Zusammenarbeit bringt das Mehnert Lab verschiedene Akteure im Wertschöpfungsprozess zusammen und ermöglicht so die gemeinsame Entwicklung neuer Geschäftsmodelle und Servicekonzepte sowie die Qualifikation von Fachkräften.

Heute haben wir etwas Besonderes vor!

In diesem BLOG soll an einem praktischen Beispiel die Nutzung einer Objekterkennungs-KI gezeigt werden und warum das auch im Jahre 2021 immer noch ein Thema ist. Wir zeigen das Problem, was die derzeitigen Lösungen bieten und was aktuelle KI-Lösungen vermögen zu tun.

Bilderkennung ist doch ein alter Hut! Der Markt dafür ist voll von Expertensystemen, wie soll man da noch Mehrwert schaffen?

Jedes Unternehmen hat ganz individuelle Produkte. Diese sehen oft sehr unterschiedlich aus und auch deren Eigenschaften können verschieden sein. Durch das einfache Training einer eigenen KI lässt sich die Software perfekt auf die eigenen Bedürfnisse anpassen.

„Autoencoder sind bereits in einigen Produkten zur Zustandsüberwachung enthalten und eine Schlüsselkomponente für Predictive Maintenance.“
Martin Schiele - AIUI
Martin Schiele
Geschäftsführer

FrAIday Blog #9

Bessere Früherkennung von Fehlfunktionen durch sogenannte Autoencoder

Haben Sie schon mal von Predictive Maintenance gehört? Wir besprechen im heutigen Interview die Anamalieerkennung als Teilgebiet der vorrausschauenden Wartung. KI-Experte Martin Schiele, Geschäftsführer der AI-UI GmbH klärt auf, wie sogenannte Autoencoder funktionieren und welche Rolle Künstliche Intelligenz in diesem Zusammenhang spielt.

Sofern Sie besonderen Wissensbedarf zur Thematik haben, sind Sie herzlich eingeladen, Ihre Wunschfragen an blog@ai-ui.ai zu senden, um so die Ausrichtung unserer Blogreihe mitzugestalten.

Was hat Predictive Maintenance mit Anomalieerkennung zutun?

Predictive Maintenance ist ein Überbegriff für alle Funktionen, die dazu dienen Systemverhalten vorherzusagen, um Fehlfunktionen vorzubeugen oder Wartungsintervalle zu planen. Anomalieerkennung ist der Predictive Maintenance daher untergeordnet, weil sie direkt Fehlverhalten von Systemen aufdecken soll, auch wenn es sich um hunderte von Variablen handelt.

Was heißt Anomalieerkennung im Kontext der Industrie 4.0?

Maschinenhersteller und Unternehmen, die Prozesse überwachen, haben alle das gleiche Problem: Selbst, wenn Sie Ihre Systeme sehr gut kennen, ist die Menge an möglichen Fehlfunktionen, die das System in der realen Welt und nicht im Labor haben kann, enorm groß. Nehmen wir als Beispiel eine CNC-Fräsmaschine. Wahrscheinlich ist es üblich, dass Lager verschleißen und dieser Prozess in der Regel bei jedem Kunden über die Nutzungsdauer ähnlich abläuft. Was ist zu beachten, wenn die äußeren Rahmenbedingungen der Maschine geändert werden?

Angenommen ein bestimmter Kunde verrichtet seine Tätigkeit ausschließlich unter freien Himmel. Flugrost setzt sich an und führt zu unvorhersehbarem Systemverhalten. Welche Sensorwerte sollten dann betrachtet werden? Wie kommt man effektiv zu Erkenntnissen, ohne den Fehler je zuvor gesehen zu haben? Darum geht es beim heutigen Thema, nämlich Anomalien vollautomatisch zu erkennen und mit dem digitalen Finger auf die Systemgrößen zu zeigen, die sie auslösen.

Was ist das Problem in diesem Zusammenhang?

Angenommen wir haben eine Zeitreihe, einfache Messwerte, Sensordaten, irgendwelche Systemwerte, die konstant oder zu bestimmten Zeiten gemessen werden. Dann können Sie diese Werte über die Zeit auftragen, wie das folgende Bild veranschaulicht.

Anomaly-AI

Arbeitet das System beispielsweise mit Temperaturen und es sollen Fehler im Temperaturbereich erkannt werden, kann in der Systemsoftware folgendes definiert werden: „Wenn Temperatur größer als 150°C, dann FEHLER!“. So kann das für alle Werte übertragen werden. Was geschieht aber, wenn das System hunderte oder tausende Messwerte umfasst und für viele gar nicht klar ist, welcher Bereich tatsächlich okay ist und welcher nicht? Und was ist, wenn 150°C generell okay sind, aber im Zusammenspiel mit einem anderen Wert zu Problemen führt? Dann helfen solche selbst geschriebenen „Wenn – Dann“ Programme, so wie sie nahezu überall derzeit Anwendung finden, wenig.

Wie genau kann KI hier helfen?

Das Zauberwort heißt Autoencoder. Ein Autoencoder ist nichts anderes als ein neuronales Netz, das versucht, Variablenzusammenhänge in einer Art Flaschenhals auf wenige Zusammenhänge herunterzubrechen. Eine Autoencoder-Architektur sehen Sie in folgender Illustration:

Autoencoder-Architektur-1

Man schickt also als Input, d.h. irgendwelche Werte in die KI und trainiert als Output dieselben Werte. Was bringt das? Das neuronale Netz lernt zu verstehen, wie die Variablen miteinander zusammenhängen, um sie auf geringere Dimensionalität herunterzubrechen.

wie hilft das jetzt bei Anomalieerkennung?

Nun ja, im Autoencoder trainiert man alles an, was OK ist. Das heißt, wir nehmen Messwerte aus der Maschine oder dem System, von denen wir wissen, dass diese gut sind. Dann lernt die KI diese Zusammenhänge. Tritt jetzt etwas auf, dass so nicht erlernt wurde, kann die KI die Zusammenhänge nicht korrekt rekonstruieren und zeigt an, bei welcher Variablen der Fehler auftritt.

Autoencoder-Architektur_2

Wie geht es dann weiter?

Wir wissen nicht zwangsläufig, was passiert ist, also welche der tausend Möglichkeiten, die zum Fehlverhalten führten, tatsächlich vorliegt (Wetter, Bedienung, Erdbeben, …). Es kann aber direkt eine Meldung herausgeben werden, die Service- und Technikpersonal darauf hinweist, bestimmte Systemfunktionen zu überprüfen. So ist es ohne viel Aufwand und mit geringen Kosten möglich, Havarien vorzeitig zu vermeiden oder Systeme wieder in den Optimalzustand zu versetzen.

Was sind in diesem Kontext wieder typische Anwendungsfälle?

Ein Großteil aller Predictive Maintenance Probleme lassen sich mit diesem einfachen Werkzeug adressieren. Man hat zunehmend weniger gut ausgebildete Maschinenführer vor Ort, die nicht genau wissen, was zu tun ist, um komplexe Systemdiagnosen abzuleisten. Servicepersonal ist teuer, nicht zuletzt wegen der Spesen. Mit Anomalieerkennung via Autoencoder ist es einschätzbar, wo das Problem liegt, noch bevor es kritisch wird.

Nehmen wir ein konkretes Beispiel. Ein Hersteller für Fertigungsmaschinen verwendet Führungen, die elektrisch oder elektrohydraulisch betrieben werden, um das in der Maschine befindliche Produkt geführt zu bewegen. Normalerweise gibt es da keine Probleme. Doch es könnte ein Metallspan in die Führung geraten und schlagartig würde das Antriebsmoment steigen, was nötig wäre, um das Produkt zu bewegen. Die Maschine würde das konsequent tun, weil sie programmiert wurde, ihr Ziel zu erreichen und keinem würde auffallen, dass etwas anders ist. Arbeitet die Führung unter diesen Bedingungen unerwartet weiter, ist mit schnellerem Verschleiß oder Havarie zu rechnen. Ein einfacher Hinweis zu unüblichem Maschinenverhalten oder „komischen Werten“ wäre hier Gold wert.

„Autoencoder sind bereits in einigen Produkten zur Zustandsüberwachung enthalten und eine Schlüsselkomponente für Predictive Maintenance.“
Martin Schiele - AIUI
Martin Schiele
Geschäftsführer

FrAIday Blog #8

Vollautomatisch unterschiedliche Objekte in Bildern erkennen und unterscheiden

Heute knüpfen wir wieder an das letzte Interview mit KI-Experte Martin Schiele, Geschäftsführer der AI-UI GmbH an und besprechen das Thema Bildsegmentierung. Wir klären auf, was Segmentierung in diesem Zusammenhang bedeutet, wie es funktioniert und wie es in der Praxis eingesetzt wird.

Sie haben spezielle Fragen zum Thema KI? Dann senden Sie uns diese gern an blog@ai-ui.ai. Wir beantworten diese in den nächsten Interviews.

Wir haben bereits über Bildklassifikation gesprochen. Was bedeutet in diesem Zusammenhang Bildsegmentierung?

Bei der Bildklassifikation aus Blog VII haben wir ganze Bilder mit einem Label versehen, also ein komplettes Bild wurde einer Kategorie zugeordnet. Bei der Bildsegmentierung werden einzelne Pixel aus dem Bild verschiedenen Klassen zugeordnet. Folgendes Bild veranschaulicht dies sehr gut.

(Bildquelle: https://surjeetsaikia.medium.com/)

Bei der Bildklassifikation aus Blog VII haben wir ganze Bilder mit einem Label versehen, also ein komplettes Bild wurde einer Kategorie zugeordnet. Bei der Bildsegmentierung werden einzelne Pixel aus dem Bild verschiedenen Klassen zugeordnet. Folgendes Bild veranschaulicht dies sehr gut.

Wie genau funktioniert das?

Nehmen wir als Beispiel einen Bremsscheibenhersteller. Dieser Hersteller fotografiert seine fertigen Scheiben nach einem bestimmten Produktionsschritt und möchte nun ohne Zuhilfenahme einer subjektiv-menschlichen Entscheidung eine Qualitätskontrolle durchführen.

Mit Bildklassifikation ließe sich eine Aussage darüber treffen, ob das Produkt IO (in Ordnung) oder nIO (nicht in Ordnung) ist. Die Bildsegmentierung geht einen Schritt weiter, sie kann jeden einzelnen Fehler finden.

Gibt es hierfür ein bestimmtes Verfahren?

Auch hier werden wie bei der Bildklassifikation oft sogenannte CNNs (Convolutional Neural Networks) benutzt. Das generelle Vorgehen ist zudem IMMER gleich:

Der Kunde/Bremsscheibenhersteller muss jedes Bild labeln und zwar nicht mit IO/nIO, sondern alle Fehler im Bild für 200-500 Bilder einzeln einzeichnen (siehe Bild oben, Fehler-Rot: Grat und Fehler-Blau: Kratzer). Das kommt dem „Lehrer-Schüler-Prinzip“ nahe. Der Bremsscheibenhersteller bringt der KI bei, auf was sie zukünftig zu achten hat und tut dies, indem er genau die Pixel markiert, die für einen bestimmten Fehler stehen.

Wie geht es dann weiter?

Die Bilder werden zusammen mit einer neuronalen Netzwerkarchitektur trainiert und die KI generiert. Nach Fertigstellung kann der Algorithmus in komplett unbekannten Bildern die gleichen Fehler wiedererkennen, da diese die charakteristischen Merkmale aufweisen.

Grate beispielsweise werden sich immer am Rand befinden und scharfkantig sein, Kratzer wird man immer auf dem glänzenden Teil der Bremsscheibe selbst vorfinden. Morphologie und Lage sind wie auch für uns Menschen die Indikatoren für die korrekte Klassifikation.

Das Ergebnis sieht wie illustriert aus. Wir geben dem Algorithmus vor, welche Sicherheit wir selbst haben möchten und können darüber filtern, wie das Endergebnis aussieht.

Was sind typische Anwendungsfälle für Bildsegmentierung im unternehmerischen oder industriellen Kontext?

Diese Form der Bilderkennungs-KI lässt sich für nahezu jedes Unternehmen im industriellen Umfeld anwenden. Es ist damit möglich, in 2-4 Wochen mit günstiger Hardware zu erstaunlichen und sehr robusten Ergebnissen zu gelangen. Anwendung findet das Verfahren in der Qualitätskontrolle (siehe Bremsscheibe), der Robotik-Steuerung (Tracking von Objekten) oder Überwachung von Bereichen und Arbeitsplätzen. Die Frage, wann welches Objekt oder eine Person an einem bestimmten Ort war, lässt sich somit individuell überwachen.

„Ein Ansatz für alles, mit Bildsegmentierung jedes Problem lösen.“
Martin Schiele - AIUI
Martin Schiele
Geschäftsführer

FrAIday Blog #7

Bilderkennung: Vollautomatisch Objekte erkennen und unterscheiden

Wir haben wieder den KI-Experten Martin Schiele, Geschäftsführer der AI-UI GmbH, weiterführend zum Thema Künstliche Intelligenz befragt. Im Gespräch ging es in dieser Runde um Bilderkennung durch KI-Methoden. Dafür hat Herr Schiele erklärt, wie dieser Prozess funktioniert und welches Verfahren dafür genutzt wird. Im Anschluss haben wir uns verschiedene Beispiele angeschaut – sowohl aus dem Alltagsbereich als auch aus dem unternehmerischen Kontext.

Was heißt Bilderkennung via KI?

Es ist genauso, als ob Sie sich selbst ein Bild ansehen. Sie schauen darauf und schlagartig klassifizieren sie es aufgrund verschiedener Merkmale als Familienfoto, Werbung, Landschaft, Tiere oder etwas anderes bestimmtes. Dabei können wir Menschen oft selbst gar nicht sagen, woran wir das genau fest machen.

Wie genau funktioniert das?

Nehmen wir als Beispiel ein sehr bekanntes Dataset. Das sogenannte MNIST Dataset. Dabei möchte man auf einem Bild, dass 28×28 Pixel groß ist, handgeschriebene Ziffern unterscheiden können.

Bildklassifizierung Schrifterkennung

Jeder der Pixel hat einen Helligkeitswert von 0 bis 255, wobei 255 Weiß und 0 Schwarz bedeutet. Dazwischen bilden sich Grauwerte aus. Folgendes geschieht: Man nimmt tausende von handgeschriebenen Beispielen als Input. Alle 28×28 = 748 Pixel, die in verschiedenen Schreibvarianten auftreten, werden einem Label (der Ziffer) zugeordnet und zu einem neuronalen Netz trainiert. Dieses Netz merkt sich, welche Pixelkombination zu welchem Label (der Ziffer) gehört. Es ist nun eine KI entstanden, die handgeschriebene Ziffern unterscheiden kann.
Ich habe dieses Beispiel in einem YouTube-Video genau erklärt. (Hier geht es zum Video)

Gibt es ein bestimmtes Verfahren?

Es gibt viele verschiedene Möglichkeiten, aber am häufigsten wird Convolutional Neural Networks (NN) genutzt, also sogenannte Faltungsnetzwerke. Sie funktionieren über zufällige Filter, die sich im Trainingsprozess so entwickeln, dass sie auf das Beispiel passen. Vergleichbar ist das zum Beispiel mit einem Snapchat-Filter, den Sie über Selfies legen, der dann immer die Augen ausschneidet.

Gibt es weitere Alltagsbeispiele?

So gut wie jeder KI-Algorithmus, der mit Bilddaten arbeitet, benutzt Convolutional NN. Ob es die sogenannten „Deep Fakes“ sind oder Gesichtserkennung, im Prinzip nutzen alle die gleiche Technologie. Wenn das Handy die eigenen Bilder aus der Galerie automatisch nach Personen, Tieren oder Events kategorisiert, dann ist das ebenfalls auf Bildklassifikationsalgorithmen des maschinellen Lernens zurückzuführen. Auch in der bildgebenden Medizintechnik versucht man seit einigen Jahren, KI-Bildklassifikationsalgorithmen darauf zu trainieren, Krebszellen von gesundem Gewebe vollautomatisch zu unterscheiden. Das würde Radiologen enorm viel Arbeit ersparen und die Medizin hätte zukünftig mehr Zeit für den persönlichen Kontakt zum Patienten.

Was sind typische Anwendungsfälle im unternehmerischen oder industriellen Kontext?

Ein schönes Beispiel, ist die Unterscheidung von Gut- und Schlechtteilen bei Produktionsprozessen. Sie nehmen beispielsweise 1000 Bilder von Teilen, die gut waren und geben ihnen das Label „IO“ und nun fügen Sie weitere 1000 Bilder hinzu von Schlechtteilen mit dem Label „NIO“. Wenn die Merkmale eindeutig sind, lassen sich in weniger als 2 Tagen über Sortieren und Trainieren sehr genaue Aussagen darüber treffen, ob das Verfahren direkt produktiv nutzbar sein wird oder nicht.

Bilderkennung IO NIO

Das Bild zeigt IO- und NIO-Teile eines Gussteils (Bremsscheibe) und wie man das Labeling visualisieren könnte.
Für den nächsten Blog gehen wir sogar noch einen Schritt weiter und klassifizieren nicht nur ganze Bilder, sondern einzelne Objekte in jedem Bild. Dabei könnte es sich um Produktionsfehler oder Objekte jeder Art handeln. Das gleiche Beispiel aus dem Bild oben ließe sich dann folgendermaßen übertragen:

KI Objektklassifizierung

Vergleichbar mit uns Menschen ist sich auch der Algorithmus nie 100% sicher mit seiner Einschätzung. Je nachdem, welche Sicherheit gewünscht ist, können die Ergebnisse gefiltert werden, sodass „Fehler“, die bei einer 50% Sicherheit gefunden werden, gegebenenfalls gar keine Fehler sind.

Wozu kann Bildklassifikation im Mittelstand sinnvoll sein?

Es lassen sich viele Qualitätssicherungsprozesse schnell und effizient automatisieren. Vor allem aber ist positiv herauszuheben, dass dazu keine teure Kamerahardware mehr nötig ist. Die Software (in diesem Fall KI), hat sich so gut weiterentwickelt, dass Sie Schwächen der Hardware problemlos kompensieren kann. Kamerasysteme für zehntausende von Euro sind damit obsolet, wenn es auch eine Webcam für weniger Geld tut.

„Moderne KI-Bilderkennungsalgorithmen sind längst besser als der Mensch.“
Martin Schiele - AIUI
Martin Schiele
Geschäftsführer

FrAIday Blog #6

Resampling: Die Häufigkeit macht den Unterschied

Wir haben im heutigen Interview mit KI-Experte Martin Schiele, Geschäftsführer der AI-UI GmbH an das Thema Data Scaling angeknüpft. Heute dreht sich alles um Resampling – Methoden. Erfahren Sie, was die typischen Verfahren ausmacht, wie sie funktionieren und wo sie in der Praxis Anwendung finden.

Was bedeutet Resampling?

Resampling bedeutet auf Deutsch Stichprobenwiederholung und bezeichnet die Bestimmung der statistischen Eigenschaften von Stichprobenfunktionen. Wurden Daten skaliert, wie in Blog V beschrieben, geht es im Maschinellen Lernen direkt im Anschluss oft darum, die Daten auszugleichen. Wir kennen das von uns selbst. Das, was wir am häufigsten tun, können wir in der Regel am besten und genau so lernt auch eine KI. Am Beispiel von Bildern zu Hunden und Katzen lässt sich das gut erklären. Stellen Sie sich vor, Sie haben ich nur 100 Katzenbilder, aber 10.000 Hundebilder, um einer KI beizubringen, die beiden Tiere zu unterscheiden. Wenn Sie den Datensatz unbearbeitet nutzen, dann wird die KI viel besser darin sein, Hunde zu erkennen als Katzen. Das liegt daran, dass die KI 100-mal mehr Bilder von Hunden sah (im Training) als Bilder von Katzen.

Und welche Methoden gibt es, um dem vorzubeugen?

Die zwei einfachsten und bekanntesten Methoden nennen sich „Undersampling“ und „Oversampling“. Mit Ihnen passt man Datensätze so an, dass die KI bei jedem Training die gleiche Anzahl an Klassen oder Werten sieht, ohne das eine häufiger vorkommt als die andere.

Dafür ist es notwendig zu verstehen, wie ein Histogramm funktioniert. Es zeigt einem, wie oft ein bestimmter Wert im Datensatz vorkommt. Im Bild rechts sehen Sie, dass im gegebenen Datensatz drei verschiedene Sorten von Orchideen unterschiedlich oft vorkommen. Setosa 40 mal, Versicolor 50 mal und Virginica 20 mal.

Artificial Intelligence Resampling

Wie funktioniert nun Undersampling?

Undersampling ist vergleichbar mit zufälligem Abschneiden. Man hat einen Datensatz und möchte irgendeinen Wert oder eine Klasse, in diesem Fall alle Klassen gleichförmig oft, vorkommen lassen. Dabei werden aus den Klassen, die öfter vorkommen (Setosa und Versicolor) als die am wenigsten auftretende (Virginica), zufällig Beispiele behalten und alle anderen gelöscht. Das führt dazu, dass Beispiele verloren gehen.

Artificial Intelligence Undersampling

Wie funktioniert Oversampling im Gegensatz dazu?

Das Oversampling funktioniert genau andersherum. Wir versuchen die fehlenden Beispiele „einfach aufzufüllen“. Man nimmt also von Setosa beispielsweise zufällig 10 Beispiele aus den 40 vorhandenen und steckt sie erneut in das Dataset, sodass es 50 sind. Dabei gibt es natürlich mehrere doppelt. Genau so verfahren wir in diesem Beispiel mit Virginica. Aus 20 wird 50, was bedeutet, dass es hier Beispiele mindestens 3 Mal gibt. In jedem Falle aber ist das Datenset bezüglich der Orchideenklasse nun gleich verteilt!

Artificial Intelligence Oversampling

Was ist ein typischer Anwendungsfall?

Typische Anwendungsfälle sind überall zu finden, wo man keinen sogenannten „Bias“ (dt. Verzerrung) möchte. Ein Beispiel ist das Training eines Modells zur Vorhersage von Kriminalstatistiken mit personenbezogenen Informationen wie Alter, Herkunft und Familienstand.

Wenn schon im Datensatz ein altersbezogenes Bias enthalten ist, also das feature (dt. Merkmal), dass eine Altersgruppe einseitig überrepräsentiert ist, dann wird auch das Modell zukünftig eher dazu tendieren, die überrepräsentierte Klasse in den zukünftigen Vorhersagen öfter abzubilden. Ähnlich wie bei uns Menschen, schließen wir auf eine Ereignis-Eintrittswahrscheinlichkeit aus Erfahrung. Dies nennen wir auch Vorurteile, da sie oft nur in beschränktem Rahmen und subjektiv erfahren wurden.

Wir werden genau das im nächsten Blog anhand einer Bildklassifikation einmal demonstrieren. Dabei wird gezeigt, wie ein Modell reagiert, wenn es nur wenige Beispiele einer Klasse gesehen hat im Vergleich zu einem gleichverteilten Trainingsdatensatz anhand handgeschriebener Ziffern.

Wo kann AI-UI helfen?

Wir arbeiten derzeit ausschließlich mit überwachtem Lernen. Diese Methodik hat in einem Sammelsurium breiter Anwendungsfälle gezeigt, dass es hervorragend funktioniert. Optimieren Sie Ihre Disposition, sodass beispielsweise verderbliche Waren nicht weggeworfen werden müssen oder saisonale Einflüsse in Ihre Prognose mit einfließen. Checken Sie via Bilderkennung vollautomatisch Ihre Produkte auf Fehler und verbinden Sie die Erkenntnisse mit dem Herstellungsprozess. Ebenso können Sie die Standzeiten ihrer Maschinen via digitaler Zwillinge, virtuellen Sensoren und Predictive Maintenance erhöhen. Für alle diese Einsatzgebiete ist AI-UI ein nützliches Werkzeug.
„Methoden des maschinellen Lernens geben tiefe Einblicke in unsere eigenen, menschlichen Lernprozesse.“
Martin Schiele - AIUI
Martin Schiele
Geschäftsführer

FrAIday Blog #5

Data Scaling: Bessere KI-Modelle durch einheitliche Daten

Es ist wieder so weit. Wir haben das nächste Interview mit KI-Experte Martin Schiele, Geschäftsführer der AI-UI GmbH geführt. Im heutigen Gespräch geht um das Thema Data Scaling. Wir haben mit Herrn Schiele zuerst einmal die Basis geklärt, was eigentlich Skalierbarkeit bedeutet. Wie sollte mit Daten umgegangen werden und warum muss man Daten überhaupt skalieren? Wir zeigen Ihnen einen Überblick, welche Methoden existieren, um Daten zu skalieren. Zum Abschluss zeigen wir auch ein Beispiel.

Was bedeutet Skalierbarkeit?

Skalierbarkeit bedeutet im Unternehmenskontext, dass man ein Geschäftsmodell hat, welches mit wenig Aufwand gut wachsen kann. Im Datenkontext bedeutet es die Möglichkeit der systematischen Werteveränderung. Es ist so ähnlich wie Prozentrechnung. Man sagt, das Auto hat 30.000 € UVP, es gibt 10% Rabatt und damit kostet es nur noch 27.000 €. Dabei skalieren wir automatisch die 30.000 € auf den Wert 100 (Einheit ist %) und ziehen einen vergleichbar großen Teil der Menge „10“ (in %) ab. Dann rechnen wir wieder um und kommen auf 27.000 €. Bei der Prozentrechnung skalieren wir sämtliche Daten um uns herum ständig.

Wie geht ein Unternehmen mit Daten um?

Häufig eher stiefmütterlich. Selbst wenn Daten erhoben werden, gibt es selten ein nachvollziehbares und zukunftsgerichtetes Ablagesystem, da es dem Unternehmen erst einmal nichts bringt außer Arbeit. Erst wenn es in diesen Daten einen Weg sieht, um Geld zu sparen, wird man sie auch als wertvoll einstufen. Ziel ist es also, tiefe Unternehmenseinblicke zu gewinnen.

Warum müssen Datensätze denn skaliert werden?

Stellen Sie sich vor, Sie hätten eine Datentabelle mit verschiedenen Spalten (links). Eine Spalte enthält kleine Werte, eine weitere viel Größere (Faktor 10.000 gegenüber der kleinen Werte) und eine dazwischen mit „Ausreißern“. Rechts sehen sie die statistische Auswertung. Es sind je 100 Werte pro Spalte.
Nehmen wir an, diese Werte beschreiben Insekten. Jede Zeile ein anderes Insekt. Kleine Werte stehen für die Augengröße in Metern. Große Werte für das Gewicht in Milligramm und „Werte mit Ausreißern“ für die Beinlänge in Millimetern. Es gibt hunderttausende verschiedene Arten, mit ganz unterschiedlichen Eigenschaften und jede Zeile steht für ein Tier. Als Ziel könnte man definieren, eine KI zu trainieren, die anhand dieser drei Werte klassifiziert, welcher Art das Insekt angehört.

scaled dataset

Welche Methoden lassen sich anwenden, um Daten zu skalieren?

Es gibt viele Möglichkeiten, aber wir schauen uns im Folgenden drei sehr bekannte und im Bereich des Maschinellen Lernens genutzte Methoden an. Sie sind mit Programmierkenntnissen in der Python-Bibliothek Scikit-Learn zu finden und lauten: MinMax-ScalerRobust-Scaler und Standard-Scaler. Alle drei skalieren auf unterschiedliche Weise. Die folgende Tabelle illustriert, für welche Probleme diese Skalieralgorithmen verwendet werden sollten:

NameVerteilungMittelwertWann nutzen?Beschreibung
MinMaxGebundenVariiertImmer! Erst wenn es nicht funktioniert, andere probieren.Für jeden Wert in einer Spalte subtrahiert MinMax den Minimalwert und dividiert dann durch den Gesamtbereich. Der Bereich ist die Differenz zwischen dem ursprünglichen Maximum und dem ursprünglichen Minimum.
RobustUngebundenVariiertVerwenden, wenn Sie Ausreißer haben und nicht möchten, dass diese einen großen Einfluss nehmen.Robust transformiert die Spalte durch Subtraktion des Medians und anschließende Division durch den Interquartilsbereich (75 %-Wert – 25 %-Wert ist Standard, lässt sich aber ändern).
StandardElementen-abweichung0Wenn ein Merkmal transformiert werden muss, damit es annähernd normalverteilt ist.Standard skaliert eine Spalte durch Subtraktion des Mittelwerts und anschließende Skalierung auf Einheitsvarianz. Einheitsvarianz bedeutet, dass alle Werte durch die Standardabweichung geteilt werden.

Könnten Sie ein einfaches, praktisches Beispiel zeigen?

Im Folgenden werde ich die oben gezeigte Tabelle in einem Box Plot jeweils vor und nach dem Skalieren, mit den dazugehörigen Einstellungen zeigen. So wird klar, wie sich die Daten mit den unterschiedlichen Wertebereichen verändern.

data scaling example 1

Im Bild links ist die ursprüngliche Verteilung zu sehen. Aufgrund zweier Ausreißer in der Spalte „mit Ausreißern“ also Beinlänge, liegt der Wertebereich auf der X-Achse zwischen -100 und 1.000. Also alle Insekten liegen eigentlich bezüglich der Beinlänge im Bereich 0 bis 100, aber 2 Tiere tanzen völlig aus der Reihe. Der Wert -100 muss wahrscheinlich sogar falsch sein, da Insekten keine negativen Beinlängen haben können. Jetzt kann man also die Zeilen mit den Ausreißern löschen, oder Sie doch mit einbeziehen, weil sie tatsächlich stimmen. Im Folgenden gehen wir einfach davon aus, dass die Daten OK sind. Skaliert man MinMax zwischen 0 und 1 wird wie bei dem Prozentrechnungsbeispiel für jede Spalte eine Umrechnung durchgeführt. Nun sind auch die „Kleinen Werte“ nicht mehr nur als Strich dargestellt, sondern erstrecken sich komplett innerhalb ihres Bereichs von 0 bis 1. Hier wird aber schon klar, was Ausreißer tun. Sie können zu Fehlabbildungen führen, denn dieses eine Beispiel mit dem Wert 1.000 ist womöglich nicht repräsentativ für den Rest des Datensets.

data scaling example 2

Robust wirkt dem entgegen. Durch die Auswahl von With Centering ist es zusätzlich möglich, den Mittelwert auf 0 umzurechnen, bevor in der Interquartile Range skaliert wird. Es ist festzustellen, dass Robust nicht die Ausreißer entfernt, sondern sie lediglich nur nicht bei der Berechnung des Mittelwertes und der Standardabweichung berücksichtigt.

data scaling example 2

Auch hier wurde wieder „zentriert“, dann aber durch die Einheitsvarianz geteilt.

Was ist ein typischer Anwendungsfall?

Typische Anwendungsfälle sind überall zu finden, wo man keinen sogenannten „Bias“ (dt. Verzerrung) möchte. Ein Beispiel ist das Training eines Modells zur Vorhersage von Kriminalstatistiken mit personenbezogenen Informationen wie Alter, Herkunft und Familienstand.

Wenn schon im Datensatz ein altersbezogenes Bias enthalten ist, also das feature (dt. Merkmal), dass eine Altersgruppe einseitig überrepräsentiert ist, dann wird auch das Modell zukünftig eher dazu tendieren, die überrepräsentierte Klasse in den zukünftigen Vorhersagen öfter abzubilden. Ähnlich wie bei uns Menschen, schließen wir auf eine Ereignis-Eintrittswahrscheinlichkeit aus Erfahrung. Dies nennen wir auch Vorurteile, da sie oft nur in beschränktem Rahmen und subjektiv erfahren wurden.

Wir werden genau das im nächsten Blog anhand einer Bildklassifikation einmal demonstrieren. Dabei wird gezeigt, wie ein Modell reagiert, wenn es nur wenige Beispiele einer Klasse gesehen hat im Vergleich zu einem gleichverteilten Trainingsdatensatz anhand handgeschriebener Ziffern.

Wo kann AI-UI helfen?

Wir arbeiten derzeit ausschließlich mit überwachtem Lernen. Diese Methodik hat in einem Sammelsurium breiter Anwendungsfälle gezeigt, dass es hervorragend funktioniert. Optimieren Sie Ihre Disposition, sodass beispielsweise verderbliche Waren nicht weggeworfen werden müssen oder saisonale Einflüsse in Ihre Prognose mit einfließen. Checken Sie via Bilderkennung vollautomatisch Ihre Produkte auf Fehler und verbinden Sie die Erkenntnisse mit dem Herstellungsprozess. Ebenso können Sie die Standzeiten ihrer Maschinen via digitaler Zwillinge, virtuellen Sensoren und Predictive Maintenance erhöhen. Für alle diese Einsatzgebiete ist AI-UI ein nützliches Werkzeug.
„Datenskalierung ist essenziell für die Arbeit mit Künstlicher Intelligenz!“
Martin Schiele - AIUI
Martin Schiele
Geschäftsführer

FrAIday Blog #4

Digitaler Zwilling am Praxisbeispiel

Es ist wieder so weit. Wir haben das nächste Interview mit KI-Experte Martin Schiele, Geschäftsführer der AI-UI GmbH geführt. Im heutigen Gespräch geht um das Thema Data Scaling. Wir haben mit Herrn Schiele zuerst einmal die Basis geklärt, was eigentlich Skalierbarkeit bedeutet. Wie sollte mit Daten umgegangen werden und warum muss man Daten überhaupt skalieren? Wir zeigen Ihnen einen Überblick, welche Methoden existieren, um Daten zu skalieren. Zum Abschluss zeigen wir auch ein Beispiel.

Heute haben wir etwas besonderes vor. Daher erklären wir heute kurz, wie der heutige BLOG ablaufen wird!

In diesem BLOG soll an einem praktischen Beispiel die Erstellung eines Digitalen Zwillings gezeigt werden. Dabei wird noch einmal erklärt, was ein Digitaler Zwilling im vorliegenden Beispiel genau bedeutet und welche Daten als Grundlage dienen. Die Datenanalyse und Datenaufbereitung wird Stück für Stück gezeigt und erklärt. So wird nachvollziehbar, warum bestimmte Tätigkeiten notwendig sind und warum nicht. Best Practices aus dem Bereich des Maschinellen Lernens werden vermittelt und gezeigt, warum Daten skaliert werden sollten. Nach gelungenem Training des Digitalen Zwillings, erkläre ich Ihnen, wie das neuronale Netz arbeitet. Wir schauen, mit welchen Werkzeugen untersucht werden kann, warum es gewisse Entscheidungen trifft.

Entscheidungen treffen ist ein gutes Stichwort. Unternehmen tun sich genau in diesem Punkt oft schwer, oder?

Natürlich klären wir im Live-Tutorial auch die Frage, wie Entscheidungen in diesem Zusammenhang getroffen werden. Viele Unternehmer schrecken immer noch vor KI zurück, weil sie Angst haben, die Entscheidungsprozesse dahinter nicht nachvollziehen zu können. Diese Probleme gehören jedoch der Vergangenheit an.

„Digitale Zwillinge sind zeitgemäße Instrumente zur System- und Prozessüberwachung.“
Martin Schiele - AIUI
Martin Schiele
Geschäftsführer

FrAIday Blog #3

Effizienzsteigerung durch digitales Abbild

Neue Runde – neues Wissen. Wir haben in der nächsten Fragerunde wieder etwas Neues zum Thema Künstliche Intelligenz erfahren. Im heutigen Blog dreht sich alles um den Digital Twin. KI-Experte Martin Schiele, Geschäftsführer der AI-UI GmbH, hat uns aufgeklärt, was ein Digitaler Zwilling eigentlich ist und wie ein solcher funktioniert. Wir haben im Anschluss darüber gesprochen, wie ein Twin in digitaler Form in einer Smart Factory eingesetzt werden kann und inwiefern die digitale Simulation für Unternehmen an Bedeutung gewinnt.

Was genau ist ein Digitaler Zwilling?

Wie schon in Blog II angekündigt, geht’s es in dieser Ausgabe um den Digitalen Zwilling. Ein sogenannter „Digital Twin“, auf Deutsch Digitaler Zwilling, wird oft im Kontext von Maschinellem Lernen verwendet. Es handelt sich um eine Art digitale Simulationsumgebung. Das klingt komplizierter als es sein muss. Man kann innerhalb der Simulation mit gewählten Objekten interagieren und anhand der Reaktionen (Input-Output) Entscheidungen treffen.

Wie hängen Überwachtes Lernen und der Digitale Zwilling nun zusammen?

Im Supervised Learning | Überwachten Lernen sagt man der KI, welcher Output zu welchem Input gehört (Training). Genau das tun wir bei der Kreation eines Digitalen Zwillings auch. AI-UI nutzt Neuronale Netze und speichert über Supervised Learning die Verhaltensweisen, beispielsweise Messdaten des Objektes, im Neuronalen Netz und macht es somit digital nutzbar. Einfach betrachtet übertragen wir eine Tabelle in ein Neuronales Netz. Dieses ist jedoch viel leistungsfähiger als LookUp Tables oder numerische Gleichungen und dazu noch im Handumdrehen trainiert. Warum? Weil es nichts idealisiert, sondern auf Daten der echten Welt beruht.

Wie funktioniert ein Digitaler Zwilling?

Prinzipiell gibt es zwei Wege, einen Digitalen Zwilling bzw. eine Simulation von etwas aufzusetzen. Der erste Weg ist die physikalisch, chemisch, mathematisch korrekte Abbildung eines Gerätes, einer Sache oder eines Prozesses und die anschließende Korrektur mit der Realität. Das bedeutet, man „bastelt“ und schaut, ob die Ergebnisse genau so sind wie in der realen Welt und wenn nicht, muss korrigiert werden, was immer der Fall ist.

Sie können aber auch als zweiten Weg direkt Mess- und Erfahrungswerte aus der Realität heranziehen und daraus einen Digitalen Zwilling formen. Hier kommt der KI-Ansatz ins Spiel.

Ai-UI Digitaler Zwilling

Ich erkläre es am simplen Beispiel eines Haustieres: Es wird entweder ein mathematisches Konstrukt erstellt, was die Reaktion des eigenen Hundes auf die in der Hand befindliche Leberwurst vom Fleischer hat, also beispielsweise eine Formel, die sagt: „Wenn <Wurst>, dann <diese Reaktion>“. Oder Sie nutzen die Erfahrungen der Vergangenheit, die ähnliche Situationen enthält, um ein mögliches Tierverhalten zu approximieren, also abzuschätzen. Letzteres tun wir Menschen ständig in allen Bereichen unseres Lebens. Wir bilden Modelle aus Erfahrung in unseren Köpfen. So funktioniert KI mit Neuronalen Netzen, wie wir bei AI-UI sie verwenden. Das Thema „Neuronale Netze“ werden wir in einem gesonderten Blog nochmal genauer beleuchten. Einziges Manko von Neuronalen Netzen ist, dass erste Erfahrungen vorliegen müssen. Das heißt, Sie benötigen eine Datengrundlage, denn dieser Datensatz lässt sich in der Regel nicht einfach modellieren.

Ein Digitaler Zwilling in der Digital Factory? Was bedeutet das?

Da Digitale Zwillinge im besten Fall identische Abbildungen einer in der Realität befindlichen Sache sind, können sie genutzt werden, um die abgebildete Sache zu untersuchen, zu testen oder zu verbessern. Beispielweise können sie Livedaten eines Schweißprozesses nutzen, um sie in Form eines Neuronalen Netzes „abzulegen“. Vergleichbar ist das mit einer Messwerttabelle. Im Nachgang können diese Neuronale Netz genutzt werden, um sie mit 1000 weiteren Schweißprozessen zu vergleichen. So können sie herausfinden, ob sich die Maschine verändert hat. Es wurde quasi ein Abbild gespeichert, das das Verhalten 1000 Prozesse vorher festgehalten hat. Dies ist es, was oft als Predictive Maintenance bezeichnet wird, denn es kann nachverfolgt werden, wie Objekte altern, verschleißen und sich generell verändern.

Des Weiteren können Digitale Zwillinge als virtuelle Sensoren genutzt werden. Man stattet ein Testsystem oder einen Testprozess mit Sensoren aus, die es im Serienprodukt nicht gibt. Die Daten werden während des Betriebes erneut in einem Digitalen Zwilling gespeichert. Der Twin kann dann im Serienbetrieb mitlaufen, sodass er zusätzliche Informationen aus dem Systemzustand mitliefert – kostenarm und in Echtzeit!

Vorhersagemodelle jedweder Art sind ebenso sehr beliebt, wenn es um die Disposition von Verbrauchswaren geht, die Abschätzung von Kundennachfrage in der Zukunft oder eben um Wartungsintervalle durch Precitive Maintenance.

Digitaler Zwilling – Warum ist er für Unternehmen interessant?

Wurde einmal verstanden, wozu diese digitalen Modelle genutzt werden können, eröffnen sich für Unternehmen mannigfaltige Möglichkeiten. Unternehmen können so Einblicke in Prozesse erhalten, diese weiter automatisieren und Fehleranfälligkeiten senken. Am Ende ist es doch unser aller Ziel, Produkte möglichst reibungslos und effizient zu produzieren sowie zu vertreiben. Digitale Zwillinge sind dafür ein leichtgewichtiges Werkzeug.

„Der Begriff Digitaler Zwilling ist in Mode gekommen, stellt aber nichts anderes als eine Simulation dar.“
Martin Schiele - AIUI
Martin Schiele
Geschäftsführer