Ein Deep Dive in Machine Learning für die Materialwissenschaft.
Als wir die Hauptanwendungsfelder von künstlicher Intelligenz (KI) in der Materialwissenschaft vorgestellt haben, betonten wir die Bedeutung von hochwertigen und ausreichenden Daten. In diesem Artikel erfahren Sie, wie viele Trainingsdaten benötigt werden und woher sie stammen, am Beispiel unserer Arbeiten zur KI-basierten Gefügeanalyse. Konkret betrachten wir die semantische Segmentierung durch maschinelles Lernen (ML).
Der Prozess des Trainings und Anwendens eines ML-Modells
Um ein ML-Modell zu trainieren, benötigen wir zwei Schlüsselkomponenten: Trainingsdaten und Grundwahrheit. Trainingsdaten bestehen aus Eingabedaten (z. B. Gefügeaufnahmen) und den zugehörigen erwarteten Ergebnissen (z. B. annotierte Korngrenzen). Diese Verknüpfung wird von menschlichen Experten durch Annotation erstellt.
Bei der Gefügesegmentierung sind die Eingabedaten mikroskopische Aufnahmen, und die Grundwahrheit ist ein manuell annotiertes Bild, das die relevanten Merkmale (z. B. Korngrenzen) hervorhebt. Nach dem Training kann das Modell auf neue, unbekannte Daten angewendet werden—ein Prozess, der als Inferenz bezeichnet wird.
Wie viele Trainingsdaten sind ausreichend?
In der Informatik und den Medien heißt es oft, dass Tausende oder sogar Millionen von Datenpunkten benötigt werden, um ein ML-Modell zu trainieren. Keine Angst, so viele Daten benötigen unsere ML-Modelle zur Gefügesegmentierung nicht!
Dass das auch mit weniger Daten funktioniert, hat mehrere Gründe.
Dafür lohnt es sich, unsere mikroskopischen Gefügeaufnahmen mit Bildern von Alltagsgegenständen, die oft zum Trainieren von ML-Modellen verwendet werden, zu vergleichen. Im Gegensatz zu diesen Alltagsbildern sind unsere Gefügeaufnahmen „reicher“ an Informationen. So enthält eine Aufnahme oft deutlich mehr als 50 Körner, während diese Alltagsbilder oft nur ein Objekt darstellen (z.B. Auto/Hund/Katze). Zudem können wir durch Datenaugmentation (z. B. Rotation) künstliche Variationen erzeugen, die den Datensatz für den Algorithmus größer erscheinen lassen.
Ein weiterer Vorteil ist Transfer Learning, bei dem Wissen aus früheren Aufgaben auf neue übertragen wird. Pretraining mit Datensätzen wie ImageNet hilft dem ML-Algorithmus, grundlegende Merkmale (z. B. Kanten, Formen) zu erkennen, die auch für die Gefügeanalyse relevant sind.
Robustheit und Generalisierung in industriellen Anwendungen
Damit ML-Modelle in der industriellen Praxis effektiv sind, müssen sie robust und in der Lage zur Generalisierung sein.
- Generalisierung sorgt dafür, dass das Modell bei unbekannten Daten gute Ergebnisse liefert.
- Robustheit gewährleistet konsistente Ergebnisse trotz geringer Variationen in den Eingabedaten (z. B. Unterschiede in der Probenpräparation oder Bildaufnahme).
Variabilität in Trainingsdaten verstehen
Metallographische Prozesse wie Probenpräparation und Bildaufnahme führen zu Variabilität und können sich in beträchtlichen Unterschieden in der finalen Erscheinung des Gefüges äußern. Hier ist eine ganzheitliche Betrachtung essenziell: wir müssen die Prozesse verstehen und Varianzen kennen, nur so können wir die richtigen Bilder und die benötigte Menge an Trainingsdaten bestimmen. Letztlich müssen die Trainingsdaten alle möglichen Variationen abdecken oder durch Datenaugmentation simuliert werden.
Die benötigte Menge an Trainingsdaten hängt von der Komplexität des Gefüges und dem Grad der Variabilität ab. Für einfache Strukturen mit geringer Variabilität können 50 Bilder ausreichen. Bei komplexen Strukturen oder hoher Variabilität werden Hunderte von Bildern benötigt.
Die Rolle der Domänenexpertise bei der Annotation
Die Erstellung von Grundwahrheitsdaten erfordert Domänenexpertise. Während einfache Strukturen (z. B. gut kontrastierte Korngrenzen) objektiv annotiert werden können, können komplexe Strukturen (z. B. Bainitarten oder Graphitmorphologien) oder unvollständig kontrastierte Korngrenzen zu subjektiven Interpretationen führen.
Um Bias zu minimieren, und um manche komplexen Gefüge mittels KI überhaupt auswertbar zu machen, kann korrelative Mikroskopie eingesetzt werden. Diese Technik kombiniert mehrere Analysemethoden, um eine genauere und objektivere Grundwahrheit zu liefern. Obwohl dies während des Trainings einmal einen zusätzlichen Aufwand bedeutet, stellt es sicher, dass das ML-Modell während der Inferenz zuverlässig arbeitet.
Fazit Die Bedeutung von Domänenexpertise und Datenqualität
Zusammenfassend hängt der Erfolg der KI-basierten Gefügeanalyse von zwei Faktoren ab:
- Domänenexpertise, um Prozessvariationen zu verstehen und zu berücksichtigen.
- Hochwertige Trainingsdaten, um robuste und generalisierbare ML-Modelle zu gewährleisten.
Was kommt als Nächstes?
Vertiefung von Transfer Learning und Pretraining
In unserem nächsten Blog zur KI-Gefügeanalyse gehen wir detaillierter auf Transfer Learning und Pretraining ein. Wir beantworten folgende Fragen:
- Können ML-Modelle auch ohne Pretraining auf generischen Datensätzen wie ImageNet effektiv arbeiten?
- Sind domänenspezifische Pretraining-Datensätze (z.B. metallografische Bilder) für die Gefügeanalyse besser geeignet?
- Was können wir mit unserem hauseigenen MECS „Korngrenzen-Pretraining“ erreichen, inspiriert vom Erfolg des ImageNet-Datensatzes?
Bleiben Sie dran, um zu erfahren, wie diese Techniken den Annotationsaufwand reduzieren und die Modellgenauigkeit für komplexe materialwissenschaftliche Anwendungen steigern!
Bereit, KI für Ihre materialwissenschaftlichen Herausforderungen zu nutzen?
Kontaktieren Sie uns noch heute, um zu erfahren, wie unsere KI-basierten Gefügeanalyselösungen Ihre Forschung und industriellen Prozesse revolutionieren können.