Wenn es um künstliche Intelligenz, kurz KI, geht, sieht man sich mit einer Fülle an verschiedenen Begriffen konfrontiert. Da geht es um schwache und starke KI, Training, Inferencing, maschinelles Lernen, Deep Learning, Neuronale Netze und vieles mehr.
Wir gehen im ersten Schritt zurück zum Anfang, zu der grundlegenden Frage: Wie bringt man ein Modell oder Konstrukt aus 0 und 1 dazu, selbst zu „denken“? Welche Möglichkeiten eröffnen sich durch das Training eines Modells in dessen Anwendung?

Training von Modellen

Das Training von Modellen ist ein Prozess, bei dem ein KI-System große Datenmengen durchläuft und dabei „lernt“, seine internen Parameter anzupassen und fein abzustimmen.  Ziel ist es, ein Modell zu erstellen, das Muster und Beziehungen in den Daten erkennen kann, um Vorhersagen oder Entscheidungen zu treffen. Dieser Prozess kann sehr rechenintensiv sein und erfordert oft spezielle Hardware wie GPUs (Grafikkarten), zukünftig NPUs (Neural Processing Unit) oder FPGAs (Programmierbare Prozessoren).  Einfachere Modelle lassen sich auch mit herkömmlichen, leistungsstarken CPUs trainieren, was sich vor allem positiv auf den Stromverbrauch und Investitionskosten auswirkt.

Inferencing – Anwenden von Modellen in der Praxis

Nachdem ein Modell trainiert wurde, folgt der Prozess des „Inferencings“: Das trainierte Modell verarbeitet neue, unbekannte Daten, um Vorhersagen oder Schlüsse aus den Daten zu ziehen. Inferencing kann somit als der „Anwendungsmodus“ eines KI-Modells betrachtet werden, in dem es sein gelerntes Wissen einsetzt, um praktische Aufgaben zu erfüllen wie die Identifizierung von Objekten in Bildern oder das Verstehen von Sprachbefehlen. Als Hardware dient dabei in der Regel die Grafikkarte oder die CPU des „Edge“ Devices (Endgerät). Aktuelle Geräte werden zudem häufig mit den bereits oben genannten NPUs als Teil der CPU ausgestattet. Eine weitere Möglichkeit sind zusätzliche KI-Beschleuniger wie Nvidia Jetson oder Intels Gaudi 3.

Arten von KI-Modellen

KI-Modelle können auf unterschiedliche Arten klassifiziert werden, abhängig von verschiedenen Kriterien wie dem Lern-Algorithmus, der Anwendung, der Struktur oder der verwendeten Technologie. Wir wollen uns auf drei grundlegenden Kategorien von KI-Modellen beschränken: Machine Learning, Deep Learning und neuronale Netze als eine Form des Deep Learning. Daneben gib es eine Vielzahl von Untermodellen oder Hybriden, wie etwa die von ChatGPT bekannte „Generative transformative KI“ als Unterform des Deep Learning. In der Regel wird das Modell eingesetzt, das am besten zum Use Case passt.

Machine Learning

Machine Learning ist die klassische Form von KI-Modellen und schon länger im Einsatz. Trainiert wird mit „gelabelten“ Trainingsdaten, um Muster in den Daten zu erkennen und daraus Vorhersagen zu treffen. Beispiele sind lineare Regression oder Entscheidungsbäume. Unterschieden wird noch zwischen Supervised Learning (Überwachtes Lernen), Unsupervised Learning (Unüberwachtes „freies“ Lernen) und Reinforcement Learning (Lernen durch Verstärkung). Ein Beispiel für überwachtes Lernen ist etwa die Qualitätskontrolle als eine Form des Deep Learning in der verarbeitenden Industrie. Dabei wird mittels Bilderkennung die Qualität der Produkte in Echtzeit analysiert, Defekte oder Abweichungen werden erkannt und fehlerhafte Produkte ggf. aussortiert.

Eine weitere gängige Industrielle Anwendung ist die sog. „Predictive Maintenance“ oder „proaktive“ Instandhaltung. Mittels Sensoren, die an und in den Maschinen angebracht sind, wird der aktuelle Zustand der Maschinen fortlaufend überwacht und analysiert. Die dahinter liegenden Algorithmen lernen aus diesen Daten, Muster zu erkennen, die auf bevorstehende Defekte oder Ausfälle hinweisen, um diese dann zu vermeiden. Wartungen oder Instandhaltungen lassen sich dadurch rechtzeitig vor Auftreten eines Defektes umsetzen. Die KI hilft dadurch, Kosten zu sparen und die Lebensdauer der Maschinen teils deutlich zu verlängern.

Deep Learning und Neuronale Netze

Deep Learning ist eine neuere Form und Weiterentwicklung des Machine Learning, die darauf abzielt, in großen Datenmengen Muster selbstständig zu erkennen, ähnlich wie es das menschliche Gehirn macht. Oft werden dabei Netzwerke von Algorithmen genutzt, die „neuronalen Netze“ genannt werden, weil sie von der Struktur und Funktion des menschlichen Gehirns nachempfunden sind. Diese neuronalen Netze bestehen aus Schichten von Knoten oder Neuronen. Der Unterschied zu klassischen Machine Learning-Modellen ist, dass diese Schichten oder Knoten miteinander verbunden sind und das Modell durch das Durchlaufen der Schichten selbstständig weiterlernt. Jede Schicht nimmt dabei die Ausgabewerte der vorherigen Schicht und berechnet neue Werte, um diese Werte dann der wiedernächsten Schicht weiterzugeben. Am Ende dieser Prozesskette kann das Netzwerk – basierend auf dem Gelernten – Entscheidungen oder Vorhersagen treffen.

Beispiel: Autonomes Fahren

Bekanntestes Beispiel aus der Automobilindustrie ist aktuell sicher das autonome Fahren von Kfz. Dort wird Deep Learning bspw. verwendet, um mittels Kameras und Sensoren die Umgebung des Fahrzeugs zu überwachen. Die gesammelten Daten werden von neuronalen Netzen live in Echtzeit analysiert (siehe auch weiter oben Punkt „Inferencing“), um andere Fahrzeuge, Fußgänger, Verkehrszeichen und ggf. die Straßenbeschaffenheit zu erkennen. Diese Informationen helfen dem Fahrzeug, sicherer zu navigieren und Entscheidungen zu treffen, ob man zum Beispiel anhalten oder ausweichen muss.

Beispiel: Industrieroboter

Ein weiteres Beispiel ist das Verbessern der Fähigkeiten von Industrierobotern. Diese lernen mithilfe von Deep Learning-Modellen, komplexe und präzise Aufgaben auszuführen, wie das Greifen unbekannter Objekte, das Schweißen oder das Zusammenbauen von Teilen mit variabler Form und Größe. Durch weitere KI-Techniken wie das verstärkte Lernen (Reinforcement Learning) können Roboter in simulierten Umgebungen trainiert werden, bevor sie in realen Produktionsumgebungen eingesetzt werden. Diese fortgeschrittenen Lernmethoden ermöglichen es Robotern, sich an unterschiedliche Produktionsbedingungen und sich verändernde Umgebungen leichter anzupassen, was die Flexibilität und Effizienz der Automatisierungstechnik erhöht.

Fazit

Zusammenfassend lässt sich sagen, dass Künstliche Intelligenz das Potential hat, die Industrie in vielen Bereichen positiv zu verändern. Sei es im Bereich effizienterer und kostengünstigerer Produktion, der Produktqualitätssicherung oder einer besseren Logistik. Auch ermöglicht sie natürlich, neuartige Produkte wie selbstfahrende Autos oder intelligente Roboter zu entwickeln.

Gerade im Bereich der Edge-IoT-Geräte entwickeln Hersteller wie Giada, DT Research und andere neue Produkte auf Basis der neuen Intel CPU Generationen, die neben viel Leistung ab der 14. Generation auch zusätzlich mit NPUs ausgerüstet werden.

Ausgewählte Geräte wie etwa das Rugged Tablet DT340T oder das Rugged Notebook LT355 von DT Research lassen sich zudem mit Nvidia RTX Grafikkarten ausstatten, um die die KI-Performance weiter zu erhöhen. Zudem wird Giada in Kürze mit einem, auf Nvidia Jetson basierenden Gerät, auf den Markt kommen. Weitere Geräte werden in naher Zukunft folgen.

Weitere Entscheidungshilfen finden Sie hier >>

Entdecken Sie unser Industrie-PC Portfolio >>