Industrie 4.0 – Eine Einschätzung

Deutschland ist einer der konkurrenzfähigsten Industriestandorte weltweit. Die Spezialisierung liegt dabei im Bereich der Forschung, Entwicklung und Fertigung von innovativen Produktionstechnologien und Produkten. Dieser Ansatz wird ebenfalls konsequent in der heimischen Industrieproduktion durch innovative Technologien verfolgt. Dabei bildet das produzierende Gewerbe das Rückgrat der deutschen Wirtschaft. Der globale Wettbewerb in der Produktionstechnik nimmt immer weiter zu. Insbesondere die Konkurrenz aus Asien sowie die Möglichkeiten der Digitalisierung setzen die deutsche Industrie weiter unter Druck. Dabei spielen neben der Niedriglohn-Produktion immer mehr die Anforderungen der vierten industriellen Revolution eine entscheidende Rolle. Mit der steigenden Dynamik und Komplexität der Industrieproduktion werden zunehmend individuelle und innovative Produkte bei gleichbleibenden Preisen durch die weltweiten Märkte gefordert.

Die Herausforderungen

Neben der wirtschaftlichen und gesellschaftlichen Herausforderung steht die gesamte Branche vor einem wegweisenden technischen Meilenstein – die vierte industrielle Revolution begründet durch das Internet der Dinge und Dienste durch autonome eingebettete Systeme, die drahtlos untereinander kommunizieren und mit dem Internet vernetzt sind. Auch zukünftig will Deutschland seine führende Position im Bereich der Produktionstechnik behaupten und den Wandel zur Industrie 4.0 federführend beschreiten. Im Rahmen der Industrie 4.0 werden die Unternehmen zukünftig ihre Fabriken sowie die Lieferketten intelligent miteinander vernetzen. Über sogenannte Smart Factorys und Cyber-Physikalische Produktionssysteme (CPPS) entsteht eine völlig neue Produktionslogik. Dabei adressiert das Zukunftsprojekt Industrie 4.0 alle großen aktuellen und zukünftigen Herausforderungen – die Wettbewerbsfähigkeit im Rahmen der Digitalisierung und des Produktionsstandortes Deutschland, die Etablierung von Ressourcen- und Energieeffizienten Produkten und Produktionsbedingungen, die Flexibilisierung der Produktion, Individualisierung von Kundenanforderungen, neue digitale Geschäftsmodelle sowie den demografischen Wandel der Gesellschaft.

Status Quo

Die Herausforderungen und Potentiale der vierten industriellen Revolution wurden bereits 2006 durch die Bundesregierung adressiert. Im Rahmen der Hightech-Strategie wurden unterschiedliche Förderprogramme und Forschungsinitiativen gestartet. Neben der Definition von Zielen und Strategien wurden zentrale Umsetzungsroadmaps entwickelt. Der Transfer aus der Forschung in die Praxis stellt die aktuellen Herausforderungen dar. Der Wandel der Industrie wird aufgrund der vorliegenden Komplexität einen evolutionären Charakter haben. In diesem Zusammenhang besteht die aktuell größte Herausforderung. Den revolutionären Charakter der Veränderung in Bezug auf Geschwindigkeit und Innovation in einem effektiven und effizienten Transformationsprozess zu kanalisieren. Aufgrund der Komplexität und Tragweite der Veränderung ist es notwendig, dass die erzielten Forschungsergebnisse im Unternehmenskontext in einem spezifischen, iterativen Entwicklungsprozess adressiert werden. Dabei ist der Industrie 4.0 Reifegrad einer Organisation in Bezug auf die Umsetzungsroadmap wiederkehrend zu ermitteln. 

In den letzten Jahren wurden die Industrie 4.0-spezifischen Initiativen in den Unternehmen deutlich gesteigert. Parallel hat die Bundesregierung auf infrastruktureller Ebene das Fundament weiter ausgebaut. Insbesondere Fragen des mobilen Internets, der Regulierung von Daten sowie allgemeine rechtliche Fragen stellen wesentliche Erfolgsfaktoren in Bezug auf die erfolgreiche Gestaltung der industriellen Transformation dar. Dieser Umstand wird in der aktuellen Debatte bzgl. des Ausbaus des neuesten Standards im Bereich des mobilen Internets deutlich. Neben der Industrie 4.0 fordern viele weitere Branchen den schnellen und unbürokratischen Ausbau der Infrastruktur in Deutschland. Die Infrastruktur bildet das Fundament der zukünftigen Wettbewerbsfähigkeit der deutschen Industrie.

Ein Ausblick

Das Zukunftsprojekt Industrie 4.0 hat für die deutsche Industrie und den Wirtschaftsstandort Deutschland ein sehr großes Potential die zukünftige Wettbewerbsfähigkeit zu erhalten. Die Umsetzung stellt sowohl für die Unternehmen als auch die Bundesregierung eine große Herausforderung dar. Der Erfolgt kann nur durch eine enge Zusammenarbeit zwischen beiden Interessenvertretern erzielt werden. Im Rahmen der Industrie 4.0 hat Deutschland die Möglichkeit die Technologieführerschaft in diesem Bereich zu erlangen. Als Leitanwender definieren die beteiligten Unternehmen die Standards und Normen in diesem Zukunftssegment und folglich die Vormachtstellung im Markt. Die Umsetzung und Transformation innerhalb der vierten industriellen Revolution werden weiter an Fahrt und Dynamik gewinnen. Der Ausgang ist noch völlig offen. Der Wirtschaftsstandort Deutschland hat alle Voraussetzung dieses zukunftsträchtige Projekt erfolgreich zu gestalten.

Quantencomputer – Eine Potentialeinschätzung

Der Quantencomputer war über Jahrzehnte nur Experten ein Begriff. In dieser Zeit wurde viel Grundlagenforschung im Rahmen der Quantenphysik betrieben. Von der ersten Idee bis zur ersten Anwendung der Technologie ist viel wissenschaftliche Forschungsarbeit in diesem Bereich geleistet worden. Doch in letzter Zeit sind die Quantencomputer mehr und mehr aus dem Nischenbereich ins Rampenlicht gerückt. Weltweit führende Konzerne, wie die Tech-Riesen IBM, Google, Microsoft sowie Regierungen, Geheimdienste und sogar die Automobilhersteller Volkswagen und Daimler interessieren sich immer mehr für die Technologie der Quanteninformatik. Die Potentiale und Anwendungsszenarien sind für alle Beteiligten außergewöhnlich vielversprechend und setzen den Phantasien fast keine Grenzen.

Von der grundsätzlichen Idee des Quantencomputers bis zur ersten Anwendung eines Qubits war es eine lange Reise. Der Grundgedanke zur Quanteninformatik entstand 1959 durch den Physiker und Nobelpreisträger Richard Feynman. Bis zum ersten Quantencomputer hat es dann allerdings bis ins Jahr 1998 gedauert. Schritt für Schritt wurde der Quantencomputer und die verfügbare Leistung weiterentwickelt. Von drei Qubits 1999 durch IBM entstand 2006 am MIT ein Quantencomputer mit 12 Qubits. Die Entwicklung hat weiter an Beschleunigung zugenommen. Insbesondere die Konkurrenz von Intel, IBM und Google hat die Leistungsfähigkeit von Quantencomputern rasant gesteigert. Im März 2018 wurde durch Google ein Quantencomputer mit 72 Qubits präsentiert.

Quantencomputer – Die Technologie

Doch was bedeutet ein Qubit und was macht die Quanteninformatik so besonders im Vergleich zur bestehenden boolschen Informatik. Quantencomputer operieren völlig anders. Sie basieren auf sogenannten Quantenbits (Qubits). Der klassische Computer auf Basis des binären Systems kann die Zustände 0 und 1 repräsentieren und Rechenaufgaben nur sequentiell abarbeiten. Im Vergleich zum herkömmlichen Computer kann ein Quantencomputer zwei Zustände (Null und Eins) gleichzeitig einnehmen. Dabei sprechen die Wissenschaftler von der sogenannten Superposition. Dadurch ist der Quantencomputer in der Lage parallel zu operieren, wodurch im Prinzip eine fast unendliche Rechenkapazität zu Verfügung steht.

Quantencomputer – Die Herausforderungen

Noch heute ist die Stabilität von Quantencomputern eine der größten Herausforderungen. Zur fehlerfreien Arbeit benötigt ein Quantencomputer Weltraum-spezifische Bedingungen – kein Sauerstoff, keine Gravitation und eine Temperatur von -272 Grad Celsius. Andernfalls besteht die Gefahr, dass beim Rechnen sogenannte Quantenfehler auftreten. Des Weiteren steigt mit der Anzahl an Qubits die Instabilität und folglich die Wahrscheinlichkeit für Quantenfehler an.

Quantencomputer – Ein Ausblick

Nach KI und maschinellem Lernen steht mit dem Quantencomputer die nächste große Technologie vor dem Durchbruch. Quantencomputig wird das next big thing. Dabei versprechen sich die Experten überall dort große Potentiale wo große Mengen an Daten generiert werden. Mit Hilfe von Quantencomputern lassen sich diese Daten in einer vorher nicht dagewesenen Geschwindigkeit analysieren. Insbesondere die Automobilindustrie verspricht sich durch den Quantencomputer enorme Fortschritte in den wichtigen IT-Zukunftsfeldern. Insbesondere in den Bereichen Autonomes Fahren, Robotic Enterprise, vernetzte Fertigung, intelligente Mobilitätslösungen sowie Materialentwicklung weitreichende Optimierungspotentiale.

Blockchain – Ein Überblick

Der Begriff Blockchain und die dahinterliegende Technologie ist den allermeisten unbekannt. Wer etwas mit dem Begriff anfangen kann, assoziiert in erster Linie Kryptowährungen, wie Bitcoin, Ethereum, etc. mit dem Ausdruck. Doch die Technologie der Blockchain ist mehr als eine virtuelle Währung, mit dem Potential die digitale Welt weitreichend zu verändern. Die Vision liegt darin begründet zukünftig weltweit Geschäfte abzuwickeln, ohne Risiken für das eingesetzte Kapital oder die Ware einzugehen. Die ersten Anwender mit dem größten Nutzen werden der Finanzsektor sowie die Logistikbranche sein. Langfristig könnten ganze Handelsplattformen sowie zentrale staatliche Institutionen durch die Blockchain-Technologie ersetzt werden.

Blockchain – Die Technologie

Die Blockchain ist eine Datenbank, die aus einer Kette (Chain) von Datenblöcken (Blocks) besteht. Dabei wird die Kette dauernd um neue Blöcke erweitert. Jeder einzelne Block mit einer bestehenden Transaktion wird am Ende einer Prüfberechnung unterzogen, die eine Prüfsumme, den sogenannte Hash ergibt. Mit Hilfe des Hashs werden Datenblöcke miteinander verknüpft. Der Hash eines vorangegangen Datenblocks ist gleichzeitig ein Bestandteil des nachfolgenden Datenblocks. D.h. in der Berechnung der Prüfsumme wird der Hash des Vorgänger-Datenblocks berücksichtigt. Aus diesem Grund ist eine Blockchain praktisch Fälschungssicher. Sobald eine Transaktion nachträglich manipuliert wird, ergibt die Prüfsummenberechnung des nachfolgenden Blocks einen Fehler aus. Ausgehend vom ersten Datenblock, dem „Genesisblock“ entsteht so eine nicht veränderbare Datenkette. Sobald ein neuer Datenblock mit einem validen Hash-Wert abgeschlossen worden ist, wird dieser an die Blockchain angehängt. Die aktualisierte Blockchain wird automatisch per Kopie an alle Teilnehmer verteilt. Dadurch entsteht eine verschlüsselte dezentrale Datenbank. Durch diesen Mechanismus wird eine Blockchain weiter geschützt.

Blockchain – Die Funktion

Jede Blockchain beginnt mit einem einzelnen Block, dem „Genesisblock“. Jeder weitere Block besteht aus den Informationen Index, Zeitstempel, Daten, Hash, vorheriger Hash, Nonce. Der Index repräsentiert die Position eines Blockes innerhalb einer Blockchain. Beginnend mit dem Genesisblock mit der Nummer #0. Der Zeitstempel wiederum beschreibt die zeitliche Komponente, damit Blocks zeitlich in Abhängigkeit zueinander gesetzt werden können. Die Daten sind das informative Zentrum eines Blocks und beschreiben die gespeicherten Informationen. Je nach Einsatzzweck können unterschiedliche Informationen gespeichert werden (Bsp.: Währung: Geldtransaktionen; Logistik: Frachtpapiere; etc.). Der Hash beschreibt einen eindeutigen Fingerabdruck eines jeden Blocks. Dadurch lässt sich jeder Block in einer Blockchain eineindeutig identifizieren. Der Hash wird immer am Ende eines Blocks berechnet. Er beinhaltet die Daten eines Blocks, den Hash-Wert des Vorgänger-Blocks, den Index, den Zeitstempel, den Nonce-Wert und ist bei gleichen Daten reproduzierbar. Der Hash-Wert wird mit Hilfe einer Hash-Funktion berechnet. Der vorherige Hash-Wert ist der Hash des Vorgänger-Blocks. Beginnend mit dem Genesisblock beträgt der Hash-Wert 0. Der Nonce-Wert gibt an welche Rechenkapazitäten notwendig sind, um einen Hash-Wert zu berechnen. Mit steigender Schwierigkeit der Berechnung sinkt die Wahrscheinlichkeit einen validen Hash-Wert zu finden. Insbesondere bei Kryptowährungen wird eine sehr hohe Schwierigkeit verwendet. Dadurch ist beim sogenannten Minning eine sehr hohe Rechenkapazität notwendig, um neue Coins zu schürfen.

Blockchain – Ein Ausblick

Dir Fürsprecher sehen in der Blockchain-Technologie die logische Ergänzung zum Internet. Mit Hilfe des Internets werden Informationen dezentralisiert. Die Blockchain wiederum ermöglicht die Dezentralisierung von Werten. Werden beide Netze intelligent miteinander verknüpft kann ein Internet der Werte entstehen. Neben der heutigen Zirkulation von Informationen durch das Internet, können ebenfalls Werte sekundenschnell um den Globus verteilt werden. Insbesondere in den Bereichen, in denen es noch keine effizienten zentralen Systeme gibt wird die Blockchain ihr volles Potential ausspielen. Darüber hinaus hat die Blockchain-Technologie großes Potential in den Bereichen virtuelle Währungen sowie digitale Eigentumsnachweise, wie Verträgen, Immobilien, Container, Frachtpapiere, etc. Dadurch wird der weltweite Handel weiter beschleunigt, da Absender, Empfänger, Logistiker und Behörden immer über identische Informationen in sekundenbruchteilen verfügen.

Additive Fertigungsverfahren – Ein Überblick

Die additiven Fertigungsverfahren werden umgangssprachlich auch als 3D-Druck bezeichnet und haben in den letzten Jahren durch den gestiegenen Einsatz im privaten Bereich weiter an Bekanntheit erlangt. Additive Fertigungsverfahren beschreiben den schichtweisen Aufbau von Material aus formlosen Rohstoffen. Dabei kommen neben Kunststoffen ebenfalls Metallpulver zum Einsatz. Im Gegensatz zu den klassischen subtraktiven Fertigungsverfahren, wie Bohren, Drehen, Fräsen, bei denen Material abgetragen wird, wird bei den additiven Fertigungsverfahren Material Schichtweise bis zum fertigen Bauteil hinzugefügt. Durch dieses Prinzip lassen sich komplexe Geometrien mit spezifischen Eigenschaften erzeugen, die mit den klassischen Fertigungsverfahren nur bedingt bis gar nicht zu fertigen sind.  In diesem Zusammenhang wird prinzipiell zwischen den Extrusionsverfahren sowie den pulverbasierten Prozessen unterschieden. Dabei haben die Laserverfahren den Vorteil, dass neben Kunststoff noch weitere Rohstoffe, wie Metall verarbeitet werden können. Als Laser-Strahlschmelzen wird die Methode zur Verarbeitung von Metallpulvern bezeichnet. Das Laser-Sintern wiederum bezeichnet die Verarbeitung von Kunststoff. Beide Verfahren werden industriell in der Serienfertigung verwendet und bezeichnen daher das Rapid Manufacturing. Der größte Vorteil der additiven Fertigungsverfahren besteht in der Tatsache, dass das Material Schicht für Schicht aufgetragen wird. Dadurch lassen sich komplexe Geometrien mit einer hohen Gestaltungsfreiheit realisieren.

Additive Fertigungsverfahren – ein Rückblick und -ausblick

Zu Beginn der Entwicklung wurden additive Fertigungsverfahren ausschließlich im Bereich des Rapid Prototyping eingesetzt. Dabei wurden bereits in den Entwicklungsprozessen frühzeitig wertvolle Eigenschaften und Merkmale des späteren Serienbauteils simuliert und erprobt. Mit der stetigen Weiterentwicklung der Technologie konnten immer komplexere Produkte zu sinkenden Produktionskosten „gedruckt“ werden. In den letzten Jahren hat sich die Weiterentwicklung der Technologie stark beschleunigt und die additiven Fertigungsverfahren werden ebenfalls in der (Klein-) Serienfertigung eingesetzt. Insbesondere im Bereich der Luft- und Raumfahrt, des Werkzeug- und Formenbaus sowie der Automobilindustrie hat der Einsatz des 3D-Druck in den letzten Jahren stark zugenommen. Für die weitere Entwicklung zeichnen sich vielfältige Einsatzmöglichkeiten ab. Besonders im Rahmen der vernetzten Industrieproduktion (Industrie 4.0) sind den Phantasien fast keine Grenzen gesetzt. Dabei liegt der Fokus in der Losgröße 1 Produktion. In diesem Kontext wird oft von der sogenannten Mass Customization gesprochen, mit dem Potential, die vollständige Individualisierung von Produkten zu erreichen. Im Zuge der Digitalisierung und der damit verbundenen Vernetzung der Produktion rückt der Kunde mit seinen individuellen Anforderungen noch weiter in den Mittelpunkt.

Einsatz von additiven Fertigungsverfahren – ein Einblick in die Luftfahrt- und Automobilindustrie

Aufgrund der rasanten Weiterentwicklung der additiven Fertigungsverfahren wurden in den letzten Jahren die Einsatzmöglichkeiten immer größer. Neben dem Einsatz im Bereich der Prototypenfertigung, wurden mit der Zeit die Einsatzbereiche immer weiter in Richtung industrieller Serienfertigung ausgedehnt. Auf Grund des gestiegenen Reifegrads werden die unterschiedlichen additiven Fertigungsverfahren für die Industrie immer interessanter und wertvoller. Die prädestinierteste Industrie zum Einsatz additiver Fertigungsverfahren ist aktuell die Luft- und Raumfahrtindustrie. In diesem Bereich werden als erstes die Charakteristika zum wirtschaftlichen Einsatz (z.B.: geringe Stückzahlen, Einsatz teurer Werkstoffe, zu schwere Bauteile, dezentraler Ersatzteilbedarf, etc.) erfüllt. Die größten Vorteile liegen dabei in der Gewichtsersparnis von gedruckten Teilen sowie in der Reduktion der Werkstoffmenge. Dadurch lassen sich für die Airlines die Betriebskosten deutlich reduzieren, was auf Grund der hohen Treibstoffkosten ein wirtschaftlich ausschlaggebendes Argument darstellt. Im Bereich der Automobilindustrie werden die additiven Fertigungsverfahren bereits seit längerer Zeit im Bereich des Prototypen-, Werkzeug- sowie Formenbau und Montagehilfen eingesetzt. Langsam erfolgt ebenfalls der Schritt in die Kleinserienfertigung vorzugsweise im Motorsport sowie Konzept- und Studienfahrzeugen. Für die Zukunft besteht das Potential ebenfalls Anbauteile additiv unter Serienbedingungen zu fertigen. Wesentliche Erfolgsfaktoren sind in diesem Zusammenhang die Steigerung der Produktivität (Stückzahlen unter Serienbedingungen) sowie die Reduktion der Investitionskosten. Bei einer gleichbleibenden Entwicklungsgeschwindigkeit der Technologien wird ein umfangreicher Einsatz in der Serienfertigung bis 2035 durch Experten erwartet.

Die additiven Fertigungsverfahren verzeichnen die letzten Jahre durchschnittliche Wachstumsraten von ca. 30%. Das Potential möglicher Anwendungsszenarien ist unverkennbar groß. In Rahmen der Industrie 4.0 werden 3D-Druck-Verfahren eine zentrale Rolle in der industriellen Produktion einnehmen.

FAANG – Status Quo der Tech-Giganten

Facebook, Amazon, Apple, Netflix und Google (FAANG) haben in den letzten Jahren ein beispielloses Wachstum erfahren und befinden sich aktuell auf dem Höhepunkt ihrer Macht. Sie treiben weltweit die digitale Revolution voran und kontrollieren ihre jeweiligen Heimatmärkte als Monopolist. Google hat einen Marktanteil im Suchmaschinenmarkt von 90%, Facebook wiederum beherrscht den weltweiten Markt sozialer Kommunikationsdienste mit knapp 70%. In Deutschland beherrscht Amazon den E-Commerce Handel mit 62% aller Abwicklungen. Die Zahlen spiegeln sich ebenfalls im Börsenwert der Unternehmen wieder. Die Amazon-Aktien legten in den letzten fünf Jahren um 340% zu. Facebook wiederum konnte im gleichen Zeitraum eine Kurssteigerung von 500% erzielen. Die beiden größten US-Techfirmen Apple und Alphabet haben zusammen einen Börsenwert von 1,66 Billionen US Dollar. Im Vergleich dazu hat der gesamte deutsche Aktienmarkt eine Marktkapitalisierung von 1,77 Billionen US Dollar.

Die Macht der Monopole – eine Einschätzung

Doch das enorme Wachstum und die einhergehende Monopolisierung birgt für die großen Tech-Konzerne ebenfalls eine Gefahr. Neben der Marktmacht wird die steigende politische Kraft der Konzerne in der öffentlichen Wahrnehmung immer kritischer gesehen. Neben dem reinen technologischen Fortschritt und dem zugrundeliegenden Geschäftsmodell bestimmen immer mehr ethische und gesellschafts-politische Fragen die öffentliche Diskussion. Das Unbehagen vieler Nutzer wächst angesichts der massiven Sammlung von Daten und deren intelligente Verknüpfung zum Profiling der Anwender. Nicht zuletzt durch den Datenskandal von Facebook und die anschließende Befragung im US Kongress sowie im EU-Parlament hat die geführt Debatte an Geschwindigkeit gewonnen. Dabei reißen die Schlagzeilen, Meldungen und Datenpannen im Facebook-Kosmos nicht ab. Die Kunden und Nutzer des größten sozialen Netzwerks lassen aktuell noch nicht nachhaltig vom Marktführer ab. Neueste Zahlen belegen das weitere Wachstum von Facebook. Der Umsatz stieg im ersten Quartal 2018 auf 11,96 Mrd. US Dollar an. Das aktuell gewachsene Vertrauensproblem der Nutzer gegenüber Facebook und Co. wird sich in seiner Auswirkung wohlmöglich erst langfristig in seinem vollumfänglichen Ausmaß zeigen.

Die Herausforderungen der Tech-Riesen – ein Ausblick

Die Ohnmacht der Nutzer gegenüber den Großkonzernen führt zu einem Misstrauen in der Bevölkerung. Beobachter und Experten sind sich bereits unsicher, ob es den Technologie-Konzernen gelingt die Dinge grundlegend aus eigener Kraft zu ändern. Sowohl die US-Verbraucherschutzbehörde als auch die EU-Wettbewerbskommission beobachten die Tech-Riesen sehr genau. Die Zeiten des ungebremsten Wachstums scheinen vorbei. Die Gefahren und Risiken der Markt-bestimmenden Konzerne zeichnen sich immer deutlicher ab. Diese Einschätzung bestätigt ebenfalls das steigende Investment und Engagement in die Lobby-Arbeit. Die Risiken in den bestehenden Geschäftsmodellen durch regulatorische Eingriffe und Einschnitte sind aktuell akuter denn je. Schon die Vergangenheit hat gezeigt, dass große Monopole in den Öl- und Telekommunikations-Märkten durch politische Eingriffe zerschlagen werden können. Ob diese Erkenntnis der Vergangenheitserfahrung ebenfalls für die Tech-Giganten ein erstzunehmendes Szenario darstellt, kann nicht mit Sicherheit beantwortet werden. Doch ohne wirkliche Alternativen werden die Nutzer vorerst weiterhin den bestehenden Diensten ihre Treue halten. Das Konsumverhalten der Anwender spiegelt sich ebenfalls bei den Werbekunden wieder. Eine gezieltere Ansprache von Kunden mittels personifizierter Werbung via Facebook oder Google ist im Augenblick alternativlos. Mit Bekanntwerden des Datenskandals bei Facebook im Zuge der Enthüllung um Cambridge Analytica brach der Aktienkurs auf sein Jahrestief ein. Auf den Abstieg folge eine schnelle Erholung bis auf das Jaheshoch von 166 US $. Eine sichere Prognose für die Zukunft der Tech-Giganten ist nicht ableitbar. Die Risiken im politisch, gesellschaftlichen Bereich haben sicherlich zugenommen. Das bestehende Geschäftsmodell lässt sich von diesen Schlagzeilen aktuell noch nicht beirren. Die zukünftige Vormachstellung der Konzerne wird durch politische Eingriffe und technologischen Wandel mitbestimmt. Neben Apple strebt auch Facebook zukünftig eine Art Walled Garden an. Ein Plattform-Ökosystem, das den Nutzer durch Restriktionen noch enger an das Unternehmen und seine Dienstleistungen bindet und dabei die Nutzungsdauer der Dienstleitungen weiter erhöht. Gepaart mit einem hyper-personalisierten Internet, in dem keine Nutzererfahrung der anderen gleicht, dieser Zustand der personalisierten Werbung übertragen auf das gesamte Nutzenerlebnis im Internet stellt das ultimative Ziel dar. Die künstliche Intelligenz der entwickelten Algorithmen wird den Informationsfluss bestimmen und eine grundlegende Entscheidungshilfe darstellen. Diese Idee und Vision des Internets der Zukunft wird die Strategien und abgeleiteten Marktanteile der Tech-Konzerne maßgeblich mitbestimmen.

Künstliche Intelligenz – Quo Vadis?

Wie weit ist die künstliche Intelligenz tatsächlich. In der täglichen Berichterstattung werden die Themen Digitalisierung, künstliche Intelligenz und Deep Learning bereits inflationär verwendet. Seit Jahren wird prophezeit, dass die Digitalisierung und insbesondere die künstliche Intelligenz alles verändern werden. Fakt ist, dass bereits große Fortschritte erzielt worden sind. Vornehmlich im Bereich der Mustererkennung von großen, unstrukturierten Datenmengen. Darüber hinaus gibt es auch immer wieder Fehlinterpretationen und falsche Schlüsse von Algorithmen. Dabei ist selbst für die Entwickler der Weg zu den gewonnenen Erkenntnissen nicht mehr nachvollziehbar. Gleichzeitig weisen Forscher darauf hin, dass menschliche Intelligenz ebenfalls Fehler verursacht und im Rahmen der Evolution der künstlichen Intelligenz Unschärfen und Unsicherheiten bestehen. Auch zukünftig wird KI weiterhin zu den dominantesten und wegweisendsten Antriebskräften der digitalen Revolution gehören.

Die Zukunft der künstlichen Intelligenz – ein Ausblick

Im Rahmen der digitalen Transformation der Unternehmen und Gesellschaft wird die Automatisierung intelligenten Verhaltens sowie das maschinelle Lernen der Nukleus der Entwicklung darstellen. Die Evolution der KI wird zwei Facetten ausprägen. Zum einen die starke KI, eine Intelligenz, die das menschlich, emotionale Denken mechanisieren soll. Auf der anderen Seite die schwache KI, die bereits heute in konkreten Anwendungsbereichen das menschliche Denken unterstützt. Dabei liegt der Fokus auf der Fähigkeit des Lernens. Mit Hilfe des Deep Learnings werden mittels neuronaler Netzwerke grobe Abbilder des menschlichen Gehirns simuliert und tägliche Arbeitsweisen, wie Gesichter erkennen, Sprache verstehen, Korrelationen erkennen und unscharf definierte Probleme zu lösen durch Software erledigt. Dabei werden künstliche neuronale Netzwerke entwickelt, die ein dicht verwobenes Netz aus künstlichen Nervenzellen, ähnlich dem menschlichen Gehirn, simulieren. Mittels ständigem Lernen und gewonnen Erfahrungen wird die Stärke der Neuronenverbindungen passgenau geändert. Im Vergleich zur Regel-basierten Programmierung, die viel Zeit zur Formulierung von Merkmalssätzen erfordert, wird mittels des maschinellen Lernens die Eigenschaft verknüpft, Regeln von Grund auf selbst zu lernen. Dabei wird das System umso besser je mehr Daten zur Verfügung stehen.

Deep Learning – das Allheilmittel?

Die Erfolge des Deep Learnings sind unbestritten. Google, Facebook, Apple, Amazon, alle großen Tech-Konzerne der USA haben künstliche Intelligenz und Deep Learning-Algorithmen in ihrer Software im Einsatz. Die Deep Learning Algorithmen überlassen das Lernen aus Erfahrung den künstlichen neuronalen Netzwerken. Dabei werden Neuronen in mehrere Ebenen eingeteilt, die wiederum eine spezifische Aufgabe erfüllen. Schritt für Schritt werden die Informationen durch die unterschiedlichen Ebenen verarbeitet. Durch das Sammeln von Wissen aus der Erfahrung vermeidet das Deep Learning die manuelle Beschreibung des notwendigen Wissens durch mathematische Regeln. Das Deep Learning beschreibt in seiner heutigen Form ein Teilgebiet des maschinellen Lernens. Als Teildisziplin der selbstadaptiven Algorithmen steckt das Deep Learning noch in den Kinderschuhen und stellt eine der Zukunftstechnologien dar. Nichtdestotrotz erfolgt parallel die Erforschung weiterer Ansätze und Methoden des Artifical Learning. IBM, Google und andere Tech-Riesen erforschen weiterhin vielversprechende Ansätze, wie den Quantencomputer zur Berechnung komplexer mathematischer Formeln, der zukünftig vielleicht ebenfalls im Bereich Deep Learning zum Einsatz kommt.

Wandel der Automobilindustrie – Ein Einblick

Die Automobilindustrie befindet sich in einem der größten Veränderungsprozess der Geschichte. Neue Soft- und Hardwaretechnologien drängen auf den Markt und eröffnen neuen Marktteilnehmen neue Chancen zum Markteintritt. Dabei betrifft der Wandel die gesamte Wertschöpfungskette vom OEM bis zum n-Tier Zulieferer. Die Megatrends sind autonomes Fahren, vernetzte Autos, Elektromobilität, Sharing Economy und künstliche Intelligenz. In diesem Zuge hat der Wandel vielfältige Auswirkungen auf die Arbeits- sowie Lebenswelt. In der öffentlichen Wahrnehmung liegt der Fokus stark auf dem Ungewissen, was Ängste schürt. Andere sehen in der aktuellen Phase Chancen für Neues und eine Vielzahl von Möglichkeiten.

Der Wandel in Zahlen – 40 Mrd. Entwicklungsbudget für alternative Antriebe bis 2020

Allein auf der letzten IAA haben 1000 Aussteller über 220 Weltpremieren gefeiert. Dabei haben allein die deutschen Hersteller 2017 auf der IAA mehr als 150 E-Autos präsentiert. Im Zuge der Digitalisierung versuchen viele Unternehmen dem Wandel mit Innovationen zu begegnen und ihre bestehenden Marktpositionen sowie Geschäftsmodell zu stärken. Allein VW will bis 2022 34 Mrd. € in die Themenfelder Elektro-Autos, autonomes Fahren sowie der Digitalisierung im Allgemeinen investieren. Der Investitionsplan sieht bis 2030 weitere rund 20 Mrd. € für die Forschung und Entwicklung des elektrischen Fahrens vor.

Partnerschaften als Schlüssel zum Erfolg

Aufgrund der enormen technischen und zeitlichen Herausforderungen zur Entwicklung serienreifer, autonomer Fahrzeuge werden immer mehr Partnerschaften und Allianzen gegründet. Mit der Eröffnung des neuen Entwicklungszentrums für selbstfahrende Autos im April 2018 will BMW mit den Partnern Intel, Fiat-Chrysler und weiteren Technologie-Unternehmen in den nächsten Jahren vollvernetzte Serienfahrzeuge auf den Markt bringen. Dazu wurde das Entwicklungsbudget bei BMW nochmals um eine Mrd. € auf 7 Mrd. € für das Jahr 2018 erhöht. Neben BMW wollen der Automobilhersteller Daimler und der Zulieferer Bosch gemeinsam ebenfalls die Entwicklung des vollautomatisierten und fahrerlosen Fahrens vorantreiben. Ziel ist es, bis zum Jahr 2025 mit der Serienproduktion für vollautonome Fahrzeuge nach SEA Level 4 und 5 zu starten. Laut einer Studie des US-Martforschungsinstituts Navigant Research gehören Daimler und BMW zu den führenden Automobil-Herstellern im Bereich autonomes Fahren. Vor den beiden deutschen Herstellern liegen laut der Studie die Hersteller Renault-Nissan, GM und Ford.

integriertes Datenmanagement

Viele Unternehmen generieren und verwalten täglich einen großen Datenbestand. Oft werden diese Daten nicht intelligent miteinander verknüpft, wodurch Nutzen-Potentiale ungenutzt bleiben. Stattdessen erfolgt ein Kopieren von Daten und Informationen, was zu redundanter Datenhaltung, insbesondere über Bereichsschnittstellen, führt. Dieser Umstand bedingt wiederum eine mangelnde Datenqualität, die sich in inkonsistenten, veralteten und widersprüchlichen Daten äußert. Dadurch wird die Effizienz der Prozesse negativ beeinflusst und die Prozessbeteiligten sind täglich mit der manuellen Aufbereitung (Bsp.: Beschaffung, Mapping, Verknüpfung, etc.) von Daten beschäftigt.

Integriertes Datenmanagement zur Effizienzsteigerung und zur Schließung von Plan-Ziel-Lücken

Durch die Digitalisierung der Geschäftsprozesse können die generierten Daten intelligent miteinander verknüpft werden. Dabei besteht das Datenmanagement primär aus der Haltung, Verknüpfung und der Bereitstellung der unterschiedlichen, im digitalen Planungsprozess generierten Daten. Die Herausforderung des Datenmanagements besteht im Allgemeinen in den unterschiedlichen Datentypen und -quellen sowie der Vielzahl der bei der Datenhaltung und -bereitstellung beteiligten Interaktionsgruppen im Unternehmen.

Das integrierte Datenmanagement gewinnt in den Unternehmen immer mehr an Bedeutung. Die Produktivität der Geschäftsprozesse wurde über die Jahre durch das Heben von Effizienzen durch die Steigerung der Modularität, Generizität, Transparenz sowie der Integration von Prozessabläufen gesteigert. Durch die Fokussierung der Prozessorientierung und der Implementierung von Prozessmodellen wurden hoch effiziente, stabile, standardisierte und robuste Prozesse in den Organisationen verankert. Eine weiteres Steigerungspotential der Prozesseffizienz liegt in der Digitalisierung sowie der intelligenten Verknüpfung der vorliegenden Prozessoutputaten. Dadurch können die Plan-Ziel-Lücken in Bezug auf die Kosten sowie die Qualität effektiv geschlossen werden.

Nutzenpotentiale erkennen und heben – Daten intelligent verknüpfen

Zur Erreichung der zukünftigen Unternehmensziele stellt die intelligente Verknüpfung von Daten einen wesentlichen Erfolgsfaktor dar. Insbesondere die Verknüpfung von Produkt-, Prozess- und Qualitätsdaten birgt ein großes Nutzenpotential. Dadurch können die Welten der Vorgangs-Orientierung sowie der Bauteil-Orientierung in Bezug zueinander gesetzt werden. Des Weiteren können aktuelle und verbindliche Produktinformationen bereits in der Prozessplanung im Planungsprozess verwendet werden. Eine Visualisierung des Produktes inkl. Zustandsinformation kann je Arbeitsstation erfolgen. Darüber hinaus stehen immer konsistente und gültige Informationen bzgl. des Verbauortes eines Bauteils zur Verfügung. Über ein Realtime-Reporting werden schadhafte Bauteile und die verursachenden Lieferanten frühestmöglich erkannt und der verbauenden Arbeitsstation automatisch zugeordnet. Fehler im Prozess können so schneller identifiziert und Fehlerbeseitigungs- und Fehlerabstellmaßnahmen initialisiert werden. Ersatzbestellungen können unmittelbar ausgelöst und der Reklamationsprozess in Richtung Lieferant direkt initialisiert werden.