Industrie 4.0 und Big Data

Kritik einer technikzentrierten Perspektive

von Peter Brödner
September 2015

1 Einführung: Die Flut „industrieller Revolutionen“

„Industrie 4.0“ tritt zunächst und vor allem als ein medialer Hype in Erscheinung. Als Produkt postmoderner Begriffslosigkeit und Geschichtsvergessenheit wird mit der nun schon „vierten industriellen Revolution“ ein vermeintlich weiterer gesellschaftlicher Umbruch markiert, der wie seine Vorgänger Flutwellen gleich über uns hereinbricht. Das ist mit Blick auf die historische und gesellschaftliche Entwicklung der Industrialisierung eklatanter Unsinn, ignoriert diese technikzentrierte Sicht doch den viel wirkmächtigeren sozialen, organisatorischen und institutionellen Strukturwandel.

Mit dieser technikzentrierten Perspektive wird erneut einem längst widerlegten „technologischen Determinismus“ gehuldigt, demzufolge sich technische „Revolutionen“ nach ihrer eigenen Logik entwickeln und den gesellschaftlichen Wandel bestimmen. Technik wird so zum Treiber gesellschaftlicher Entwicklung erhoben und technische Mittel zur Erfüllung gesellschaftlicher Zwecke werden selbst in einen gesellschaftlichen Zweck verkehrt. Verkannt wird dabei, dass die Entwicklung technischer Systeme jedoch ihrerseits durch gesellschaftliche Bedürfnisse und Interessen bestimmt ist: Die Genese technischer Artefakte folgt sozial vermittelten Anforderungen und Interessen und ihre Verwendung stellt Handlungsanforderungen im Gebrauch. So lassen sich unter der Maske des scheinbar eigengesetzlichen technischen Fortschritts oftmals besondere Interessen verfolgen, etwa vom Eigensinn lebendiger Arbeit unabhängig zu werden (Noble 1984).

Tatsächlich besteht der nun schon 250 Jahre währende Prozess der Industrialisierung aus einem sich mehrfach wandelnden komplexen Geflecht betrieblich-organisatorischer und gesellschaftlich-institutioneller Arrangements, die auch reichlich Anlass zu technischen Neuerungen gaben. So können etwa –angetrieben durch die Konkurrenz einzelner Kapitale und die Imperative ihrer Verwertung und Akkumulation – nahezu von Beginn an zwei Ebenen der analytischen Erschließung von Naturkräften und -effekten und der Maschinisierung lebendiger Arbeit ausgemacht werden. Beide stehen in engem Zusammenhang mit betrieblicher Arbeitsteilung in kleinteilig spezialisierte Verrichtungen (horizontale Arbeitsteilung gemäß Smith (1776) und Babbage (1833) mit der Wirkung höherer Produktivität und geringerer Kosten der Arbeitskraft) und der dadurch notwendig werdenden, im Verlauf immer aufwendigeren Planung und Koordination der Verrichtungen (vertikale Arbeitsteilung durch Trennung von Planung und Ausführung gemäß Babbage und Taylor (1919)), deren Zeichenprozesse wiederum selbst Gegenstand von Maschinisierung werden:

· Mechanisierung spezialisierter Handarbeit und die zweckmäßig gesteuerte, ihrerseits produktivitätssteigernde Nutzung von Naturkräften in Prozessen der Stoff- und Energiewandlung auf Basis analytischer Durchdringung von Bewegungsabläufen,

· Maschinisierung von Kopfarbeit (zeichenbasierter Wissensarbeit) durch arbeitssparende algorithmische Verarbeitung von Signalen oder Daten in standardisierten und formalisierten Zeichenprozessen der Planung und Koordination.

Beides geht mit zunehmender „Verwissenschaftlichung von Produktion“ einher und stellt insgesamt wachsende Anforderungen an das menschliche Arbeitsvermögen, insbesondere die Fähigkeit zu produktiver Kooperation bei der Genese, Organisation und Anwendung von Produktionswissen und dessen Vergegenständlichung in Maschinen. Dabei ist maschinelle Berechnung in formalisierten Zeichenprozessen (als Kern des in der „Rationalisierung“ steckenden Begriffs „ratio“) schon früh in der Industrialisierung angelegt, auch wenn Babbage vor 170 Jahren mit seinem bis heute unverändert geltendem Konzept einer universell programmierbaren Rechenmaschine noch an deren mechanischer Realisierung scheiterte und die Verwirklichung dieser grundlegenden Ideen erst Zuse (1977) 100 Jahre später auf elektrischer Basis gelang. So kennzeichnen Brynjolfsson & McAfee (2014) in ihrem mit gewissem Recht als Manifest der gegenwärtigen Entwicklung geltenden Buch „The Second Machine Age“– dem der „semiotischen“ Maschine – deutlich treffsicherer, um was es geht, als die inflationäre Benennung „industrieller Revolutionen“.

2 Grundzüge von „Industrie 4.0“: Umbruch oder Kontinuität?

Die Realisierung von „Industrie 4.0“ stützt sich im Kern auf nicht wirklich neue wissenschaftlich-technische Grundlagen, deren Entwicklung schon lange massiv gefördert und vorangetrieben wird. Zunächst geht es um eingebettete Systeme: Das sind mittels Computern digital gesteuerte physische Prozesse, die mit Schnittstellen zum Menschen und anderen Systemen ausgestattet sind (z.B. Maschinensteuerungen, Autopiloten, Motormanagement). Neu ist hier die Idee, viele solcher digital gesteuerter Prozesse über Datenaustausch durch das Internet hochgradig horizontal und vertikal zu sog. „cyber-physicalsystems“ (CPS) zu vernetzen (was durch Erweiterung des Adressraums zum „Internet der Dinge & Dienste“ möglich ist). Das erweitert Möglichkeiten der Reorganisation von Wertschöpfung, erhöht aber auch die Risiken.

Teile dieser Systeme sollen als Multiagentensysteme (MAS, auch: „Distributed Artificial Intelligence“) betrieben werden, die aus begrenzt autonomen und lernfähigen (Software-)Agenten bestehen und über Datenaustausch zielorientiert miteinander interagieren, um durch koordinierte Aktionen auch komplexe Aufgaben zu bewältigen. Agenten nehmen dazu Daten aus der Umgebung und von anderen Agenten auf, verarbeiten sie proaktiv nach eigenen Algorithmen, zumeist mittels maschineller Lernverfahren, und geben resultierende Daten wieder nach außen ab. Mithin sind sie gekennzeichnet durch selbsttätiges, zielverfolgendes Verhalten und die Fähigkeit zur Anpassung an veränderliche Bedingungen durch maschinelles Lernen (Breadshaw 1997, Wooldridge 2002, Jeschke 2015). Dabei fallen zudem laufend große, auch gesondert nutzbare Datenmengen an.

Wichtig bleibt dabei festzuhalten: Auch wenn einzelne im Systemverbund interagierende Agenten relativ einfache Algorithmen ausführen und gut durchschaubares Verhalten aufweisen, weist das MAS insgesamt ein zwar deterministisches, aber hoch komplexes und analytisch nicht mehr bestimmbares Verhalten auf. Formal lassen sich MAS als sog. „nicht-triviale Maschinen“ (v. Foerster 1993) beschreiben, deren Ausgabedaten nicht nur von den Eingabedaten, sondern gemäß der Zustandsfunktion auch von veränderlichen inneren Zuständen abhängen, die auf vielfältige Weise die Interaktion der Agenten und deren Lernverhalten zum Ausdruck bringen. Mithin hängt das Verhalten von MAS stark von der jeweiligen Vorgeschichte ab, es ist analytisch nicht mehr bestimmbar und auch nicht vorhersehbar.

Unter der Bezeichnung Big Data wird üblicherweise die schnelle Analyse sehr großer und vielfältiger, mehr oder weniger strukturierter Datenbestände für Aktionen, Planungen und Prognosen verstanden. Die Daten können aus unterschiedlichen Quellen stammen, verschiedene Grade der Strukturierung aufweisen (Bild- oder Textdokumente, Datenbanken) und gleichwohl miteinander kombiniert analysiert werden. Dabei werden sehr große Datenvolumina (im Bereich von Tera- oder Petabyte) in großer Geschwindigkeit (mehr oder weniger in Echtzeit) verarbeitet (Klein u.a. 2013).

Diese technischen Grundlagen dienen erklärtermaßen dem Ziel, Wertschöpfungsprozesse anpassungsfähig zu gestalten, auch Einzelleistungen rentabel zu produzieren und auf Störungen flexibel zu reagieren. Freilich sind das genau die gleichen Anforderungen, die schon in den 1980er Jahren mittels computer-integrierter und wissensbasierter Produktion (CIM) erfüllt werden sollten. Heute wie damals beherrschen die technikzentrierte Sicht auf Produktion und eine Welle technikeuphorischen Überschwangs das Denken und Handeln. Auch damals ging es bereits darum, möglichst viele Komponenten rechnerunterstützter Fertigung zu vernetzen und Daten zwischen ihnen auszutauschen. Derart vernetzte Systeme wurden auch auf vielfältige Weise realisiert, allerdings wurden deren Funktionen meist, anders als beabsichtigt, auf Veranlassung durch und in Interaktion mit menschlichen Experten und deren Arbeitsvermögen genutzt (Brödner 2006).

An die Stelle wissensbasierter Expertensysteme sollen nun also bei gleicher Zielsetzung Multiagentensysteme in Gestalt hochgradig vernetzter CPS treten, um die äußerst verwickelten Koordinationsaufgaben numerisch und funktional flexibler Wertschöpfung möglichst selbsttätig zu bewältigen. Wie weit dieser neue Ansatz trägt, wird die Zukunft erweisen; zweifelhafte Erfahrungen mit Konzepten „künstlicher Intelligenz“, insbesondere kaum praxisrelevante Resultate aus über zwei Dekaden MAS-Forschung, lassen das aber als höchst fraglich erscheinen (Brödner 1997: 185ff, 2015). Das ruft Erlebnisse von Déjà-vu hervor, die anzeigen, dass aus Problemen früheren technikzentrierten Einsatzes und Gebrauchs komplexer Computersysteme in Wertschöpfungsprozessen wenig gelernt wurde. Ignoriert wird dabei das Fazit aus 25 Jahren Forschung zur Produktivität durch Computereinsatz in der Produktion, der zufolge Produktivität erst aus der Kombination mit organisationaler Restrukturierung, Aneignung und Lernen erwächst: „Um IT-Investitionen wirksam nutzen zu können, müssen die Unternehmen normalerweise umfangreiche zusätzliche Investitionen und Innovationen tätigen im Bereich von Unternehmens-Organisation, Arbeitsverfahren, Arbeitskräften und immateriellem Kapital.“ (Jorgenson u.a. 2008, S. 10; ebenso Dedrick u.a. 2003).

Höchst wirksam ist allerdings die enorme Leistungssteigerung der Digitaltechnik hinsichtlich Rechenleistung, Speicherkapazität und Bandbreite der Datenübertragung. So erscheint die „vierte industrielle Revolution“ vor allem als eine Revolution der Worte („CPS“ und „MAS“ statt vernetzter „digitaler Steuerung“), bei freilich stark gesteigerter Leistung, die früher außer Reichweite liegende Anwendungen möglich macht.

3 „Cyber-physical Systems“ und „Big Data“: Brüchigkeit der technischen Basis

So wird die neue Technikeuphorie gespeist durch enorm gesteigerte Computerleistungen und einzelne Beispiele fortgeschrittener Implementierung menschenähnlicher Fähigkeiten wie etwa das selbstfahrende Auto von Google oder die Wissensmaschine Watson von IBM, auf die sich die Botschafter der „vierten industriellen Revolution“ zum Nachweis ihrer Realitätsnähe gerne berufen, so auch Brynjolfsson und McAfee (2014).

Mit Blick auf die extrem hohen Entwicklungsaufwendungen (in der Größenordnung von tausenden Personenjahren) schwindet aber deren Überzeugungskraft rasch wieder: Jeweils ganz speziell auf die zu bewältigenden Aufgaben zugeschnitten, umfassen sie u.a. eine in jedem Detail sehr genaue dreidimensionale Kartierung der Fahrwege (einschl. ihrer – veränderlichen – Begrenzungen) im Falle des selbstfahrenden Autos oder die anwendungsspezifische Implementierung von Heuristiken und sehr großer Bestände enzyklopädischen Wissens im Falle von Watson. Zwar können grundlegende Verfahren etwa der Bildverarbeitung, der statistischen Analyse oder logischer Schlussweisen aufgabenübergreifend wiederverwendet werden, gleichwohl erfordert das Erschließen neuer Einsatzfälle aufwendige aufgaben- und kontextspezifische Entwicklungsarbeit.

In den Vorstellungen von „Industrie 4.0“ ist ausdrücklich vorgesehen, dass Menschen mit MAS interaktiv zusammenwirken. Dabei kommt es entscheidend darauf an, den fundamentalen Unterschied zwischen algorithmisch bestimmtem, selbsttätigem Verhalten von Agenten und absichtsvollem, kontextgebundenem Handeln von Menschen zu beachten. Eben darin liegt aber ein Kernproblem: Das Verhalten von MAS ist, wie gezeigt, geschichtsabhängig, daher unter gegebenen Umständen schwer zu verstehen und nicht vorhersehbar. Wie sollen Menschen sich aber solche Systeme aneignen, wie mit ihnen zweckmäßig und zielgerichtet interagieren, wenn diese sich in vergleichbaren Situationen jeweils anders und unerwartet verhalten? Das wäre ein eklatanter Verstoß gegen eine der Grundregeln der Mensch-Maschine-Interaktion, gegen die Forderung nach erwartungskonformem Verhalten. Zugleich würden auf Seiten der Nutzer stets aufs Neue überzogene Erwartungen an die „Handlungsfähigkeit“ der Systeme geschürt. Konfrontiert mit dem Erwartungsdruck erfolgreicher Bewältigung ihrer Aufgaben einerseits und dem Verlust der Kontrolle über Arbeitsmittel mit undurchschaubarem Verhalten andererseits, würden sie unter dauerhaften psychischen Belastungen zu leiden haben (Norman 1994).

Für die soziotechnische Systemgestaltung ist ferner von grundlegender Bedeutung, wie Aufgaben auf die automatisierten Systeme und die verbleibenden Menschen verteilt werden. Für diesen wesentlichen Gestaltungsaspekt wurden bereits früh anhand von qualifizierten Leitwartentätigkeiten fundamentale „Ironien der Automatisierung“ erkannt, die mit zunehmender Komplexität der technischen Systeme noch an Bedeutung gewinnen: Automatisierte Systeme wie MAS sollen möglichst weitreichend menschliche Arbeit ersetzen, deren Arbeitsvermögen aber im Störungs- oder Versagensfall der Systeme unersetzlich ist; das menschliche Arbeitsvermögen schwindet aber dahin, je weniger es im automatisierten Normalbetrieb gebraucht wird. In dieser Situation ist auf längere Sicht ein empfindlicher Verlust praktischer Handlungskompetenz zu verzeichnen, der aus ursprünglich kompetenten Nutzern am Ende hilflose, weil entwöhnte „Bediener“ werden lässt (mit ggf. katastrophalen Folgen; Bainbridge 1983, Carr 2013).

Darüber hinaus werfen Entwicklung und Gebrauch von MAS gewichtige, bislang freilich weitgehend ignorierte ethische Fragen auf: Dürfen Systeme mit derart undurchschaubarem Verhalten überhaupt von der Leine gelassen werden? Wie lässt sich dabei ein hinreichend sicherer Betrieb gewährleisten? Wer ist für allfälliges Fehlverhalten und mögliche Schäden verantwortlich und haftbar zu machen? Sind es die Entwickler oder aber die Betreiber (oder gar die Benutzer) der Systeme? Und wie lässt sich das ggf. nachweisen? Wer haftet bei Schäden als Folge unglücklicher Verkettung äußerer Umstände, wenn das System als solches funktioniert wie es soll? Aktuell gewinnen diese Fragen etwa im Zusammenhang mit selbstfahrenden Autos im öffentlichen Verkehr an Brisanz und es ist gut möglich, dass deren Zulassung letztlich an unzureichenden Antworten scheitert (Hilgendorf 2014).

Ironischerweise beruhen die gelegentlich verblüffend „intelligent“ erscheinenden Computerleistungen, entgegen den Postulaten ihrer Apologeten, gar nicht auf Konzepten der Forschung zu „künstlicher Intelligenz“, sondern einzig und allein auf enorm gesteigerter Rechenleistung. Damit wird ermöglicht, umfangreiche, einsichtsvoll und aufgabenangemessen implementierte Heuristiken mit schnellem Zugriff auf sehr große Bestände kodifizierten Wissens zu verarbeiten (sog. „Brute-force-Methoden“). Intelligent sind nicht die algorithmisch determinierten Computer, sondern deren Programmierer, die diese Möglichkeiten zur Bewältigung sehr spezifischer Aufgaben zu nutzen verstehen.

Im Zuge der Verwissenschaftlichung von Produktion und zunehmend wissensintensiver Wertschöpfung wird Wettbewerb weniger über Preise als über Qualität und vor allem Innovation ausgefochten. So sehen sich Organisationen gezwungen, in einem zunehmend dynamischen Umfeld voller Ungewissheit und geringer Planbarkeit zu agieren, was hohe Anforderungen an ihre Anpassungsfähigkeit stellt. Das ist der tiefere Grund dafür, dass ab den 1980er Jahren versucht wird, schwerfällige tayloristische Fertigungsstrukturen mit ihrer ausgeprägten horizontalen und vertikalen Arbeitsteilung und ihrer zentralen Steuerung mittels Planung, Weisung und Kontrolle durch wandlungsfähigere, an Geschäftsobjekten orientierte zellulare Strukturen mit weitgehend autonomen und auftragsgebunden, sich selbst steuernden Einheiten geringer Arbeitsteilung zu ersetzen, die höhere Produktivität und weit geringere Durchlaufzeiten aufweisen und sich für agile Produktion leichter koordinieren lassen (Brödner 2008, 2010).

Systematische Anwendung dieser Strukturierungsprinzipien führt – in Anlehnung an eine Begriffsbildung von Koestler (1967) – zu sog. „holonischen Organisationen“ als besonders entwicklungs- und anpassungsfähigen Systemen. Sie gliedern sich rekursiv über mehrere Ebenen in relativ autonome Teilsysteme („Holone“). Diese sind weder Teile im Sinne bloßer Systemkomponenten noch völlig autonome Ganzheiten. Vielmehr handelt es sich um weitgehend selbstständig operierende, sich selbst steuernde, anpassungsfähige Einheiten, die sich zu einem übergeordneten Ganzen fügen, indem sie ihre Operationen koordinieren. Jedes Holon (Organisationszelle) verfügt über die nötigen Mittel, Anpassungsmöglichkeiten und reflexiven Fähigkeiten, ihre operativen Aufgaben im Rahmen des Ganzen zu erledigen und sich veränderlichen Bedingungen anzupassen. Dementsprechend besitzt sie eine Aufgabenbeschreibung (Modell) und beobachtbare operative Ziele, sie vermag relevante Veränderungen ihrer Umwelt wahrzunehmen und ihre operativen Prozesse durch Lernen zielorientiert anzupassen im Sinne gestalterhaltender Selbstregulation und produktiven wie innovativen Umgangs mit Umweltveränderungen. Das übergeordnete System sorgt für Integration und Kohärenz, indem es die operativen Ziele und Aufgaben koordiniert, deren Erfüllung überwacht und die notwendigen Ressourcen bereitstellt (Koestler 1967, Mathews 1996). Im vorliegenden Zusammenhang sind holonische Organisationsformen bedeutsam, weil sich die Entwicklung von MAS für die Produktion stark an deren Prinzipien orientiert hat – vorerst freilich mit Resultaten von vorwiegend akademischem Interesse. Dabei führt aber die Einschränkung auf algorithmisch determiniertes Verhalten von MAS erneut in einen Reduktionismus, gegen den Koestler mit dem Holon-Konzept einst zu Felde zog.

Im Unterschied dazu wurde holonische Reorganisation – ausdrücklich mit dem Ziel, menschliches Arbeitsvermögen zu nutzen und zu entfalten – bereits seit den 1980er Jahren beim Übergang zu wissensintensiver Wertschöpfung auf breiter Front betrieben, etwa in Gestalt von integrierten Konstruktionsteams und Fertigungszellen; derart zellulare Produktionsstrukturen haben sich als hoch produktiv und innovativ erwiesen (Brödner 2006) – ganz im Einklang mit der ressourcenbasierten Sicht auf Unternehmen (Barney 1991, Grant 1996). Viele Versuche verstrickten sich freilich in den Schwierigkeiten organisationalen Wandels: In real existierenden Organisationen ist dieser mit tiefgreifenden und schwierig zu bewältigenden Veränderungen der Denkweisen, Handlungsroutinen und Machtbeziehungen verbunden, an denen bislang viele Organisationen scheitern. Schon aus diesem Grund ist der Erfolg einer auf Prinzipien holonischer Organisation beruhenden MAS-Entwicklungsstrategie fraglich.

Auch der Umgang mit Big Data wirft gleich eine ganze Reihe schwerwiegender, teils unlösbarer Probleme auf. Zunächst unterliegen die oft geäußerten Behauptungen, große Datenmengen könnten theoretisch angeleitete Forschung ablösen, allein auf Korrelationen beruhende Vorhersagen seien Hypothesen-basierten Prognosen überlegen und Korrelation ersetze Kausalität (Anderson 2008) dem alt bekannten Trugschluss „cum hoc ergo propter hoc“ („mit diesem, folglich wegen diesem“). Im Extrem führt das zu dem Wahn, in Haufen sinnloser Daten Muster zu erkennen.

Kontext- und sinnfreie Daten werden zudem ständig mit bedeutungsvoller Information aus kontextabhängiger Interpretation verwechselt, in dem Irrglauben, dass Daten allein schon Bedeutung und Geltung zukomme. Zwar lassen sich bei Kenntnis der Semantik der entsprechenden Verarbeitungsalgorithmen durch gegenstandsbezogene Kombination verschiedener Daten (z.B. in Personenprofilen) Bruchstücke von Kontext rekonstruieren und damit der mögliche Interpretationsrahmen einengen, der unvollständig rekonstruierte Kontext lässt aber immer noch ganz verschiedene (Fehl-)Interpretationen zu (Fälle fehlinterpretierter Schufa-Daten etwa legen davon eindrücklich Zeugnis ab). Zudem beschreiben Daten oft eine Realität, die durch die Beschreibung erst geformt wird: Aus deskriptiven können normative Daten, aus Häufigkeiten Gewissheiten gemacht oder interessengeleiteten Deutungen kann machtvoll Geltung verschafft werden (Boyd 2011). Mit Daten wird so Objektivität und Faktizität suggeriert, wo die tatsächliche Bedeutung sich erst aus dem vollständigen (aber nicht verfügbaren) Kontext ergäbe. Aus eben diesen Gründen gelten vor Gericht Indizienbeweise als höchst problematisch.

Große Datenbestände, die zudem aus unterschiedlichen Quellen stammen, leiden unter mangelhafter Datenqualität: Daten sind oft nicht repräsentativ, fehlerhaft, obsolet oder inkonsistent. Das Ausmaß dieser Mängel lässt sich meist nicht einmal einschätzen. Wenn der Umgang mit Big Data aber nicht anerkannten, streng methodischen Regeln statistischen Schließens folgt, muss er als pseudowissenschaftlich verbrämtes Kaffeesatzlesen angesehen werden. Wenn Daten zum „bedeutendsten Wirtschaftsgut“, zum „Rohöl des 21. Jahrhunderts“ erklärt werden, bedürfen sie wie dieses aufwendiger Raffinerie, um brauchbare Information daraus zu gewinnen.

Schließlich bereitet die mangelnde Datensicherheit große Probleme. Erhebliche Risiken ergeben sich für Unternehmen durch Datenverlust, durch Spionage von außen oder Sabotage von innen (wovon derzeit fast tägliche Berichte über „Cyber-Angriffe“ zeugen und: je mehr Daten umso begehrlicher). Es ist nicht zu verstehen, warum Unternehmen im Betrieb von CPS laufend anfallende, detailreich produkt- und prozessbezogene, mithin höchst wettbewerbssensible Datenströme diesen Risiken aussetzen. Zwar können und müssen laufend technische und organisatorische Sicherheitsvorkehrungen getroffen werden, diese schützen aber niemals hinreichend, denn jede noch so ausgeklügelte Schutzmaßnahme kann auch wieder überwunden werden.

4 Schlussfolgerung: Perspektiven der Gestaltung

Für Entwicklung, Einsatz und Gebrauch von Computersystemen in der Produktion als soziotechnischer Gestaltungsaufgabe sind – nicht durch Technik determiniert, wohl aber durch die Veränderbarkeit organisationaler Praktiken und institutionaler Arrangements begrenzt – seit jeher zwei entgegengesetzte Perspektiven im Spiel:

· Die technikzentrierte AI-Perspektive weitestgehender Automatisierung von Wissensarbeit, wie sie in den Bestrebungen zur „künstlichen Intelligenz“ (Artificial Intelligence) angelegt ist: „Smart machines“ und „autonome Agenten“, zu MAS vernetzt und mit Big-Data-Methoden kombiniert, sollen menschliches Arbeitsvermögen in der Produktion nachahmen und weitgehend ersetzen; deren begrenzte Lernfähigkeit soll gleichwohl hinreichende Flexibilität der Anpassung an wechselnde Anforderungen gewährleisten (Minsky 1988, Shoham 1993, Wooldridge 2002).

· In der praxistheoretisch angeleiteten IA-Perspektive (Intelligence Amplification) menschengerecht und aufgabenangemessen gestalteter, als Werkzeug und Medium angeeigneter und genutzter Computersysteme soll dagegen fortgeschrittene Digitaltechnik die lebendige Arbeit auf eine Weise unterstützen, dass die Entfaltung von Arbeitsvermögen, mithin gesteigerte Produktivkraft und Innovationsfähigkeit, ermöglicht und gefördert wird: „Things that make us smart“ (Norman 1993; vgl. Ehn 1988, Winograd 1996).

Die technikzentrierte Perspektive erscheint gerade auch aufgrund kümmerlicher historischer Erfahrungen mit Konzepten „künstlicher Intelligenz“, etwa mit Expertensystemen und CIM, als wenig erfolgversprechend, eher als Verschwendung von Ressourcen. Bei evidenzbasierter Betrachtung beruht der säkulare Erfolg des Einsatzes und Gebrauchs von Computersystemen stattdessen ganz überwiegend auf der praxistheoretisch angeleiteten Perspektive der „Intelligenzverstärkung“. In ihr werden menschliche Reflexions- und Anpassungsfähigkeit mit maschineller Präzision und Geschwindigkeit verknüpft. Ihr muss daher alle Aufmerksamkeit gelten, um Flexibilität mit Effizienz zu verbinden. Dabei hat sich die soziotechnische Gestaltung ganz an den Eigenheiten und Bedürfnissen menschlichen Handelns und an den Bedingungen der Entfaltung praktischen Arbeitsvermögens zu orientieren, um Produktivität und Kreativität zu ermöglichen. Gefordert sind dauerhaft kompetenzerhaltende und lernförderliche Arbeitsaufgaben, durchschau- und beherrschbare, aufgabenangemessene Arbeitsmittel mit erwartungskonformem Verhalten, sowie ausreichende Zeitressourcen zur Aneignung der Arbeitsmittel und zu laufender Optimierung von Prozessen (Brödner 2008).

Der reflexiven Dynamik der Explikation von Können als Wissen und der Aneignung von Wissen als erweitertem Können zufolge wird mit dem Einsatz von Computersystemen in Organisationen massiv in deren soziale Praktiken interveniert. Oft erweist sich praktisches Können im Gebrauch angemessen gestalteter Artefakte selbsttätig operierenden, die menschliche Expertise ersetzenden Automaten als überlegen, selbst dann, wenn die Automaten leistungsfähiger als menschliche Experten sind. So hat etwa der Schachweltmeister Kasparov ein zunächst seinem Können überlegenes Computersystem (von vergleichbarer Leistung wie „Deep Blue“ von IBM, dem er unterlag) wiederum geschlagen, indem er seinerseits ein wesentlich einfacher gestaltetes Computerprogramm als Werkzeug zu Hilfe nahm (Kasparov 2010).

Nach diesem Muster des Zusammenwirkens von Menschen und Artefakten können etwa an CPS laufend erfasste Daten als Grundlage für interaktive Assistenzsysteme mit gebrauchstauglich gestalteter Benutzungsoberfläche zur Rekonfigurierung oder Optimierung von Prozessen, zu deren wirksamer Simulation und Steuerung oder auch zur datengestützten Diagnose der CPS genutzt werden. Damit diese Interaktion gelingen kann, müssen Benutzer die Möglichkeit haben, in wählbaren Graden der Detaillierung Einblick in den Verlauf von Maschinenzuständen, in gegebene Einstellungen oder verwendete Methoden zu nehmen. Nur so können sie sich, um zweckmäßig einzugreifen, ein eigenes Bild der maschinellen Abläufe und ihrer Resultate machen. Höhere Flexibilität, Produktivität und Innovationsfähigkeit ließen sich so auf Basis entfalteten Arbeitsvermögens weit wirksamer erreichen – durch reflexive und kreative Interaktion kompetenter Experten mit gebrauchstauglich gestalteten Computersystemen.

Literatur

Anderson, C. 2008: The End of Theory, Wired 23.06.08

Babbage, C. 1833: On the Economy of Machinery and Manufactures, deutsch: Die Ökonomie der Maschine, Nachdruck der Originalübersetzung von 1833, Berlin 1999

Bainbridge, L. 1983: Ironies of Automation, Automatica 19, S. 775-779

Barney, J.B. 1991: Firm Resources and Sustained Competitive Advantage, Journal of Management 17 (1), S. 99–120

Boyd, D. 2011: Six Provocations for Big Data, www.softwarestudies.com/ cultural_analytics/ Six_Provocations_for_Big_Data.pdf [zuletzt aufgesucht am 10.02.2015]

Breadshaw, J.M. 1997: An Introduction to Software Agents. In: Breadshaw, J.M. & Hutchinson, F. (eds.): Software Agents, Cambridge (MA), S. 3-46

Brödner, P., 2015: Industrie 4.0 und Big Data – wirklich eine neuer Technologieschub? In: Hirsch-Kreinsen, H; Ittermann, P. & Niehaus J. (Hg.): Digitalisierung industrieller Arbeit. Die Vision Industrie 4.0 und ihre sozialen Herausforderungen, Berlin, S. 231-250

Brödner, P., 2010: Wissensteilung und Wissenstransformation. In: Moldaschl, M. & Stehr, N. (Hg.): Wissensökonomie und Innovation. Beiträge zur Ökonomie der Wissensgesellschaft, Marburg, S. 455-480

Brödner, P. 2008: Das Elend computerunterstützter Organisationen. In: Gumm, D. u.a. (Hg.): Mensch – Technik – Ärger? Zur Beherrschbarkeit soziotechnischer Dynamik aus transdisziplinärer Sicht, Münster, S. 39-60

Brödner, P. 2006: Betriebliche Rationalisierungsstrategien und Einsatz technischer Systeme. In: Zimolong, B.; Konradt, U. (Hg.): Ingenieurpsychologie. Enzyklopädie der Psychologie: Wirtschafts-, Organisations- und Arbeitspsychologie – Band 2, Göttingen, S. 943-980

Brödner, P. 1997: Der überlistete Odysseus. Über das zerrüttete Verhältnis von Menschen und Maschinen, Berlin

Brynjolfsson, E. & McAfee, A. 2014: The Second Machine Age. Wie die nächste digitale Revolution unser aller Leben verändern wird, Kulmbach

Carr, N. 2013: All Can Be Lost: The Risk of Putting Our Knowledge in the Hands of Machines, The Atlantic No. 11

Dedrick, J.; Gurbaxani, V. & Kraemer, K.L. 2003: Information Technology and Economic Performance: A Critical Review of the Empirical Evidence, ACM Computing Surveys 35, S. 1-28

Ehn, P. 1988: Work-Oriented Design of Computer Artifacts, Stockholm

Foerster, H.v. 1993: Wissen und Gewissen, Frankfurt/M.

Grant, R.M. 1996: Toward a Knowledge-based Theory of the Firm, Strategic Management Journal 17, S.109-122

Hilgendorf, E. 2014: Recht, Maschinen und die Idee des Posthumanen, Telepolis 24.05.2014

Jeschke, S. 2015: Auf dem Weg zu einer „neuen KI“: Verteilte intelligente Systeme, Informatik Spektrum 38 (1), S. 4-9

Jorgenson, D.W.; Ho, M.S. & Stiroh, K.J. 2008: A Retrospective Look at the U.S. Productivity Growth Resurgence, Journal of Economic Perspectives 22 (1), S. 3-24

Kasparov, G. 2010: The Chess Master and the Computer, The New York Review of Books 11.02.2010

Klein, D.; Tran-Gia, P. & Hartmann , M., 2013: Big Data, Informatik Spektrum 36 (3), S. 319-323

Koestler, A.1967: The Ghost in the Machine, London

Mathews, J.A.1996: Holonic Organisational Architectures, Human Systems Management 15 (1), S. 27-54

Minsky, M. 1988: The Society of Mind, New York

Noble, D.F., 1984: Forces of Production. A Social History of Industrial Automation, New York

Norman, D.A. 1994: How Might People Interact with Agents, CACM 37 (7), S. 68-71

Norman, D.A. 1993: Things that Make Us Smart, Reading (MA)

Shoham, Y. 1993: Agent-Oriented Programming, Artificial Intelligence 60, S. 51-92

Smith, A., 1776: Eine Untersuchung über Wesen und Ursachen des Volkswohlstandes, Republikation, 2 Bde., Gießen 1973

Taylor, F.W., 1919: Die Grundsätze wissenschaftlicher Betriebsführung, München Berlin

Winograd, T. 1996: Bringing Design to Software, Reading (MA)

Wooldridge, M. 2002: An Introduction to Multi-Agent Systems, New York

Zuse, K., 1977: Beschreibung des Plankalküls, München

Downloads