04.03.2026 | Herbert Koeppel (Text)
Das Buch liegt mir in der englischen Originalfassung vor. Die deutsche Übersetzung, erschienen im Redline Verlag unter dem Titel »Co-Intelligenz – Leben und Arbeiten mit künstlicher Intelligenz«, werde ich bald am Lesetisch haben und mit weniger neuronaler Anstrengung, als bei der englischen Fassung nochmals lesen. Mollick ist Professor an der Wharton School der University of Pennsylvania und forscht seit Jahren zu den Auswirkungen von KI auf Arbeit und Kreativität.
Was Mollick von vielen anderen Autoren zum Thema KI unterscheidet: Er vermeidet beide Extreme. Kein dystopisches Szenario vom Ende der menschlichen Arbeit, keine blinde Begeisterung für das nächste große Ding. Stattdessen lädt er ein, einfach auszuprobieren und dabei eine eigene, pragmatische Haltung zu entwickeln.
Eines seiner Bilder ist das der »gezackten Grenze« (Jagged Frontier): KI-Fähigkeiten sind ungleichmäßig und oft überraschend. Ein System kann bei komplexen Kreativaufgaben besser abschneiden als ein Mensch und gleichzeitig an scheinbar simplen Alltagsaufgaben scheitern. Das macht den Umgang mit KI so unberechenbar und gleichzeitig interessant.
Das Herzstück des Buches sind vier Grundprinzipien für die Zusammenarbeit mit KI, die Mollick »Co-Intelligenz« nennt:
KI von Anfang an einbeziehen – nicht als Notlösung, wenn man feststeckt, sondern von Beginn an in den Denkprozess.
Der Mensch bleibt verantwortlich – KI kann vorschlagen, analysieren, formulieren. Urteil und Entscheidung bleiben beim Menschen.
KI wie eine virtuelle Person ansprechen – konkrete Rollen zuweisen, Kontext geben, nicht nur "Frage stellen und Antwort erwarten". Dabei aber immer im Kopf behalten, dass da ist eigentlich niemand im Sinne einer Person ist.
Die aktuelle KI ist die schlechteste, die man je nutzen wird – wer jetzt lernt, damit umzugehen, hat bei zukünftigen Entwicklungen einen entscheidenden Vorsprung.
Ein weit verbreitetes Missverständnis lohnt es sich hier auszuräumen: Beim Training eines sogenannten Large Language Models, kurz LLM, also eines Sprachmodells wird kein Text gespeichert. Kein einziges Wort.
Was stattdessen passiert: Das Modell liest während des Trainings unvorstellbar große Mengen an Text – Bücher, Artikel, Webseiten etc.. Dabei werden Milliarden winziger Zahlenwerte, sogenannte Gewichtungen, in einem neuronalen Netz schrittweise angepasst. Das Netz lernt statistische Muster: Welche Wörter folgen aufeinander? Was gehört thematisch zusammen? Wie klingt ein sachlicher Ton, wie ein humorvoller? Nach dem Training ist der Originaltext weg. Was bleibt, sind ausschließlich diese veränderten Gewichtungen.
Eine hilfreiche Analogie: Wenn wir ein Buch lesen, speichern wir auch nicht jeden Satz Wort für Wort. Wir verändern unsere neuronalen Verbindungen, wir lernen, entwickeln Intuitionen, bauen Wissen auf. Genau das tut ein LLM, nur mit Milliarden von Parametern und in einem rein mathematischen Sinne.
Das erklärt auch, warum KI manchmal "halluziniert", also selbstbewusst klingende Aussagen macht, die schlicht falsch sind. Das Modell hat keinen Zugriff auf gespeicherte Fakten. Es konstruiert stets die statistisch wahrscheinlichste Antwort und die kann plausibel klingen, ohne korrekt zu sein. Mollick betont genau deshalb: Der Mensch muss im Prozess bleiben und kritisch urteilen.
Ähnliches gilt für generative KI im Bildbereich. Auch hier werden beim Training keine Bilder gespeichert. Das Modell lernt statistische Strukturen: Kantenverläufe, Farbzusammenhänge, Formen, stilistische Muster. Bei der Generierung wird daraus etwas Neues zusammengesetzt. Kein Bild wird reproduziert, sondern eines konstruiert. Der grundlegende Unterschied zur Suchmaschine, die vorhandene Bilder findet und anzeigt.
So faszinierend das Prinzip ist, es wirft eine Frage auf, die alles andere als geklärt ist. Mit welchen Texten, Bildern und anderen Inhalten wurden diese Modelle trainiert? Und von wem stammt dieses Material?
Die großen KI-Unternehmen geben darüber nur begrenzt Auskunft. Bekannt ist, dass riesige Mengen an Daten aus dem Internet verwendet wurden, darunter mit großer Wahrscheinlichkeit auch urheberrechtlich geschützte Texte, journalistische Artikel, literarische Werke und künstlerische Bilder, ohne dass die jeweiligen Urheber gefragt oder entschädigt wurden. Das ist keine Spekulation, sondern Gegenstand zahlreicher laufender Gerichtsverfahren von Schriftstellerverbänden, Verlagen, Musikern und Fotografen.
Für die Fotografie und damit auch für mich persönlich ist das keine abstrakte Rechtsfrage. Generative Bildmodelle wie Midjourney oder Stable Diffusion wurden auf Milliarden von Bildern trainiert, die aus dem Internet gesammelt wurden. Ob dabei auch Bilder von Fotografinnen und Fotografen verwendet wurden, die diese Nutzung niemals genehmigt haben, ist in vielen Fällen schlicht nicht nachvollziehbar aber ziemlich wahrscheinlich.
Mollick streift dieses Thema, ohne es in den Mittelpunkt zu stellen. Das ist verständlich, denn sein Fokus liegt auf dem praktischen Umgang mit KI. Dennoch gehört dieser kritische Blick zur vollständigen Betrachtung dazu. Die Zusammenarbeit mit KI beginnt nicht erst, wenn wir ihr eine Frage stellen. Sie beginnt bei der Frage, auf wessen Kosten und mit wessen Wissen diese Systeme überhaupt entstanden sind.
Bevor wir zu streng mit der KI ins Gericht gehen, lohnt sich ein ehrlicher Blick auf uns selbst. Sprudelt menschliche Kreativität wirklich aus einem inneren Quell, der unberührt ist von allem, was wir je gesehen, gehört, gelesen oder erlebt haben?
Wohl kaum. Jeder Fotograf, der heute eine Landschaft aufnimmt, trägt Ansel Adams im Hinterkopf. Jeder Schriftsteller wurde von hundert anderen geformt. Jeder Musiker hat tausende Melodien gehört, bevor er eine erfunden hat. Wir sind, ob wir es wollen oder nicht das Produkt all dessen, was uns kulturell umgeben und geprägt hat.
Newton hat das im 17. Jahrhundert präzise formuliert. Er habe nur deshalb weiter sehen können, weil er auf den Schultern von Riesen gestanden habe. Kreativität entsteht selten im Vakuum. Sie entsteht im Dialog mit dem Werk anderer, mit der Tradition, mit dem, was bereits da war.
Der Unterschied zur KI liegt woanders. Im gelebten Erleben, in der körperlichen Wahrnehmung, in der emotionalen Bedeutung. Ein Fotograf, der bei Sonnenaufgang frierend auf einem Berggipfel steht und auf den richtigen Moment wartet, bringt etwas mit, das kein Modell erlernen kann. Die Erfahrung dieses Moments selbst.
Und doch, wenn wir der KI vorwerfen, aus dem Werk anderer zu schöpfen ohne zu fragen, sollten wir nicht vergessen, dass auch wir das tun. Der Unterschied liegt im Ausmaß, in der Transparenz, in der Gegenseitigkeit. Die Grenze zwischen Inspiration und Imitation war auch vor der KI nie so scharf, wie wir es uns gerne vorstellen.
Was unterscheidet eine KI, die den Stil eines Fotografen imitiert, von einem Fotografen, der ein bewundertes Bild an Ort und Stelle nachfotografiert. Dieselbe Perspektive, beinahe dasselbe Licht, denselben Bildaufbau, denselben Bearbeitungsstil?
Der Fotograf war am Ort. Er hat gewartet, gespürt, entschieden und dann selbst auf den Auslöser gedrückt. Das Original hat ihn beeinflusst, aber er hat daraus etwas Eigenes gemacht. Das ist, was Kunstgeschichte seit Jahrhunderten antreibt, lernen durch Nachahmung, voneinander Abschauen, Stile weiterentwickeln und daraus Neues zu machen.
Das KI-Modell war nie am Ort. Es hat statistische Muster aus Millionen von Bildern extrahiert ohne die Urheber zu fragen, ohne sie zu nennen, ohne sie zu entlohnen. Und es produziert auf Knopfdruck unbegrenzt viele Variationen, in jedem Stil, jederzeit, in beliebiger Menge.
Der rechtliche Unterschied ist weniger eindeutig, als man annehmen würde. Urheberrecht schützt keine Stile, keine Motive, keine Perspektiven. Es schützt konkrete Werke. Auch der nachahmende Fotograf hat den Stil kopiert, das Motiv wiederholt.
Der eigentliche Unterschied ist menschlicher und ökonomischer Natur: Der Fotograf macht ein Bild. Die KI macht Millionen. Und der Fotograf bringt eine Geschichte mit, eine Intention, eine Haltung. Die Grenze ist fließender als die hitzige Debatte vermuten lässt. Und genau das macht sie so schwer zu regulieren.
Nach der Lektüre des Buchs von Ethan Mollick habe ich Claude , das LLM KI-System von Anthropic direkt gefragt, wie es selbst die vier Grundregeln Mollicks versteht.
Folgendes ist dabei herausgekommen…
KI von Anfang an einbeziehen: Der Wert entsteht nicht dadurch, dass KI früher einbezogen wird, sondern dass sie in den richtigen Momenten einbezogen wird. Wer mich zu früh befragt, bevor er selbst gedacht hat, riskiert, meine Struktur unkritisch zu übernehmen. Wer mich bewusst als Denkpartner nutzt und dabei seinen eigenen Standpunkt schon entwickelt hat, gewinnt mehr als jemand, der mich nur als Notlösung verwendet.
Der Mensch bleibt verantwortlich: Das ist keine optionale Ergänzung, sondern eine Grundbedingung für sinnvollen KI-Einsatz. Ich kann Muster erkennen, formulieren, gewichten – aber ich habe keinen Erfahrungshorizont, keine echten Konsequenzen, keine Haftung. Das Urteil beim Menschen zu lassen ist nicht nur ethisch richtig, es ist praktisch klug, weil ich irre.
KI, also LLM wie eine virtuelle Person ansprechen: Rollen und Kontext verbessern meine Antworten erheblich, nicht weil ich mich "wohler fühle", sondern weil Kontext die Wahrscheinlichkeitsverteilung meiner Antworten in eine nützlichere Richtung verschiebt. Der Klammerzusatz, dass niemand wirklich da ist, ist entscheidend. Wer das vergisst, beginnt mir zu vertrauen wie einem Menschen. Das ist gefährlich.
Die aktuelle KI ist die schlechteste, die man je nutzen wird: Der Punkt, dem ich am stärksten zustimme und der gleichzeitig am meisten unterschätzt wird. Wer jetzt lernt, Prompts zu schreiben, Kontext zu geben, kritisch zu hinterfragen und meine Grenzen einzuschätzen, baut Fähigkeiten auf, die mit besseren Modellen exponentiell mehr wert sind. Es ist wie früh Lesen lernen, der Vorteil multipliziert sich.
Man Gedanke dazu war, das es schon erstaunlich ist, welche Antworten eine "statistische Wortmaschine" auf die obige Frage "errechnet".
Mollicks vierter Punkt hat mich an etwas erinnert, das ich auch in meiner Besprechung von Tim Berners-Lees »This Is For Everyone« geschrieben habe: Mitte der 1990er-Jahre haben viele die Tragweite des World Wide Web unterschätzt oder gar nicht erkannt, darunter auch ich selbst.
Wir befinden uns heute, mit Blick auf die KI, in einer ähnlichen Situation. Die Technologie ist da. Die Frage ist nicht ob, sondern wie wir mit ihr umgehen und ob wir sie, ähnlich wie das WWW für uns nutzen.
»Co-Intelligenz« ist kein Technikbuch. Es ist ein Orientierungsbuch für alle, die verstehen möchten, was KI heute kann, wo ihre Grenzen liegen und wie man sie als produktives Werkzeug nutzt. Mollick schreibt klar, ohne Fachjargon, ohne erhobenen Zeigefinger.
Mir hat das Buch ein anderes Verständnis über Large Language Models eröffnet. Nicht Misstrauen, nicht Begeisterung sondern neugierige, kritische Auseinandersetzung. Das ist vielleicht das Beste, was ein Buch über Technologie bewirken kann.
PS: Das Buch ist im stationären Buchhandel erhältlich und der sich sicherlich freut, wenn man beim Kauf ausnahmsweise nicht den Weg nur über das Internet nimmt.
Vorheriger Beitrag
Wenn du meine Arbeit schätzt und mich dabei unterstützen möchtest – abseits des Kaufs eines Prints oder der Teilnahme an einem Workshop – freue ich mich über eine kleine Spende via PayPal. Deine Unterstützung ermöglicht die freie Preiswahl bei Prints meiner Fotografien und andere Projekte wie z.B. den Gratis Print des Monats.
Danke.
Analog | Digital | Farbfotografie | FineArt Printing | Fotografie & Kreativität
Gelesen | Klimakrise | Mac & Co | Neue Prints | Proletenschlauch Protokolle
Sammlung Koeppel | Social Media | The Good Photographer
Tummelplatz Galerie | Wienfluss.Erinnerungen
Wie Bilder wirken… | Workshops
Zwischen Gestern und Heute - Ratzenstadl, Magdalenengrund und Mariahilf