Bildschirmfoto 2018-12-12 um 15.53.08
| von Markus Stier

Warum klettert der Mensch auf Berge? „Weil sie da sind“, hat der englische Bergsteiger George Mallory gesagt, bevor er am Mount Everest verschwand. Und warum sammelt der Mensch? Weil er es kann. Es ist ein weit verbreiteter Mythos in der Stammesgeschichte des Homo sapiens, dass wir vor etwa 12.000 Jahren unser unstetes Leben als Jäger und Sammler beendeten und sesshaft wurden. In Wahrheit haben wir mit dem Jagen und vor allem dem Sammeln nie aufgehört. Ackerbau und Viehzucht haben es dem Menschen ermöglicht, seinen Sammeldrang erst richtig auszuleben. Mit dem Ende des Nomadentums und der Produktion von Überschüssen aus der Landwirtschaft brachen sich Besitzstreben, Spezialisierung und immer differenziertere Gesellschaften erst richtig Bahn. Wir nennen das Zivilisation. Das Sammeln ist bis heute eines unserer größten Laster, aber auch einer der wichtigsten Antriebe für Innovationen. Als Konrad Zuse und Alan Turing den Computer ersannen, ging es ihnen maßgeblich darum, komplizierte und langwierige Rechenaufgaben deutlich schneller zu lösen, als es dem menschlichen Gehirn möglich ist. Die Erfindung der elektrisch betriebenen Rechenmaschine zeigt aber auch, dass der Mensch von Anfang an versuchte, sie nach seinem Abbild zu schaffen. Zunächst galt es, ihr Denkfähigkeit und Intelligenz einzuimpfen. Weil wir aber bis heute die kreativen und abstrakten Prozesse von Vorstellungskraft und vorweggenommener Problemlösung nur bedingt verstehen, behelfen wir uns mit Logik und Mathematik. Wir versuchen, die Maschine mit Hilfe von Formeln intelligenter zu machen, sind dabei aber nur leidlich erfolgreich.

Um komplexe Probleme anzugehen, braucht es zunächst einen möglichst großen Erfahrungsschatz und viele Informationen – das, was wir Wissen nennen. Um möglichst viel zu wissen, benötigen wir ein großes Gehirn. Wir arbeiten also ständig an Datenspeichern mit immer größerer Kapazität. Und weil das schon seit Turings Anfängen für Platzprobleme sorgt, versuchen wir zudem, diese Speicher immer kompakter zu machen. Mit Erfolg: Ein gängiger 286er-Rechner aus der Frühzeit des Heimcomputers hatte eine Speicherkapazität von etwa 20 Megabyte, das entspricht heute der Datenmenge eines einzigen digitalen Bildes im Raw-Format. Auf eine aktuelle Kameraspeicherkarte mit acht Gigabyte passen schon 400 Raw-Bilder, auf ein Smartphone mit 36-Gigabyte-Speicher theoretisch 1.800. Eine herkömmliche externe Festplatte bietet für etwa 80 Euro zwei Terabyte, das entspricht 2.000 Gigabyte. Die weltweit generierte Menge an digitalen Daten betrug 2016 geschätzte 16 Zettabyte. Laut einer Studie des amerikanischen Festplattenherstellers Seagate und des IT-Marktbeobachters IDC wird im Jahr 2025 die weltweit generierte Menge an digitalen Informationen 163 Zettabyte betragen – das ist eine 163 mit 21 Nullen. Eine weitere Prognose der Untersuchung: Der Großteil der Daten wird nicht wie bisher von privaten Nutzern generiert, sondern von Unternehmen.

Solch monströse Zahlen und die aktuelle Entwicklung sorgen einerseits für staunende Bewunderung, andererseits für wachsende Besorgnis. Galten Google und Facebook vor wenigen Jahren noch als die Innovationsmotoren der Menschheit, sind die Giganten des Silicon Valley heute immer öfter als Datenkraken verschrien. Ganz zu schweigen von den Geheimdiensten: Die Stasi füllte in vier Jahrzehnten 48.000 Aktenschränke über 15 Millionen DDR-Bürger. Peanuts, verglichen mit der Serverfarm, die die amerikanische NSA bei Salt Lake City auf die grüne Wiese gesetzt hat. Deren fünf Zettabyte (fünf Billiarden Megabyte) Datenvolumen würden laut einer Berechnung der Agentur Open Data City ausgedruckt 42 Billiarden Aktenschränke füllen. Schon Honeckers Schnüffler hätten zwei Allianz-Arenen gefüllt, die Schlapphüte des Digitalzeitalters würden 17 Millionen Quadratkilometer zustellen, also die gesamte USA und Australien noch dazu. Solche Mengen wollen aber erst einmal verarbeitet sein. Intel-Mitbegründer Gordon Moore postulierte 1965 das Prinzip, nachdem sich die Komplexität integrierter Schaltkreise regelmäßig in einem bis zwei Jahren verdopple. Das Moore’sche Gesetz gilt noch immer. Die Erfahrung lehrt, dass sich die Leistung von Computerchips alle 20 Monate verdoppelt. Moore selbst sagte vor einem guten Jahrzehnt voraus, dass jenes Gesetz vermutlich gegen 2020 seine Gültigkeit verlieren werde. Bei Intel ist man freilich zuversichtlich, dass man die Verdoppelungsgeschwindigkeit noch deutlich länger beibehalten kann. In-Memory-Datenbanken sind mit gigantisch großen Arbeitsspeichern ausgestattet, die durchaus 100 Terabytes und größer sein können. Die Computer müssen nicht mehr mühsam die Festplatten absuchen, um wichtige Informationen zu finden, die Daten liegen abrufbereit im Arbeitsspeicher. Unserer Sammelwut sind also bis auf Weiteres keine Grenzen gesetzt, weil es uns möglich ist, die Grenzen pausenlos zu verschieben. Doch gerade die digital massiv aufgerüsteten Geheimdienste müssen schmerzhaft erkennen, dass sie mit der auf Quantität ausgerichteten Informationsmasse nur begrenzt erfolgreich sind. Die Nadel ist nicht leichter zu finden, wenn man den Heuhaufen immer größer macht.

In der Steinzeit war der erfolgreichste Mensch der beste Jäger und Krieger. Zukunftsforscher haben bereits vor drei Jahrzehnten vorausgesagt, dass der erfolgreichste Mensch im Informationszeitalter derjenige sein wird, der Wichtiges von Unwichtigem unterscheiden kann. Wer nach einem dreiwöchigen Urlaub erstmals wieder sein E-Mail-Postfach öffnet, erkennt das Problem. Es ist nicht so, dass es der Gattung Homo sapiens an Kapazität fehlen würde. Laut Hochrechnungen passen in ein menschliches Gehirn um die 2,5 Petabyte, was 2.500 Terabyte entspräche. Aber eine große Schwäche des Menschen ist zugleich eine große Stärke: das Setzen von Prioritäten. Unser Gehirn kann sich nur auf eine Sache richtig konzentrieren: auf das Wesentliche. Und auch unsere Festplatte ist klar nach Prioritäten organisiert. Der Mensch merkt sich Dinge, die für ihn wichtig sind, behält diese Informationen auf Abruf. Den Rest lässt er weitgehend unbeachtet links liegen. Wir nennen diesen Prozess „Vergessen“ – und genau das sollen Computer nun auch lernen. Dem Informatiker Christoph Beierle ist der schlechte Ruf dieses Phänomens schon länger ein Dorn im Auge: „Das Vergessen ist negativ besetzt und wir ärgern uns darüber. Dabei ist es für die menschliche Informationsverarbeitung sehr hilfreich.“ Der Professor für wissensbasierte Systeme an der Fernuniversität Hagen hat zusammen mit seinen ebenfalls habilitierten Kollegen Gabriele Kern-Isberner (Technische Universität Dortmund) und Marco Ragni (Universität Freiburg) das Projekt FADE („Forgetting through Activation reDeduction and Elimination“) ins Leben gerufen. Informatiker, Psychologen und Wirtschaftswissenschaftler wollen künstlicher Intelligenz das Vergessen beibringen, indem sie den Menschen als Vorbild nehmen. Der Kampf gegen den immer schwerer beherrschbaren Datenwust steht zunehmend im Fokus der Wissenschaft. FADE ist eines von acht Forschungsthemen, das die Deutsche Forschungsgemeinschaft mit 670.000 Euro fördert.

wp-image-64498" src="files/upload/post/ait/wp-content/uploads/2018/12/Bildschirmfoto-2018-12-12-um-15.52.23.png" alt="" width="1258" height="870" srcset="files/upload/post/ait/wp-content/uploads/2018/12/Bildschirmfoto-2018-12-12-um-15.52.23.png">Klar: Der Verlust von Daten ist in der digitalen Welt ein alltägliches Phänomen. Beim Kopieren werden Dateien beschädigt, Datenträger sind nicht mehr lesbar, eine neue Software ist mit älteren Dateiformaten nicht kompatibel und so weiter. Entscheidend ist die Frage, was erhalten und was verloren gehen soll. FADE soll durch intentionales – also unbewusstes, aber gezieltes – Vergessen Wissen priorisieren, komprimieren und kontraktieren. Als Vorbild dient ein Modell aus der Psychologie: ACT-R (Adaptive Control of Thought-Rational) beschreibt eine kognitive Architektur, in der verschiedene Puffer im Gehirn Informationen speichern, die auch verschoben werden können, je nachdem wie aktuell oder bedeutend sie sind. „Sie erinnern sich sicher noch daran, was Sie gestern gegessen haben, und das kann im Fall einer Krankheit von Bedeutung sein. Aber sie erinnern sich wohl kaum, was Sie vor einem Jahr gegessen haben“ , sagt Christoph Beierle. Unser Gedächtnis ist gnädig. Es schwächt negative Erfahrungen ab, hebt positive hervor. Nur wenige Menschen leiden unter einem Defekt, der es ihnen ermöglicht, jeden Tag ihres Lebens exakt abzurufen, mit allen damit verbundenen Emotionen – guten wie schlechten. Im Normalfall aber fallen viele unbedeutende, weit zurückliegende oder lange ungenutzte Informationen unter eine Schwelle, auf die wir keinen Zugriff mehr haben.

Damit bleibt das Gehirn trotz aller Forschung immer noch ein rätselhafter Kosmos. Warum können wir uns den Titel eines 40 Jahren alten Liedes mitsamt dem Interpreten merken, obwohl wir den Song nicht einmal mögen? Warum vergessen wir aber Hochzeitstage, durchaus wichtige Telefonnummern oder Passwörter? Beierle hat dafür auch keine Erklärung und mahnt: „Der Mensch ist unter den Lebewesen schon ziemlich erfolgreich. Wir sollten uns auf die positiven Effekte konzentrieren.“ Das Knifflige an der Aufgabe ist, den komplexen kognitiven Prozess beim Menschen für den Computer in formale Vergessensoperatoren zu übersetzen, also in mathematische Vorschriften. „Vergessen hat ganz viele Aspekte“, sagt Beierles wissenschaftlicher Mitarbeiter Kai Sauerwald: „Ich vergesse alles zu einem bestimmten Thema, nur einen Teil oder ich kann mich erinnern, dass ich mal etwas wusste. Habe ich vergessen, dass ich einen Schlüssel besitze – oder habe ich nur vergessen, wo ich ihn hingelegt habe? Das ist ein fundamentaler Unterschied!“ Informationen liegen oft unterschiedslos vor, sind also nicht in irgendeiner Weise bewertet, etwa nach ihrer Wichtigkeit. Bei der Suche nach bestimmten Informationen muss immer mehr Älteres, Irrelevantes oder selten Gebrauchtes aufwendig herausgefiltert und Relevantes zusammengeführt werden. Abhilfe schaffen soll „gezieltes Vergessen“ unwichtiger Daten. Sie sollen künftig anhand ihrer Relevanz automatisch mit Prioritäten versehen werden können. Diesen Job übernimmt ein „intelligenter Agent.“ Das autonom agierende Softwaresystem hat einen gewissen Wissenszustand, kennt bestimmte Fakten, kann etwas lernen und ist dazu in der Lage, Schlussfolgerungen zu ziehen. Ändern sich zum Beispiel die Produktionsprozesse in einer zunehmend maschinisierten Industrie, müssen alle Systeme und alle menschlichen Mitarbeiter mit den neuen Abläufen vertraut sein. Wird das alte Verfahren einfach überschrieben, können Fehler fatale Folgen haben. Beierle vergleicht: „Sie fahren mit dem Auto in Großbritannien, biegen ab – und finden sich plötzlich auf der gewohnten rechten Straßenseite wieder.“

Soll der intelligente Agent also bestimmtes Wissen vergessen, ist es unter Umständen möglich, dass er dieses durch Schlussfolgerungen aus seinem noch vorhandenen Wissen wieder­herstellen kann. Auch das müssen die Forschenden berücksichtigen. Der Agent muss also nicht nur ein bestimmtes Wissenselement löschen, sondern darüber hinaus auch solche Elemente, mit denen er dieses später wieder rekonstruieren könnte – mehr aber auch nicht. Es kommt also darauf an, genau das Richtige zu vergessen.

Dass ein Passwort selten benutzt wurde, heißt nicht, dass es nicht mehr benötigt wird. Andererseits könnte ein Mailprogramm durchaus erkennen, dass eine einmal falsch eingetippte Adresse kein zweites Mal aufgerufen wurde und diese Option offensichtlich überflüssig ist. Der intelligente Agent sollte auch den Zeitfaktor im Blick haben. Melden sich an der TU Dortmund regelmäßig Studenten beim Helpdesk, weil sie ihr Semesterticket nicht ausdrucken können, hätte das System eine Flut von möglichen Gründen parat. Die Erfahrung lehrt aber, dass sich die Lösung meist auf wenige Ursachen eingrenzen lässt – etwa dass die Studenten noch nicht im System registriert sind oder den Studienbeitrag noch nicht oder erst kürzlich entrichtet haben. Zu völlig veralteten Betriebssystemen braucht das Helpdesk keine Fragen mehr beantworten können, Dokumente, deren vorgeschriebene Aufbewahrungszeit abgelaufen ist, können oder dürfen gar aus datenschutzrechtlichen Gründen nicht mehr abrufbar sein. So können einige Informationen gezielt eine niedrigere Priorität erhalten, vergessen oder gelöscht werden, was nicht das Gleiche bedeutet. Die Forschung steht erst am Anfang. „Wir müssen erst einmal wissen, was Vergessen überhaupt ist“, sagt Christoph Beierle.

Während man in Hagen, Dortmund und Freiburg das Design des Menschen studiert, um Daten zu reduzieren, arbeitet der Bioinformatiker Yaniv Erlich in die Gegenrichtung. Seinem Team ist es an der New Yorker Columbia-Universität gelungen, riesige Datenmengen dauerhaft zu speichern – mit Hilfe von DNA. In nur einem Gramm der in den Chromosomen aller Lebewesen vorkommenden Biomoleküle lassen sich laut Erlich 215.000 Terabyte speichern. Kühl und trocken gelagert, liegt die Haltbarkeit bei hunderttausenden von Jahren. Diesen Beweis hat die Wissenschaft schon angetreten. Biologen extrahierten intakte DNA aus den Knochen von Frühmenschen, die vor 430.000 Jahren im heutigen Spanien lebten – 418.000 Jahre bevor ihre Nachfahren nach allgemeiner Lesart aufhörten, Jäger und Sammler zu sein.

Fotos: iStockphoto/BlackJack3D, SIphotography

Der Eintrag "freemium_overlay_form_ait" existiert leider nicht.