Kultur
26.04.2017

"Die Zukunft kommt viel schneller, als wir gedacht haben"

Der Futurist Gerd Leonhard erklärt im Interview, dass uns die Zukunft weniger vor technologische als vor moralische Herausforderungen stellt.

"Wir werden in zwanzig Jahren an dem Punkt angelangt sein, wo fast nichts mehr unmöglich ist", sagt Gerd Leonhard im Gespräch mit dem KURIER. Der deutsche Futurist und Humanist sprach beim 4GameChanger-Festival am Dienstag in Wien über das Thema "Technologie vs. Mensch".

Bei seiner Arbeit hält er es mit einem Zitat des Sci-Fi-Kultautors William Gibson: "Die Zukunft ist bereits hier, sie ist nur ungleichmäßig verteilt." Anders gesagt: "Die meisten Sachen, die wir in fünf Jahren sehen werden, sind schon hier. Wir müssen sie nur suchen und aufnehmen." Leonhard, der sich nicht Zukunftsforscher nennen will (siehe Interview unten), sucht unablässig nach diesen Dingen. "Grundsätzlich bin ich ein Optimist", sagt er, "mit diesen Technologien können wir einen Lebensraum erreichen, der viel besser, menschlicher und freier ist. Aber wir müssen wirklich an einem Strang ziehen, um diese Technologien zu beherrschen". Es gehe darum, sich auf eine globale digitale Ethik zu einigen.

Lesen Sie das gesamte Interview mit Gerd Leonhard

Drei große Zukunftsthemen

Drei schwierige Themenkomplexe sieht Leonhard auf uns zukommen: Künstliche Intelligenz, Genmanipulation und Geo-Engineering (Eingreifen u.a. ins Wettergeschehen, Anm.). "Man muss bedenken, dass Technologie zur mächtigsten Kraft der Gesellschaft geworden ist", daher gelte es zu überlegen, nicht alles zu machen, "nur weil es effizient ist oder weil es geht", sagt Leonhard. "Wir können wahrscheinlich in 15 bis 20 Jahren durch Genmanipulation den Krebs besiegen. Aber wir sollten dafür sorgen, dass mit der gleichen Technik nicht Supersoldaten gezüchtet werden." Eine solche Dynamik sieht Leonhard parallel zu den Atomwaffen-Arsenalen als große Bedrohung: "Wir brauchen nicht viel Material, um einen intelligenten Roboter zu bauen, der mit bösen Absichten bestückt ist. Wenn wir uns da nicht einig werden, was erlaubt ist und wer das kontrolliert, ist in fünfzig Jahren Game Over für uns."

Zu den aktuellen Gefahren zählt der Autor einen "vollkommen fehlgeleiteten" US-Präsidenten. Dieses Thema werde sich aber schon dieses Jahr von selbst erledigen, prognostiziert er, "weil Trump für alle Beteiligten immer mehr zur Last wird".

Was wollen wir?

Die Zukunftsfrage sei eine andere, viel globalere. Bisher hieß es: Was geht überhaupt und was kostet es? Nun aber gelte es zu definieren: Was wollen wir überhaupt?

"Im ursprünglichen griechischen Sinne ist das menschliches Glück. Und nicht, ein Werkzeug zu werden," erklärt Leonhard. "Und wenn wir das wollen, müssen wir alles, was wir erfinden, an diesem Ziel messen. Wir sollten Technologie umarmen, aber nicht Technologie werden."

LINK: Gerd Leonhard im Internet

Wenn wir wie Roboter arbeiten, werden wir keine Arbeit mehr haben

Warum nennen Sie sich Futurist und Humanist, und nicht Futurologe?

Gerd Leonhard: Das deutsche Wort Zukunftsforscher hört sich so akademisch an. Ich sage die Zukunft nicht voraus, sondern beobachte die offensichtlichen Dinge, die bereits die Zukunft zeigen. Und schaue, was in fünf bis sieben Jahren wahrscheinlich wird. Sachen, die eigentlich jeder schon sieht, nur keiner die Zeit hat, sich das im Detail anzuschauen. Humanist deswegen, weil für mich die Bedeutung von Technologe nicht in sich selber liegt, sondern dass sie unser Leben als Menschen bereichert. Der Ansatz ist, zu sagen: Was bedeutet das für uns und wie gut ist das für uns?

Welche Daten schauen Sie sich an und wie kommen Sie zu Ihren Thesen?

Ich halte es mit dem berühmten Zitat von William Gibson: "Die Zukunft ist bereits hier, sie ist nur ungleichmäßig verteilt" Die meisten Sachen, die wir in fünf Jahren sehen werden, sind jetzt schon hier. Wir müssen sie nur suchen und aufnehmen. Zum Beispiel künstliche Intelligenz, Maschinen, die denken können. Natürlich denken sie nicht wie wir, es geht um Maschinen, die selber Dinge machen können, ohne darauf programmiert zu sein. Heute gewinnen diese Maschinen schon gegen Schach- oder Go-Meister, in fünf Jahren wird das so normal wie heute Whatsapp sein.

Sie sagen, die Technologie wird sich dann nicht gegen die Menschen wenden, wenn wir eine globale digitale Ethik entwickeln. Wie könnte eine solche digitale Ethik aussehen?

Man muss bedenken, dass Technologie zur mächtigsten Kraft in unserer Gesellschaft geworden ist. Es sind nicht nur die Banken oder die Ölkonzerne, die jetzt mächtig sind, sondern die Technologiefirmen. Zum Beispiel Facebook, das das größte Medium der Welt ist, aber immer von sich sagt: Wir sind kein Medium. Deshalb müssen wir überlegen, nicht alles zu machen, was technisch möglich ist, nur weil es effizient ist oder weil es geht. Wir könnten innerhalb von 15-20 Jahren unsere Gene manipulieren und damit wahrscheinlich den Krebs besiegen und das sollten wir auch tun. Aber gleichzeitig sollten wir dafür sorgen, dass nicht mit der gleichen Technik Supersoldaten und Supermenschen gezüchtet werden. Technologie ist ja immer sowohl sehr gut als auch sehr schlecht. Vor zehn Jahren hat man gesagt, alles muss vernetzt und online sein, das gibt tolle Vorteile. Jetzt sagt man, es muss auch Räume geben, wo man nicht vernetzt ist. Und dazu brauchen wir eine Ethik, soziale und politische Entscheidungen. Es kann nicht angehen, dass sich jemand in der Zukunft körperlich verändern muss, um einen Job zu haben. In Amerika sagt man dazu „Wired or fired“. Da muss man Räume schaffen, wo wir sagen: Wir wollen schon intelligente Maschinen, um Dinge effizienter zu machen, aber sie sollen uns nicht sagen, was wir tun sollen oder dürfen.Oder das Thema Autofahren: Früher oder später wird es zu hundert Prozent klar sein, dass selbstfahrende Autos sicherer sind als von Menschen gesteuerte. Aber sollten wir deswegen Menschen das Autofahren verbieten, weil wir unter Umständen anderen Menschen Schaden zufügen könnten? Wir müssen also eine Ethik entwickeln, die sagt: Okay, was sollten wir behalten, weil es menschlich ist und was können wir aufgeben, weil es Maschinen besser machen? Zum Beispiel Busse oder Züge steuern.

Das sind schwierige Fragen, die auf uns zukommen, hauptsächlich in folgenden drei Themen: Künstliche Intelligenz, Genmanipulation und Geo-Engineering (u.a. Eingriffe auf das Wettergeschehen, Anm.)

Wird es in fünf Jahren selbstfahrende Autos im Straßenverkehr geben?

In begrenztem Umfang wird es das bestimmt geben. Man muss immer sagen: Alles, was nur in geringem Umfang Schaden zufügen kann, wird relativ wahrscheinlich bald kommen. In einem selbstfliegenden Auto unterwegs zu sein, wie es in Dubai geplant ist, ist extrem risikoreich und würde zu vielen Toten führen. Mit 25 km/h mit einem Kleinbus durch die Altstadt von Wien zu kriechen, da wird auch im Worst Case keiner groß verletzt werden. Auf der Autobahn werden wir die Lkw automatisieren, das geht auch einfach. Für den gesamten Verkehr kann ich es mir nicht vorstellen, da müssten die Maschinen wesentlich intelligenter sein. Die müssen auch Entscheidungen treffen können, die wir Menschen in Sekundenbruchteilen fällen. Es gibt das Hans-Moravec-Paradox: Alles was einfach ist für Maschinen, ist schwierig für den Menschen; Alles, was schwierig ist für den Menschen, ist einfach für Maschinen.

Allein selbst fahrende Lkw, Busse und Autos würden schon viele Arbeitsplätze kosten. Jetzt sagen Sie: Man gewinnt dafür Zeit. Aber wie müsste sich der Arbeitsmarkt und das Sozialsystem anpassen? Machen sich die Regierungen da schon genug Gedanken?

Das kann man nun wirklich nicht sagen. (lacht) Was wir jetzt erleben, ist, dass in den nächsten 10-15 Jahren viele Jobs wegfallen, die einfach Routine sind, wie Taxifahrer oder Pilot, oder der Checkout im Supermarkt oder bei Fast Food-Ketten. Routineaufgaben wie Buchhalter werden komplett von Maschinen übernommen werden, fürs Zahlen-Zusammenzählen brauchen sie kein wirkliches menschliches Attribut. Das können Maschinen recht gut, sie brauchen nur noch etwas Zeit, das zu lernen. Da wird eine große Welle an technologisch bedingter Arbeitslosigkeit auf uns zukommen.

Wie kann man da gegensteuern?

Wir müssen die Ausbildung verändern. Leute müssen mehr menschliche Qualitäten entwickeln, und eben auch technologische. Aber nur mit menschlichen Attributen können sie den Maschinen voraus sein. Alles was automatisiert werden kann, wird umgesetzt werden, Roboter in Warenhäusern, Roboter, die unsere Flughäfen reinigen und Roboter, die unsere Flugzeuge fliegen, also sagen wir zuerst einmal Frachtflugzeuge (lacht). Es wird aber auch viele neue Jobs geben. Leute, die Drohnen steuern, um Dinge anzuliefern. Für die nächsten Jahre sind siebzig Prozent der Jobs noch gar nicht erfunden. Arbeitnehmer müssen neue Fähigkeiten haben, unternehmerischer denken, mehr auf eigene Art unterwegs sein. Wir werden wahrscheinlich in den nächsten 20 Jahren sehen, dass die Hälfte aller Arbeitenden nicht festangestellt sein werden. Sondern im Sinne der Gig Economy einfach dort mitarbeiten, wo’s gerade geht und immer wieder dazulernen. Und daran wird das Sozialsystem angepasst werden müssen. Wir werden ein garantiertes Mindesteinkommen brauchen. Außerdem werden wir wesentlich älter, gewinnen jedes Jahr ein Drittel von einem Jahr an Lebenszeit dazu. Wir brauchen also vorausdenkende Politik und wahrscheinlich eine Art von Robotersteuer, um Leute wieder neu trainieren zu können.

Wie könnten neu geschaffene Jobs aussehen?

Wenn es intelligente Maschinen gibt, die die Buchhaltung machen, dann wird mein Job nicht mehr sein, die Zahlen zusammenzuzählen. Aber vielleicht kann ich mir darüber Gedanken machen, wie ich für meinen Kunden Steuern sparen kann, oder wie ich das System warte. Oder wie ich dem System erkläre, was es noch nicht versteht. Wenn wir sehen, dass viele Jobs durch selbstfahrende Autos wegfallen, werden auch viele dazukommen, die die Autos überwachen oder neue Technologien dazu entwickeln. Wenn ein Auto mehr Software braucht, wird es auch mehr Leute geben, die Software schreiben. Aber das werden vielleicht nicht die gleichen Leute sein. Die Leute, die jetzt Taxifahrer sind, werden nicht so einfach zum Designer werden. Wir haben da jetzt, ich sage einmal, das Tal des Todes, in fünf oder sieben Jahren erreichen wir einen Punkt, wo es weniger Arbeit gibt aber noch nichts Neues und noch keine ausreichende Weisheit der Politiker. Und das müssen wir unbedingt angehen.

In der New York Times wurde kürzlich die These formuliert, dass die Gig Economy falsche Versprechungen von Freiheit für die Arbeitnehmer mache. Unabhängige Vertragsnehmer hätten weniger Rechte und letztlich (laut Pew Research Center, Anm.) geringere Einkommen.

Die amerikanische Gig Economy ist natürlich vollkommen untauglich für Europa. Das ist eine Art von digitalem Feudalismus. In Europa würde auch keiner solche Jobs machen, außer denen, die vollkommen verzweifelt sind. Wenn wir uns aber verabschieden von dem amerikanischen Modell der Gig Economy, das im Grunde eine Art von Ausbeutung ist, dann müssen wir trotzdem sehen, dass die Art und Weise, wie wir in Zukunft arbeiten werden, ganz klar so sein wird, dass wir vielleicht einmal sieben Monate bei dieser E-Commerce-Firma arbeiten und denen helfen etwas zu entwickeln, und je nach Erfolg bezahlt werden. Dass wir dann wieder etwas Neues lernen, vielleicht eine Reise machen und dann einen anderen Job machen. Unsere Arbeit wird sich jeweils neu erfinden. Das kann natürlich zu einigen sozialen Problemen führen. Aber im Endeffekt wird es durch Technologie so weit kommen, dass wir weniger arbeiten müssen, weil Maschinen unsere Arbeit machen, und dass wir unsere Zeit mehr nützen können – zum gleichen Geld, weil alles effizienter ist. Nur unser Sozialsystem ist nicht darauf vorbereitet. Die Vorteile dieser Errungenschaften müssen gerechter verteilt werden. Wir sehen, dass durch Technologie bisher nicht mehr Gleichheit entstanden ist, sondern mehr Ungleichheit. Und das kann natürlich nicht so weiter gehen. Darauf sind wir in Europa ja sehr bedacht, in den USA ist das gar nicht so. Daher glaube ich, dass dieses amerikanische Modell dieser Digital Economy für Europa überhaupt nicht passt. Das ist sozial für uns vollkommen inadäquat.

Der neue US-Präsident gilt eher als Antiglobalist und setzt auf Wirtschaftsmaßnahmen aus dem vorigen Jahrhundert. Wie schädlich kann das für eine globale digitale Ethik werden?

Donald Trump ist eigentlich bei allen Themen zwanzig Jahre hinten nach. Die Herausforderung ist nicht mehr die Globalisierung, sondern die Automatisierung. Wenn alles automatisiert wird, dann haben wir ein wirkliches Problem mit Arbeit. Da geht’s nicht um Outsourcing nach Indien, sondern darum, dass Maschinen die Jobs um 90 Prozent billiger machen werden. Zum Thema Energie: Wir brauchen das ganze Öl und Gas nicht mehr, wofür er eine Pipeline bauen will. Zumal Solarenergie in zwanzig Jahren hundert Prozent unseres Bedarfs abdecken wird. Das ist wissenschaftlich vollkommen eindeutig.

Für wie gefährlich halten Sie seine Politik?

Ich sehe heute drei große Gefahren in unserer Gesellschaft: Die eine ist Donald Trump, vollkommen fehlgeleitet und nur in Amerika möglich.Das zweite ist künstliche Intelligenz. Maschinen, die eines Tages so clever sind, dass wir gar nicht merken, wenn sie uns manipulieren. Das dritte ist die Genmanipulation. Wenn wir uns selber verändern. Donald Trump wird sich, glaube ich, schon dieses Jahr von selbst erledigen. Das ist meine Hoffnung und meine Voraussage, weil er durch die Art und Weise, wie er das alles angeht, für alle Beteiligten immer mehr zur Last wird.

Das heißt, es liegt nicht an einzelnen Politikern, wie diese digitale Ethik entwickelt wird?

Die weltweite digitale Ethik wird überlebenswichtig sein, genauso wie eine nukleare Strategie. Wir können uns vorstellen, was passiert, wenn jedes Land seine eigenen Genmanipulationen entwickelt und künftig intelligente Maschinen herstellt, dann haben wir einen Rüstungswettlauf auf zwei Ebenen und der könnte das Ende für uns bedeuten. Wir brauchen relativ viel Material um eine Atombombe zu bauen, aber nicht viel Material um einen intelligenten Roboter zu bauen, der mit bösen Absichten bestückt ist. Also wenn wir uns da nicht einig werden, was erlaubt ist, wem es erlaubt ist, und wer das kontrolliert, dann ist in fünfzig Jahren Game Over für uns, das ist vollkommen klar. Das sind Technologien, die uns dramatisch verbessern könnten, aber eben auch radikale Nebeneffekte haben, die wir heute gar nicht abschätzen können. Wir brauchen zum Beispiel ein Moratorium für künstliche Intelligenz.

Sie warnen davor, dass die ganze Menschheit umprogrammiert werden soll, nach den Plänen mancher Technologiegläubigen …

Ja, manche sagen, und das ist schon ziemlich weit vorgedrungen, dass es unsere Bestimmung ist, mit der Maschine zu verschmelzen. Dass wir unser Gehirn direkt ans Internet anschließen und unsere Daten uploaden, unsere Gene manipulieren, damit wir ein Supermensch werden können und zweihundert Jahre leben können. Viele von den Dingen sind ja okay, wenn es um Krankheiten geht. Aber wenn es um Manipulation geht, sind wir an einem Punkt angelangt, an dem wir irgendwann die Entscheidung treffen müssten: Sind wir eigentlich Menschen oder Maschinen? In Europa 99 sagen Prozent: Wir sind keine Maschinen.

Wird die fortschreitende Technologisierung dazu führen, dass weniger entwickelte Regionen noch weiter zurückfallen, wie jetzt zum Beispiel der arabische Raum, oder dass es im Gegenteil ein Vorteil für z.B. Afrika sein könnte, wenn man genau darauf setzt?

Neunzig Prozent all dieser Entwicklungen sind extrem positiv für alle. Solarenergie und erneuerbare Energie werden extrem billig sein. Das Problem der Wasserversorgung wird bald gelöst sein, wenn wir weltweit Wasser entsalzen können. Wir werden in Zukunft das CO2 aus der Luft filtern können, wir werden den Krebs besiegen. Wir werden Nahrungsmittel durch 3D-Drucker herstellen, die man wirklich essen will. Das Hauptthema ist, sicherzustellen, dass diese Errungenschaften auch gleichmäßig verteilt sind. Wenn wir das Problem des Krebs gelöst haben, dann muss diese Therapie gratis sein, egal, wie viele Millionen sie in der Entwicklung kostet. Das kommen riesige soziale Themen auf uns zu. Wir müssen diese Errungenschaften auch zugänglich machen, ansonsten kommen wir in eine Zwei-Klassen-Gesellschaft, die Ungleichheit und Terrorismus und Bürgerkriege fördert. Eine solche Polarisierung kann man ja schon in Amerika sehen: Reiche werden noch reicher, Arme arbeiten mehr und verdienen weniger. Inwieweit wir die Benefits umschichten, ist eine Frage, die uns in Europa näher liegt als in China oder Amerika.

Sehen Sie die Zukunft eher optimistisch oder pessimistisch?

Grundsätzlich bin ich ein Optimist. Mit diesen Technologien können wir einen Lebensraum erreichen, der für uns viel besser, menschlicher und freier ist, und weniger durch Probleme der Vergangenheit, wie Krieg, Krankheiten und Epidemien gekennzeichnet ist. Aber wir müssen wirklich an einem Strang ziehen, um diese Technologien auch wirklich beherrschen.

Sie haben Facebook als gigantische Datenkrake bezeichnet. Die Verfechter von Big Data sagen, die Vernetzung von Daten bietet Vorteile für Wirtschaftstreibende. Aber was bringt es dem einzelnen, außer, dass Amazon genau weiß, was er gerne kaufen möchte. Oder ist das nicht ein Riesenproblem, weil es auch für negative Zwecke eingesetzt werden kann?

Die totale Vernetzung der Gesellschaft ist unausweichlich und hat sicherlich auch gigantische Vorteile für uns alle. Wenn wir zum Beispiel alle Gesundheitsdaten parallel vergleichen könnten und eine neue Wissenschaft daraus entstünde, weil die Daten plötzlich einfach da sind. Was sicherlich nicht sein darf, ist, dass diese Vernetzung blindwütig und ohne Schutz betrieben wird. Momentan ist die Vernetzung Thema Nummer 1, aber die Verantwortung dafür will niemand übernehmen. Wenn wir uns vorstellen, dass wir unser Bankkonto vernetzen, unsere Einkäufe, unsere Gesundheitsdaten, unser Auto, unser Geld, dann brauchen wir jemand, der sagt: Unter gewissen Umständen ist es möglich oder nicht möglich. Das muss durch Gesetze und durch Sozialkontrakte kommen. Auch Firmen wie Google, Facebook, Sisco, Amazon müssen diese digitale Ethik entwickeln, und uns klarstellen, dass es bei ihnen sicher ist. Bei der hundertteiligen Digitalisierungs-Skala sind wir erst bei fünf, fühlen uns aber jetzt schon fast nackt. Wenn man sieht, wo das hinführen kann, sind wir wirklich bei George Orwell. Wo wir nichts mehr machen können, weil wir immer beobachtet werden. Digitalisierung ja, aber in einem Rahmen, der es uns ermöglicht individuell zu bleiben.

Wer kann hier der Wächter sein, der unverdächtig ist, das nicht für sich zu nützen?

Da ist der Staat natürlich gefordert, sowohl national auch international. Eines Tages werden wir ein internationales Gremium haben, so wie jenes für Atomenergie und Atomwaffen. Die Technologiefirmen haben sich ja schon vor drei Monaten zusammengetan, zu einer Partnerschaft für Künstliche Intelligenz, die eben diese Regeln festlegen und sich anschauen soll. Wenn wir das nicht tun, wird die dramatische Vernetzung total zurückfeuern, und wir werden nur die Nachteile und nicht die Vorteile daraus haben. Wir müssen genauso viel in Menschlichkeit investieren, wie wir in Technologie investieren. Es geht nicht an, dass wir diese gewaltigen Kräfte entwickeln, ohne eine Supervision zu haben. Es geht immer nur darum, was man am besten verkaufen kann. Da gehen wir in eine Sackgasse, wie Facebook eine solche Sackgasse ist, sodass wir irgendwann feststellen, dass es wieder einen neuen Zirkus gibt, der nur einen Eigensinn hat.

Dass die EU nun Kräften unterworfen ist, die weniger Integration wollen, sehen Sie das als Gefahr für die Zusammenarbeit?

Die Menschheitsgeschichte zeigt leider, dass wir nur zusammenarbeiten, wenn wieder eine noch größere Katastrophe stattgefunden hat. Ich befürchte, dass es hier zu größeren Zwischenfällen kommen muss, wie zum Beispiel dem Stehlen von Hunderten Millionen DNA-Daten und solche Dingen, die uns dazu führen zusammenzuarbeiten. Ich bin mir sicher, dass die Kommission da gute Initiativen hat und noch bessere entwickeln wird. Und ich bin mir auch ganz sicher, dass wir langfristig nur eine Chance haben in Europa, wenn wir als eine Art United States of Europe zusammenarbeiten. Da geht’s genau um diese Themen: Sicherheit, Cyber Security, Arbeit, Ausbildung, Wasser, Energie. Und wenn wir da nicht zusammenarbeiten, werden wir nicht auf einen grünen Zweig kommen.

Sie schätzen die Zukunftschancen ungefähr zu 90 Prozent positiv ein, aber sie sagen auch, dass es dringend nötig sein wird dafür zu sorgen, dass die Gefahr der 10 Prozent nicht auch exponentiell zunimmt. Wie kann man sich das vorstellen?

In den nächsten Jahren kann man ja erwarten, dass wir mit Computern nicht mehr über Browser oder Apps kommunizieren, sondern mit ihnen reden – über digitale Assistenten. Wir erstellen also eine Art digitale Kopie von uns, die in der Wolke sitzt, mit uns redet und Dinge für uns macht. Das wird in fünf Jahren Standard sein, wie wir mit Computern interagieren. Das führt vielleicht dazu, dass wir nicht mehr wie heute dauernd am Handy herumfummeln, sondern selbst völlig unfähig werden, diese Dinge zu steuern, weil wir unseren digitalen Assistenten alles machen lassen. Wenn wir auch unser Denken und unsere Entscheidungen outsourcen, könnte das letztlich auch dazu führen, dass wir Maschinen unsere politischen Entscheidungen treffen lassen. Diese Ansätze sieht man schon überall. Schon in fünf Jahren könnten wir in einer Gesellschaft leben, die dramatisch automatisiert ist und uns quasi entmachtet hat. Diese Vernetzung ist auch eine Art Droge, Technologie ist eine Art von Superdroge, die abhängig machen kann. Daher müssen wir Grenzen einziehen, die uns nicht ganz verschwinden lassen.

Aber in welcher Form kann das exponentiell zunehmen, wie Sie sagen?

Derzeit nützen wir Smartphones. Wenn wir in ein paar Jahren unsere Augmented Reality-Brillen runterklappen, sind wir tausend Mal schneller unterwegs, weil es eine Art von Simulation ist. Wenn wir in ungefähr zehn Jahren diese Fähigkeit direkt mit dem Gehirn verknüpfen, dann leben wir in dieser Technologie. Wir könnten dann gar nicht mehr ohne diese Dinge funktionieren. So wie sich manche Kids heute schon ohne Handy alleine fühlen. Das könnte exponentiell dazu führen, dass wir total abhängig davon werden. Wenn wir durch Genmanipulationen Krankheiten besiegen, könnte es dazu kommen, dass viele Leute sich umprogrammieren lassen wollen, wie eine Art von App. Das kann man sich als exponentielle Probleme vorstellen. Exponentielle Arbeitslosigkeit könnte dazu führen, dass 60-70 Prozent der bisherigen Jobs wegfallen. Und darauf sind wir nicht vorbereitet, weil wir immer noch denken, dass Computer das nicht schaffen.

Brauchen wir andere Arbeitszeitmodelle?

Wir sollten nicht in Algorithmen, sondern in ”Androrithmen” denken, das sind die Dinge die uns zum Mensch machen: Empathie, Intuition, Vorstellungskraft, Verhandlungsfähigkeit, alles Dinge, die Maschinen gar nicht können, die aber momentan im Arbeitsleben nicht so gefragt sind. Wenn wir aber arbeiten wie Roboter, werden wir keine Arbeit mehr haben, weil das dann eben die Roboter erledigen. Und das ist nur mehr eine Frage von ein paar Jahren. In den nächsten zwei bis drei Jahren wird die Spracherkennung von Maschinen zu hundert Prozent akkurat werden. Das wird Millionen von Jobs vernichten, denken wir an die Call Center.

Ich hoffe zumindest, dass ich Interviews wie diese dann schneller in den Computer bringe.

Das ist ein gutes Beispiel. Das würde zwar dazu führen, dass man das Besprochene sehr schnell aufsaugen kann. Aber dann den Kontext zu erstellen, mit den Fakten zu jonglieren, Sinn daraus zu machen und eine Story daraus zu entwickeln, ist eine Sache, die für Computer extrem schwierig ist. Darin liegt der Unterschied. Wir bemühen uns eben dann, den höheren Wert zu erzeugen.

Sie sehen heute den Einfluss der Technologie auf die Biologie als großes Thema.

Implantierte Chips sind ja, glaube ich, vollkommen legal, Aber dazu braucht es momentan eine Operation, daher haben das weltweit nur 25.000 Leute. Wenn diese Chips aber die Größe eines Stecknadelkopfs haben oder wenn das ein Tattoo sein kann, dann haben Sie viel mehr Möglichkeiten. Da wird es viele gesetzliche Diskussionen geben. In China ist das Manipulieren von Genen jetzt schon erlaubt, in Europa hingegen nicht. Da werden wir ganz klar an den Punkt kommen, wo wir uns genau überlegen müssen, wie wir das regulieren und wer genau das Sagen hat. Um einerseits die Wissenschaft nicht im Keim zu ersticken, aber anderseits nicht komplett in ein Schwarzes Loch zu führen. Wenn wir Dinge automatisieren, die durchaus effizienter gemacht werden, dann finde ich das gut, aber man sollte nicht Dinge automatisieren, die den Menschen ausmachen. Sozialpolitik, Richterentscheidungen oder die Geburt eines Kindes. Über den Nachwuchs entscheiden, das ist ein ziemlich wichtiger Job der Politik. Wo wir nicht zu offen und nicht zu eng sein dürfen.

Sie sind Optimist, sagen aber auch: Technologie ist längst unser Lebenszweck.

Das ist eine Frage der Diskussion, ob wir Technologie anbeten oder als Werkzeug sehen. Es ist ein Werkzeug, um Dinge zu tun, die wir tun wollen. Aber Technologie ist nicht das, was wir tun wollen. Wir müssen viel mehr über diese Dinge diskutieren, Sozialkontrakte entwickeln, wir müssen wieder humanistischer werden. Wir sollten Platz lassen für menschliche Dinge wie Ineffizienz. Nicht alles blind annehmen, nur weil es jetzt daherkommt. Ich denke da an Software, die Menschen anstellt und feuert. Die Frage ist: Ist die Technologie dazu da, uns besser zu machen, oder nur, um möglichst viel Geld zu verdienen. Verhaltensveränderungen kann man nur durch Kultur erreichen. Das einzige was im Leben zählt, ist, was zwischen Menschen abläuft. Nicht das, was die Werkzeuge für uns machen. Ich glaube, da müssen wir immer wieder darauf hinweisen. Nämlich mehr Mensch zu sein und nicht mehr Maschine zu werden. Wir sollten Technologie umarmen, aber nicht Technologie werden.

Sie sagen: Technologie ist eine Denkweise ...

Wir können nicht wie früher abwarten, bis die Zukunft da ist. Weil die Zukunft jetzt jeden Tag in irgendwelchen Labors um uns herum entsteht. Wir gehen in eine exponentiell sich wandelnde Zukunft. Wir gehen von 4 nach 8 nach 16 nach 32 und in zehn Jahren sind wir bei 128. Also alle 18 Monate verdoppelt sich das und in 30 Schritten sind wir bei einer Milliarde. Wir können also jetzt nicht mehr abwarten und zuschauen, sondern müssen die Zukunft verstehen und aktiv formulieren, weil wir sie durch unsere Haltung definieren. Sie kommt ja nicht von selber, die Zulunft ist keine unbekannte Größe, die auf uns herabfällt. Sondern: Mit dem, was wir tun, gestalten wir die Zukunft. Wir müssen das viel mehr in den Mittelpunkt rücken: Die Zukunft kommt viel schneller, als wir gedacht haben.

Sie wächst auf einmal exponentiell?

Wir müssen wissen, was wir wollen und was wir nicht wollen. Bisher war die Frage nur: Was wir können und was es kostet. Geht das überhaupt? Jedes Mal ist die Antwort: Ja, wir können das, und es kostet immer weniger. Wir sollten uns jetzt fragen: Was wollen wir überhaupt können, was bezwecken wir damit? Was wir bezwecken, ist im ursprünglichen griechischen Sinne menschliches Glück. Und nicht, ein Werkzeug zu werden. Und wenn wir das wollen, müssen wir alles, was wir erfinden, an diesem Ziel messen. Denn erfinden werden wir alles. Wir werden in zwanzig Jahren an dem Punkt angelangt sein, wo fast nichts mehr unmöglich ist.