Steht in Ihrem Wohnzimmer seit Weihnachten nun eine Alexa, ein Google Home oder ein anderes Gerät, dass Ihnen den Wunsch von den Lippen – pardon – von der Sprache ablesen soll? Dann ging es Ihnen wie vielen, anscheinend sogar so vielen, dass es Berichten zufolge zu Überlastungen von Alexa am 1. Weihnachtstag kam. Festtage der Künstlichen Intelligenz könnte man die vergangene Weihnacht nun nennen, denn mit den schlauen Lautsprechern von Amazon, Google und Co. wird der abstrakte Begriff der Künstlichen Intelligenz greifbar, ja sogar haptisch.
Für mich als promovierten Physiker, der Technik liebt, ist dieser Einzug von klugen Assistenten in unsere Leben ein Quantensprung in der menschlichen Entwicklung. Skeptiker werden in diesen neuen digitalen Mitbewohnern aber sogleich Datenkraken erkennen, die nun nicht nur unsere geschriebenen, sondern auch die gesprochenen Worte als Datenrohmasse abgreifen. Kein Ort ist mehr sicher vor den großen Internetkonzernen, hört man sie zetern, alles dreht sich nur noch um Daten.
Letzterem stimme ich sogar zu: Ja, es dreht sich viel – nahezu alles – um Daten. Jeder Klick und jedes Wort sind Teil eines riesigen Datenbergs, den die großen Datenraffinerien wie Amazon und Co. nutzen, um ihre Services zu betreiben. Services wie Alexa, die uns auf Kommando die gewünschte Musik abspielen oder das Wetter ansagen. Services also, die uns das liefern, was wir wollen, innerhalb von Sekunden. Weil sie dazu trainiert wurden und werden, durch jedes Kommando, durch jede Anfrage aufs Neue. Das ist das Prinzip des maschinellen Lernens, mit dem eine Künstliche Intelligenz klüger wird. Die Daten, die jeder von uns beisteuert, sorgen also letztendlich dafür, dass die Services genauer und intelligenter werden, sodass sie den Begriff Künstliche Intelligenz tatsächlich Stück für Stück verdienen.
Dass Künstliche Intelligenz durch Alexa und Co. nun anfassbar wird, hat dafür gesorgt, dass sie auch außerhalb der Tech-Szene zum Schlagwort geworden ist. Ein Schlagwort, das mit Hoffnungen wie Ängsten verbunden wird: Denn wenn Maschinen wie Menschen denken können sollen, ist der Einsatzbereich nicht auf Smartphones oder Lautsprecher beschränkt; vom Verkehrswesen bis hin zur Landwirtschaft sehen viele Branchen neue Möglichkeiten durch Künstliche Intelligenz. Anderseits wirkt eine Anwendung, die eine menschenähnliche Denkleistung erbringt, einschüchternd, vielleicht sogar verängstigend. Gerade dann, wenn sie immer weitreichender und in unterschiedlichen Bereichen unseres Lebens eingesetzt wird. Könnten diese Künstlichen Intelligenzen uns Menschen dann nicht sogar überflüssig machen oder gar vernichten? Aktuell ist dieses Worst-Case-Szenario noch in weiter Ferne, dafür ist die Künstliche Intelligenz schlicht noch nicht intelligent genug. Platt gesagt: Alexa & Co. sind derzeit weniger Apokalyptische Reiter der Künstlichen Intelligenz als auf unsere Worte hin trainierte digitale Äffchen.
Aus Trotz oder aus Angst könnten wir nun beschließen, den Datenraffinerien den Rohstoffhahn abzudrehen, sprich: ihnen keine Daten mehr zu liefern. Aber dann müssen wir auf die von ihnen angebotenen Produkte und Dienstleistungen verzichten – und zwar komplett. Ein heute nahezu unmögliches Unterfangen. Statt uns selbst mit digitaler Abstinenz zu kasteien, um unsere Daten – vermeintlich – zu schützen, sollten wir uns gerade an einem so wichtigen Tag wie dem heutigen World Privacy Day sechs Leitlinien vor Augen führen, die uns bei unserem zukünftigen Umgang mit unseren Daten leiten sollten.
Erstens: Daten sind nicht gleich Daten und dass Daten gesammelt werden, ist nicht gleich schlecht. Wenn Künstliche Intelligenz zukünftig dabei helfen soll, Krankheiten zu erkennen und bei Operationen unterstützend aktiv zu werden, brauchen sie dazu – wie auch die menschlichen Mediziner – Wissen. Wissen, das die Künstliche Intelligenz nun einmal aus Daten beziehen muss, um uns eine Hilfe zu sein. Wir sollten also immer auf den Einzelfall schauen und nicht per se Big-Data-Anwendungen verdammen.
Zweitens: Viele der Angebote, die wir bereits liebgewonnen haben, sind auf unsere Daten angewiesen. Dieser Datenhunger wird mit weiteren Anwendungsfeldern Künstlicher Intelligenz, die Datenrohmasse zum Lernen braucht, zunehmen.
Drittens: Wir müssen die großen Konzerne dennoch in die Pflicht nehmen, für Transparenz im Umgang mit unseren Daten zu sorgen. Die in der Europäischen Union eingeführte Datenschutz-Grundverordnung, kurz DSGVO, ist dazu ein erster wichtiger Schritt. In meinem Buch „Data for the People“ habe ich dafür plädiert, durch das Recht auf Dateneinsicht und das Recht auf Einsicht in den Umgang der Unternehmen mit den Daten Transparenz zu erhöhen – hier hat sich im Zuge der Verordnung in ganz Europa etwas getan. Globale Prozesse wie die Digitalisierung brauchen allerdings auch globale regulatorische Rahmen. Wünschenswert wäre also, wenn auch außerhalb der Europäischen Union dieser Weg weiter verfolgt wird.
Viertens: Ein Appell an alle Nutzer: Lasst euch nicht für dumm verkaufen! Wenn Apple auf Werbeplakaten verkündet: „What happens on your iPhone, stays on your iPhone“, fangt an nachzudenken. Denn was ist ein iPhone? Genau, ein Kommunikationsgerät, dass Nutzer mit anderen Nutzern in der Datenwelt vernetzt. Dabei werden Daten ausgetauscht, denn nur so funktioniert digitale Kommunikation. Daher: Absolute Datensicherheit ist eine Illusion, auch bei Apple-Produkten.
Fünftens: Künstliche Intelligenz und die zugrundeliegenden Daten können uns zu besseren Menschen machen. Aufgrund der schieren Datenmasse im Hintergrund können sie unsere Entscheidungen aufwerten, uns lästige Aufgaben abnehmen und damit effizienter machen.
Sechstens: Wir dürfen nicht im Status-quo verharren, sondern müssen auf allen Ebenen – von der Politik, über die Wirtschaft bis zur Gesellschaft – mehr Wissen und Kompetenz für digitale Anwendungen schaffen, gerade im Zuge der vielfältigen Einsatzmöglichkeiten von Künstlicher Intelligenz. Wir müssen etwa die Sensibilität im Umgang mit von Künstlicher Intelligenz erstellter Bilder entwickeln, die sich nur noch marginal von „echten“ Bildern unterscheiden. Es braucht nicht viel Fantasie, um hier das Potenzial für Fake News und Desinformation zu sehen. Darauf müssen wir uns als Mitglieder der Gesellschaft einstellen und über den Umgang mit diesen Entwicklungen austauschen. Denn: Um die Synergien zwischen menschlicher und Künstlicher Intelligenz in gesellschaftlichen Nutzen zu transformieren, braucht es einen informierten und aufgeklärten Diskurs über Technik und Technikfolgen. Deshalb war es ein richtiger Schritt der Bundesregierung, für diesen Austausch den Digitalrat ins Leben zu rufen, in dem ich Teil sein darf, um genau für solche Themen zu sensibilisieren und Diskussionen anzustoßen.
(Autor: Dr. Andreas Weigend ist Physiker, Autor von „Data for the People“ und Ex-Chefwissenschaftler von Amazon., mit freundlicher Genehmigung Murmann Publishers,