Aus Büchern, Kinofilmen und Netflix-Serien sind uns Erzählungen bekannt, in denen Menschen emotionale Bindungen zu Maschinen eingehen. Und auch im ganz realen Leben kennt wohl jeder von uns jemanden, der eine sagen wir mal spezielle Bindung zu nicht menschlichen Objekten eingeht. Zum Beispiel zu Autos. Es gibt Menschen, die ihrer Sprachbox statt „Alexa“ den Namen ihrer toten Mutter geben und sich auch so mit dem Gerät unterhalten. In Japan haben Roboter einen Status, der weit über das Materielle hinausgeht.
Das alles könnte nur ein Vorgeschmack sein auf das, was durch Künstliche Intelligenz (KI) auf uns zukommt. Sogenannte KI-Agenten werden Teil unseres Alltags. Ein KI-Agent ist ein autonomes System oder Programm, das in der Lage ist, Aufgaben selbstständig zu erledigen, indem es auf Basis von Daten Entscheidungen trifft und Aktionen ausführt. Das Smartphone, wie wir es heute kennen, dürfte schon in Kürze völlig anders daherkommen: Wir nutzen nicht mehr einzelne Apps und scrollen uns einen Wolf, sondern sprechen mit einem KI-Agenten wie mit einem Freund, der in Fleisch und Blut neben uns steht.
Derzeit arbeiten mehrere Unternehmen an dem Durchbruch von KI-Agenten, die uns 24 Stunden am Tag als persönliche Coaches zur Verfügung stehen. Sie werden als unser persönlicher Finanzberater dienen, ohne die typisch menschlichen Versäumnisse und Vorurteile. Die digitalen Coaches werden Kindergeburtstage von A bis Z organisieren und uns in Sekundenbruchteilen sagen, wie viel Sonnencreme wir im Urlaub brauchen – indem sie Entfernungen, Wettervorhersagen, Sonnenstärke und alle anderen Variablen zusammenfügen.
Völlig andere Smartphones dank KI-Agenten
Außer bei solchen kleinen Kniffen halten KI-Agenten auch im Geschäftsleben Einzug: Autobauer lassen sie schon heute permanent die Regularien in Europas Städten scannen – von der Größe der Parkzonen bis hin zu Mautgebühren. All das führt zu Ableitungen für die Strategie. Büroangestellte werden bei Meetings und Mails auf die „digitalen Mitarbeitenden“ zugreifen.
Die Endgeräte, also Smartphone und Laptop, werden grundsätzlich anders funktionieren: Microsoft-Gründer Bill Gates geht davon aus, dass KI-Agenten unseren Umgang mit Computern bis 2028 grundlegend verändern werden.
Mehr Macht für Meta und Co?
All diese Möglichkeiten kennt auch Yuval Noah Harari. Der israelische Historiker hat mehrere Weltbestseller verfasst und gilt als einer der wesentlichen Mahner beim Umgang mit KI. „Ich bin nicht skeptisch, was das positive Potenzial von KI angeht. Ich stimme zu, dass sie der Menschheit und dem Planeten immense Vorteile bringen könnte. Aber gerade weil sie eine so mächtige Technologie ist, ist sie auch mit immensen Risiken verbunden“, sagt er im Exklusivinterview mit DUP UNTERNEHMER (siehe Seite 12).
KI sei die erste Technologie der Geschichte, die selbstständig Entscheidungen treffen und neue Ideen entwickeln kann. „Sie ist also eher ein unabhängiger Akteur, und als solcher kann sie uns außer Kontrolle geraten, uns potenziell sogar versklaven oder ganz vernichten“, sagt Harari. Doch wer steuert diese KI-Agenten? Welche Unternehmen stecken dahinter?
Bei iPhones ist es Apple. Bei Geräten, die mit Android laufen, spielt Google beziehungsweise der Mutterkonzern Alphabet eine gewichtige Rolle. Dann gibt es natürlich Microsoft inklusive ChatGPT vom Kooperationspartner OpenAI. Elon Musk mit X und Mark Zuckerbergs Meta inklusive Facebook nicht zu vergessen. Sie alle haben die Chance und die Notwendigkeit, mit den KI-Agenten Geld zu verdienen. Denn eines ist klar: Die Investitionen in Künstliche Intelligenz sind astronomisch, und die Aktionäre erwarten, dass sie sich lohnen.
Geschäftsmodelle lassen sich allerdings nicht nur auf Gutmenschentum aufbauen. Niemand kann sich darauf verlassen, dass KI-Agenten zu 100 Prozent objektiv antworten, wenn man sie etwas fragt. Besonders heikel wird es bei Themen wie Finanzen, Gesundheit und Politik. Quatscht einen der KI-Finanzberater in Produkte rein, mit denen man Geld verliert, ist es ärgerlich, gefährdet womöglich die materielle Existenz.
Filtert der Agent politische Nachrichten, geht es schnell an die Substanz der Demokratie. Schon heute muss sich Elon Musk fragen lassen, wie der Algorithmus von X Posts anzeigt und welche Rolle seine Neigung zu Donald Trump spielt.
Kampf der Systeme
Harari hat eine klare Meinung: „Demokratien sollten Firmen für die Handlungen ihrer eigenen Algorithmen haftbar machen.“ Unternehmen wie Meta oder X würden sich damit herausreden, dass sie bloß die Plattform seien und die Menschen diejenigen, die Verschwörungstheorien oder Hass verbreiten. Doch die Algorithmen von Meta, X, TikTok und Co. „verbreiten bewusst Empörung, Wut und Angst, weil das gut für das Geschäft und das Engagement der Nutzer ist“, meint Harari. Dafür sollten diese Firmen zur Verantwortung gezogen werden.
Doch wer kann die Unternehmen kontrollieren? Wie lassen sie sich bestrafen? Mit Bußgeldern? Zerschlagung? Welche Gerichte können darüber befinden? Ist die heutige Rechtsprechung ausreichend für all die neuen Grenzfälle? Die Antworten sind höchst komplex und fallen regional höchst unterschiedlich aus: In China bestimmt die Partei.
Hier hilft KI längst bei der indirekten Kontrolle des Volkes, im Fachjargon Social Scoring genannt. Wer einer alten Dame über die Straße hilft, bekommt Pluspunkte. Wer eine Zigarettenkippe fallen lässt, rutscht ins Minus. Der Score hat dann Auswirkungen auf alle möglichen Lebensbereiche – Zulassung zur Universität inklusive.
Wir Europäer schütteln da instinktiv mit dem Kopf und wundern uns, dass sich die Bürger solcherlei gefallen lassen. Aber wer aus einem System der massiven Korruption kommt, findet Social Scoring womöglich gar nicht so schlecht. Und bei aller Freiheitsliebe: Vermutlich sorgt es durchaus dafür, dass sich die Menschen in der Öffentlichkeit besser benehmen.
Dessen ungeachtet verträgt sich Social Scoring nicht mit den europäischen Werten. Auch aus diesem Grund hat die EU am 21. Mai 2024 die europäische KI-Gesetzgebung erlassen, den sogenannten AI Act. Dieser verbietet unter anderem Social Scoring. Derzeit arbeiten Beamte auf dem ganzen Kontinent an Standards, an denen sich Unternehmen orientieren können. Die Implementierung des AI Act erfolgt ohnehin in Etappen.
Europa beschreitet mit diesem Weg der Regulierung einen Mittelweg. Wo in China der Staat alles lenkt, gilt in den USA weitgehend das Gebot der Freiheit. So zumindest das Klischee. Doch vom überwiegend unregulierten „Wilden Westen“ kann auch keine Rede sein: Ende 2023 erließ US-Präsident Biden ein Dekret mit neuen Standards für sichere und vertrauenswürdige Künstliche Intelligenz. Das beinhaltet umfangreiche finanzielle Förderung, aber eben auch Regeln für KI-basierte Technologien.
Unter anderem soll eine Kennzeichnungspflicht für KI-generierte Inhalte eingeführt werden. Wenn Yuval Noah Harari im Interview mit DUP fordert, dass User immer wissen sollen, ob sie mit einem KI-Bot sprechen oder einem Menschen, dann ist genau das damit gemeint.
Kontrollverfahren für KI-Agenten auf dem Weg
Nun ist Papier geduldig. Entscheidend ist die Frage, wie all die Regeln umgesetzt und im realen Leben spürbar werden. In Deutschland ist der TÜV längst dabei, Verfahren und Methoden zu etablieren, um KI-Systeme besser zu überprüfen. So wie die weltweit anerkannte Organisation vor 150 Jahren begann, die damals bedeutsamste neue Technologie namens Dampfkessel zu prüfen, so betritt sie auch heute Neuland.
Das TÜV AI.Lab bündelt die Kräfte deutschlandweit und erarbeitet Testmethoden. Das klingt leichter, als es ist, schließlich ist die reale Umsetzung des AI Act eine Blackbox. Aber dennoch ist der TÜV früh dran: Unternehmen können seit Juli mit dem neuen Online-Tool „AI Act Risk Navigator“ erfahren, in welche Risikoklasse ihre Produkte und Dienstleistungen fallen. Wer kein KI-Hochrisikoprodukt verkauft, kommt ohnehin eher für das freiwillige KI-Siegel in Betracht, das der TÜV zurzeit erarbeitet.
Gerade hier liegt die Krux für die Macht der großen Silicon-Valley-Konzerne: Ihre KI-Produkte entscheiden in der Regel nicht über Leben und Tod. Bei den alltäglichen Angeboten der KI-Agenten wird die Regulierung wohl nur bedingt greifen, schließlich entscheiden Menschen, wie sie mit den Maschinen umgehen, welche Daten und Geheimnisse sie ihnen und damit den Konzernen geben. Es könnte ähnlich laufen wie schon heute bei den AGB, die nur die wenigsten lesen, sondern bereitwillig zustimmen, wenn sie einen Dienst nutzen wollen.
Bereits jetzt zeigen Studien, welche Folgen der Gebrauch von Hochtechnologie mit sich bringt: Wir werden fauler, im Fachjargon Social Loafing genannt. Für Hirnforscher ist das nur logisch, schließlich liebt unser Denkorgan den Energiesparmodus – wir gehen instinktiv den einfachsten Weg. Die Gefahr scheint groß, dass sich viele von uns Arbeit vom KI-Agenten abnehmen lassen. Keine Regulierung kann den Usern von Technologie die Entscheidung ersparen, wie viel Kontrolle wir abgeben und welche Macht wir den „neuen Göttern“ verleihen. Die Erfahrung zeigt, dass viele dazu bereit sind.