Künstliche Intelligenz ist in aller Munde. Ob ChatGPT, Midjourney oder Copilot, fast jeder hat schon einmal davon gehört oder nutzt diese oder andere Tools gelegentlich oder gar regelmäßig, um sich den (Arbeits-)Alltag zu erleichtern, egal, ob es um die Erstellung von Texten, Bildern oder Musik oder auch um die Beantwortung einfacher oder auch nicht mehr ganz so einfacher Fragen des Lebens geht. Künstliche Intelligenz ist – so scheint es – in unserem Alltag angekommen und erfreut sich allseits zunehmender Beliebtheit. Und doch gibt es da dann auch noch eine andere, nicht ganz so sonnige Seite der KI, die zunächst „nur“ den Verlust von Arbeitsplätzen, dann jedoch die Manipulation ganzer Bevölkerungsteile und am Ende gar den Verlust jeglicher Kontrollhoheit der Menschheit über ihren Planeten verheißt. Obschon diese Aussichten womöglich übertrieben und unnötig dystopisch sein mögen, die dahinterliegenden Befürchtungen sind real, bei Betrachtung aktueller Entwicklungen jedoch nicht zwangsläufig angebracht. Wie so oft gilt auch hier: Sich rechtzeitig zu informieren hilft, Ängste abzubauen, einen kühlen Kopf zu bewahren und die Weichen richtigzustellen!
Fast täglich werden neue Tools und Möglichkeiten aus der Welt der künstlichen Intelligenz vorgestellt, und manch einer fragt sich, ob es sich – ähnlich wie bei der virtuellen Realität – um ein Phänomen handelt, dessen Zukunft nach einer anfänglichen, euphorischen Phase der Begeisterung und dem darauffolgenden, desillusionierenden Tal der Ernüchterung ungewiss ist. Doch künstliche Intelligenz ist keineswegs neu, und erst recht kein technologisches Strohfeuer, sondern bereits seit den 1950er Jahren ein offizielles Forschungsgebiet, das unser aller Leben bereits maßgeblich verändert und in Zukunft noch mehr verändern wird. Zur sachlichen Beurteilung insbesondere des sogenannten „bestärkenden Lernens“, einem derzeit besonders prospektiven Teilgebiet der KI-Forschung, mag es helfen, den Bogen etwas weiter zu spannen. Beginnen wir also mit einer kurzen Einführung in die derzeit häufig verwendete Unterscheidung zwischen „schwacher KI“ und „starker KI“.
„Schwache KI“
Als „Schwache KI“ werden all jene Systeme bezeichnet, die konkrete, klar definierte Aufgaben bewältigen können und hierzu auf eine festgelegte Methodik zurückgreifen. In diesem Sinne kann auch die klassische Regelungstechnik hinzugezählt werden, die bereits im 3. Jahrhundert v. Chr. im antiken Griechenland z. B. mit der Erfindung mechanischer Wasserstandsregler ihren Anfang nahm. „Schwache KI“ ist in der Lage, komplexe, wiederkehrende Probleme und Aufgabenstellungen zu lösen. Klassisch wird sie hierzu konstruiert und/oder explizit programmiert. Ihr Verhalten wird damit sowohl vorhersehbar als auch parametrisierbar, sie ist jedoch auf überwiegend „saubere“, d.h. unverrauschte Mess- bzw. Eingangsdaten angewiesen.
Anspruchsvolle Aufgabenstellungen mit höheren Anforderungen an Robustheit gegenüber ebenjener Mess- bzw. Eingangsdaten, wie die Erkennung handschriftlicher Texte, menschlicher Sprache oder auch Objekte auf Bildern, können durch „überwachtes Trainieren“ neuronaler Netze gelöst werden. Die theoretischen Grundlagen dieses dem sogenannten „maschinellen Lernen“ zugehörigen Bereichs der künstlichen Intelligenz wurden bereits in den 1940er Jahren gelegt. Vor allem aufgrund des hohen Bedarfs an Rechenkapazität konnte sich dieser auch als „Konnektivismus“ bezeichnete Ansatz, bei dem künstliche Neuronen miteinander verbunden (engl. „connect“) werden, jedoch erst in den 2010er Jahren etablieren.
„Überwachtes Lernen“ erfordert nämlich große Mengen relevanter Trainingsdaten, denen das neuronale Netz vor seinem produktiven Einsatz ausgesetzt werden muss. Zu jedem Datensatz wird dabei eine Information mitgegeben, was genau der Datensatz beinhaltet. Im Fall von Tierfotos könnte dies z. B. die Information sein, ob ein Hund, eine Katze oder keins von beiden auf dem Foto abgebildet ist. Auf diese Weise „lernt“ das Netz die (rein visuellen!) Unterschiede zwischen einem Hund und einer Katze. Dabei gilt: Je umfangreichere, variantenreichere und qualitativ hochwertigere Trainingsdaten verwendet werden, desto sicherer wird das Netz bei seiner späteren Einschätzung sein, was auf einem dann ggf. neuen Bild zu sehen ist.
Umgekehrt kann es bei einer generativen „schwachen KI“ auch darum gehen, anhand eines eingegebenen Wortes oder einer Wort-Kombination ein dazu passendes Bild zu erzeugen. Das Ziel „schwacher KI“ ist demnach vor allem, den Menschen in seiner Arbeit oder auch Freizeit zu unterstützen. Dies kann sowohl die Übernahme lästiger oder gefährlicher Tätigkeiten sein, die Navigation oder gar autonomes Fahren durch den Verkehrsdschungel, aber auch die Unterbreitung von Vorschlägen bei der Erstellung von Texten, Bildern oder Musik. Sie ist also schon seit langer Zeit in unserem Alltag angekommen. Dennoch kann bereits von Ihr eine Gefahr ausgehen. Dann nämlich, wenn man sich zu sehr oder gar blind auf sie verlässt.
„Starke KI“
Einen deutlichen Schritt weiter geht die „starke KI“, die – wenn überhaupt – bisher nur ansatzweise erreicht werden konnte. Wesentliches Merkmal „starker KI“ ist ihre Fähigkeit zum selbstständigen Lernen, strategischem und vorausschauenden Handeln und kritischen Reflektieren. Anders als „schwache KI“ zielt „starke KI“ darauf ab, mit Menschen direkt und auf Augenhöhe zu kooperieren oder ihn ggf. auch komplett zu ersetzen oder gar zu übertreffen.
Dies ist bisher nur vereinzelt gelungen, zum Beispiel im Bereich der strategischen Brettspiele. Grundlage hierzu ist das ebenfalls dem maschinellen Lernen zugehörige „bestärkende Lernen“, bei dem die zum Trainieren erforderlichen Datenmengen beim Lernprozess selbst generiert werden. Konkret: das anfänglich noch untrainierte, neuronale Netz lernt durch interaktive Handlung, durch Erfolg und Misserfolg in einer (zumeist simulierten) Umgebung.
Ein prominentes Beispiel hierfür ist AlphaZero aus dem Jahr 2017, eine autodidaktische KI, die unterschiedliche, komplexe Brettspiele wie Schach und Go allein anhand der Spielregeln, der Siegbedingungen und ausgedehntem Spielen gegen sich selbst erlernt und anschließend in der Lage ist, die entsprechenden menschlichen Großmeister zu besiegen. Dem Nachfolger MuZero aus dem Jahr 2019 müssen hierzu nicht einmal mehr die Spielregeln à priori bekannt sein, auch verfügt er über eine deutlich höhere Effizienz bei der Entscheidungsfindung. Dennoch stoßen auch derartige, strategisch überragenden KIs an Ihre Grenzen. Dann nämlich, wenn es in Spielen oder gar der Realität um soziale Faktoren wie Empathie, Vertrauen oder Diplomatie geht.
Von der Erschaffung einer generellen „starken KI“, die dem menschlichen Gehirn und seinen mannigfaltigen Fähigkeiten tatsächlich nahekommt, ist die Wissenschaft jedoch noch weit entfernt. Dies liegt vor allem daran, dass die Funktionsweise des biologischen Vorbilds noch längst nicht umfassend verstanden ist, die neben elektrischen Impulsen zwischen Neuronen auf vielen weiteren Faktoren beruht. Hierzu gehören biochemische Vorgänge und die starke Parallelisierung von Prozessen.
Alles unter Kontrolle?
Grundsätzlich ist zu bemerken, dass es durch maschinelles Lernen zwar unter Einsatz vergleichsweise wenig eigener Kompetenz möglich ist, sehr leistungsfähige Systeme zu entwickeln. Anders als bei klassischer, regelbasierter KI sind Komplexität und Verhalten vielschichtiger, neuronaler Strukturen für den Menschen jedoch allenfalls eingeschränkt durchschaubar. Insofern ist bei ihrer Erschaffung und ihrem Einsatz ein hohes Maß an Sachverstand, Erfahrung und vor allem Verantwortungsbewusstsein notwendig.
Die vielen Möglichkeiten, die sich schon heute durch künstliche Intelligenz eröffnen, werfen jedoch auch Fragen auf und sind Ursache für eine Vielzahl von Befürchtungen und Ängsten, wie dem Einsatz intelligenter Systeme zur Überwachung, Manipulation oder Kriegführung. Aus diesem Grund wurde auf europäischer Ebene im Jahr 2019 mit der Ausarbeitung einer risikobasierten „Verordnung über künstliche Intelligenz“ begonnen, die am 21. Mai 2024 von den 27 EU-Mitgliedstaaten in ihrer endgültigen Form verabschiedet wurde. Diese unterscheidet zwischen KI-Systemen mit:
- keinem oder niedrigem Risiko wie Gegnern in Computerspielen
- begrenztem Risiko wie personalisierten Produktempfehlungssystemen
- hohem Risiko wie KI-gestütztem Personalmanagement und
- inakzeptablem Risiko wie KI-generierten, manipulativen Medieninhalten (sogenannte „Deepfakes“).
Durchgesetzt werden sollen die Regeln der Verordnung von einem Europäischen Ausschuss für künstliche Intelligenz, der in Zusammenarbeit mit nationalen Behörden vor allem bei Entwicklung und Einsatz von Systemen mit inakzeptablem Risiko hohe Bußgelder vorsieht. Diesem gutgemeinten Ansatz stehen allerdings unter anderem Befürchtungen bezüglich einer Überregulierung und damit einhergehenden Ausbremsung der Innovationskraft und Zukunftsfähigkeit europäischer Unternehmen gegenüber. Auf anderen Kontinenten existiert ein derartiger Ausschuss derzeit nämlich noch nicht.
Nicht zu vernachlässigen ist auch der für maschinelles Lernen hohe und weiter steigende Bedarf an Energie und die damit verbundenen Konsequenzen für das globale Klima. Untersuchungen an der Universität von Massachusetts Amherst aus dem Jahr 2019 zeigen, dass das Trainieren einer einzigen Sprachverarbeitungs-KI mit einer CO2-Emission einhergehen kann, die bis zu dem Fünffachen dessen entspricht, was ein durchschnittliches US-Automobil im Laufe seines Lebens (inklusive seiner Herstellung!) verursacht.
Was tun?
Aufgrund ihrer Leistungsfähigkeit und ihres breiten Einsatzspektrums wird der Einsatz von KI-Tools in vielen Berufsbereichen bald zum Standard werden, so dass dessen Beherrschung und effektiver Einsatz von ausschlaggebender Bedeutung für die Konkurrenz- und Zukunftsfähigkeit jedes Einzelnen unter uns sein wird, zunächst insbesondere der „Kopfarbeiter“, von der Bürokraft über den Programmierer bis hin zum Banker, Juristen und Ingenieur. Von daher ist es jetzt an der Zeit, sich zu informieren und persönlich auszuprobieren und zu testen.
Eine kritische Auseinandersetzung mit KI und ihren Auswirkungen ist von daher unbedingt geboten. Insbesondere gilt dies auch hinsichtlich der für das Training der KI erforderlichen Daten und deren Herkunft sowie der mit diesen Daten verbundenen Rechte. Insofern wird einmal mehr klar, dass Daten, oder besser Information und die Kenntnis über deren effektiver Verwendung, tatsächlich das Öl des 21. Jahrhunderts sind.
Der öffentliche Diskurs hat längst begonnen, und jede bzw. jeder Einzelne sei aufgerufen, sich daran zu beteiligen und Fragen zu stellen. Von KI-Systemen ausgehende Risiken bestehen aktuell weniger in der baldigen Übernahme der Weltherrschaft, sondern eher in der Unkenntnis und im blinden Vertrauen menschlicher Nutzerinnen und Nutzer. Anders als die Gesetzgebung ist die Schaffung künstlicher Intelligenz nicht Sache der Politik, sondern der Wissenschaft, Forschung und vor allem der Wirtschaft, die längst global agiert.
Bildnachweis: https://stock.adobe.com Bild 858245880