In Oberösterreich entsteht am Software Competence Center Hagenberg (SCCH) eine der ersten Zertifizierungsstellen für vertrauenswürdige und „riskante“ KI-Anwendungen. Unter welchen Bedingungen kann man einer KI vertrauen? Bei der Beantwortung dieser Frage geht es nicht etwa um das Abwenden einer Gefahr für die Menschheit – sondern um Systeme, die zuverlässig und vorurteilsfrei arbeiten.
Wir schreiben das Jahr 2029: Kurz nach ihrer Aktivierung löst die Künstliche Intelligenz „Skynet“ einen Atomkrieg aus und will danach die übrig gebliebene Menschheit auslöschen. Handlungen wie jene des 1984 erschienenen Sci-Fi-Klassikers „Terminator“ mit Arnold Schwarzenegger sind bis heute der Grund, warum viele Menschen besonders skeptisch gegenüber jeglicher KI-Technologie sind. „Ich werde oft mit solchen Ängsten konfrontiert. Egal ob Terminator, Matrix oder auch Raumschiff Enterprise – Hollywood hat immer schon gerne Szenarien von Maschinen gezeichnet, die intelligent sind und dann außer Kontrolle geraten“, sagt Sepp Hochreiter, der das Labor für Artificial Intelligence am Linz Institute of Technology leitet.
Hochreiter ist einer der führenden KI-Expert:innen weltweit, seine Expertise ist auch bei Big-Tech-Unternehmen wie Google oder Amazon gefragt. „Die Sorgen und Vorurteile vieler Menschen sind absolut unbegründet – da könnte ich genauso Angst haben, dass mein Bleistiftspitzer die Welt übernehmen wird“, sagt er. Die Ängste würden auf Missverständnissen beruhen. „Künstliche Intelligenzen haben keinen Überlebenswillen“, sagt Hochreiter. Während sich dieser bei Lebewesen durch die Evolution entwickelt hat, führen Künstliche Intelligenzen nur mathematische Formeln aus. Einer Software ist es egal, ob sie gelöscht wird oder nicht. „Das zweite Missverständnis ist, dass Künstliche Intelligenzen selbstständig in der Welt agieren könnten – davon sind wir noch sehr, sehr weit weg“, erklärt er. Zwar gibt es etwa in der Sprachverarbeitung bereits leistungsfähige Programme, die Texte interpretieren, schreiben oder sogar eigene Sprachen entwerfen können. „So ein System weiß aber nicht einmal, dass es so etwas wie eine echte Welt hinter diesen Wörtern gibt“, sagt Hochreiter.
Selbst für den unwahrscheinlichen Fall, dass in weiter Zukunft eine KI entwickelt werden würde, die sich selbst vervielfältige und einen Überlebenssinn habe, wäre das für die Menschheit nicht tragisch. „Eine KI braucht ganz andere Ressourcen als wir – wir brauchen etwa Sauerstoff und Wasser, für eine KI wäre Letzteres sogar schädlich“, erklärt Hochreiter. So eine KI würde sich vermutlich dorthin absetzen, wo die Bedingungen für Maschinen besser sind – in die Weiten des Weltraums. Für Hochreiter ist die geringe Aufklärung in der Bevölkerung zum Thema Künstliche Intelligenz problematisch. „In anderen Regionen wird neuer Technik viel stärker vertraut, dadurch kommt sie auch viel schneller zum Einsatz – das ist ein Standortvorteil“, sagt er.
KI-Zertifizierung ist kein Selbstzweck
Vertrauenswürdige KI ist laut Wirtschafts-Landesrat Markus Achleitner ein wichtiger Erfolgsfaktor für das Ziel Oberösterreichs, bis 2030 Modellregion für Human-Centered Artificial Intelligence zu werden. Was bedeutet dieser Begriff tatsächlich? „Eigentlich geht es darum, dass man ein zertifiziertes, wohl zu betreibendes KI-System hat, das den rechtlichen Rahmenbedingungen entspricht“, sagt Bernhard Nessler, Research Manager für Deep Learning und Certification am SCCH. Gemeinsam mit TÜV Austria und dem Machine Learning Institute der JKU in Linz wurde bereits eine Forschungskooperation gegründet. Erste Pilotzertifizierungsprojekte für TRUSTWorthy AI wurden bereits gemeinsam durchgeführt. „Bei einer zertifizierten KI kann ich darauf vertrauen, dass das System nach dem aktuellen Stand der Wissenschaft in Funktion und Zuverlässigkeit mit seiner Beschreibung übereinstimmt“, erklärt Nessler. Wie wird der Zertifizierungsprozess für Unternehmen funktionieren? „Nach einem Vorbereitungsgespräch werden in einem Auditmeeting umfassende Funktionstests und spezifische Analysen der eingesetzten AI-Modelle gefordert. Das Entwicklerteam muss einen Katalog von Fragen transparent und nachvollziehbar beantworten“, sagt Nessler. Um der rapiden Entwicklung speziell im Machine Learning gerecht zu werden, werden beim Audit ML- Wissenschaftler als aktive Kritiker eingebunden.
Ein Ausbau der Zertifizierungskompetenzen und Leistungsangebote rund um Vertrauenswürdige KI ist unter den bestehenden Partnern bereits abgesprochen. Nessler sieht in dieser Entwicklung eine gewaltige Chance für den Standort Oberösterreich über die Regionalgrenzen hinweg Wahrnehmung für die führende Rolle bei der Entwicklung von Zertifizierungssystemen zu schaffen. „Wenn man die Kompetenz besitzt, kritische Anwendungen zu zertifizieren, heißt das, dass man diese Kompetenz auch investieren kann, um Ausbildungen, Beratungen oder Entwicklungsarbeiten in der richtigen Weise voranzutreiben“, sagt Nessler. Er betont, dass der Zertifizierungsvorgang kein Selbstzweck ist. „Dadurch macht man auch jene, die KI-Applikationen entwickeln, fit für zuverlässige Lösungen. Die KI- Lösung selbst profitiert damit also an Qualität“, sagt er.
Die Zertifizierungsstelle für vertrauenswürdige KI ist eine gewaltige Chance für den Standort.
Bernhard Nessler
Research Manager für Deep Learning und Certification, SCCH
Die Ängste vor Hollywood-KI-Horrorszenarien sind absolut unbegründet.
Sepp Hochreiter
Leitung Labor für Artificial Intelligence am Linz Institute of Technology
Rechtliche Herausforderungen für Unternehmen
„Der Vorschlag der EU ist aus meiner Sicht ein wichtiger erster Impuls, der das Thema KI und die rechtlichen Aspekte stärker in den Fokus rücken wird“, sagt Axel Anderl, Managing Partner bei Dorda Rechtsanwälte. Die Kanzlei beschäftigt sich unter anderem intensiv mit den rechtlichen Herausforderungen der KI. „In der Praxis ist Künstliche Intelligenz längst in den Unternehmen angekommen, die Rechtsentwicklung hinkt hinterher“, erklärt Anderl. Die Technik entwickle sich schneller, als die Gesetzgeber derzeit darauf reagieren könnten. „Bis es einen einheitlichen Rechtsrahmen auf EU-Ebene gibt, wird es noch einige Jahre dauern. Der österreichische Gesetzgeber könnte aber schon jetzt agieren, um zu den Vorreitern zu gehören“, sagt Alexandra Ciarnau, Rechtsanwältin bei Dorda mit Spezialisierung auf IT-Recht.
Unternehmen, die Dorda konsultieren, wollen meist Beratung bei der Implementierung von neuer Software, ein generelles KI-Konzept erarbeiten – oder sich rechtlich absichern. Dabei gilt es einiges zu beachten. „Wenn es etwa darum geht, KI mit persönlichen Daten der Mitarbeiter:innen zu füttern, dann braucht es die Zustimmung des Betriebsrates“, sagt Ciarnau. Wie in solchen Fällen seitens der Mitarbeiter:innen reagiert wird, hänge ganz vom Mindset und der Unternehmenskultur ab. „Wenn die Geschäftsführung überfallsartig Forderungen stellt, kann es zu Schwierigkeiten kommen – mit genügend Aufklärungsarbeit können Ängste und Zweifel aber meist ausgeräumt werden“, erklärt Ciarnau. Für Unternehmen würde es Sinn machen, interne KI-Leitfäden zu entwickeln und genau zu definieren, wie man mit der Technologie umgehen will. „Erstens kann das Innovationen beschleunigen, zweitens können durch den offenen Umgang auch Menschen abgeholt werden, die der KI sehr emotional begegnen“, sagt Anderl.
Derzeit wird der Entwurf des AI-Acts in den EU-Mitgliedstaaten diskutiert. „Es gibt einen Abstimmungsprozess, bei dem Änderungen für den endgültigen Regulierungsvorschlag aufgegriffen werden“, sagt Köszegi. Viele KI-Expert:innen sehen den AI-Act jedoch kritisch. „Schief gelaufen ist, dass es nicht um die eingesetzte Methode gehen sollte, sondern darum, was eigentlich gemacht wird“, sagt Hochreiter. Verleitende Werbung für In-App-Käufe etwa sei auch ohne den Einsatz von KI problematisch. „Wenn ich für fragwürdige Geschäftspraktiken statt einer KI Statistiken hernehme, macht das den Vorgang nicht besser“, sagt er. Eine KI-gesteuerte Rakete sei gefährlich – eine Rakete ohne KI-Einsatz aber ebenso. Wie bei jeder Technologie komme es also auf den konkreten Anwendungsfall an. „Ich sehe den EU-AI-Act sehr kritisch, weil ich befürchte, dass sich die großen Datenkraken ähnlich wie bei der DSGVO absichern, indem sie sich die Zustimmung der Endverbraucher:innen holen“, sagt Nessler._
Wir werden durch KI manipuliert – eine Regulierung ist notwendig.
Sabine Theresia Köszegi
KI-Ethikerin, TU Wien
Die weitverbreitetsten KI-Irrtümer
- 1 KI können einen eigenen Willen entwickeln
Künstliche Intelligenzen sind mehr oder weniger komplexe Programme, die mathematische Formeln umsetzen. Softwareprogramme können keinen eigenen Überlebenswillen oder ein Bewusstsein entwickeln – zumindest sind solche Entwicklungen noch viele Jahrzehnte entfernt.
- 2 Die künstliche Intelligenz ähnelt der menschlichen Intelligenz
Mächtige KI-Sprachverarbeitungs- und Erkennungsprogramme sind in der Lage, mit Menschen zu kommunizieren, komplexe sprachliche Zusammenhänge zu erkennen und sogar Witze zu erklären. „Auch wenn man denkt, dass diese Systeme schon wahnsinnig intelligent sind, darf man nicht vergessen, dass eine Maschine nicht einmal weiß, dass es hinter den Wörtern überhaupt eine echte Welt gibt. Wörter sind für sie nur Zeichenketten, mit denen sie arbeiten“, sagt Hochreiter.
- 3 Eine KI ist neutral und objektiv
Jede KI ist nur so gut wie die Daten, mit der sie arbeitet. Genau diese Daten wurden von aber von Menschen erfasst und bearbeitet – dadurch fließen oft menschliche Vorurteile Wertvorstellungen mit ein. Die KI übernimmt diese.
- 4 Der Einfluss von KI auf unser Leben ist noch relativ gering
Das Gegenteil der Fall. Welcher Newsfeed uns auf sozialen Medien angezeigt wird, welche Produkte beim Onlineshopping empfohlen werden, welche Ergebnisse Suchanfragen liefern – all diese Dinge sind längst KI-gesteuert.
In der Praxis ist KI längst in den Unternehmen angekommen, die Rechtsentwicklung hinkt hinterher.
Axel Anderl
Managing Partner, Dorda Rechtsanwälte