Es gibt ethisch gute und schlechte KI

Wolkenkratzer von unten

Unternehmen stehen vor der Herausforderung, ein Gleichgewicht zwischen Innovationen und der Ethik des Fortschritts zu finden. Die jüngste EU-Gesetzgebung zu KI, der EU AI Act, ist dabei ein erster wichtiger Schritt.

In der sich rasch entwickelnden Landschaft der Künstlichen Intelligenz (KI) wird die Unterscheidung zwischen “guter” und “schlechter” KI immer wichtiger – nicht nur in technologischer, sondern auch in ethischer und rechtlicher Hinsicht. “In dem Maße, in dem staatstragende Organe wie das EU-Parlament umfassende rechtliche Rahmenbedingungen für den KI-Einsatz verabschieden, wird es für Unternehmen immer wichtiger, bei der KI-Einführung den Datenschutz, die Sicherheit, die Einhaltung von Vorschriften und verantwortungsvolle Entwicklungspraktiken in den Vordergrund zu stellen”, so Josef Novak, Co-Founder und Chief Innovation Officer bei Spitch, einem europäischen Hersteller von Systemen für Conversational AI, also Sprach- und Textdialogsystemen auf KI-Basis. Nach seiner Einschätzung ist die jüngste EU-Gesetzgebung zu KI, der EU AI Act, geeignet, “einen neuen globalen Standard für die verantwortungsvolle Einführung von KI zu setzen”.

Der EU AI Act fordert Unternehmen und Organisationen auf der ganzen Welt heraus, zwischen guter KI (bei der Datenschutz und Sicherheit im Vordergrund stehen) und schlechter KI (die sich auf die Ausbeutung von Daten konzentriert) zu unterscheiden. Es kommt also darauf an, ein Gleichgewicht zwischen Innovation und der Ethik des Fortschritts zu finden.

Gute und schlechte KI im Sinne des EU AI Act

Die jüngste Verabschiedung des EU-KI-Gesetzes durch das Europäische Parlament ist ein wichtiger Meilenstein in den weltweiten Bemühungen, eine sichere und verantwortungsvolle Entwicklung von KI-Technologien zu gewährleisten. Ziel des Gesetzes ist es, die Rechte der Bürger:innen, die Demokratie und die ökologische Nachhaltigkeit vor den Gefahren zu schützen, die von risikoreichen KI-Anwendungen ausgehen. Die Gesetzgebung legt Verpflichtungen fest, die auf den Risiko- und Auswirkungsgrad von KI-Systemen zugeschnitten sind – mit dem Ziel, Europa als globalen Vorreiter für verantwortungsvolle KI-Innovationen zu positionieren.

Das Gesetz gilt für Anbieter und Entwickler von KI-Systemen, die in der EU vermarktet oder genutzt werden – unabhängig davon, ob diese Anbieter oder Entwickler in der EU oder in einem anderen Land ansässig sind. Es verfolgt einen risikobasierten Ansatz für die Einstufung von KI-Systemen in vier Stufen, die der Sensibilität der betroffenen Daten und dem jeweiligen KI-Nutzungsfall bzw. der Anwendung entsprechen.

Irrtümer und Mythen rund ums Arbeitsrecht

Dabei führt die Gesetzgebung strenge Verbote für KI-Anwendungen ein, die als schädlich erachtet werden, wie zum Beispiel biometrische Kategorisierungssysteme, ungezieltes Scraping von Gesichtsbildern, Emotionserkennung am Arbeitsplatz und in der Schule, Social Scoring und prädiktive Polizeiarbeit, die ausschließlich auf Profiling basiert. Außerdem werden spezifische Bedingungen für den Einsatz biometrischer Identifizierung in der Strafverfolgung festgelegt und Transparenz und Genauigkeit für KI-Systeme mit hohem Risiko gefordert.

Generative KI birgt spezifische Risiken

Während sich Unternehmen mit diesen neuen Herausforderungen auseinandersetzen, werden Frameworks wie etwa RAFT (Reliable, Accountable, Fair and Transparent) von der AI-Plattform Data Iku entwickelt, um einen umfassenden Unternehmens- sowie Forschungs- und Entwicklungs-Fahrplan für den verantwortungsvollen Aufbau von KI-Systemen zu erstellen, potenzielle Risiken zu adressieren und zukünftige regulatorische Entwicklungen vorausschauend zu berücksichtigen.

Das RAFT-Rahmenwerk unterstreicht die kritische Notwendigkeit für Unternehmen, die Rolle von Rechenschaftspflicht und Governance bei der Nutzung von KI-Systemen zu berücksichtigen – insbesondere im Zusammenhang mit der raschen Entwicklung und Einführung von generativer KI und großen Sprachmodellen (LLMs). Es wird betont, dass der Einsatz und die Steuerung von KI die soziotechnische Dynamik, rechtliche Erwägungen und aufkommende Probleme wie Datenschutz und Urheberrechtsverletzungen berücksichtigen müssen. Ziel dieses proaktiven Ansatzes ist es, den sich abzeichnenden Konsens über diese Technologie auf breiter Basis zu vereinheitlichen und Unternehmen und Forschungseinrichtungen einen vorausschauenden Ansatz zu bieten, mit dem sie sich vorbereiten können – auch wenn die Auswirkungen künftiger Gesetze noch ungewiss sind.

Generative KI birgt spezifische Risiken, wie Toxizität, Polarität, Diskriminierung, übermäßiges Vertrauen in KI, Desinformation, Datenschutz, Modellsicherheit und Urheberrechtsverletzungen. Diese Risiken können sich in verschiedenen Arten von KI-Technologie manifestieren und variieren je nach Anwendungsfall.

Der Mensch muss auch weiterhin das Sagen haben

Angesichts dieser Sachlage ist Spitch eigenen Angaben zufolge strikt darauf bedacht, sowohl die Notwendigkeit als auch die Auswirkungen von generativen KI-Tools zu berücksichtigen, wenn sie in bestehende Dienste eingebunden oder im eigenen Unternehmen genutzt werden. Bei der Integration dieser Tools in die eigenen Contact Center-Lösungen, etwa für das Qualitätsmanagement, liegt der Schwerpunkt auf der verantwortungsvollen Verbesserung des Kundenerlebnisses, der Reduzierung von Stress und der Rationalisierung von Kundeninteraktionen – nicht auf KI um der KI willen. “Wir vertreten die feste Überzeugung, dass der Mensch auch weiterhin das Sagen haben muss”, erklärt Joe Novak, und ergänzt: “Bei der verantwortungsbewussten Einführung von KI müssen Unternehmen die Zielgruppe für die Ergebnisse von KI-Modellen berücksichtigen – ob Geschäftskunden, Verbraucher oder Privatpersonen. Zudem ist strikt darauf zu achten, dass Schlüsselkriterien wie Zuverlässigkeit und Transparenz gefördert werden, denn das zeichnet gute KI aus.”

Nach Ansicht von Novak sollen die potenziellen Risiken von KI-Systemen auf der Grundlage ihrer direkten und indirekten Auswirkungen auf Einzelpersonen und Gruppen bewertet werden. Dabei spielt es keine Rolle, ob diese Auswirkungen unmittelbar eintreten oder sich erst im Laufe der Zeit entfalten. Er stellt für die Entwickler:innen von KI-Systemen klar fest: “Wir müssen sicherstellen, dass unsere Lösungen weder absichtlich noch indirekt systematisch Daten ausspähen, Voreingenommenheit fördern, unnötig polarisieren oder Falschinformationen generieren. Das gilt sowohl für die Interaktion mit dem Einzelnen als auch im öffentlichen Raum. Es liegt an uns, in diesem Sinne gute KI zu entwickeln!” Manche Auswirkungen würden möglicherweise erst im Laufe der Zeit ersichtlich und Firmen müssten ihre KI-Systeme dementsprechend anpassen.

“Bei Spitch haben wir uns verpflichtet, Datenschutz, Sicherheit, Compliance und verantwortungsvolle Entwicklungspraktiken zu priorisieren. Im Rahmen unserer Software für Conversational AI wollen wir die Leistungsfähigkeit der generativen KI nutzen und dabei gleichzeitig die mit schlechter KI verbundenen Risiken so weit wie möglich abschwächen. Hierzu werden wir uns an den aufkommenden globalen Standards für verantwortungsvolle KI-Innovationen orientieren”, so Novak.

Wir sind der Wandel-Newsletter